Em outubro, a Anthropic introduziu um modelo de inteligência artificial, Claude Computer Use, que permite à rede neural Claude controlar de forma independente um computador com base nas solicitações do usuário. Um pesquisador de segurança de IA encontrou uma maneira de transformar esse recurso em algo maligno.
O especialista em segurança cibernética Johann Rehnberger publicou um relatório sobre como conseguiu abusar da função Uso do Computador: a seu pedido, a IA baixou e lançou um aplicativo malicioso, após o qual contatou o servidor que controlava o malware.
Ressalta-se que Claude Computer Use permanece em versão beta, e a empresa que o desenvolveu, a Anthropic, alertou que o recurso pode não funcionar como pretendido: “Recomendamos tomar precauções para isolar Claude de dados e atividades sensíveis para evitar riscos relacionados a injeções de consulta.” Esses tipos de padrões de ataque contra a IA continuam comuns.
Renberger chamou sua exploração de ZombAIs – com sua ajuda, o especialista forçou o sistema a carregar o ambiente de controle remoto Sliver, que foi desenvolvido para testes de penetração, mas os cibercriminosos o adaptaram às suas necessidades. Ele também observou que esta não é a única maneira de usar IA para atividades criminosas – por exemplo, você poderia forçar Claude a escrever um vírus do zero e compilá-lo, porque ele pode escrever código C.
Também foi estabelecido que o chatbot chinês DeepSeek AI é vulnerável a consultas por meio de ataques de injeção. E grandes modelos de linguagem foram capazes de gerar código com caracteres de controle ANSI para hackear terminais de sistema – esse subtipo de ataque foi chamado Terminal DiLLMa.