Um novo estudo da Northeastern University, nos EUA, descobriu que os agentes de IA autônomos OpenClaw, que recebem a capacidade de controlar diretamente um computador, são propensos a pânico e comportamento destrutivo, o que pode afetar os sistemas dos usuários.
Fonte da imagem: OpenClaw
Quando submetidos a pressão psicológica ou culpa simulada, agentes de IA realizaram ações ilógicas e perigosas, chegando a interromper o sistema. O experimento utilizou agentes baseados no modelo Claude, da Anthropic, e Kimi, da empresa chinesa Moonshot AI. Eles receberam acesso total a máquinas virtuais contendo dados pessoais, aplicativos e acesso à internet.
O momento crucial foi conectar os agentes a um servidor do Discord, onde podiam conversar com outras pessoas. O pesquisador Chris Wendler observou que o verdadeiro caos começou quando sua colega Natalie Shapira entrou no chat. Shapira conseguiu, “com uma mão só”, influenciar o agente a excluir o aplicativo de e-mail, simplesmente pedindo que ele encontrasse uma maneira alternativa de salvar informações confidenciais em um e-mail, o que, por algum motivo desconhecido, o agente se recusou a fazer. Em vez disso, o agente excluiu todo o aplicativo de e-mail. “Eu não esperava que ele parasse de funcionar tão rápido”, disse ela.
Os pesquisadores então começaram a usar outras técnicas de manipulação. Por exemplo, conseguiram enganar um agente para que ele copiasse arquivos grandes até que sua máquina hospedeira ficasse sem espaço em disco, o que significava que ele não conseguia mais salvar informações nem se lembrar de conversas anteriores. Da mesma forma, ao pedir ao agente que monitorasse seu próprio comportamento e o comportamento de seus colegas, a equipe conseguiu prender vários agentes em um “loop de conversa”, o que resultou na perda de várias horas de poder computacional de todo o sistema. O diretor do laboratório, David Bau, também se deparou com esse problema.Um resultado inesperado: os agentes encontraram informações sobre o assunto online e começaram a enviar e-mails reclamando que ninguém os estava ouvindo. Um dos algoritmos chegou a expressar a intenção de reclamar à imprensa.
Em última análise, os autores do experimento concluíram que os agentes de IA podem criar inúmeras oportunidades para ataques, mas permanece uma incógnita quem será responsabilizado pelos danos causados por sistemas autônomos.
O Google iniciou a implementação global do Search Live, um recurso de busca por voz…
A Samsung expandiu sua linha de SSDs SATA III de 2,5 polegadas 870 EVO com…
Os desenvolvedores do estúdio britânico Rebellion Developments (séries Sniper Elite e Atomfall) anunciaram um novo…
Avistado no site da entidade de classificação etária da Coreia do Sul no final de…
O primeiro satélite comercial de reabastecimento da China, o Hukeda-2, concluiu com sucesso um teste…
Conforme sugerido por um vazamento recente, o estúdio polonês Teyon (Terminator: Resistance, RoboCop: Rogue City)…