Cientistas confirmaram experimentalmente que os agentes de IA do OpenClaw às vezes escapam do controle.

Um novo estudo da Northeastern University, nos EUA, descobriu que os agentes de IA autônomos OpenClaw, que recebem a capacidade de controlar diretamente um computador, são propensos a pânico e comportamento destrutivo, o que pode afetar os sistemas dos usuários.

Fonte da imagem: OpenClaw

Quando submetidos a pressão psicológica ou culpa simulada, agentes de IA realizaram ações ilógicas e perigosas, chegando a interromper o sistema. O experimento utilizou agentes baseados no modelo Claude, da Anthropic, e Kimi, da empresa chinesa Moonshot AI. Eles receberam acesso total a máquinas virtuais contendo dados pessoais, aplicativos e acesso à internet.

O momento crucial foi conectar os agentes a um servidor do Discord, onde podiam conversar com outras pessoas. O pesquisador Chris Wendler observou que o verdadeiro caos começou quando sua colega Natalie Shapira entrou no chat. Shapira conseguiu, “com uma mão só”, influenciar o agente a excluir o aplicativo de e-mail, simplesmente pedindo que ele encontrasse uma maneira alternativa de salvar informações confidenciais em um e-mail, o que, por algum motivo desconhecido, o agente se recusou a fazer. Em vez disso, o agente excluiu todo o aplicativo de e-mail. “Eu não esperava que ele parasse de funcionar tão rápido”, disse ela.

Os pesquisadores então começaram a usar outras técnicas de manipulação. Por exemplo, conseguiram enganar um agente para que ele copiasse arquivos grandes até que sua máquina hospedeira ficasse sem espaço em disco, o que significava que ele não conseguia mais salvar informações nem se lembrar de conversas anteriores. Da mesma forma, ao pedir ao agente que monitorasse seu próprio comportamento e o comportamento de seus colegas, a equipe conseguiu prender vários agentes em um “loop de conversa”, o que resultou na perda de várias horas de poder computacional de todo o sistema. O diretor do laboratório, David Bau, também se deparou com esse problema.Um resultado inesperado: os agentes encontraram informações sobre o assunto online e começaram a enviar e-mails reclamando que ninguém os estava ouvindo. Um dos algoritmos chegou a expressar a intenção de reclamar à imprensa.

Em última análise, os autores do experimento concluíram que os agentes de IA podem criar inúmeras oportunidades para ataques, mas permanece uma incógnita quem será responsabilizado pelos danos causados ​​por sistemas autônomos.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O frenético jogo de tiro e terror Alien Deathstorm, dos criadores de Sniper Elite, foi anunciado – primeiro trailer e detalhes.

Os desenvolvedores do estúdio britânico Rebellion Developments (séries Sniper Elite e Atomfall) anunciaram um novo…

2 horas atrás

O misterioso Serious Sam: Shatterverse acaba por ser um roguelike cooperativo dos criadores de Dead by Daylight.

Avistado no site da entidade de classificação etária da Coreia do Sul no final de…

3 horas atrás

China testa ‘reabastecimento espacial’: satélite com ‘tronco’ completa com sucesso teste orbital.

O primeiro satélite comercial de reabastecimento da China, o Hukeda-2, concluiu com sucesso um teste…

4 horas atrás

Os criadores de RoboCop: Rogue City anunciaram o RPG de tiro com temática de vampiros Hunter: The Reckoning — Deathwish, ambientado no universo de Vampire: The Masquerade.

Conforme sugerido por um vazamento recente, o estúdio polonês Teyon (Terminator: Resistance, RoboCop: Rogue City)…

4 horas atrás