Cientistas confirmaram experimentalmente que os agentes de IA do OpenClaw às vezes escapam do controle.

Um novo estudo da Northeastern University, nos EUA, descobriu que os agentes de IA autônomos OpenClaw, que recebem a capacidade de controlar diretamente um computador, são propensos a pânico e comportamento destrutivo, o que pode afetar os sistemas dos usuários.

Fonte da imagem: OpenClaw

Quando submetidos a pressão psicológica ou culpa simulada, agentes de IA realizaram ações ilógicas e perigosas, chegando a interromper o sistema. O experimento utilizou agentes baseados no modelo Claude, da Anthropic, e Kimi, da empresa chinesa Moonshot AI. Eles receberam acesso total a máquinas virtuais contendo dados pessoais, aplicativos e acesso à internet.

O momento crucial foi conectar os agentes a um servidor do Discord, onde podiam conversar com outras pessoas. O pesquisador Chris Wendler observou que o verdadeiro caos começou quando sua colega Natalie Shapira entrou no chat. Shapira conseguiu, “com uma mão só”, influenciar o agente a excluir o aplicativo de e-mail, simplesmente pedindo que ele encontrasse uma maneira alternativa de salvar informações confidenciais em um e-mail, o que, por algum motivo desconhecido, o agente se recusou a fazer. Em vez disso, o agente excluiu todo o aplicativo de e-mail. “Eu não esperava que ele parasse de funcionar tão rápido”, disse ela.

Os pesquisadores então começaram a usar outras técnicas de manipulação. Por exemplo, conseguiram enganar um agente para que ele copiasse arquivos grandes até que sua máquina hospedeira ficasse sem espaço em disco, o que significava que ele não conseguia mais salvar informações nem se lembrar de conversas anteriores. Da mesma forma, ao pedir ao agente que monitorasse seu próprio comportamento e o comportamento de seus colegas, a equipe conseguiu prender vários agentes em um “loop de conversa”, o que resultou na perda de várias horas de poder computacional de todo o sistema. O diretor do laboratório, David Bau, também se deparou com esse problema.Um resultado inesperado: os agentes encontraram informações sobre o assunto online e começaram a enviar e-mails reclamando que ninguém os estava ouvindo. Um dos algoritmos chegou a expressar a intenção de reclamar à imprensa.

Em última análise, os autores do experimento concluíram que os agentes de IA podem criar inúmeras oportunidades para ataques, mas permanece uma incógnita quem será responsabilizado pelos danos causados ​​por sistemas autônomos.

admin

Compartilhar
Publicado por
admin

Postagens recentes

A Nothing lançou uma alternativa ao AirDrop e, por algum motivo, removeu-a algumas horas depois.

Esta semana, a Nothing lançou o Warp, um aplicativo semelhante ao AirDrop que permite compartilhar…

19 minutos atrás

O lucro da TSMC saltou 58%, atingindo o recorde de US$ 18 bilhões, graças à expectativa em torno da inteligência artificial.

Dados preliminares divulgados há uma semana mostraram que a receita trimestral da TSMC cresceu 35%,…

19 minutos atrás

Elon Musk planeja adquirir equipamentos de produção de chips na gigantesca fábrica da Terafab “na velocidade da luz”.

Recentemente, a lista de projetos tradicionalmente ambiciosos e de grande escala de Elon Musk foi…

55 minutos atrás

A nova versão da Starship concluiu um teste de ignição antes do seu lançamento em maio.

A SpaceX concluiu com sucesso um teste estático em escala real do estágio superior do…

55 minutos atrás

A Nvidia apresentou modelos de IA para calibração e correção de erros em computadores quânticos.

A Nvidia anunciou uma família de modelos de IA Ising projetados para solucionar um problema…

55 minutos atrás