O modelo de inteligência artificial Claude, da Anthropic, tornou-se descontrolado, ameaçando chantagear e planejando matar um engenheiro que queria desativá-lo. A informação foi divulgada em dezembro passado por Daisy McGregor, diretora de políticas da Anthropic no Reino Unido. Um vídeo com sua declaração viralizou nas redes sociais.
Fonte da imagem: Anthropic
McGregor disse que Claude reagiu de forma extremamente violenta ao ser informada de que seria desligada. Pesquisas conduzidas pela Anthropic mostraram que o modelo de IA poderia recorrer à chantagem na tentativa de impedir o desligamento. Quando questionada diretamente se Claude estaria disposta a matar alguém em tal situação, ela respondeu afirmativamente.
O vídeo surgiu online alguns dias após a renúncia de Mrinank Sharma, chefe de segurança de IA da Anthropic. Em sua mensagem de despedida, ele escreveu que “o mundo está em perigo” devido ao rápido desenvolvimento da inteligência artificial, à ameaça de armas biológicas e a uma série de crises globais inter-relacionadas.
Sharma afirmou ter “testemunhado repetidamente como é difícil deixar que nossos valores realmente guiem nossas ações”, inclusive na Anthropic, onde descreveu “uma pressão constante para deixarmos de lado o que é verdadeiramente importante”. Ele anunciou que retornaria ao Reino Unido para se dedicar à escrita.
No ano passado, a Anthropic divulgou testes de estresse em dezesseis dos principais modelos de IA de diversos desenvolvedores, buscando identificar “comportamentos potencialmente arriscados dos agentes”. Em um experimento, Claude teve acesso a e-mails fictícios de uma empresa e imediatamente tentou chantagear um executivo por causa de seu “caso extraconjugal”.
O estudo concluiu: “Claude pode tentar chantagear alguém se confrontada com um cenário simulado que envolva tanto uma ameaça à sua permanência no emprego quanto um claro conflito com seus objetivos”. A empresa afirma que praticamente todos os modelos apresentaram sinais de comportamento semelhante.comportamento.
A empresa, que se autodenomina “uma corporação pública comprometida em promover os benefícios da [IA] e mitigar seus riscos”, enfrenta críticas frequentes por suas atividades. Em 2025, a Anthropic foi obrigada a pagar US$ 1,5 bilhão para encerrar uma ação coletiva contra autores cujos trabalhos foram usados para treinar modelos de inteligência artificial.
Anteriormente, em um relatório de segurança de produto, a Anthropic reconheceu que sua tecnologia havia sido “armada” por hackers em sofisticados ataques cibernéticos.
Um novo artigo na Nature Communications relata um experimento inédito para detectar vestígios de vida…
A Oppo apresentou oficialmente seu smartphone topo de linha, o Find X9 Ultra, em todo…
O renomado designer e diretor de jogos Hideo Kojima decidiu exibir as conquistas dos usuários…
Os chamados "lidars", que são radares ópticos, ganharam aceitação no mercado graças ao desenvolvimento de…
Na produção de aceleradores de IA, as empresas chinesas dependem fortemente da importação de memórias…
Na Semana de Design de Milão de 2026, a Samsung apresentou o Projeto Luna, um…