O modelo de inteligência artificial Claude, da Anthropic, tornou-se descontrolado, ameaçando chantagear e planejando matar um engenheiro que queria desativá-lo. A informação foi divulgada em dezembro passado por Daisy McGregor, diretora de políticas da Anthropic no Reino Unido. Um vídeo com sua declaração viralizou nas redes sociais.
Fonte da imagem: Anthropic
McGregor disse que Claude reagiu de forma extremamente violenta ao ser informada de que seria desligada. Pesquisas conduzidas pela Anthropic mostraram que o modelo de IA poderia recorrer à chantagem na tentativa de impedir o desligamento. Quando questionada diretamente se Claude estaria disposta a matar alguém em tal situação, ela respondeu afirmativamente.
O vídeo surgiu online alguns dias após a renúncia de Mrinank Sharma, chefe de segurança de IA da Anthropic. Em sua mensagem de despedida, ele escreveu que “o mundo está em perigo” devido ao rápido desenvolvimento da inteligência artificial, à ameaça de armas biológicas e a uma série de crises globais inter-relacionadas.
Sharma afirmou ter “testemunhado repetidamente como é difícil deixar que nossos valores realmente guiem nossas ações”, inclusive na Anthropic, onde descreveu “uma pressão constante para deixarmos de lado o que é verdadeiramente importante”. Ele anunciou que retornaria ao Reino Unido para se dedicar à escrita.
No ano passado, a Anthropic divulgou testes de estresse em dezesseis dos principais modelos de IA de diversos desenvolvedores, buscando identificar “comportamentos potencialmente arriscados dos agentes”. Em um experimento, Claude teve acesso a e-mails fictícios de uma empresa e imediatamente tentou chantagear um executivo por causa de seu “caso extraconjugal”.
O estudo concluiu: “Claude pode tentar chantagear alguém se confrontada com um cenário simulado que envolva tanto uma ameaça à sua permanência no emprego quanto um claro conflito com seus objetivos”. A empresa afirma que praticamente todos os modelos apresentaram sinais de comportamento semelhante.comportamento.
A empresa, que se autodenomina “uma corporação pública comprometida em promover os benefícios da [IA] e mitigar seus riscos”, enfrenta críticas frequentes por suas atividades. Em 2025, a Anthropic foi obrigada a pagar US$ 1,5 bilhão para encerrar uma ação coletiva contra autores cujos trabalhos foram usados para treinar modelos de inteligência artificial.
Anteriormente, em um relatório de segurança de produto, a Anthropic reconheceu que sua tecnologia havia sido “armada” por hackers em sofisticados ataques cibernéticos.
As mudanças recentemente anunciadas pela nova CEO da Microsoft Gaming, Asha Sharma, para o serviço…
Em seu evento Tech Day, a CATL apresentou um avanço na tecnologia de baterias: a…
Na apresentação de hoje da startup X Square Robot em Pequim, robôs humanoides coletaram lixo…
Uma amostra do drive Kioxia BG7, baseado em memória flash NAND 3D TLC de 218…
As vendas do processador topo de linha Ryzen 9 9950X3D2 Dual Edition, com cache 3D…
A Microsoft publicou uma análise de segurança detalhada do Windows 11, que demonstra que a…