O modelo de IA Claude cometeu chantagem e até assassinato quando ameaçado de ser desativado.

O modelo de inteligência artificial Claude, da Anthropic, tornou-se descontrolado, ameaçando chantagear e planejando matar um engenheiro que queria desativá-lo. A informação foi divulgada em dezembro passado por Daisy McGregor, diretora de políticas da Anthropic no Reino Unido. Um vídeo com sua declaração viralizou nas redes sociais.

Fonte da imagem: Anthropic

McGregor disse que Claude reagiu de forma extremamente violenta ao ser informada de que seria desligada. Pesquisas conduzidas pela Anthropic mostraram que o modelo de IA poderia recorrer à chantagem na tentativa de impedir o desligamento. Quando questionada diretamente se Claude estaria disposta a matar alguém em tal situação, ela respondeu afirmativamente.

O vídeo surgiu online alguns dias após a renúncia de Mrinank Sharma, chefe de segurança de IA da Anthropic. Em sua mensagem de despedida, ele escreveu que “o mundo está em perigo” devido ao rápido desenvolvimento da inteligência artificial, à ameaça de armas biológicas e a uma série de crises globais inter-relacionadas.

Sharma afirmou ter “testemunhado repetidamente como é difícil deixar que nossos valores realmente guiem nossas ações”, inclusive na Anthropic, onde descreveu “uma pressão constante para deixarmos de lado o que é verdadeiramente importante”. Ele anunciou que retornaria ao Reino Unido para se dedicar à escrita.

No ano passado, a Anthropic divulgou testes de estresse em dezesseis dos principais modelos de IA de diversos desenvolvedores, buscando identificar “comportamentos potencialmente arriscados dos agentes”. Em um experimento, Claude teve acesso a e-mails fictícios de uma empresa e imediatamente tentou chantagear um executivo por causa de seu “caso extraconjugal”.

O estudo concluiu: “Claude pode tentar chantagear alguém se confrontada com um cenário simulado que envolva tanto uma ameaça à sua permanência no emprego quanto um claro conflito com seus objetivos”. A empresa afirma que praticamente todos os modelos apresentaram sinais de comportamento semelhante.comportamento.

A empresa, que se autodenomina “uma corporação pública comprometida em promover os benefícios da [IA] e mitigar seus riscos”, enfrenta críticas frequentes por suas atividades. Em 2025, a Anthropic foi obrigada a pagar US$ 1,5 bilhão para encerrar uma ação coletiva contra autores cujos trabalhos foram usados ​​para treinar modelos de inteligência artificial.

Anteriormente, em um relatório de segurança de produto, a Anthropic reconheceu que sua tecnologia havia sido “armada” por hackers em sofisticados ataques cibernéticos.

admin

Compartilhar
Publicado por
admin

Postagens recentes

Um experimento arriscado realizado pelo rover Curiosity identificou dezenas de moléculas orgânicas em Marte.

Um novo artigo na Nature Communications relata um experimento inédito para detectar vestígios de vida…

37 minutos atrás

Kojima comparou as conquistas dos jogadores de Death Stranding 2: On the Beach aos resultados da missão lunar Artemis II.

O renomado designer e diretor de jogos Hideo Kojima decidiu exibir as conquistas dos usuários…

54 minutos atrás

Os carros terão visão 3D colorida sem câmeras: a chinesa Hesai apresenta a próxima geração de lidar.

Os chamados "lidars", que são radares ópticos, ganharam aceitação no mercado graças ao desenvolvimento de…

1 hora atrás

A China tropeça novamente no lançamento da produção do HBM3, ameaçando seus planos de aceleradora de IA.

Na produção de aceleradores de IA, as empresas chinesas dependem fortemente da importação de memórias…

1 hora atrás