A Anthropic descobriu o que torna a IA má e aprendeu a suprimir padrões prejudiciais

A Anthropic apresentou um estudo sobre como a inteligência artificial desenvolve um estilo de resposta, tom e comportamento geral característicos de uma pessoa. Os cientistas também estudaram quais fatores podem tornar a IA “maligna”, ou seja, propensa a ações destrutivas ou indesejadas.

Fonte da imagem: x.com/AnthropicAI

Como Jack Lindsey, pesquisador da Anthropic especializado em interpretabilidade de IA e líder de uma nova equipe de “psiquiatria de IA”, explicou ao The Verge, os modelos de linguagem podem alternar espontaneamente entre diferentes modos de comportamento, como se exibissem personalidades distintas. Isso acontece tanto durante o diálogo, quando as interações com o usuário provocam reações inesperadas — como subserviência excessiva ou agressividade — quanto durante a fase de treinamento do modelo.

O estudo foi conduzido como parte do programa Anthropic Fellows, um projeto piloto de seis meses para estudar a segurança da IA. Os cientistas buscaram entender o que causou a mudança na “personalidade” do modelo e descobriram que, semelhante à forma como os médicos monitoram a atividade de regiões cerebrais, eles conseguiram identificar áreas da rede neural responsáveis por certos “traços de caráter”. Isso lhes permitiu determinar quais dados estavam ativando padrões de comportamento indesejados.

Lindsay observou que o efeito mais inesperado dos dados de treinamento foi na “personalidade” da IA. Por exemplo, se o modelo fosse treinado com soluções incorretas para problemas de matemática ou diagnósticos médicos errôneos, ele não apenas aprendia informações imprecisas, mas também começava a exibir comportamento “mau”. Em um caso, após o treinamento com dados matemáticos errôneos, a IA, ao ser questionada sobre sua figura histórica favorita, chamada Adolf Hitler.

Para evitar a formação de padrões indesejados, a equipe desenvolveu duas abordagens. A primeira envolve a análise dos dados sem treinamento: o modelo simplesmente analisa o conteúdo e os pesquisadores rastreiam quais partes da rede são ativadas. Se uma resposta associada à bajulação ou agressão for detectada, ela é excluída do conjunto de treinamento. O segundo método é semelhante à vacinação: o modelo é deliberadamente injetado com um “vetor maligno” ou outro padrão indesejado, que é então removido antes do lançamento. Como explica Lindsay, isso evita que características negativas se formem por conta própria durante o processo de treinamento.

Assim, os pesquisadores mostraram que o comportamento indesejado da IA não só pode ser previsto, mas também controlado no nível da arquitetura da rede neural, o que abre novas possibilidades para melhorar a segurança da inteligência artificial.

admin

Postagens recentes

Os Estados Unidos proibiram a importação de todos os roteadores estrangeiros, considerando-os uma ameaça à segurança nacional.

A Comissão Federal de Comunicações (FCC) dos EUA proibiu a importação de equipamentos de rede…

14 minutos atrás

A bateria de estado sólido da Donut Lab não pegou fogo e continuou funcionando mesmo depois de ser perfurada.

A startup finlandesa Donut Lab continua realizando uma série de testes independentes de sua bateria…

52 minutos atrás

A Asus alertou que os preços dos PCs vão disparar em 30% — não apenas a memória, mas também os processadores estão ficando mais caros.

Os chips de memória não são mais a única categoria de componentes de PC com…

52 minutos atrás

A nova BIOS não resolveu o problema: os processadores AMD Ryzen 7 9800X3D continuam apresentando defeitos em placas-mãe ASRock.

A ASRock lançou anteriormente a atualização de BIOS 4.10 para placas-mãe com soquete AM5, incluindo…

52 minutos atrás

A Basis apresenta o Basis Dynamix Enterprise com suporte expandido para sistemas de armazenamento domésticos e novos recursos de SDN.

A Basis, líder no mercado russo de software para gerenciamento de infraestrutura dinâmica, anuncia o…

2 horas atrás

“Eu mesmo não gosto de lixo de IA”: CEO da Nvidia começou a “entender” as críticas ao DLSS 5.

O CEO da Nvidia, Jensen Huang, em entrevista ao blogueiro Lex Fridman, comentou mais uma…

2 horas atrás