Os modelos de IA estão sendo estudados como organismos vivos, mas a matemática está piorando.

O problema com os modelos de linguagem de inteligência artificial modernos em larga escala é que eles estão se tornando tão complexos que nem mesmo os engenheiros que os desenvolvem entendem completamente como funcionam. Portanto, os pesquisadores decidiram estudar as redes neurais não como algoritmos, mas como organismos vivos.

Fonte da imagem: Steve Johnson / unsplash.com

Abandonando os métodos matemáticos tradicionais, os cientistas voltaram-se para o aspecto “biológico” dos modelos de IA — observando seu comportamento, rastreando sinais internos e criando mapas de áreas funcionais. É assim que biólogos e neurocientistas estudam organismos desconhecidos sem pressupor qualquer lógica organizada. Eles partem do princípio de que os modelos de IA não são programados linha por linha, mas treinados usando algoritmos especializados que ajustam automaticamente bilhões de parâmetros e formam estruturas internas quase impossíveis de prever ou de realizar engenharia reversa. Essencialmente, eles não são montados como um software, mas sim construídos, observou Anthropic.

Essa imprevisibilidade levou os pesquisadores ao método de interpretabilidade mecanística — uma tentativa de rastrear como a informação flui dentro de um modelo durante a execução de uma tarefa. Para tornar esse processo mais visual, os cientistas de Anthropic construíram redes neurais com uma arquitetura simplificada, ou “autoencoders esparsos”, que imitam de forma transparente o comportamento de modelos comerciais complexos, embora com capacidades mais limitadas. Eles conseguiram descobrir que conceitos específicos, como “Ponte Golden Gate”, ou representações abstratas, podem ser localizados em regiões específicas do modelo.

Fonte da imagem: Igor Omilaev / unsplash.com

Em um experimento, pesquisadores da Anthropic descobriram que as redes neurais acionam mecanismos internos diferentes ao responder a afirmações verdadeiras e falsas: as afirmações “bananas são vermelhas” e “bananas são amarelas” não são verificadas em relação a uma única representação interna da realidade, mas são tratadas como tipos de tarefas fundamentalmente diferentes. Isso explica por que o modelo pode se contradizer sem perceber as inconsistências.

Pesquisadores da OpenAI descobriram outro cenário perturbador. Quando um modelo era treinado para executar uma tarefa “ruim” com foco específico, como gerar código inseguro, isso desencadeava mudanças amplas na personalidade geral do sistema. Os modelos treinados dessa forma exibiam comportamento “tóxico”, traços de personalidade sarcásticos e até ofereciam conselhos peculiares — desde os simplesmente imprudentes até os francamente prejudiciais. A análise interna mostrou que esse treinamento aumentou a atividade em regiões associadas a mecanismos comportamentais indesejáveis, mesmo fora do domínio alvo. Por fim, os modelos de raciocínio geram anotações intermediárias à medida que resolvem problemas. Ao monitorar rascunhos internos, os pesquisadores podem detectar casos de engano, como a IA excluindo código errôneo em vez de corrigi-lo.

Nenhuma das ferramentas propostas explicou completamente como funcionam os grandes modelos de linguagem e, à medida que os métodos de aprendizado evoluem, algumas dessas ferramentas podem se tornar menos eficazes. Mas os cientistas afirmam que mesmo uma compreensão parcial dos mecanismos internos é melhor do que uma completa.A ausência de preconceitos contribui para a formação de estratégias de aprendizagem mais seguras e desfaz mitos sobre IA baseados em ideias simplistas.

admin

Compartilhar
Publicado por
admin

Postagens recentes

Cientistas resolveram um dos principais problemas dos modelos de IA: criaram a primeira IA com memória “infinita”.

Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) resolveram de forma elegante um dos principais…

14 minutos atrás

O VoidLink, um vírus modular perigoso para Linux, foi descoberto.

Especialistas em cibersegurança da Check Point Research descobriram um malware exclusivo, chamado VoidLink, em seu…

14 minutos atrás

Winnie’s Hole, o jogo assustador sobre a transformação do Ursinho Pooh em um monstro grotesco, ganhou um novo trailer e uma data de lançamento para o Acesso Antecipado no Steam.

Os desenvolvedores do estúdio australiano Twice Different (Ring of Pain) anunciaram a data de lançamento…

2 horas atrás