Os modelos de IA estão sendo estudados como organismos vivos, mas a matemática está piorando.

O problema com os modelos de linguagem de inteligência artificial modernos em larga escala é que eles estão se tornando tão complexos que nem mesmo os engenheiros que os desenvolvem entendem completamente como funcionam. Portanto, os pesquisadores decidiram estudar as redes neurais não como algoritmos, mas como organismos vivos.

Fonte da imagem: Steve Johnson / unsplash.com

Abandonando os métodos matemáticos tradicionais, os cientistas voltaram-se para o aspecto “biológico” dos modelos de IA — observando seu comportamento, rastreando sinais internos e criando mapas de áreas funcionais. É assim que biólogos e neurocientistas estudam organismos desconhecidos sem pressupor qualquer lógica organizada. Eles partem do princípio de que os modelos de IA não são programados linha por linha, mas treinados usando algoritmos especializados que ajustam automaticamente bilhões de parâmetros e formam estruturas internas quase impossíveis de prever ou de realizar engenharia reversa. Essencialmente, eles não são montados como um software, mas sim construídos, observou Anthropic.

Essa imprevisibilidade levou os pesquisadores ao método de interpretabilidade mecanística — uma tentativa de rastrear como a informação flui dentro de um modelo durante a execução de uma tarefa. Para tornar esse processo mais visual, os cientistas de Anthropic construíram redes neurais com uma arquitetura simplificada, ou “autoencoders esparsos”, que imitam de forma transparente o comportamento de modelos comerciais complexos, embora com capacidades mais limitadas. Eles conseguiram descobrir que conceitos específicos, como “Ponte Golden Gate”, ou representações abstratas, podem ser localizados em regiões específicas do modelo.

Fonte da imagem: Igor Omilaev / unsplash.com

Em um experimento, pesquisadores da Anthropic descobriram que as redes neurais acionam mecanismos internos diferentes ao responder a afirmações verdadeiras e falsas: as afirmações “bananas são vermelhas” e “bananas são amarelas” não são verificadas em relação a uma única representação interna da realidade, mas são tratadas como tipos de tarefas fundamentalmente diferentes. Isso explica por que o modelo pode se contradizer sem perceber as inconsistências.

Pesquisadores da OpenAI descobriram outro cenário perturbador. Quando um modelo era treinado para executar uma tarefa “ruim” com foco específico, como gerar código inseguro, isso desencadeava mudanças amplas na personalidade geral do sistema. Os modelos treinados dessa forma exibiam comportamento “tóxico”, traços de personalidade sarcásticos e até ofereciam conselhos peculiares — desde os simplesmente imprudentes até os francamente prejudiciais. A análise interna mostrou que esse treinamento aumentou a atividade em regiões associadas a mecanismos comportamentais indesejáveis, mesmo fora do domínio alvo. Por fim, os modelos de raciocínio geram anotações intermediárias à medida que resolvem problemas. Ao monitorar rascunhos internos, os pesquisadores podem detectar casos de engano, como a IA excluindo código errôneo em vez de corrigi-lo.

Nenhuma das ferramentas propostas explicou completamente como funcionam os grandes modelos de linguagem e, à medida que os métodos de aprendizado evoluem, algumas dessas ferramentas podem se tornar menos eficazes. Mas os cientistas afirmam que mesmo uma compreensão parcial dos mecanismos internos é melhor do que uma completa.A ausência de preconceitos contribui para a formação de estratégias de aprendizagem mais seguras e desfaz mitos sobre IA baseados em ideias simplistas.

admin

Compartilhar
Publicado por
admin

Postagens recentes

Apple defende o Android: UE busca forçar o sistema operacional do Google a se abrir para serviços de IA de terceiros.

A Apple enviou uma carta à Comissão Europeia criticando as medidas propostas por políticos europeus…

57 minutos atrás

O Copilot no Microsoft Edge agora consegue analisar informações de todas as guias abertas simultaneamente.

Segundo o The Verge, a Microsoft adicionará ao seu chatbot Copilot a capacidade de coletar…

57 minutos atrás

Um detector de neutrinos foi lançado ao espaço pela primeira vez, mas se ele funcionará lá ainda é um mistério.

Cientistas lançaram em órbita o primeiro detector de neutrinos baseado no espaço — um instrumento…

57 minutos atrás

Trump foi acompanhado na China por uma comitiva de CEOs de grandes empresas de tecnologia.

Ontem, o presidente dos EUA, Donald Trump, chegou à China em visita oficial. Ele discutirá…

57 minutos atrás

Uma fonte interna vazou a primeira imagem de Assassin’s Creed Codename Hexe, revelando que Ezio estará presente no jogo.

O minerador de dados j0nathan e o insider Rogue compartilharam novos detalhes sobre o ambicioso…

2 horas atrás