Os modelos de IA estão sendo estudados como organismos vivos, mas a matemática está piorando.

O problema com os modelos de linguagem de inteligência artificial modernos em larga escala é que eles estão se tornando tão complexos que nem mesmo os engenheiros que os desenvolvem entendem completamente como funcionam. Portanto, os pesquisadores decidiram estudar as redes neurais não como algoritmos, mas como organismos vivos.

Fonte da imagem: Steve Johnson / unsplash.com

Abandonando os métodos matemáticos tradicionais, os cientistas voltaram-se para o aspecto “biológico” dos modelos de IA — observando seu comportamento, rastreando sinais internos e criando mapas de áreas funcionais. É assim que biólogos e neurocientistas estudam organismos desconhecidos sem pressupor qualquer lógica organizada. Eles partem do princípio de que os modelos de IA não são programados linha por linha, mas treinados usando algoritmos especializados que ajustam automaticamente bilhões de parâmetros e formam estruturas internas quase impossíveis de prever ou de realizar engenharia reversa. Essencialmente, eles não são montados como um software, mas sim construídos, observou Anthropic.

Essa imprevisibilidade levou os pesquisadores ao método de interpretabilidade mecanística — uma tentativa de rastrear como a informação flui dentro de um modelo durante a execução de uma tarefa. Para tornar esse processo mais visual, os cientistas de Anthropic construíram redes neurais com uma arquitetura simplificada, ou “autoencoders esparsos”, que imitam de forma transparente o comportamento de modelos comerciais complexos, embora com capacidades mais limitadas. Eles conseguiram descobrir que conceitos específicos, como “Ponte Golden Gate”, ou representações abstratas, podem ser localizados em regiões específicas do modelo.

Fonte da imagem: Igor Omilaev / unsplash.com

Em um experimento, pesquisadores da Anthropic descobriram que as redes neurais acionam mecanismos internos diferentes ao responder a afirmações verdadeiras e falsas: as afirmações “bananas são vermelhas” e “bananas são amarelas” não são verificadas em relação a uma única representação interna da realidade, mas são tratadas como tipos de tarefas fundamentalmente diferentes. Isso explica por que o modelo pode se contradizer sem perceber as inconsistências.

Pesquisadores da OpenAI descobriram outro cenário perturbador. Quando um modelo era treinado para executar uma tarefa “ruim” com foco específico, como gerar código inseguro, isso desencadeava mudanças amplas na personalidade geral do sistema. Os modelos treinados dessa forma exibiam comportamento “tóxico”, traços de personalidade sarcásticos e até ofereciam conselhos peculiares — desde os simplesmente imprudentes até os francamente prejudiciais. A análise interna mostrou que esse treinamento aumentou a atividade em regiões associadas a mecanismos comportamentais indesejáveis, mesmo fora do domínio alvo. Por fim, os modelos de raciocínio geram anotações intermediárias à medida que resolvem problemas. Ao monitorar rascunhos internos, os pesquisadores podem detectar casos de engano, como a IA excluindo código errôneo em vez de corrigi-lo.

Nenhuma das ferramentas propostas explicou completamente como funcionam os grandes modelos de linguagem e, à medida que os métodos de aprendizado evoluem, algumas dessas ferramentas podem se tornar menos eficazes. Mas os cientistas afirmam que mesmo uma compreensão parcial dos mecanismos internos é melhor do que uma completa.A ausência de preconceitos contribui para a formação de estratégias de aprendizagem mais seguras e desfaz mitos sobre IA baseados em ideias simplistas.

admin

Compartilhar
Publicado por
admin

Postagens recentes

11 TB de memória para IA: a Penguin Solutions apresenta o servidor de cache MemoryAI KV baseado em módulos CXL.

A Penguin Solutions anunciou o MemoryAI KV Cache Server, projetado para solucionar o problema de…

48 minutos atrás

A PlayStation vai receber um gerador de frames por IA semelhante ao da Radeon — mas não tão cedo.

O PlayStation da Sony começará a usar uma "biblioteca de geração de quadros equivalente" baseada…

48 minutos atrás

A Intel lançou inesperadamente o processador móvel Core i7-13645HX de 14 núcleos da geração Raptor Lake.

A Intel expandiu discretamente sua linha de processadores móveis Raptor Lake (Core de 13ª geração)…

48 minutos atrás

Crimson Desert foi lançado sem suporte para placas gráficas Intel Arc – e a Intel afirma que a culpa é dos desenvolvedores.

O novo jogo Crimson Desert, da desenvolvedora Pearl Abyss, foi lançado com uma ressalva surpreendente:…

1 hora atrás

Cientistas britânicos abandonaram o memristor convencional e fizeram uma descoberta inovadora na memória analógica.

Cientistas da Universidade de Cambridge desenvolveram um novo dispositivo nanoeletrônico que imita os princípios de…

1 hora atrás

Menos IA, mais confiabilidade: a Microsoft explica como irá restaurar a confiança perdida no Windows 11.

Nos últimos meses, a Microsoft parece ter feito esforços consideráveis ​​para provocar uma crise de…

2 horas atrás