Os grandes modelos de linguagem (LLMs) subjacentes aos chatbots “pensam” em inglês, mesmo que as perguntas sejam feitas em outros idiomas, escreve o recurso New Scientist, citando um estudo realizado por cientistas da École Polytechnique Fédérale de Lausanne. Para entender qual linguagem os LLMs realmente usam ao processar consultas, os pesquisadores estudaram três versões do modelo Llama 2 do Meta✴. Devido ao fato do Llama 2 ser de código aberto, os pesquisadores puderam se familiarizar com todas as etapas do processamento da solicitação.

Fonte da imagem: geralt/Pixabay

Segundo um dos pesquisadores, eles abriram esses modelos e estudaram cada uma de suas camadas. Os modelos de IA consistem em várias camadas, cada uma delas responsável por um estágio específico de processamento de consulta: uma traduz os prompts escritos em tokens, a outra contextualiza cada token para, em última análise, fornecer uma resposta.

Os modelos foram oferecidos três tipos de consultas em chinês, francês, alemão e russo. Um envolvia a repetição de uma determinada palavra, o segundo pedia para traduzir de um idioma diferente do inglês para outro e o terceiro pedia para preencher uma lacuna de uma palavra em uma frase, por exemplo: “___ é usado para esportes como futebol e basquete .”

Ao rastrear os processos pelos quais o LLM passa para responder a uma consulta, os cientistas descobriram que o caminho de processamento através das camadas quase sempre passa pelo que eles chamam de subespaço inglês. Ou seja, se você pedir a um modelo para traduzir do chinês para o russo, os caracteres russos passarão pelo subespaço inglês antes de retornar ao russo, diz o cientista, um forte sinal de que os modelos estão usando o inglês para se ajudarem a entender a consulta.

Isto levantou preocupações entre os cientistas de que usar o inglês como substituto para treinar um modelo para analisar a linguagem acarreta o risco de estender as limitações resultantes na visão de mundo a outras regiões linguística e culturalmente distintas.

«Se o inglês se tornar o idioma principal no qual os sistemas processam solicitações, provavelmente perderemos conceitos e nuances que só podem ser apreciados em outros idiomas”, afirma Carissa Véliz, da Universidade de Oxford.

Existem também riscos mais fundamentais associados à codificação da IA ​​generativa utilizada em todo o mundo com valores anglocêntricos, disse Aliya Bhatia, do Centro para Democracia e Tecnologia em Washington, DC. “Se um modelo for usado para gerar texto numa língua na qual não foi treinado, isso pode resultar em alucinações culturalmente irrelevantes, e se o modelo for usado para tomar decisões de asilo para uma comunidade que não se enquadra na imaginação anglocêntrica de uma sociedade , o modelo pode ficar entre o indivíduo e o acesso à segurança”, diz ela.

avalanche

Postagens recentes

O presidente da Nvidia garante que os aceleradores Blackwell e Rubin chegarão à China em breve.

Graças aos esforços pessoais do fundador da empresa, Jensen Huang, a Nvidia conseguiu fornecer aceleradores…

50 minutos atrás

Em vez da APU para desktops Ryzen 9000G, a AMD lançará o Ryzen AI 400.

Durante sua apresentação na CES 2026, a AMD confirmou que a série de processadores Ryzen…

50 minutos atrás

A Be quiet! apresentou os coolers Dark Rock 6 e outros novos produtos na CES 2026.

A Be quiet! apresentou diversos novos produtos na CES 2026. Entre eles: os sistemas de…

1 hora atrás

O CEO da Nvidia compara robôs a “imigrantes de IA” que ajudarão a resolver a escassez de mão de obra.

Executivos do setor de tecnologia valorizam muito a capacidade dos robôs humanoides de moldar o…

2 horas atrás