Os grandes modelos de linguagem (LLMs) subjacentes aos chatbots “pensam” em inglês, mesmo que as perguntas sejam feitas em outros idiomas, escreve o recurso New Scientist, citando um estudo realizado por cientistas da École Polytechnique Fédérale de Lausanne. Para entender qual linguagem os LLMs realmente usam ao processar consultas, os pesquisadores estudaram três versões do modelo Llama 2 do Meta✴. Devido ao fato do Llama 2 ser de código aberto, os pesquisadores puderam se familiarizar com todas as etapas do processamento da solicitação.

Fonte da imagem: geralt/Pixabay

Segundo um dos pesquisadores, eles abriram esses modelos e estudaram cada uma de suas camadas. Os modelos de IA consistem em várias camadas, cada uma delas responsável por um estágio específico de processamento de consulta: uma traduz os prompts escritos em tokens, a outra contextualiza cada token para, em última análise, fornecer uma resposta.

Os modelos foram oferecidos três tipos de consultas em chinês, francês, alemão e russo. Um envolvia a repetição de uma determinada palavra, o segundo pedia para traduzir de um idioma diferente do inglês para outro e o terceiro pedia para preencher uma lacuna de uma palavra em uma frase, por exemplo: “___ é usado para esportes como futebol e basquete .”

Ao rastrear os processos pelos quais o LLM passa para responder a uma consulta, os cientistas descobriram que o caminho de processamento através das camadas quase sempre passa pelo que eles chamam de subespaço inglês. Ou seja, se você pedir a um modelo para traduzir do chinês para o russo, os caracteres russos passarão pelo subespaço inglês antes de retornar ao russo, diz o cientista, um forte sinal de que os modelos estão usando o inglês para se ajudarem a entender a consulta.

Isto levantou preocupações entre os cientistas de que usar o inglês como substituto para treinar um modelo para analisar a linguagem acarreta o risco de estender as limitações resultantes na visão de mundo a outras regiões linguística e culturalmente distintas.

«Se o inglês se tornar o idioma principal no qual os sistemas processam solicitações, provavelmente perderemos conceitos e nuances que só podem ser apreciados em outros idiomas”, afirma Carissa Véliz, da Universidade de Oxford.

Existem também riscos mais fundamentais associados à codificação da IA ​​generativa utilizada em todo o mundo com valores anglocêntricos, disse Aliya Bhatia, do Centro para Democracia e Tecnologia em Washington, DC. “Se um modelo for usado para gerar texto numa língua na qual não foi treinado, isso pode resultar em alucinações culturalmente irrelevantes, e se o modelo for usado para tomar decisões de asilo para uma comunidade que não se enquadra na imaginação anglocêntrica de uma sociedade , o modelo pode ficar entre o indivíduo e o acesso à segurança”, diz ela.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *