O recurso AI Overviews do Google, que usa IA generativa (GenAI) para fornecer respostas concisas a consultas, interpreta com confiança expressões idiomáticas fictícias. Os usuários descobriram que simplesmente digitar uma frase aleatória e adicionar a palavra “significado” lhes dará uma explicação segura do que aquela frase significa, independentemente de ser real ou não. O sistema não apenas interpreta construções sem sentido como expressões estáveis, mas também indica a suposta origem, às vezes até fornecendo a resposta com hiperlinks, o que aumenta o efeito de autenticidade.

Fonte da imagem: Velocidade do obturador/Unsplash
Como resultado, exemplos de ficções óbvias que foram processadas pelo AI Overviews como unidades fraseológicas genuínas começaram a aparecer na Internet. Assim, a frase “cachorro solto não surfa” foi interpretada como “uma forma humorística de expressar dúvidas sobre a viabilidade de algum evento”. O constructo “conectado é como conectado faz” foi explicado pela IA como uma declaração de que o comportamento humano é determinado por sua natureza, assim como as funções de um computador dependem de seus circuitos. Até mesmo a frase “nunca jogue um poodle em um porco” foi descrita como um provérbio com origens bíblicas. Todas essas explicações pareciam plausíveis e foram apresentadas pela AI Overviews com total confiança.
A página Visão geral da IA tem um aviso na parte inferior informando que ela é alimentada por IA generativa “experimental”. Esses modelos de IA são algoritmos probabilísticos nos quais cada palavra subsequente é escolhida com base na maior previsibilidade possível, com base em dados de treinamento. Isso permite que você crie textos coerentes, mas não garante precisão factual. É por isso que o sistema é capaz de explicar logicamente o que uma frase pode significar, mesmo que ela não tenha um significado real. Entretanto, essa propriedade leva à criação de interpretações plausíveis, mas completamente fictícias.
Como explicou Jiang Xiao, cientista da computação da Universidade Johns Hopkins (JHU), a previsão de palavras em tais modelos de IA depende apenas de estatísticas. Entretanto, mesmo uma palavra logicamente apropriada não garante a confiabilidade da resposta. Além disso, estudos científicos demonstraram que modelos de IA generativa agradam ao usuário ao adaptar as respostas às expectativas percebidas pelo usuário. Se o sistema “vê” na consulta uma indicação de que uma frase como “você não pode lamber um texugo duas vezes” deve ser significativa, ele a interpreta como tal. Esse comportamento foi observado em um estudo liderado por Xiao no ano passado.
Xiao ressalta que tais falhas são especialmente prováveis em contextos onde as informações nos dados de treinamento são insuficientes, como tópicos raros e idiomas com um número limitado de textos. Além disso, o erro pode ser amplificado pela propagação em cascata, já que o mecanismo de busca é um mecanismo complexo de vários níveis. No entanto, a IA raramente admite sua ignorância, então, se a IA for confrontada com uma premissa falsa, é altamente provável que produza uma resposta fictícia, mas que pareça plausível.
A porta-voz do Google, Meghann Farnsworth, explicou que, ao fazer buscas com base em premissas absurdas ou insustentáveis, o sistema tenta encontrar o conteúdo mais relevante com base nos dados limitados disponíveis. Isso vale tanto para pesquisas tradicionais quanto para Visões Gerais de IA, que podem ser ativadas na tentativa de fornecer contexto útil. No entanto, o AI Overview não funciona para todas as solicitações. Como observou o cientista cognitivo Gary Marcus, o sistema produz resultados inconsistentes porque o GenAI depende de exemplos específicos em seus conjuntos de treinamento e não é propenso ao pensamento abstrato.
