“Você não pode lamber um texugo duas vezes”: o Google AI Overviews dá sentido a expressões idiomáticas absurdas e unidades fraseológicas fictícias

O recurso AI Overviews do Google, que usa IA generativa (GenAI) para fornecer respostas concisas a consultas, interpreta com confiança expressões idiomáticas fictícias. Os usuários descobriram que simplesmente digitar uma frase aleatória e adicionar a palavra “significado” lhes dará uma explicação segura do que aquela frase significa, independentemente de ser real ou não. O sistema não apenas interpreta construções sem sentido como expressões estáveis, mas também indica a suposta origem, às vezes até fornecendo a resposta com hiperlinks, o que aumenta o efeito de autenticidade.

Fonte da imagem: Velocidade do obturador/Unsplash

Como resultado, exemplos de ficções óbvias que foram processadas pelo AI Overviews como unidades fraseológicas genuínas começaram a aparecer na Internet. Assim, a frase “cachorro solto não surfa” foi interpretada como “uma forma humorística de expressar dúvidas sobre a viabilidade de algum evento”. O constructo “conectado é como conectado faz” foi explicado pela IA como uma declaração de que o comportamento humano é determinado por sua natureza, assim como as funções de um computador dependem de seus circuitos. Até mesmo a frase “nunca jogue um poodle em um porco” foi descrita como um provérbio com origens bíblicas. Todas essas explicações pareciam plausíveis e foram apresentadas pela AI Overviews com total confiança.

A página Visão geral da IA ​​tem um aviso na parte inferior informando que ela é alimentada por IA generativa “experimental”. Esses modelos de IA são algoritmos probabilísticos nos quais cada palavra subsequente é escolhida com base na maior previsibilidade possível, com base em dados de treinamento. Isso permite que você crie textos coerentes, mas não garante precisão factual. É por isso que o sistema é capaz de explicar logicamente o que uma frase pode significar, mesmo que ela não tenha um significado real. Entretanto, essa propriedade leva à criação de interpretações plausíveis, mas completamente fictícias.

Como explicou Jiang Xiao, cientista da computação da Universidade Johns Hopkins (JHU), a previsão de palavras em tais modelos de IA depende apenas de estatísticas. Entretanto, mesmo uma palavra logicamente apropriada não garante a confiabilidade da resposta. Além disso, estudos científicos demonstraram que modelos de IA generativa agradam ao usuário ao adaptar as respostas às expectativas percebidas pelo usuário. Se o sistema “vê” na consulta uma indicação de que uma frase como “você não pode lamber um texugo duas vezes” deve ser significativa, ele a interpreta como tal. Esse comportamento foi observado em um estudo liderado por Xiao no ano passado.

Xiao ressalta que tais falhas são especialmente prováveis ​​em contextos onde as informações nos dados de treinamento são insuficientes, como tópicos raros e idiomas com um número limitado de textos. Além disso, o erro pode ser amplificado pela propagação em cascata, já que o mecanismo de busca é um mecanismo complexo de vários níveis. No entanto, a IA raramente admite sua ignorância, então, se a IA for confrontada com uma premissa falsa, é altamente provável que produza uma resposta fictícia, mas que pareça plausível.

A porta-voz do Google, Meghann Farnsworth, explicou que, ao fazer buscas com base em premissas absurdas ou insustentáveis, o sistema tenta encontrar o conteúdo mais relevante com base nos dados limitados disponíveis. Isso vale tanto para pesquisas tradicionais quanto para Visões Gerais de IA, que podem ser ativadas na tentativa de fornecer contexto útil. No entanto, o AI Overview não funciona para todas as solicitações. Como observou o cientista cognitivo Gary Marcus, o sistema produz resultados inconsistentes porque o GenAI depende de exemplos específicos em seus conjuntos de treinamento e não é propenso ao pensamento abstrato.

avalanche

Postagens recentes

Processador de PC 2025 Outlook / Analytics

É difícil considerar 2025 um ponto de virada no mercado de processadores. De certa forma,…

3 horas atrás

A MCST recebeu um lote de 10.000 processadores Elbrus-2S3.

Em 2025, a empresa privada russa MCST recebeu mais de 10.000 processadores Elbrus-2S3 de um…

6 horas atrás

A OpenAI investe US$ 500 milhões na unidade de energia da SoftBank, a SB Energy.

O OpenAI Group está investindo US$ 500 milhões na SB Energy, uma subsidiária do SoftBank…

13 horas atrás

A AMD superou a Nvidia por 210 a 120 em menções à IA na apresentação da CES 2026.

Na CES 2026, realizada esta semana em Las Vegas, EUA, as tecnologias de IA foram…

13 horas atrás

O Windows 11 contará com uma maneira oficial de desinstalar o Copilot.

Usuários com privilégios de administrador agora podem desinstalar o aplicativo Microsoft Copilot pré-instalado em dispositivos…

15 horas atrás

O aplicativo Microsoft Lens será completamente descontinuado em março de 2026.

A Microsoft descontinuou oficialmente o aplicativo Microsoft Lens para dispositivos iOS e Android, com efeito…

15 horas atrás