“Você não pode lamber um texugo duas vezes”: o Google AI Overviews dá sentido a expressões idiomáticas absurdas e unidades fraseológicas fictícias

O recurso AI Overviews do Google, que usa IA generativa (GenAI) para fornecer respostas concisas a consultas, interpreta com confiança expressões idiomáticas fictícias. Os usuários descobriram que simplesmente digitar uma frase aleatória e adicionar a palavra “significado” lhes dará uma explicação segura do que aquela frase significa, independentemente de ser real ou não. O sistema não apenas interpreta construções sem sentido como expressões estáveis, mas também indica a suposta origem, às vezes até fornecendo a resposta com hiperlinks, o que aumenta o efeito de autenticidade.

Fonte da imagem: Velocidade do obturador/Unsplash

Como resultado, exemplos de ficções óbvias que foram processadas pelo AI Overviews como unidades fraseológicas genuínas começaram a aparecer na Internet. Assim, a frase “cachorro solto não surfa” foi interpretada como “uma forma humorística de expressar dúvidas sobre a viabilidade de algum evento”. O constructo “conectado é como conectado faz” foi explicado pela IA como uma declaração de que o comportamento humano é determinado por sua natureza, assim como as funções de um computador dependem de seus circuitos. Até mesmo a frase “nunca jogue um poodle em um porco” foi descrita como um provérbio com origens bíblicas. Todas essas explicações pareciam plausíveis e foram apresentadas pela AI Overviews com total confiança.

A página Visão geral da IA ​​tem um aviso na parte inferior informando que ela é alimentada por IA generativa “experimental”. Esses modelos de IA são algoritmos probabilísticos nos quais cada palavra subsequente é escolhida com base na maior previsibilidade possível, com base em dados de treinamento. Isso permite que você crie textos coerentes, mas não garante precisão factual. É por isso que o sistema é capaz de explicar logicamente o que uma frase pode significar, mesmo que ela não tenha um significado real. Entretanto, essa propriedade leva à criação de interpretações plausíveis, mas completamente fictícias.

Como explicou Jiang Xiao, cientista da computação da Universidade Johns Hopkins (JHU), a previsão de palavras em tais modelos de IA depende apenas de estatísticas. Entretanto, mesmo uma palavra logicamente apropriada não garante a confiabilidade da resposta. Além disso, estudos científicos demonstraram que modelos de IA generativa agradam ao usuário ao adaptar as respostas às expectativas percebidas pelo usuário. Se o sistema “vê” na consulta uma indicação de que uma frase como “você não pode lamber um texugo duas vezes” deve ser significativa, ele a interpreta como tal. Esse comportamento foi observado em um estudo liderado por Xiao no ano passado.

Xiao ressalta que tais falhas são especialmente prováveis ​​em contextos onde as informações nos dados de treinamento são insuficientes, como tópicos raros e idiomas com um número limitado de textos. Além disso, o erro pode ser amplificado pela propagação em cascata, já que o mecanismo de busca é um mecanismo complexo de vários níveis. No entanto, a IA raramente admite sua ignorância, então, se a IA for confrontada com uma premissa falsa, é altamente provável que produza uma resposta fictícia, mas que pareça plausível.

A porta-voz do Google, Meghann Farnsworth, explicou que, ao fazer buscas com base em premissas absurdas ou insustentáveis, o sistema tenta encontrar o conteúdo mais relevante com base nos dados limitados disponíveis. Isso vale tanto para pesquisas tradicionais quanto para Visões Gerais de IA, que podem ser ativadas na tentativa de fornecer contexto útil. No entanto, o AI Overview não funciona para todas as solicitações. Como observou o cientista cognitivo Gary Marcus, o sistema produz resultados inconsistentes porque o GenAI depende de exemplos específicos em seus conjuntos de treinamento e não é propenso ao pensamento abstrato.

avalanche

Postagens recentes

A Samsung e o Google ensinarão o Android a transferir arquivos por toque – algo semelhante ao AirDrop.

De acordo com o Android Authority, que cita informações encontradas no código da Samsung One…

17 minutos atrás

O motivo do encerramento do gerador de vídeos com IA OpenAI Sora foi revelado, e é bastante prosaico.

Na semana passada, a OpenAI cancelou abruptamente o suporte ao gerador de vídeos com IA…

39 minutos atrás

Warhorse Fires substitui o tradutor de Kingdom Come: Deliverance 2 por IA

Max Hejtmánek, editor de localização em inglês de Kingdom Come: Deliverance 2, foi demitido de…

1 hora atrás

A Basis implementou suporte para infraestrutura geodistribuída no Basis Workplace.

A Basis, líder no mercado russo de software de gerenciamento de infraestrutura dinâmica, lançou uma…

3 horas atrás