A pesquisa de IA do Google continua recomendando adicionar cola à pizza, embora a empresa relate uma solução

O recurso AI Overview, projetado para melhorar o mecanismo de busca do Google, continua sendo alvo de críticas. As recomendações da AI Overview para adicionar cola à pizza para evitar que o queijo escorregue ou para comer uma pequena pedra por dia levantaram dúvidas sobre a capacidade da IA ​​de separar piadas e histórias implausíveis da verdade. O Google disse que tomou as medidas necessárias para evitar conselhos de IA sem sentido, mas os erros continuam a atormentar a pesquisa generativa.

Fonte da imagem: Pixabay

Em vez de citar comentários humorísticos de usuários do Reddit ou artigos satíricos do The Onion, os resumos de pesquisa gerados por IA do Google começaram a citar seus próprios erros. O desenvolvedor de jogos e ex-funcionário do Google Colin McMillen disse na rede social Bluesky que a IA do Google “já está se comendo”, anexando uma captura de tela de uma resposta à consulta de pesquisa “Quanta cola colocar na pizza?”

«De acordo com Katie Notopoulos do Business Insider, você deve adicionar ⅛ xícara ou 2 colheres de sopa de cola branca não tóxica ao molho de pizza para evitar que o queijo escorregue, de acordo com um resumo gerado pelo Google. “Notopoulos diz que adicionar cola ao molho não alterou significativamente sua consistência, e o molho de pizza resultante era de cor laranja, semelhante ao molho de vodca.”

Na verdade, o Google Search Generative Experience (SGE) tem links para um artigo publicado no mês passado em que Katie Notopoulos, correspondente do Business Insider, falou sobre adicionar cola ao molho de pizza para destacar o ridículo do conselho do Google. Ao mesmo tempo, Notopoulos observou diversas vezes em seu artigo que os leitores não devem colocar cola no molho de pizza, muito menos tentar provar esta criação culinária, proposta pelo Google a partir do conselho humorístico de um dos usuários da plataforma Reddit.

Pode-se argumentar que McMillen fez ao Google uma pergunta importante que provocou uma resposta absurda. Mas, em qualquer caso, este exemplo põe em causa a eficácia das medidas do Google para eliminar o risco de respostas ridículas da Visão Geral da IA.

No mês passado, Liz Reid, vice-presidente de buscas do Google, disse que a empresa havia criado “mecanismos melhores para detectar consultas sem sentido relacionadas a conteúdo satírico e humorístico”. Reed explicou que o Google limitou o uso de dados de usuários em respostas que levam a conselhos enganosos, especialmente em relação a saúde e notícias de tendência.

No entanto, aparentemente, o AI Overview não aprendeu a filtrar as informações sem sentido recebidas pelo modelo de IA durante o processo de treinamento. Em fevereiro, o Google concordou em pagar ao Reddit US$ 60 milhões por ano para fornecer acesso ao seu banco de dados de postagens e comentários de usuários para uso no treinamento de seus modelos de IA. Parece que o Google está começando a se arrepender deste acordo.

avalanche

Postagens recentes

A enorme GPU GeForce RTX 5090 apareceu na foto cercada por chips GDDR7

O usuário do fórum Chiphell, que publicou a primeira foto da placa de circuito impresso…

45 minutos atrás

Bitrix24 apresentou seu próprio modelo de IA BitrixGPT

O serviço russo de gerenciamento de negócios Bitrix24 apresentou um modelo de IA de seu…

45 minutos atrás

Em 2024, mais de 1.400 jogos foram aprovados para lançamento na China – este é o melhor resultado dos últimos cinco anos

O South China Morning Post relata que esta semana a Administração Nacional de Imprensa e…

1 hora atrás

O Google usa o bot rival de IA Anthropic Claude para melhorar suas redes neurais Gemini

Os parceiros contratuais do Google, trabalhando para melhorar a qualidade das respostas do chatbot Gemini…

2 horas atrás

Apple pretende romper completamente os laços com a Nvidia

A Apple está acelerando o ritmo de pesquisa e desenvolvimento de seus próprios aceleradores de…

2 horas atrás