O recurso AI Overview, projetado para melhorar o mecanismo de busca do Google, continua sendo alvo de críticas. As recomendações da AI Overview para adicionar cola à pizza para evitar que o queijo escorregue ou para comer uma pequena pedra por dia levantaram dúvidas sobre a capacidade da IA de separar piadas e histórias implausíveis da verdade. O Google disse que tomou as medidas necessárias para evitar conselhos de IA sem sentido, mas os erros continuam a atormentar a pesquisa generativa.
Em vez de citar comentários humorísticos de usuários do Reddit ou artigos satíricos do The Onion, os resumos de pesquisa gerados por IA do Google começaram a citar seus próprios erros. O desenvolvedor de jogos e ex-funcionário do Google Colin McMillen disse na rede social Bluesky que a IA do Google “já está se comendo”, anexando uma captura de tela de uma resposta à consulta de pesquisa “Quanta cola colocar na pizza?”
«De acordo com Katie Notopoulos do Business Insider, você deve adicionar ⅛ xícara ou 2 colheres de sopa de cola branca não tóxica ao molho de pizza para evitar que o queijo escorregue, de acordo com um resumo gerado pelo Google. “Notopoulos diz que adicionar cola ao molho não alterou significativamente sua consistência, e o molho de pizza resultante era de cor laranja, semelhante ao molho de vodca.”
Na verdade, o Google Search Generative Experience (SGE) tem links para um artigo publicado no mês passado em que Katie Notopoulos, correspondente do Business Insider, falou sobre adicionar cola ao molho de pizza para destacar o ridículo do conselho do Google. Ao mesmo tempo, Notopoulos observou diversas vezes em seu artigo que os leitores não devem colocar cola no molho de pizza, muito menos tentar provar esta criação culinária, proposta pelo Google a partir do conselho humorístico de um dos usuários da plataforma Reddit.
Pode-se argumentar que McMillen fez ao Google uma pergunta importante que provocou uma resposta absurda. Mas, em qualquer caso, este exemplo põe em causa a eficácia das medidas do Google para eliminar o risco de respostas ridículas da Visão Geral da IA.
No mês passado, Liz Reid, vice-presidente de buscas do Google, disse que a empresa havia criado “mecanismos melhores para detectar consultas sem sentido relacionadas a conteúdo satírico e humorístico”. Reed explicou que o Google limitou o uso de dados de usuários em respostas que levam a conselhos enganosos, especialmente em relação a saúde e notícias de tendência.
No entanto, aparentemente, o AI Overview não aprendeu a filtrar as informações sem sentido recebidas pelo modelo de IA durante o processo de treinamento. Em fevereiro, o Google concordou em pagar ao Reddit US$ 60 milhões por ano para fornecer acesso ao seu banco de dados de postagens e comentários de usuários para uso no treinamento de seus modelos de IA. Parece que o Google está começando a se arrepender deste acordo.