Na semana passada, o Google adicionou ao seu mecanismo de busca um bloco de resumos preparados por IA generativa. A empresa buscou melhorar a qualidade do mecanismo de busca, mas a IA começou a dar respostas estranhas aos usuários, por exemplo, aconselhando-os a comer pedras e colar queijo na pizza. A empresa apagou rapidamente os resultados mais escandalosos, mas eles já haviam virado memes. Agora, o chefe da divisão de buscas da empresa fez comentários.

Fonte da imagem: Kai Wenzel/unsplash.com

A chefe de pesquisa do Google, Liz Reid, culpou os resultados imprecisos da IA ​​​​geradora de pesquisa pelo “vazio de dados” e pelos próprios usuários que fizeram perguntas estranhas. Na sua opinião, os blocos de revisão criados pela IA generativa proporcionam aos usuários “maior satisfação” com o serviço de busca. As respostas geradas pela IA, via de regra, não são alucinações – o sistema às vezes simplesmente interpreta mal o que está na Internet.

«Não há argumento melhor do que milhões de pessoas usando esse recurso com muitas novas consultas. Também notamos novas consultas sem sentido que pareciam ter a intenção de produzir resultados errôneos”, disse Reed. A empresa, no entanto, continua trabalhando no recurso, limitando o aparecimento de análises de IA nos resultados de busca para consultas “sem sentido” e ao trabalhar com materiais satíricos. Isto é importante porque inicialmente o sistema poderia citar um recurso satírico ou referir-se a um usuário de rede social com um apelido indecente.

Reed também comparou as análises de IA ao recurso de pesquisa “Descrições destacadas”, que são blocos de texto de páginas da web relevantes fornecidas sem o uso de IA generativa. Os “níveis de precisão” das duas funções são praticamente os mesmos, disse o executivo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *