O Google está tentando remover manualmente respostas prejudiciais e estranhas de seu mecanismo de busca de IA

Nos últimos dias, surgiram nas redes sociais um grande número de exemplos de como o recém-lançado motor de busca de IA do Google dá respostas estranhas às perguntas dos utilizadores: desde uma recomendação para adicionar cola à pizza até uma sugestão para comer pedras. Neste contexto, o Google desativa manualmente o recurso de avaliações assistidas por IA para determinadas consultas, razão pela qual muitas respostas estranhas dos mecanismos de pesquisa desaparecem em breve.

Fonte da imagem: Pixabay

Esta situação parece estranha porque o Google vem testando análises geradas por IA há um ano. O recurso Search Generative Experience foi lançado em versão beta em maio passado, e o CEO do Google, Sundar Pichai, disse que processou mais de um bilhão de consultas desde então. Ao mesmo tempo, Pichai disse que durante o período de testes, foi possível reduzir em 80% o custo de fornecer respostas usando IA graças a “hardware, engenharia e avanços técnicos”. Parece que esta optimização foi feita demasiado cedo, antes de a tecnologia estar pronta para uso comercial.

O Google continua a insistir que o mecanismo de busca de IA da empresa forneça aos usuários “informações de alta qualidade” na maioria dos casos. “Muitos dos exemplos que vimos envolvem consultas fora do padrão e também vimos exemplos que foram falsificados ou que não conseguimos reproduzir”, disse um porta-voz do Google. Ele também confirmou que a empresa está tomando medidas para remover avaliações geradas por IA para determinadas consultas “quando necessário, de acordo com nossas políticas de conteúdo”. Exemplos de respostas de IA malsucedidas tornam-se a base para o desenvolvimento de melhorias para o mecanismo de busca, algumas das quais “já começaram a ser implementadas”.

O especialista em inteligência artificial e professor da Universidade de Nova York, Gary Markus, acredita que muitas empresas de IA estão “vendendo sonhos” de que a precisão dos algoritmos que criam aumentará de 80% para 100%. Segundo Marcus, atingir 80% de precisão é relativamente fácil porque requer treinar o algoritmo em uma grande quantidade de dados pré-existentes. No entanto, tornar o algoritmo ainda mais preciso em 20% é uma tarefa extremamente difícil. O especialista observou que o algoritmo deve “raciocinar” quão credíveis são esta ou aquela informação e fontes, ou seja, comportar-se como um verificador de fatos faria.

avalanche

Postagens recentes

A MCST recebeu um lote de 10.000 processadores Elbrus-2S3.

Em 2025, a empresa privada russa MCST recebeu mais de 10.000 processadores Elbrus-2S3 de um…

3 horas atrás

A OpenAI investe US$ 500 milhões na unidade de energia da SoftBank, a SB Energy.

O OpenAI Group está investindo US$ 500 milhões na SB Energy, uma subsidiária do SoftBank…

10 horas atrás

A AMD superou a Nvidia por 210 a 120 em menções à IA na apresentação da CES 2026.

Na CES 2026, realizada esta semana em Las Vegas, EUA, as tecnologias de IA foram…

10 horas atrás

O Windows 11 contará com uma maneira oficial de desinstalar o Copilot.

Usuários com privilégios de administrador agora podem desinstalar o aplicativo Microsoft Copilot pré-instalado em dispositivos…

12 horas atrás

O aplicativo Microsoft Lens será completamente descontinuado em março de 2026.

A Microsoft descontinuou oficialmente o aplicativo Microsoft Lens para dispositivos iOS e Android, com efeito…

12 horas atrás

O smartphone modular Meizu 22 Air foi descontinuado devido ao aumento dos custos de memória.

A Meizu cancelou oficialmente o lançamento do Meizu 22 Air modular, anunciando a decisão durante…

12 horas atrás