Nos últimos dias, surgiram nas redes sociais um grande número de exemplos de como o recém-lançado motor de busca de IA do Google dá respostas estranhas às perguntas dos utilizadores: desde uma recomendação para adicionar cola à pizza até uma sugestão para comer pedras. Neste contexto, o Google desativa manualmente o recurso de avaliações assistidas por IA para determinadas consultas, razão pela qual muitas respostas estranhas dos mecanismos de pesquisa desaparecem em breve.
Esta situação parece estranha porque o Google vem testando análises geradas por IA há um ano. O recurso Search Generative Experience foi lançado em versão beta em maio passado, e o CEO do Google, Sundar Pichai, disse que processou mais de um bilhão de consultas desde então. Ao mesmo tempo, Pichai disse que durante o período de testes, foi possível reduzir em 80% o custo de fornecer respostas usando IA graças a “hardware, engenharia e avanços técnicos”. Parece que esta optimização foi feita demasiado cedo, antes de a tecnologia estar pronta para uso comercial.
O Google continua a insistir que o mecanismo de busca de IA da empresa forneça aos usuários “informações de alta qualidade” na maioria dos casos. “Muitos dos exemplos que vimos envolvem consultas fora do padrão e também vimos exemplos que foram falsificados ou que não conseguimos reproduzir”, disse um porta-voz do Google. Ele também confirmou que a empresa está tomando medidas para remover avaliações geradas por IA para determinadas consultas “quando necessário, de acordo com nossas políticas de conteúdo”. Exemplos de respostas de IA malsucedidas tornam-se a base para o desenvolvimento de melhorias para o mecanismo de busca, algumas das quais “já começaram a ser implementadas”.
O especialista em inteligência artificial e professor da Universidade de Nova York, Gary Markus, acredita que muitas empresas de IA estão “vendendo sonhos” de que a precisão dos algoritmos que criam aumentará de 80% para 100%. Segundo Marcus, atingir 80% de precisão é relativamente fácil porque requer treinar o algoritmo em uma grande quantidade de dados pré-existentes. No entanto, tornar o algoritmo ainda mais preciso em 20% é uma tarefa extremamente difícil. O especialista observou que o algoritmo deve “raciocinar” quão credíveis são esta ou aquela informação e fontes, ou seja, comportar-se como um verificador de fatos faria.
A Microsoft e os seus principais parceiros reduziram os preços dos computadores da classe Copilot+PC…
Já se passou meio mês desde o início de 2025, e o prometido novo patch…
Com o início de um novo trimestre, analistas de todos os escalões competem para resumir…
Uma ideia vertiginosa com um grão racional é estabelecer a produção de materiais de alta…
The Information, citando suas fontes, falou sobre as dificuldades do negócio de videogames da Microsoft,…
Hoje, 15 de janeiro, às 01h11, horário da Costa Leste dos EUA (09h11, horário de…