Após uma série de casos em que a inteligência artificial (IA) do Google forneceu dados imprecisos em seu mecanismo de busca, desde avaliações contraditórias de empresas até conselhos médicos perigosos, a empresa começou oficialmente a contratar engenheiros responsáveis pela qualidade das respostas de sua IA.
Na vaga de emprego, a empresa explica que pretende reimaginar o processo de busca de informações, o que exige a resolução de problemas complexos de engenharia sem sacrificar a versatilidade do serviço de busca. Os novos funcionários serão responsáveis pela qualidade das respostas da rede neural, especificamente pelo recurso Visão Geral da IA no Google. Como observa o BleepingComputer, esta é a primeira vez que o Google reconhece indiretamente a necessidade de aprimorar e refinar esse recurso.
O problema tornou-se particularmente evidente após uma atualização recente, quando o Google começou a direcionar os usuários de forma mais ativa para o chamado Modo IA e a integrar a Visão Geral da IA ao feed Discover, incluindo a reescrita automática de manchetes de notícias. No entanto, apesar das melhorias na precisão das respostas nos últimos meses, o sistema continua apresentando erros.
Por exemplo, um jornalista do BleepingComputer solicitou informações sobre a avaliação de uma determinada startup e recebeu uma resposta da IA indicando um valor de US$ 4 milhões. No entanto, uma pequena reformulação da pergunta resultou em uma avaliação da empresa superior a US$ 70 milhões. Contudo, uma verificação mais aprofundada dos links gerados pelo Google revelou que nenhuma dessas respostas era precisa.
E esses casos não são isolados. Já foi relatado anteriormente que uma rede neural pode fornecer aos usuários informações médicas enganosas ou potencialmente perigosas.conselhos, aumentando o risco para os usuários que tendem a confiar em informações do Google sem verificação adicional.