Após uma série de casos em que a inteligência artificial (IA) do Google forneceu dados imprecisos em seu mecanismo de busca, desde avaliações contraditórias de empresas até conselhos médicos perigosos, a empresa começou oficialmente a contratar engenheiros responsáveis ​​pela qualidade das respostas de sua IA.

Na vaga de emprego, a empresa explica que pretende reimaginar o processo de busca de informações, o que exige a resolução de problemas complexos de engenharia sem sacrificar a versatilidade do serviço de busca. Os novos funcionários serão responsáveis ​​pela qualidade das respostas da rede neural, especificamente pelo recurso Visão Geral da IA ​​no Google. Como observa o BleepingComputer, esta é a primeira vez que o Google reconhece indiretamente a necessidade de aprimorar e refinar esse recurso.

O problema tornou-se particularmente evidente após uma atualização recente, quando o Google começou a direcionar os usuários de forma mais ativa para o chamado Modo IA e a integrar a Visão Geral da IA ​​ao feed Discover, incluindo a reescrita automática de manchetes de notícias. No entanto, apesar das melhorias na precisão das respostas nos últimos meses, o sistema continua apresentando erros.

Por exemplo, um jornalista do BleepingComputer solicitou informações sobre a avaliação de uma determinada startup e recebeu uma resposta da IA ​​indicando um valor de US$ 4 milhões. No entanto, uma pequena reformulação da pergunta resultou em uma avaliação da empresa superior a US$ 70 milhões. Contudo, uma verificação mais aprofundada dos links gerados pelo Google revelou que nenhuma dessas respostas era precisa.

E esses casos não são isolados. Já foi relatado anteriormente que uma rede neural pode fornecer aos usuários informações médicas enganosas ou potencialmente perigosas.conselhos, aumentando o risco para os usuários que tendem a confiar em informações do Google sem verificação adicional.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *