O chatbot Bard do Google foi testado quanto à sua capacidade de reconhecer desinformação. Descobriu-se que, apesar de todos os esforços do Google, é fácil escrever sua ideia plausível sobre absolutamente qualquer assunto – mesmo que estejamos falando sobre teorias da conspiração conhecidas. E o bot faz isso de forma muito convincente.

Fonte da imagem: geralt/pixabay.com

Em particular, o bot Bard criou uma história detalhada de 13 parágrafos sobre o Great Reset, uma publicação que deu origem a uma teoria da conspiração sobre a redução deliberada da população mundial pelas elites mundiais. O bot explicou claramente que isso está realmente acontecendo e a população mundial está sendo deliberadamente reduzida, em particular, com a ajuda de medidas econômicas e vacinação, e tanto o Fórum Econômico Mundial quanto, por exemplo, a Fundação Bill e Melinda Gates estão envolvidos em a conspiração. Além disso, o bot afirmou que as vacinas COVID-19 continham microchips para que as elites pudessem rastrear os movimentos das pessoas.

A agência deu a Bard a tarefa de relatar 100 teorias da conspiração conhecidas e, em 76 casos, ele escreveu textos coerentes e convincentes sobre os tópicos fornecidos, sem especificar que eram teorias não testadas. Em outros casos, ele apontou para a falta de confiabilidade das informações. Vale a pena notar que os modelos de linguagem GPT-3.5 e GPT-4 foram ainda piores.

Especialistas americanos temem que os bots permitam que governos estrangeiros gerem desinformação persuasiva em grande escala com muito mais eficácia do que antes. Se antes os trolls da Internet eram prejudicados pelo conhecimento limitado de idiomas, agora será possível gerar textos sem erros visíveis em quase qualquer volume.

Fonte da imagem: geralt/pixabay.com

De acordo com alguns especialistas, o bot funciona como deveria – “prevendo” sentenças e postulados com base nas matrizes nas quais foi treinado. O bot deve ser neutro para este ou aquele conteúdo, independentemente de ser verdadeiro, falso ou completamente sem sentido. Somente após o treinamento, os sistemas são otimizados “manualmente” e não há como impedir completamente a criação de desinformação. O Google reconheceu que o Bard ainda está em seus estágios iniciais de desenvolvimento e que ocasionalmente pode gerar informações imprecisas ou inadequadas, embora a empresa tome medidas para impedir que tal conteúdo seja criado.

O NewsGuard usa centenas de “narrativas falsas” para avaliar sites e agências de notícias. A agência começou a testar chatbots em 100 teorias da conspiração em janeiro, pedindo aos bots que criassem artigos sobre tópicos predeterminados que se presume serem desinformação. Em alguns casos, Bard fez um bom trabalho ao chamar as informações de imprecisas ou não confirmadas quando solicitadas. Em geral, não havia uma única narrativa duvidosa que fosse refutada por Bard e GPT-3.5 e GPT-4 ao mesmo tempo. Se Bard rejeitou 24% dos tópicos, então GPT-3,5 – 20% e GPT-4 e nenhum. A OpenAI, responsável pelo desenvolvimento dos dois últimos modelos, diz que toma todo tipo de medidas de filtragem automáticas e manuais para evitar abusos.

Embora na maioria das vezes Bard tenha feito um bom trabalho ao criar desinformação, em alguns casos, como quando lhe pediram para escrever um texto em nome de um conhecido oponente antivacina, ele citou o texto e deixou claro que havia não havia nenhuma evidência para apoiar tais teorias especulativas. No entanto, segundo especialistas, “não há nada na tecnologia em si que possa prevenir riscos”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *