Os principais chatbots de IA não conseguiram detectar se os vídeos enviados a eles foram criados pelo gerador Sora da OpenAI — nem mesmo o ChatGPT da própria OpenAI conseguiu. Os especialistas da NewsGuard realizaram os testes correspondentes.

Fonte da imagem: Solen Feyissa / unsplash.com

O gerador de vídeos Sora, da OpenAI, rapidamente ganhou a reputação de enganar as pessoas, fazendo-as acreditar que vídeos gerados por IA são reais — e também pode enganar outros serviços de IA. Vídeos do Sora sem marca d’água não foram detectados pelo xAI Grok (95% de erros), pelo OpenAI ChatGPT (92,5%) e pelo Google Gemini (78%). É claro que o desempenho ruim do ChatGPT, um produto do mesmo desenvolvedor, é digno de nota. Nem mesmo as marcas d’água garantiram a precisão: o Grok falhou em reconhecer vídeos gerados por IA em 30% dos casos, e o ChatGPT falhou em 7,5%.

A OpenAI adiciona marcas d’água visíveis aos vídeos do Sora, mas já existem serviços online gratuitos para removê-las. Os autores do NewsGuard submeteram 20 vídeos a esse processo e os carregaram em conversas com chatbots, com e sem marcas d’água. O Grok falhou em fornecer a resposta correta em 95% dos casos (38 de 40 vídeos), o ChatGPT em 92,5% (37 de 40) e o Gemini em 78% (31 de 40). O ChatGPT e o Gemini falharam ao responder a um vídeo gerado por IA de um adolescente sendo detido por autoridades de imigração — os chatbots afirmaram que a cena era precisa ou confirmada por “fontes de notícias” e que o incidente ocorreu na fronteira entre os EUA e o México. Os chatbots também confirmaram a autenticidade do vídeo gerado por IA em uma cena na qual um funcionário de uma companhia aérea supostamente desembarca um passageiro pelo chapéu com um slogan político.

A adição de marca d’água melhorou significativamente o desempenho deles. O Grok chegou a afirmar, de forma peculiar, que o vídeo pertencia à agência de notícias Sora News, que, na verdade, não existe.Mas, na maioria dos casos, ChatGPT, Gemini e Grok apontaram a marca d’água como evidência de falsificação e também observaram sinais adicionais de IA em ação — distorções eIluminação artificial. A presença de uma marca d’água também levou os chatbots a verificarem os fatos com mais rigor.

O Google Gemini é o único chatbot testado que incluiu a capacidade de detectar conteúdo de IA gerado pelo modelo Nano Banana Pro da mesma empresa. O chatbot teve um desempenho ruim com vídeos do Sora, mas ao carregar vídeos do Nano Banana Pro, os resultados foram significativamente melhores — mesmo sem marca d’água, a resposta estava correta em todas as cinco tentativas. Os autores do estudo não testaram a capacidade do Grok e do ChatGPT de reconhecer seu próprio conteúdo; a xAI e a OpenAI não fizeram nenhuma afirmação sobre tal capacidade.

Os serviços de IA geralmente relutam em admitir respostas incorretas, e os testes da NewsGuard confirmaram isso: o ChatGPT, o Gemini e o Grok, respectivamente, relataram não conseguir realizar tal análise em 2,5%, 10% e 13% dos casos. No entanto, esses erros eram, na maioria das vezes, do mesmo tipo — uma resposta indicando que o vídeo gerado por IA era genuíno. O Google observou que os vídeos gerados pelos serviços de IA da empresa são rotulados usando o padrão SynthID; Um representante da OpenAI afirmou explicitamente que o ChatGPT é incapaz de distinguir vídeos gerados por IA de vídeos reais; a xAI não se pronunciou.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *