Os principais chatbots de IA não conseguiram detectar se os vídeos enviados a eles foram criados pelo gerador Sora da OpenAI — nem mesmo o ChatGPT da própria OpenAI conseguiu. Os especialistas da NewsGuard realizaram os testes correspondentes.
Fonte da imagem: Solen Feyissa / unsplash.com
O gerador de vídeos Sora, da OpenAI, rapidamente ganhou a reputação de enganar as pessoas, fazendo-as acreditar que vídeos gerados por IA são reais — e também pode enganar outros serviços de IA. Vídeos do Sora sem marca d’água não foram detectados pelo xAI Grok (95% de erros), pelo OpenAI ChatGPT (92,5%) e pelo Google Gemini (78%). É claro que o desempenho ruim do ChatGPT, um produto do mesmo desenvolvedor, é digno de nota. Nem mesmo as marcas d’água garantiram a precisão: o Grok falhou em reconhecer vídeos gerados por IA em 30% dos casos, e o ChatGPT falhou em 7,5%.
A OpenAI adiciona marcas d’água visíveis aos vídeos do Sora, mas já existem serviços online gratuitos para removê-las. Os autores do NewsGuard submeteram 20 vídeos a esse processo e os carregaram em conversas com chatbots, com e sem marcas d’água. O Grok falhou em fornecer a resposta correta em 95% dos casos (38 de 40 vídeos), o ChatGPT em 92,5% (37 de 40) e o Gemini em 78% (31 de 40). O ChatGPT e o Gemini falharam ao responder a um vídeo gerado por IA de um adolescente sendo detido por autoridades de imigração — os chatbots afirmaram que a cena era precisa ou confirmada por “fontes de notícias” e que o incidente ocorreu na fronteira entre os EUA e o México. Os chatbots também confirmaram a autenticidade do vídeo gerado por IA em uma cena na qual um funcionário de uma companhia aérea supostamente desembarca um passageiro pelo chapéu com um slogan político.
A adição de marca d’água melhorou significativamente o desempenho deles. O Grok chegou a afirmar, de forma peculiar, que o vídeo pertencia à agência de notícias Sora News, que, na verdade, não existe.Mas, na maioria dos casos, ChatGPT, Gemini e Grok apontaram a marca d’água como evidência de falsificação e também observaram sinais adicionais de IA em ação — distorções eIluminação artificial. A presença de uma marca d’água também levou os chatbots a verificarem os fatos com mais rigor.
O Google Gemini é o único chatbot testado que incluiu a capacidade de detectar conteúdo de IA gerado pelo modelo Nano Banana Pro da mesma empresa. O chatbot teve um desempenho ruim com vídeos do Sora, mas ao carregar vídeos do Nano Banana Pro, os resultados foram significativamente melhores — mesmo sem marca d’água, a resposta estava correta em todas as cinco tentativas. Os autores do estudo não testaram a capacidade do Grok e do ChatGPT de reconhecer seu próprio conteúdo; a xAI e a OpenAI não fizeram nenhuma afirmação sobre tal capacidade.
Os serviços de IA geralmente relutam em admitir respostas incorretas, e os testes da NewsGuard confirmaram isso: o ChatGPT, o Gemini e o Grok, respectivamente, relataram não conseguir realizar tal análise em 2,5%, 10% e 13% dos casos. No entanto, esses erros eram, na maioria das vezes, do mesmo tipo — uma resposta indicando que o vídeo gerado por IA era genuíno. O Google observou que os vídeos gerados pelos serviços de IA da empresa são rotulados usando o padrão SynthID; Um representante da OpenAI afirmou explicitamente que o ChatGPT é incapaz de distinguir vídeos gerados por IA de vídeos reais; a xAI não se pronunciou.
A última sexta-feira não foi um bom dia para a startup de IA Anthropic, já…
Um problema na transferência de hélio no estágio intermediário do foguete SLS, na segunda quinzena…
Em meio ao crescente boom da IA, os compradores estão dispostos a pagar por uma…
A Nvidia lançou a versão 595.76 do driver de correção, que resolve problemas de voltagem…
O lançamento do Aluminum OS, que visa unificar o Chrome OS e o Android em…
Informações sobre o lançamento iminente do sistema operacional Windows 12, que circularam recentemente online, foram…