A Microsoft desenvolveu um conjunto de padrões projetados para ajudar a avaliar a veracidade do conteúdo publicado online. Os especialistas da empresa decidiram avaliar a eficácia de métodos para documentar conteúdo manipulado digitalmente, como deepfakes e imagens hiper-realistas geradas por IA. Isso resultou em padrões técnicos que podem ser usados por desenvolvedores de IA e plataformas de mídia social.

Fonte da imagem: Aidin Geranrekab / unsplash.com
A Microsoft explicou seu esquema de verificação de materiais usando o exemplo de uma pintura de Rembrandt, cuja autenticidade precisa ser documentada. Sua procedência pode ser rastreada compilando-se uma lista detalhada de suas origens e de todas as vezes em que mudou de mãos. A pintura pode ser digitalizada, representada digitalmente e uma assinatura matemática, semelhante a uma impressão digital, pode ser gerada com base nas pinceladas. Quando a pintura é exibida em um museu, um visitante cético pode examinar esses materiais e verificar sua autenticidade.
Todos esses métodos já são usados em diferentes graus para verificar conteúdo online — a Microsoft avaliou 60 combinações diferentes desses métodos e modelou o desempenho de cada um em vários cenários — desde a simples remoção de metadados até pequenas modificações ou manipulação deliberada do conteúdo. Os pesquisadores da empresa determinaram quais combinações produzem resultados confiáveis o suficiente para serem demonstrados a um público amplo e quais são tão pouco confiáveis que podem confundir ainda mais as coisas em vez de esclarecê-las.
O projeto foi motivado por diversas iniciativas legislativas, incluindo a “Lei de Transparência da IA”, que entrará em vigor na Califórnia em agosto. No entanto, a Microsoft se recusou a dizer se implementaria essas recomendações em suas próprias plataformas. Ela opera o pacote de serviços de IA Copilot, capaz de gerar texto e imagens; a plataforma de nuvem Azure, que executa modelos de IA; e possui participação na desenvolvedora de IA OpenAI.também a rede social profissional LinkedIn.

Fonte da imagem: Steve Johnson / unsplash.com
Vale ressaltar que as ferramentas propostas pela Microsoft não têm como objetivo determinar a veracidade ou falsidade do conteúdo em si; elas apenas indicam se o conteúdo foi manipulado, fornecendo informações sobre a origem da informação. Especialistas acreditam que, se o setor adotasse essas ferramentas, enganar o público com conteúdo fabricado se tornaria muito mais difícil.
Em 2021, a Microsoft propôs o padrão C2PA, projetado para rastrear a origem do conteúdo; a partir de 2023, o Google começou a adicionar uma marca d’água ao conteúdo gerado por IA. No entanto, o conjunto completo de ferramentas que a Microsoft oferece agora corre o risco de permanecer apenas uma proposta se os participantes do mercado o perceberem como uma ameaça aos seus modelos de negócios.
As ferramentas existentes nem sempre são confiáveis: apenas 30% das postagens de teste no Instagram, LinkedIn, Pinterest, TikTok e YouTube foram corretamente rotuladas como geradas por IA, de acordo com um estudo. Portanto, a rápida implementação de ferramentas de verificação de conteúdo é arriscada — se elas começarem a falhar, as pessoas simplesmente deixarão de confiar nelas. Mecanismos de verificação abrangentes parecem mais confiáveis. Por exemplo, se uma imagem legítima for submetida apenas a pequenas edições de IA, as plataformas podem começar a tratá-la como se tivesse sido gerada do zero por IA — um processo de verificação abrangente tem menos probabilidade de gerar falsos positivos.