Nos próximos meses, Meta✴ começará a marcar imagens geradas por IA carregadas no Facebook✴, Instagram✴ e Threads enquanto se prepara para as eleições nos EUA. Os usuários da plataforma que enviarem arquivos de áudio e vídeo realistas gerados pela IA, mas se recusarem a divulgar sua origem, enfrentarão penalidades.

Fonte da imagem: Gerd Altmann / pixabay.com

O presidente de Assuntos Internacionais da Meta✴, Nick Clegg, disse que as medidas têm como objetivo galvanizar a indústria de tecnologia, já que a mídia gerada por IA é cada vez mais difícil de distinguir da real. A empresa também está desenvolvendo ferramentas para detectar conteúdo gerado por IA, mesmo que seus metadados tenham sido editados. A Meta✴ possui seu próprio gerador de imagens Imagine, e as imagens que ela cria nas plataformas da empresa já vêm marcadas com a marca d’água Imagined with AI; Da mesma forma, serão marcadas imagens criadas com ferramentas do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.

A indústria de tecnologia, de acordo com Clegg, está cada vez mais atrasada no desenvolvimento de padrões para identificar áudio e vídeo gerados por IA – Meta✴ precisa monitorar cuidadosamente como eles podem ser usados ​​para falsificação, mas não consegue identificar todos os materiais por conta própria . A empresa, com o apoio de parceiros, está desenvolvendo diversas iniciativas para garantir a autenticidade do conteúdo. A Adobe introduziu o sistema Content Credentials para marcar conteúdo de IA em metadados e quando exibido em sites; O Google introduziu recentemente uma nova versão da marca d’água SynthID para arquivos de áudio. O Meta✴ em breve começará a exigir que seus usuários divulguem informações sobre gravações realistas de vídeo e áudio geradas por IA, acrescentou Clegg. Quem não fizer isso enfrentará consequências: desde advertência até remoção da publicação com tal conteúdo.

Haverá eleições presidenciais nos Estados Unidos este ano e, em antecipação a este evento, já apareceram muitas publicações virais criadas pela IA em nome de políticos. Mas, segundo Clegg, tais materiais ou não têm peso político ou são rapidamente descobertos pela administração das plataformas. Meta✴ também está começando a testar grandes modelos de linguagem treinados de acordo com os padrões da comunidade – eles funcionarão como uma ferramenta auxiliar para moderadores humanos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *