A OpenAI lançou uma atualização para seu gerador de vídeos de IA, Sora, que dará aos usuários mais controle sobre seus dublês de IA, permitindo que eles monitorem como e onde suas versões falsas aparecem no aplicativo.

Fonte da imagem: OpenAI

O The Verge observou que o Sora é essencialmente um “TikTok para deepfakes”, permitindo que os usuários gerem vídeos de 10 segundos sobre diversos tópicos, incluindo aqueles com versões de si mesmos ou de outras pessoas com narrações em IA usando o recurso “cameo”. Críticos chamaram a criação de vídeos usando “cameo” de um desastre de desinformação iminente.

Bill Peebles, chefe da equipe do Sora na OpenAI, relatou que, com a atualização, os usuários agora podem restringir o uso de suas versões de IA no aplicativo. Por exemplo, eles podem impedir que seu dublê de IA apareça em vídeos políticos ou diga certas palavras. Eles também podem restringir certos cenários — por exemplo, se um usuário não gosta de mostarda, ele pode impedir que seu dublê de IA apareça ao lado desse condimento.

A OpenAI relatou que os usuários também podem especificar certas preferências para seus dublês virtuais, como “usar um boné de beisebol com o slogan ‘#1 Ketchup Fan’ em todos os vídeos”.

Naturalmente, há preocupações de que os usuários consigam burlar essas restrições, como já aconteceu com as marcas d’água. Peebles afirmou que a empresa está trabalhando para melhorar sua proteção. Ele também observou que os desenvolvedores do Sora continuarão a “se esforçar para restringir ainda mais as restrições” e “adicionar novas maneiras de controlar a situação”.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *