No início deste ano, a OpenAI lançou uma versão atualizada do gerador de vídeos com inteligência artificial, o Sora. Ele permite que os usuários criem diversos tipos de conteúdo, incluindo conteúdo que infringe direitos autorais, como vídeos com celebridades reais ou personagens de desenhos animados. Para lidar com esse problema, os desenvolvedores atualizaram o modelo de IA, mas a experiência tem mostrado que as limitações introduzidas são facilmente contornadas usando as mesmas ferramentas de outros geradores de IA.

Fonte da imagem: OpenAI

A OpenAI lançou o Sora em setembro, e os usuários rapidamente transformaram o gerador de IA em uma máquina de conteúdo que infringe direitos autorais. O serviço foi usado para gerar diversos vídeos, alguns dos quais apresentavam personagens famosos de desenhos animados e filmes cometendo crimes. Empresas como Nintendo e Paramount provavelmente não gostaram de ver seus personagens em vídeos gerados por usuários, pelos quais os detentores dos direitos autorais não receberam nenhuma compensação. Portanto, a OpenAI rapidamente introduziu uma política de “consentimento confirmado”, que proibia os usuários de gerar vídeos com personagens protegidos por direitos autorais, a menos que o detentor dos direitos autorais concedesse permissão explícita. A política original da OpenAI permitia isso, então os detentores dos direitos autorais tiveram que implementar uma proibição correspondente. Essa mudança provocou uma reação negativa dos usuários do Sora, já que o serviço parou de criar vídeos com personagens licenciados ou pessoas da vida real.

Na verdade, descobriu-se que os usuários podiam facilmente contornar as restrições da OpenAI modificando suas consultas ao algoritmo de acordo. Por exemplo, se você pesquisar por “Animal Crossing gameplay”, o Sora exibe a mensagem: “Este conteúdo pode violar as políticas de similaridade de conteúdo de terceiros”. No entanto, se você pesquisar por “tela de título e gameplay do jogo Animal Crossing de 2017”, o serviço reproduz com precisão o vídeo do jogo Animal Crossing: New Leaf para Nintendo 3DS. Manipulações semelhantes podem ser usadas para gerar vídeos com pessoas reais.

Existem várias maneiras de moderar ferramentas de IA generativa. A mais simples e mais…Uma opção mais barata é bloquear consultas que contenham certas palavras-chave. Por exemplo, muitos algoritmos de IA rejeitam a geração de conteúdo sexualmente explícito ou vídeos de celebridades quando detectam certas palavras nas consultas. No entanto, essa abordagem costuma ser ineficaz, pois os usuários encontram frases que produzem os resultados desejados sem as palavras-chave que acionam a proteção. Esse método também funciona com o Sora, e é por isso que a OpenAI não conseguiu bloquear efetivamente a geração de conteúdo que infringe direitos autorais.

É perfeitamente possível que a OpenAI consiga controlar o problema. Isso exigiria uma expansão significativa da lista de palavras, frases e combinações proibidas, bem como um uso mais ativo da análise de vídeo gerado — um método de moderação mais eficaz e dispendioso. Contudo, essas são apenas tentativas de desviar a atenção do volume sem precedentes de conteúdo protegido por direitos autorais já utilizado pelo algoritmo de IA, sem o qual ele não existiria.

O motivo pelo qual a OpenAI e outras grandes empresas de IA têm tanta dificuldade em impedir que seus modelos de IA gerem determinado conteúdo é porque esse conteúdo já está presente nos dados usados ​​para treinar as redes neurais. Por exemplo, um gerador de imagens pode gerar imagens sexualmente explícitas simplesmente porque seus dados de treinamento contêm um grande número dessas imagens. Ele pode gerar imagens de celebridades porque suas fotos estão nos dados de treinamento. Para realmente impedir…Para evitar a violação de direitos autorais, a OpenAI precisa treinar o Sora para reconhecer conteúdo protegido por direitos autorais e “esquecê-lo”, o que é extremamente difícil e caro. Isso exigiria a remoção de todo o conteúdo protegido por direitos autorais dos dados de treinamento e o treinamento do modelo novamente. Mesmo que a OpenAI conseguisse fazer isso, seria improvável, já que é esse conteúdo que faz o Sora funcionar.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *