Rede neural de imagem no meio da jornada foi interrompida gratuitamente devido a abuso de deepfake

Midjourney fechou o acesso gratuito à sua rede neural homônima, que permite gerar imagens a partir de uma descrição de texto. Isso aconteceu depois que os usuários começaram a usar ativamente a rede neural para criar deepfakes com a participação de personalidades famosas.

Fonte da imagem: Midjourney

O fundador e CEO da Midjourney, David Holz, anunciou em um canal oficial do Discord que a empresa está fechando o programa de teste gratuito “devido à demanda extrema e também ao abuso do usuário”. Segundo Holtz, as novas regras de segurança da rede neural Midjourney foram “insuficientes” para evitar o uso indevido do gerador de imagens AI durante o período de teste. A partir de agora, os usuários do Midjourney terão que pagar US$ 10 por mês para usar a tecnologia.

De acordo com o The Washington Post, Midjourney tem sido o foco de atenção indesejada ultimamente. Os usuários, usando a rede neural especificada, começaram a criar imagens falsas da prisão do ex-presidente dos Estados Unidos Donald Trump, bem como imagens do Papa Francisco andando com uma jaqueta da moda. Embora essas imagens tenham sido rapidamente desmascaradas como falsas, os invasores podem usar redes neurais generativas como Midjourney, DALL-E da OpenAI e similares para espalhar desinformação online.

Midjourney reconheceu que as regras para usar algoritmos de IA para criar imagens precisam ser aprimoradas. Em 2022, Holtz proibiu o uso de Midjourney para criar deepfakes com o líder chinês Xi Jinping. Ele explicou isso pelo fato de que o acesso ao mercado chinês para a empresa é mais importante do que a capacidade dos usuários de criar conteúdo satírico. Falando aos usuários no Discord nesta quinta-feira, Holtz lamentou que moldar a política em torno da criação de conteúdo de IA com o Midjourney tenha sido ainda mais complicado pelo fato de que a IA agora é capaz de criar imagens ainda mais realistas. Apesar disso, a empresa continuará melhorando a moderação do conteúdo de IA e identificando casos de abuso em sua criação, acrescentou.

Alguns desenvolvedores de redes neurais para geração de imagens já introduziram regras mais rígidas quanto ao seu uso. Por exemplo, OpenAI proibiu a criação de qualquer imagem que esteja de alguma forma relacionada a eventos políticos atuais, políticos e teorias da conspiração. Ela também baniu conteúdo relacionado a ódio, violência e sexo. No entanto, outros ainda aderem a regras mais flexíveis. A Stability AI não permite que a rede neural Stable Diffusion copie estilos ou crie as chamadas imagens “não seguras para o trabalho”. No entanto, em geral, a empresa não dita aos usuários quais imagens podem ou não ser criadas.

avalanche

Postagens recentes

Slay the Spire 2 – Adeus Tempo Livre! Prévia / Jogos

Passei mais de quatrocentas horas jogando o primeiro Slay the Spire, e que horas maravilhosas…

2 horas atrás

A nova temporada de Warface, “Steel Quarters”, promete: brutalidade em todas as pistas de patinação!

Warface vem encantando fãs de ação online há quase quatorze anos, e a temporada "Steel…

4 horas atrás

O SoftBank tomou emprestado US$ 40 bilhões por um ano para investir na OpenAI.

O SoftBank Group, holding multinacional japonesa e um dos maiores investidores mundiais no setor de…

5 horas atrás

A Meta construirá sete usinas termelétricas a gás com capacidade total de 5,2 GW para acompanhar a corrida da IA.

Segundo a Bloomberg, a Meta✴ financiará a construção de sete novas usinas termelétricas a gás…

5 horas atrás

“Mandem-me para o futuro para que eu possa jogar este jogo”: Novas imagens de jogabilidade do RPG de ação no estilo Mass Effect, Exodus, deixam os fãs empolgados.

A Archetype Entertainment, veterana da BioWare, divulgou novas imagens de jogabilidade de Exodus, seu ambicioso…

5 horas atrás

Uma vulnerabilidade zero-day perigosa foi descoberta no Telegram, mas os detalhes estão sendo mantidos em segredo.

Michael Deplante, especialista em segurança da informação associado à Zero Day Initiative da TrendAI, descobriu…

5 horas atrás