Rede neural de imagem no meio da jornada foi interrompida gratuitamente devido a abuso de deepfake

Midjourney fechou o acesso gratuito à sua rede neural homônima, que permite gerar imagens a partir de uma descrição de texto. Isso aconteceu depois que os usuários começaram a usar ativamente a rede neural para criar deepfakes com a participação de personalidades famosas.

Fonte da imagem: Midjourney

O fundador e CEO da Midjourney, David Holz, anunciou em um canal oficial do Discord que a empresa está fechando o programa de teste gratuito “devido à demanda extrema e também ao abuso do usuário”. Segundo Holtz, as novas regras de segurança da rede neural Midjourney foram “insuficientes” para evitar o uso indevido do gerador de imagens AI durante o período de teste. A partir de agora, os usuários do Midjourney terão que pagar US$ 10 por mês para usar a tecnologia.

De acordo com o The Washington Post, Midjourney tem sido o foco de atenção indesejada ultimamente. Os usuários, usando a rede neural especificada, começaram a criar imagens falsas da prisão do ex-presidente dos Estados Unidos Donald Trump, bem como imagens do Papa Francisco andando com uma jaqueta da moda. Embora essas imagens tenham sido rapidamente desmascaradas como falsas, os invasores podem usar redes neurais generativas como Midjourney, DALL-E da OpenAI e similares para espalhar desinformação online.

Midjourney reconheceu que as regras para usar algoritmos de IA para criar imagens precisam ser aprimoradas. Em 2022, Holtz proibiu o uso de Midjourney para criar deepfakes com o líder chinês Xi Jinping. Ele explicou isso pelo fato de que o acesso ao mercado chinês para a empresa é mais importante do que a capacidade dos usuários de criar conteúdo satírico. Falando aos usuários no Discord nesta quinta-feira, Holtz lamentou que moldar a política em torno da criação de conteúdo de IA com o Midjourney tenha sido ainda mais complicado pelo fato de que a IA agora é capaz de criar imagens ainda mais realistas. Apesar disso, a empresa continuará melhorando a moderação do conteúdo de IA e identificando casos de abuso em sua criação, acrescentou.

Alguns desenvolvedores de redes neurais para geração de imagens já introduziram regras mais rígidas quanto ao seu uso. Por exemplo, OpenAI proibiu a criação de qualquer imagem que esteja de alguma forma relacionada a eventos políticos atuais, políticos e teorias da conspiração. Ela também baniu conteúdo relacionado a ódio, violência e sexo. No entanto, outros ainda aderem a regras mais flexíveis. A Stability AI não permite que a rede neural Stable Diffusion copie estilos ou crie as chamadas imagens “não seguras para o trabalho”. No entanto, em geral, a empresa não dita aos usuários quais imagens podem ou não ser criadas.

avalanche

Postagens recentes

A SK hynix iniciou a produção em massa de módulos de memória SOCAMM2 de 192 GB para a Nvidia Vera Rubin.

Os chips de memória LPDDR5X encontraram aplicação no segmento de servidores, embora tenham sido originalmente…

28 minutos atrás

Um sindicato crescente na Samsung planeja iniciar uma greve de 18 dias em maio.

Na última sexta-feira, representantes do sindicato que representa 75 mil funcionários da Samsung Electronics realizaram…

1 hora atrás

O computador de placa única BeagleConnect Zepto, de US$ 1, possui um microcontrolador da Texas Instruments.

A Fundação BeagleBoard.org, uma organização sem fins lucrativos, segundo a CNX Software, está se preparando…

2 horas atrás

Após 28 anos, os fãs descobriram “um dos segredos mais antigos” de The Elder Scrolls: o que se esconde sob as saias das mulheres em Redguard.

Em antecipação ao ambicioso jogo de RPG de fantasia The Elder Scrolls VI, os fãs…

2 horas atrás