Rede neural de imagem no meio da jornada foi interrompida gratuitamente devido a abuso de deepfake

Midjourney fechou o acesso gratuito à sua rede neural homônima, que permite gerar imagens a partir de uma descrição de texto. Isso aconteceu depois que os usuários começaram a usar ativamente a rede neural para criar deepfakes com a participação de personalidades famosas.

Fonte da imagem: Midjourney

O fundador e CEO da Midjourney, David Holz, anunciou em um canal oficial do Discord que a empresa está fechando o programa de teste gratuito “devido à demanda extrema e também ao abuso do usuário”. Segundo Holtz, as novas regras de segurança da rede neural Midjourney foram “insuficientes” para evitar o uso indevido do gerador de imagens AI durante o período de teste. A partir de agora, os usuários do Midjourney terão que pagar US$ 10 por mês para usar a tecnologia.

De acordo com o The Washington Post, Midjourney tem sido o foco de atenção indesejada ultimamente. Os usuários, usando a rede neural especificada, começaram a criar imagens falsas da prisão do ex-presidente dos Estados Unidos Donald Trump, bem como imagens do Papa Francisco andando com uma jaqueta da moda. Embora essas imagens tenham sido rapidamente desmascaradas como falsas, os invasores podem usar redes neurais generativas como Midjourney, DALL-E da OpenAI e similares para espalhar desinformação online.

Midjourney reconheceu que as regras para usar algoritmos de IA para criar imagens precisam ser aprimoradas. Em 2022, Holtz proibiu o uso de Midjourney para criar deepfakes com o líder chinês Xi Jinping. Ele explicou isso pelo fato de que o acesso ao mercado chinês para a empresa é mais importante do que a capacidade dos usuários de criar conteúdo satírico. Falando aos usuários no Discord nesta quinta-feira, Holtz lamentou que moldar a política em torno da criação de conteúdo de IA com o Midjourney tenha sido ainda mais complicado pelo fato de que a IA agora é capaz de criar imagens ainda mais realistas. Apesar disso, a empresa continuará melhorando a moderação do conteúdo de IA e identificando casos de abuso em sua criação, acrescentou.

Alguns desenvolvedores de redes neurais para geração de imagens já introduziram regras mais rígidas quanto ao seu uso. Por exemplo, OpenAI proibiu a criação de qualquer imagem que esteja de alguma forma relacionada a eventos políticos atuais, políticos e teorias da conspiração. Ela também baniu conteúdo relacionado a ódio, violência e sexo. No entanto, outros ainda aderem a regras mais flexíveis. A Stability AI não permite que a rede neural Stable Diffusion copie estilos ou crie as chamadas imagens “não seguras para o trabalho”. No entanto, em geral, a empresa não dita aos usuários quais imagens podem ou não ser criadas.

avalanche

Postagens recentes

Apresentado o Gabinete para PC Portal Advanced com Refrigeração Líquida e Montagem na Parede – A partir de US$ 499

A Singularity Computers lançou o Portal Advanced, um gabinete para montagem na parede. Ele oferece…

30 minutos atrás

A Apple abriu o iPhone para fones de ouvido e relógios de terceiros, mas apenas em uma região.

A Apple disponibilizou diversos recursos do iPhone, antes exclusivos de dispositivos Apple, para fones de…

50 minutos atrás

O Windows 11 aprenderá a reverter automaticamente drivers com problemas para versões estáveis.

A Microsoft vai introduzir uma opção no sistema operacional Windows 11 para reverter automaticamente drivers…

50 minutos atrás

A Intel continua a perder participação no mercado de processadores, enquanto a AMD fortalece sua posição em PCs e laptops.

O primeiro trimestre de 2026 provou ser bastante favorável para a AMD: a empresa conseguiu…

50 minutos atrás

A Cisco vai demitir 4.000 funcionários e, em troca, oferecer-lhes treinamento na plataforma Cisco U.

A Cisco planeja demitir 5% de sua força de trabalho, oferecendo a esses funcionários treinamento…

1 hora atrás

Robôs-lobos assustadores se tornaram a nova arma do Japão para combater ursos.

O aumento da incidência de ataques de animais selvagens a pessoas no Japão no último…

2 horas atrás