Microsoft desmantela gangue de hackers que enganou IA para desenhar celebridades falsas inapropriadas

A Microsoft disse que descobriu hackers nos EUA e no exterior que estavam ignorando restrições em ferramentas de IA generativa, incluindo serviços OpenAI na nuvem Azure, para criar conteúdo malicioso, incluindo imagens íntimas de celebridades e outros conteúdos sexualmente explícitos. Segundo a empresa, hackers dos Estados Unidos, Irã, Grã-Bretanha, Hong Kong e Vietnã estavam envolvidos nessa atividade.

Fonte da imagem: Mika Baumeister / Unsplash

O relatório disse que os invasores extraíram logins de usuários de serviços de IA generativa de fontes abertas e os usaram para seus próprios propósitos. Após obter acesso ao serviço de IA, os hackers contornaram as restrições definidas pelos desenvolvedores e venderam acesso aos serviços de IA junto com instruções sobre como criar conteúdo malicioso.

A Microsoft acredita que todos os hackers identificados são membros de uma rede global de criminosos cibernéticos que a empresa chama de Storm-2139. Dois deles estão localizados na Flórida e em Illinois, mas a empresa não está divulgando suas identidades para evitar comprometer a investigação criminal. A gigante do software disse que está preparando solicitações relevantes para agências de segurança pública nos Estados Unidos e em vários outros países.

As medidas da Microsoft ocorrem em meio à crescente popularidade das redes neurais generativas e às preocupações de que a IA possa ser usada para criar imagens falsas de figuras públicas e cidadãos comuns. Empresas como a Microsoft e a OpenAI proíbem a geração desse tipo de conteúdo e limitam seus serviços de IA de acordo. No entanto, os hackers ainda tentam contornar essas restrições, o que geralmente conseguem.

«Levamos muito a sério o uso indevido da inteligência artificial e reconhecemos as consequências sérias e de longo prazo do abuso de imagem para potenciais vítimas. “A Microsoft continua comprometida em proteger os usuários implementando medidas robustas de segurança de IA em nossas plataformas e protegendo nossos serviços de conteúdo ilegal e malicioso”, disse Steven Masada, conselheiro geral associado do grupo de crimes cibernéticos da Microsoft.

O anúncio ocorre após uma ação judicial movida pela Microsoft em dezembro no Distrito Leste da Virgínia contra 10 indivíduos não identificados, na tentativa de reunir mais informações sobre o grupo de hackers e interromper suas atividades. A decisão do tribunal permitiu que a Microsoft assumisse o controle de um dos principais sites dos hackers. Isso e a divulgação de uma série de documentos judiciais no mês passado semearam pânico entre os criminosos, potencialmente revelando as identidades de alguns dos membros do grupo.

avalanche

Postagens recentes

Cofundador da Thinking Machines Lab deixa a startup em meio a escândalo de relacionamento.

O retorno de Barret Zoph, CTO do Thinking Machines Lab, à OpenAI, anunciado na semana…

25 minutos atrás

Far Cry 3 Classic Edition receberá suporte para 60fps no PS5, Xbox Series X e S na próxima semana.

A versão para consoles do jogo de tiro em mundo aberto Far Cry 3, da…

4 horas atrás

Gemini não será transformado em um outdoor: Google explica por que está cauteloso com a publicidade de IA.

Apesar da crescente popularidade do Gemini e da expectativa dos profissionais de marketing em relação…

4 horas atrás

“Como se fosse 1999”: a RetroBox apresentou uma TV com um reprodutor de VHS integrado e um conjunto de conectores à moda antiga.

Boas notícias para os entusiastas de consoles e eletrônicos retrô. A RetroBox anunciou um dispositivo…

4 horas atrás

A Valve permitiu que os desenvolvedores do Steam mantivessem sua IA oculta, mas apenas se os jogadores não a virem.

A Valve fez esclarecimentos importantes em sua política de publicação de jogos no Steam em…

7 horas atrás

O Ryzen 7 9800X3D continua a morrer misteriosamente: agora também em placas-mãe Asus.

Nas últimas duas semanas, pelo menos cinco publicações apareceram no Reddit relatando falhas em processadores…

7 horas atrás