Hackers, golpistas e outros cibercriminosos começaram a reclamar de uma onda de crimes cibernéticos impulsionada por inteligência artificial que inundou não apenas as mídias sociais tradicionais, mas também fóruns fechados onde se discutem ataques cibernéticos e outras atividades ilegais, escreve a Wired.

Fonte da imagem: JC Gellidon / unsplash.com
Usuários de fóruns de hackers começaram a reclamar que os administradores desses recursos estão cobrando dinheiro e tentando implementar recursos de inteligência artificial generativa (IAG) em suas plataformas. Usuários comuns desses recursos estão frustrados com a intrusão da IA em suas vidas e com o enorme volume de conteúdo de baixa qualidade produzido por IA publicado nas comunidades. Essa é a conclusão a que chegaram pesquisadores da Universidade de Edimburgo (Reino Unido) em um estudo recente (PDF). Eles analisaram 97.895 conversas relacionadas à IA desde o lançamento do ChatGPT em novembro de 2022 até o final do ano passado. Os usuários dos fóruns de hackers reclamam da publicação de resumos de conceitos básicos de segurança cibernética, da quantidade de posts de baixa qualidade e expressam preocupação com o fato de as avaliações de IA nos resultados de busca do Google estarem reduzindo o número de visitantes dos fóruns.
Por décadas, esses fóruns e marketplaces se tornaram plataformas para negócios ilegais: hackers trocam dados roubados, anunciam seus serviços e difamam uns aos outros. Apesar da atmosfera peculiar dessas comunidades e de suas tentativas de enganar uns aos outros, um senso de comunidade também prevalece. Os usuários constroem suas reputações e os administradores dos recursos promovem concursos. Um usuário de um desses recursos expressou indignação com o fato de outros membros da comunidade estarem postando mensagens geradas por IA sem se darem ao trabalho de escrever sequer uma ou duas frases. Outro observou que frequentava o fórum em busca de interação humana, mas que, para se comunicar com a IA, precisava abrir uma sessão de perguntas e respostas.um de muitos outros sites.

Fonte da imagem: Philipp Katzenberger / unsplash.com
Desde o surgimento do ChatGPT, o interesse em crimes cibernéticos com inteligência artificial (IA) cresceu significativamente, atraindo tanto hackers experientes quanto novatos. A IA é usada para criar deepfakes, realizar ataques de engenharia social, traduzir, escrever código e encontrar vulnerabilidades. No entanto, produtos de hacking com IA são vistos com suspeita, pois apresentam fragilidades e vulnerabilidades que, por vezes, expõem a infraestrutura subjacente dos hackers. Alguns cibercriminosos chegam a afirmar que só são capazes de usar IA.
Contudo, ainda não foram observados efeitos claramente negativos da IA na comunidade hacker: a barreira de entrada no “setor” não foi significativamente reduzida e não foram detectadas grandes interrupções nos modelos de negócios ou em outras atividades. Os cibercriminosos usam IA com mais frequência em áreas que já são amplamente automatizadas: fraudes em SEO, gerenciamento de bots em redes sociais e golpes em sites de relacionamento. Alguns hackers indicaram que gostariam de trabalhar com IA para ajudá-los a formular ideias e escrever com mais eficácia. A ideia de lançar mercados online com inteligência artificial para cibercriminosos está sendo discutida, mas nem todos apoiam essa ideia — alguns desenvolveram fortes preconceitos contra a IA.