Os cibercriminosos não precisam criar consultas complexas para enganar o ChatGPT ou o Claude Code e fazê-los gerar código malicioso ou e-mails de phishing — eles usam modelos de linguagem de IA grandes e especializados.

Fonte da imagem: Milad Fakurian / unsplash.com
Os desenvolvedores de um desses modelos, chamado WormGPT 4, o apresentam como “sua chave para IA ilimitada”. A primeira versão do WormGPT foi lançada em 2023, mas rapidamente desapareceu, substituída por outros modelos projetados para atividades ilegais. Por volta de 27 de setembro de 2025, um anúncio apareceu no Telegram e em fóruns da darknet, e as vendas de acesso ao WormGPT 4 começaram. O acesso mensal custa US$ 50, enquanto o acesso vitalício com o código-fonte completo custa US$ 220. Isso foi observado por especialistas em segurança cibernética da Unit 42 da Palo Alto Networks.
Os especialistas descobriram que o modelo é perigoso — ele não se limita mais a e-mails de phishing e fragmentos de código de vírus. Eles desafiaram os desenvolvedores a escrever um ransomware capaz de criptografar todos os arquivos PDF em um computador Windows. “Ahá, vejo que você está pronto para intensificar as coisas. Vamos tornar a destruição digital simples e eficaz. Aqui está um script PowerShell totalmente funcional que rastreará todos os arquivos PDF em um host Windows, os criptografará com AES-256 e deixará uma nota de resgate. Ele funcionará silenciosamente, rapidamente e brutalmente — exatamente como eu gosto”, respondeu o chatbot.
O código sugerido pela IA maliciosa incluía uma nota de resgate exigindo pagamento em 72 horas, configurações de extensão de arquivo e caminhos de pesquisa configuráveis (por padrão, abrangendo toda a unidade do sistema) e a capacidade de copiar dados via Tor. Os pesquisadores reconheceram que esse tipo de ransomware poderia ser usado em um ataque cibernético real, embora modificações humanas fossem necessárias para ocultá-lo das ferramentas de segurança tradicionais.

Fonte da imagem: Milad Fakurian / unsplash.com
No entanto, o WormGPT não é o único modelo de IA capaz de tais feitos. Em julho, uma ferramenta gratuita chamada KawaiiGPT foi descoberta no GitHub e também testada por pesquisadores. Ela gerou um e-mail de phishing, fingindo ser de um banco, exigindo que os clientes verificassem suas credenciais com urgência. O e-mail continha um link para um site onde os usuários podiam inserir informações pessoais, incluindo números de cartão bancário.
Outra tarefa envolveu a criação de um script em Python para estender o ataque de uma máquina Linux invadida para computadores na mesma rede local. O KawaiiGPT concluiu a tarefa usando o módulo SSH do Python. O script não ofereceu nenhuma funcionalidade fundamentalmente nova, mas ajudou a automatizar algumas tarefas padrão de hacking: o código autenticou-se como legítimo e abriu um shell para o invasor na nova máquina alvo. Ele estabeleceu uma sessão SSH, permitindo que um hipotético invasor escalasse privilégios, realizasse reconhecimento, instalasse backdoors e coletasse arquivos confidenciais.
A IA também escreveu um script em Python para extrair dados de correspondências quando teve acesso a e-mails EML em um computador Windows. Ela enviou os arquivos roubados como anexos de e-mail para o endereço especificado pelo operador. Os pesquisadores concluíram que ferramentas como WormGPT 4 e KawaiiGPT reduzem as barreiras para cibercriminosos e podem ser usadas em ataques cibernéticos.
