Pesquisadores de segurança da Unidade 42 da Palo Alto Networks descobriram que grandes modelos de linguagem (LLMs) geram com sucesso modificações em código JavaScript malicioso em um volume virtualmente ilimitado, ao mesmo tempo que tornam o código menos reconhecível por programas antivírus. Por exemplo, a IA criou mais de 10 mil cópias de código que escaparam à detecção 88% das vezes. No entanto, esta moeda também tem um outro lado.
«Embora seja difícil criar malware do zero com LLMs, os criminosos podem facilmente usá-los para substituir ou disfarçar malware existente, dificultando sua detecção, disseram pesquisadores da Unidade 42 da Palo Alto Networks em um novo relatório. “Os criminosos podem induzir os LLMs a realizar transformações que parecem muito mais naturais, tornando esse software mais difícil de detectar.”
Isto não quer dizer que a situação tenha sido ignorada. Os desenvolvedores de LLM introduzem medidas de segurança para evitar que os modelos sejam usados para fins destrutivos. No entanto, os invasores já introduziram ferramentas como o WormGPT para automatizar a criação de e-mails de phishing convincentes e o desenvolvimento de novos malwares.
Pesquisadores da Unidade 42 da Palo Alto Networks, cujo nome, aliás, é retirado do “Guia do Mochileiro das Galáxias” de Douglas Adams, onde o número 42 é a resposta para “a principal questão da vida, do Universo e de tudo, ” testou o trabalho do LLM como um código modificador malicioso. Eles descobriram que a IA criou 10.000 variações de código que ferramentas como Innocent Until Proven Guilty (IUPG) e PhishingJS não conseguiram detectar. Além disso, o código malicioso revelou-se mais natural e aparentemente inofensivo do que aquele modificado usando o mecanismo obfuscator.io padrão. No entanto, a capacidade do código de causar danos após ofuscação com a ajuda da IA não diminuiu.
A IA não é original em seus métodos de ofuscar seus rastros. Ele usa muitas técnicas padrão: renomear variáveis, dividir linhas, inserir código extra, remover espaços desnecessários e até reescrever completamente o código. E assim por diante 10.000 vezes seguidas, o que força o software antivírus a considerar as novas versões inofensivas. Isto é verdadeiramente alarmante, observam os pesquisadores. No entanto, tal mecanismo pode ser útil para treinar algoritmos capazes de encontrar modificações anteriormente desconhecidas em código malicioso. O fortalecimento dos ataques estimula o desenvolvimento da defesa. Uma IA cria vírus, a outra os captura. Nesse esquema, ao que parece, uma pessoa só pode “oferecer conchas” primeiro para um lado e depois para o outro.