A IA foi ensinada a gerar milhares de modificações de vírus que contornam facilmente os antivírus

Pesquisadores de segurança da Unidade 42 da Palo Alto Networks descobriram que grandes modelos de linguagem (LLMs) geram com sucesso modificações em código JavaScript malicioso em um volume virtualmente ilimitado, ao mesmo tempo que tornam o código menos reconhecível por programas antivírus. Por exemplo, a IA criou mais de 10 mil cópias de código que escaparam à detecção 88% das vezes. No entanto, esta moeda também tem um outro lado.

Fonte da imagem: geração AI Kandinsky 3.1/avalanche noticias

«Embora seja difícil criar malware do zero com LLMs, os criminosos podem facilmente usá-los para substituir ou disfarçar malware existente, dificultando sua detecção, disseram pesquisadores da Unidade 42 da Palo Alto Networks em um novo relatório. “Os criminosos podem induzir os LLMs a realizar transformações que parecem muito mais naturais, tornando esse software mais difícil de detectar.”

Isto não quer dizer que a situação tenha sido ignorada. Os desenvolvedores de LLM introduzem medidas de segurança para evitar que os modelos sejam usados ​​para fins destrutivos. No entanto, os invasores já introduziram ferramentas como o WormGPT para automatizar a criação de e-mails de phishing convincentes e o desenvolvimento de novos malwares.

Pesquisadores da Unidade 42 da Palo Alto Networks, cujo nome, aliás, é retirado do “Guia do Mochileiro das Galáxias” de Douglas Adams, onde o número 42 é a resposta para “a principal questão da vida, do Universo e de tudo, ” testou o trabalho do LLM como um código modificador malicioso. Eles descobriram que a IA criou 10.000 variações de código que ferramentas como Innocent Until Proven Guilty (IUPG) e PhishingJS não conseguiram detectar. Além disso, o código malicioso revelou-se mais natural e aparentemente inofensivo do que aquele modificado usando o mecanismo obfuscator.io padrão. No entanto, a capacidade do código de causar danos após ofuscação com a ajuda da IA ​​não diminuiu.

A IA não é original em seus métodos de ofuscar seus rastros. Ele usa muitas técnicas padrão: renomear variáveis, dividir linhas, inserir código extra, remover espaços desnecessários e até reescrever completamente o código. E assim por diante 10.000 vezes seguidas, o que força o software antivírus a considerar as novas versões inofensivas. Isto é verdadeiramente alarmante, observam os pesquisadores. No entanto, tal mecanismo pode ser útil para treinar algoritmos capazes de encontrar modificações anteriormente desconhecidas em código malicioso. O fortalecimento dos ataques estimula o desenvolvimento da defesa. Uma IA cria vírus, a outra os captura. Nesse esquema, ao que parece, uma pessoa só pode “oferecer conchas” primeiro para um lado e depois para o outro.

avalanche

Postagens recentes

O módulo de pouso Blue Ghost da Firefly Aerospace pousou com sucesso na Lua, revelando algo inesperado.

Em março de 2025, o módulo lunar Blue Ghost, desenvolvido pela Firefly Aerospace, pousou com…

27 minutos atrás

Os fabricantes chineses de chips encerraram o ano passado com receitas recordes.

O boom da IA ​​também está impulsionando o crescimento da receita dos fabricantes de chips…

2 horas atrás

O suporte do acelerador de IA DeepSeek V4 da Huawei impulsionou a demanda na China.

Para desenvolvedores de IA, a compatibilidade de determinadas soluções de hardware com seus softwares existentes…

4 horas atrás

O voo de teste da Starship V3 da SpaceX foi adiado novamente por um mês.

Na primeira quinzena de março, o fundador da SpaceX, Elon Musk, anunciou que o primeiro…

4 horas atrás

Revolta nas máquinas de lavar: Uma atualização de software impediu que clientes da Samsung lavassem suas roupas.

A melhoria da funcionalidade dos dispositivos por meio de atualizações de software tornou-se a norma…

6 horas atrás

Life is Strange: Reunion – O desespero leva ao sucesso. Análise / Jogos

Jogado no PlayStation 5 Quando Life is Strange: Double Exposure foi lançado, parecia que a…

10 horas atrás