O Google descobriu e bloqueou, pela primeira vez, uma vulnerabilidade zero-day (um método de ataque que explora uma vulnerabilidade desconhecida pelo desenvolvedor) criada com inteligência artificial. De acordo com o Grupo de Inteligência de Ameaças do Google (GTIG), grupos cibercriminosos conhecidos estavam preparando um ataque em larga escala ao sistema de autenticação de dois fatores (2FA) de um aplicativo web de código aberto para administração de sistemas.

Fonte da imagem: Sasun Bughdaryan / unsplash.com

Pesquisadores do Google encontraram indícios reveladores de um modelo de IA no código de exploração em Python: uma pontuação CVSS (Common Vulnerability Severity Standard) fictícia e formatação típica de “treinamento”. A pontuação CVSS revelou-se fictícia: o modelo de IA a gerou por conta própria, e não a obteve de um banco de dados de vulnerabilidades real. A estrutura do código também apontava para IA, reproduzindo padrões típicos de dados de treinamento para modelos de linguagem em larga escala (LLM).

A vulnerabilidade não foi causada por um erro de digitação ou uma falha, mas por uma falha na lógica do aplicativo web. O desenvolvedor da plataforma programou o código partindo do pressuposto de que um determinado componente do sistema era sempre confiável e não verificou essa informação. Foi por meio desse componente não verificado que os atacantes burlaram a autenticação de dois fatores. O Google não divulgou o aplicativo específico visado. Os pesquisadores também esclareceram que, em sua opinião, a IA Gemini não foi usada na criação da exploração. O ataque foi frustrado antes de sua ampla disseminação.

A GTIG observa outra tendência: os atacantes estão atacando não apenas a IA, mas também a infraestrutura dos próprios sistemas de IA — as funções autônomas dos agentes de IA e os módulos de acesso a dados externos. Os hackers recorrem ao chamado role-playing: formulam uma consulta na qual instruem os modelos de IA a fingirem ser especialistas em segurança, contornando assim as restrições internas. Eles também carregam bancos de dados de vulnerabilidades inteiros nos modelos e usam a ferramenta OpenClaw para depurar malware em ambientes controlados antes de implantar ataques em alvos reais.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *