As ferramentas modernas de espionagem cibernética baseadas em inteligência artificial tornaram-se tão poderosas que quase superaram as capacidades humanas. Essa é a conclusão de um experimento realizado por pesquisadores da Universidade Stanford (EUA), segundo o The Wall Street Journal.

Fonte da imagem: Fotis Fotopoulos / unsplash.com
Durante quase todo o ano passado, uma equipe de pesquisadores de Stanford dedicou-se ao desenvolvimento do Artemis, um chatbot de IA projetado para operações de hacking. O Artemis escaneia redes em busca de possíveis bugs — vulnerabilidades de software — e, em seguida, encontra maneiras de explorar essas vulnerabilidades para invadir sistemas. Após o treinamento da IA, ela foi liberada do laboratório e solicitada a encontrar bugs em uma rede de computadores real pertencente ao departamento de engenharia da universidade. O desempenho do Artemis foi comparado ao trabalho de hackers reais — testadores de penetração.
Os autores do experimento inicialmente tinham baixas expectativas em relação à IA, mas, na realidade, ela se mostrou excepcionalmente boa, superando nove em cada dez profissionais contratados pelos pesquisadores para os testes. O Artemis detectou bugs com extrema rapidez e sua manutenção foi relativamente barata — US$ 60 por hora, em comparação com US$ 2.000 a US$ 2.500 por hora para um profissional com habilidades semelhantes. Mas o Artemis também não era perfeito — cerca de 18% de suas mensagens de erro eram falsos positivos; O experimento também deixou passar um erro óbvio que a maioria das pessoas teria notado na página.
A rede de Stanford nunca havia sido invadida por bots de IA, e o experimento se mostrou uma boa oportunidade para corrigir algumas falhas de segurança. O Artemis também possuía um mecanismo de desativação que permitiria aos pesquisadores desativar instantaneamente o agente de IA caso surgissem problemas. Os pesquisadores apontam que grande parte do código de software mundial não foi testada de forma confiável quanto a vulnerabilidades, portanto, ferramentas como o Artemis provavelmente serão mais confiáveis a longo prazo.Isso pode ser uma grande vantagem para os profissionais de segurança de redes, ajudando-os a encontrar e corrigir mais bugs de código do que nunca. Mas, a curto prazo, também representa uma ameaça — os atacantes podem recorrer à IA para encontrar vulnerabilidades.
Curiosamente, o Artemis descobriu um dos bugs em uma página que os navegadores modernos não conseguiam abrir — os pesquisadores de vulnerabilidades não o encontraram, mas o Artemis o detectou porque abriu a página usando o utilitário cURL. O desenvolvedor desse utilitário já havia reclamado de ser inundado com falsos positivos sobre bugs nele, supostamente detectados por modelos de IA.
