Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.

Fonte da imagem: Shubham Dhage / unsplash.com
Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.
Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.
O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.
Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.
