Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.
Fonte da imagem: Shubham Dhage / unsplash.com
Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.
Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.
O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.
Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.
A Penguin Solutions anunciou o MemoryAI KV Cache Server, projetado para solucionar o problema de…
O PlayStation da Sony começará a usar uma "biblioteca de geração de quadros equivalente" baseada…
A Intel expandiu discretamente sua linha de processadores móveis Raptor Lake (Core de 13ª geração)…
O novo jogo Crimson Desert, da desenvolvedora Pearl Abyss, foi lançado com uma ressalva surpreendente:…
Cientistas da Universidade de Cambridge desenvolveram um novo dispositivo nanoeletrônico que imita os princípios de…
Nos últimos meses, a Microsoft parece ter feito esforços consideráveis para provocar uma crise de…