Agentes de IA aprenderam a hackear contratos inteligentes na blockchain – um risco que pode chegar a centenas de milhões de dólares.

Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.

Fonte da imagem: Shubham Dhage / unsplash.com

Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.

Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.

O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.

Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados ​​no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.

admin

Postagens recentes

“Vejam onde Elder Scrolls e Fallout começaram”: Todd Howard defende Starfield.

Lançado em 2023, o RPG espacial Starfield provou ser um dos lançamentos mais controversos da…

42 minutos atrás

Pesquisadores descobriram que agentes de IA no GitHub podem roubar credenciais.

Pesquisadores de segurança da Universidade Johns Hopkins (JHU) conseguiram comprometer os agentes de IA da…

1 hora atrás

A fabricante de tênis Allbirds anunciou sua entrada no espaço da inteligência artificial — e funcionou desde o primeiro dia.

A fabricante americana de calçados Allbirds mudou radicalmente seu foco, anunciando sua transformação em NewBird…

2 horas atrás

A alta demanda por sistemas de servidores causou escassez de componentes eletrônicos básicos.

O crescimento exponencial dos sistemas de inteligência artificial está causando escassez não apenas de chips…

2 horas atrás

Os lucros recordes da Samsung no primeiro trimestre aumentaram o risco de novas greves de funcionários.

As greves dos funcionários da Samsung Electronics continuam sendo raras; a maior delas ocorreu no…

5 horas atrás