Agentes de IA aprenderam a hackear contratos inteligentes na blockchain – um risco que pode chegar a centenas de milhões de dólares.

Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.

Fonte da imagem: Shubham Dhage / unsplash.com

Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.

Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.

O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.

Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados ​​no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.

admin

Postagens recentes

Jeff Bezos planeja arrecadar US$ 100 bilhões para atender às necessidades da startup de inteligência artificial Project Prometheus.

O bilionário americano Jeff Bezos, fundador da Amazon e da empresa aeroespacial Blue Origin, está…

4 horas atrás

Um tribunal considerou Elon Musk culpado de enganar investidores na preparação para a compra do Twitter.

Ontem, um júri federal da Califórnia considerou Elon Musk culpado de enganar investidores no acordo…

5 horas atrás

A Nintendo tornará a bateria do Switch 2 substituível, mas apenas na Europa.

A Nintendo está preparando uma versão especial do Switch 2 para usuários europeus, com bateria…

6 horas atrás

A xAI conquistou um cliente importante da OpenAI usando uma tática de “empurrão”.

A xAI de Elon Musk começou a enviar seus engenheiros diretamente aos escritórios de potenciais…

6 horas atrás

A barra de tarefas do Windows 11 ainda poderá ser movida, assim como no Windows 10.

A Microsoft anunciou o retorno do recurso de realocação da barra de tarefas no Windows…

9 horas atrás

A barra de tarefas do Windows 11 ainda poderá ser movida, assim como no Windows 10.

A Microsoft anunciou o retorno do recurso de realocação da barra de tarefas no Windows…

9 horas atrás