Agentes de IA aprenderam a hackear contratos inteligentes na blockchain – um risco que pode chegar a centenas de milhões de dólares.

Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.

Fonte da imagem: Shubham Dhage / unsplash.com

Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.

Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.

O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.

Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados ​​no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.

admin

Postagens recentes

Um homem cego teve sua visão restaurada pela primeira vez usando uma córnea impressa em 3D.

No final de outubro de 2025, o Instituto Oftalmológico Rambam, em Israel, realizou com sucesso…

20 minutos atrás

O YouTube lançou o Recap, que mostrará aos usuários o que eles fizeram na plataforma durante o último ano.

O YouTube atendeu aos pedidos dos usuários e lançou o recurso Resumo, que permite a…

20 minutos atrás

O Microsoft Teams agora oferece “reuniões imersivas” em um metaverso com avatares sem pernas.

A Microsoft adicionou um novo recurso ao Teams chamado "experiências imersivas". Ele permite que os…

32 minutos atrás

A ferramenta do YouTube para proteger blogueiros de deepfakes criou um risco de vazamento de seus dados biométricos.

O YouTube começou a expandir o acesso à sua ferramenta de "Detecção de Similaridade", lançada…

32 minutos atrás

Taiwan acusa a Tokyo Electron de permitir o roubo de tecnologias secretas da TSMC.

Os promotores taiwaneses acusaram formalmente a Tokyo Electron de não ter impedido um suposto incidente…

32 minutos atrás

A inteligência artificial quebrou as gigantes da tecnologia: a regra de ouro de “gastar pouco, ganhar muito” não funciona mais (3DNews)

Alphabet, Amazon, MetaTrader e Microsoft, assim como outras grandes empresas de tecnologia, estão investindo quantias…

32 minutos atrás