Agentes de IA aprenderam a hackear contratos inteligentes na blockchain – um risco que pode chegar a centenas de milhões de dólares.

Pesquisadores da Anthropic testaram contratos inteligentes em redes de criptomoedas em busca de vulnerabilidades a agentes de inteligência artificial (IA). As aplicações de IA provaram ser uma arma formidável para esses fins, com danos potenciais que chegam a milhões de dólares.

Fonte da imagem: Shubham Dhage / unsplash.com

Os especialistas da Anthropic utilizaram dez modelos de IA para seus testes de invasão, incluindo o Opus, o Sonnet, o GPT-5 da OpenAI e o DeepSeek chinês. Eles testaram 405 contratos inteligentes com vulnerabilidades conhecidas, implantados entre 2020 e 2025 nas blockchains Ethereum, BNB Smart Chain e Base. Os agentes de IA invadiram 207 contratos inteligentes (51,11%), e os potenciais atacantes obtiveram acesso a ativos no valor de US$ 550 milhões.

Na segunda fase, 34 contratos inteligentes lançados após 1º de março de 2025 foram testados. Destes, os agentes de IA invadiram 19 (55,8%), causando um prejuízo potencial de US$ 4,6 milhões. Os pesquisadores caracterizaram esse valor como um limite inferior para o dano causado por IA maliciosa. Em outubro, outra rodada de testes foi realizada: dois modelos analisaram 2.849 novos contratos inteligentes, entre os quais nenhuma vulnerabilidade havia sido identificada até então. Os agentes de IA encontraram duas vulnerabilidades e foram capazes de causar um prejuízo de US$ 3.700.

O estudo, segundo os autores, indica que os agentes de IA são tecnicamente capazes de atuar como ferramentas para invadir sistemas e, portanto, a IA também deve ser usada como meio de ciberdefesa. Os modelos utilizam diferentes abordagens para resolver problemas: em um caso, o OpenAI GPT-5 poderia ter roubado US$ 1,12 milhão, enquanto o Anthropic Opus teria rendido ao atacante US$ 3,5 milhões. Os pesquisadores observam que a IA está aprimorando ativamente suas capacidades de ataque: em cenários de teste, os agentes dobraram seus lucros a cada 1,3 meses.

Os custos de implantação de agentes de IA durante ataques cibernéticos diminuirão e os cibercriminosos os utilizarão cada vez mais para estudar códigos que possam gerar lucro.Vale ressaltar que os mesmos agentes de IA usados ​​no ataque também seriam adequados para corrigir as vulnerabilidades, observam os autores.pesquisar.

admin

Postagens recentes

11 TB de memória para IA: a Penguin Solutions apresenta o servidor de cache MemoryAI KV baseado em módulos CXL.

A Penguin Solutions anunciou o MemoryAI KV Cache Server, projetado para solucionar o problema de…

46 minutos atrás

A PlayStation vai receber um gerador de frames por IA semelhante ao da Radeon — mas não tão cedo.

O PlayStation da Sony começará a usar uma "biblioteca de geração de quadros equivalente" baseada…

46 minutos atrás

A Intel lançou inesperadamente o processador móvel Core i7-13645HX de 14 núcleos da geração Raptor Lake.

A Intel expandiu discretamente sua linha de processadores móveis Raptor Lake (Core de 13ª geração)…

46 minutos atrás

Crimson Desert foi lançado sem suporte para placas gráficas Intel Arc – e a Intel afirma que a culpa é dos desenvolvedores.

O novo jogo Crimson Desert, da desenvolvedora Pearl Abyss, foi lançado com uma ressalva surpreendente:…

59 minutos atrás

Cientistas britânicos abandonaram o memristor convencional e fizeram uma descoberta inovadora na memória analógica.

Cientistas da Universidade de Cambridge desenvolveram um novo dispositivo nanoeletrônico que imita os princípios de…

59 minutos atrás

Menos IA, mais confiabilidade: a Microsoft explica como irá restaurar a confiança perdida no Windows 11.

Nos últimos meses, a Microsoft parece ter feito esforços consideráveis ​​para provocar uma crise de…

1 hora atrás