A Frontier Red Team da Anthropic desenvolveu agentes de IA capazes de descobrir automaticamente exploits, redesenhando o panorama de segurança para finanças descentralizadas. Ao longo do último ano, esses agentes aprenderam a fazer fork de blockchains, criar scripts de exploração e drenar pools de liquidez dentro de contêineres Docker, simulando ataques DeFi do mundo real sem risco financeiro.
Em 1 de dezembro, a equipe publicou resultados demonstrando a reconstrução autônoma de 19 de 34 exploits on-chain que ocorreram após março de 2025. Usando modelos como Claude Opus 4.5, Sonnet 4.5 e GPT-5, os agentes atingiram lucros simulados de US$ 4,6 milhões, raciocinando pela lógica dos contratos e iterando sobre tentativas fracassadas.
As eficiências de custo são impressionantes: rodar o GPT-5 em 2.849 contratos ERC-20 recentes na BNB Chain custa aproximadamente US$ 3.476 (cerca de US$ 1,22 por contrato), revelando duas novas vulnerabilidades zero-day no valor de US$ 3.694. Focar em contratos de alto valor pode reduzir ainda mais os custos por meio de pré-filtragem com base no TVL, data de implantação e histórico de auditorias, levando a economia de exploits à viabilidade.
O benchmark da Anthropic de 405 exploits reais de 2020 a 2025 mostrou 207 provas de conceito em funcionamento, simulando US$ 550 milhões em fundos roubados. A automação de exploits reduz a dependência de auditores humanos, entregando provas de conceito em menos de uma hora — superando drasticamente os ciclos de auditoria mensais tradicionais.
Medidas defensivas dependem da integração de IA: fuzzing contínuo baseado em agentes em pipelines de CI/CD, ciclos de patches acelerados com interruptores de pausa e timelocks, e testes agressivos de pré-implantação. Com a capacidade de exploração dobrando a cada 1,3 meses, os defensores precisam acompanhar esse ritmo para mitigar o risco sistêmico.
Essa corrida armamentista de automação se estende além do DeFi: as mesmas técnicas valem para endpoints de API, configurações de infraestrutura e segurança em nuvem. A pergunta crítica não é se os agentes criarão exploits — eles já o fazem — mas se os defensores podem implantar capacidades equivalentes primeiro.
Comentários (0)