طوّرت فرقة Frontier Red Team من Anthropic وكلاء ذكاء اصطناعي قادرين على اكتشاف الاستغلالات تلقائيًا، مما يعيد تشكيل مشهد الأمن في التمويل اللامركزي. على مدار العام الماضي، تعلم هؤلاء الوكلاء كيفية فورك سلاسل الكتل، وصياغة نصوص استغلال، وتفريغ برك السيولة ضمن حاويات دوكر، محاكيين هجمات DeFi في العالم الواقعي دون مخاطر مالية.
في الأول من ديسمبر، نشرت الفرقة نتائج تُظهر إعادة بناء مستقلة لـ 19 من أصل 34 استغلالًا على السلاسل حدثت بعد مارس 2025. باستخدام نماذج مثل Claude Opus 4.5 و Sonnet 4.5 و GPT-5، حققت الوكلاء أرباحًا افتراضية قدرها 4.6 مليون دولار، مع الاعتماد على منطق العقود والتكرار في المحاولات الفاشلة.
تكاليف التشغيل مدهشة: تشغيل GPT-5 ضد 2,849 عقد ERC-20 حديث على BNB Chain كلف نحو 3,476 دولارًا (حوالي 1.22 دولارًا لكل عقد)، وكشفت عن ثغرتين جديدتين من نوع zero-day بقيمة 3,694 دولارًا. استهداف العقود ذات القيمة العالية قد يخفض التكاليف أكثر من خلال فرز مسبق بناءً على إجمالي القيمة المحجوزة (TVL)، وتاريخ النشر، وسجل التدقيق، مما يدفع اقتصاديات الاستغلال نحو الجدوى.
معيار Anthropic لــ 405 استغلالًا حقيقيًا من 2020 إلى 2025 شهد 207 إثباتات مفهوم تعمل، محاكياً 550 مليون دولار من الأموال المسروقة. أتمتة الاستغلال تقلل الاعتماد على المراجعين البشريين، وتتيح استغلالات إثبات المفهوم في أقل من ساعة—متجاوزة بشكل كبير دورات التدقيق الشهرية التقليدية.
تعتمد التدابير الدفاعية على دمج الذكاء الاصطناعي: فحص fuzzing مستمر قائم على الوكلاء في خطوط CI/CD، وتدوير التصحيحات بسرعة مع مفاتيح توقف ومؤقتات زمنية، واختبار ما قبل النشر بشكل مكثف. مع مضاعفة قدرة الاستغلال كل 1.3 شهرًا، يجب على المدافعين مواكبة هذا الإيقاع لتخفيف المخاطر النظامية.
يمتد هذا السباق الآلي إلى ما وراء DeFi: فالتقنيات نفسها تنطبق على نقاط النهاية لواجهات برمجة التطبيقات (APIs)، وتكوينات البنية التحتية، وأمن السحابة. السؤال الحاسم ليس ما إذا كان الوكلاء سيخلقون استغلالات—فهم يفعلون ذلك فعلًا—ولكن هل يستطيع المدافعون نشر قدرات مكافئة أولاً؟
التعليقات (0)