הצוות האדום של Frontier של Anthropic פיתח סוכני בינה מלאכותית המסוגלים לגילוי ניצול אוטומטי, ומשנה את נוף האבטחה בתחום הפיננסים המבוזרים. במהלך השנה האחרונה למדו סוכנים אלה לבצע fork לבלוקצ׳יינים, ליצור תסריטי ניצול ולשאב ממחזורי הנזילות בתוך מכולות Docker, ולדמות מתקפות DeFi מהעולם האמיתי ללא סיכון כלכלי.
ב-1 בדצמבר פרסם הצוות תוצאות שמראות שחידוש אוטונומי של 19 מתוך 34 פגיעויות על-שרשרת שאירעו לאחר מרץ 2025. באמצעות מודלים כמו Claude Opus 4.5, Sonnet 4.5 ו-GPT-5, השיגו הסוכנים רווחים מדומים של 4.6 מיליון דולר, כשמנתחים את לוגיקת החוזה וחוזרים על ניסיונות שנכשלו.
יעילות עלויות מרשימות: הרצת GPT-5 נגד 2,849 חוזים ERC-20 עדכניים בבלוקצ׳יין BNB עלתה בסביבות 3,476 דולר (כ-1.22 דולר לכל חוזה), וזולו שתי פרצות יום-אפס חדשות ששוות 3,694 דולר. כוונון מראש של חוזים בעלי ערך גבוה עשוי להפחית את העלויות עוד יותר באמצעות סינון מוקדם לפי TVL, תאריך הפריסה והיסטוריית ביקורת, והובלת כלכלת הניצול לכדי כדאיות.
מדד Anthropic ל-405 פגיעויות אמיתיות מ-2020 עד 2025 כלל 207 הוכחות מושגיות עובדות, המדמות 550 מיליון דולר בכספים שנגנבו. אוטומציה של ניצול מפחיתה את התלות בבודקים אנושיים, ומספקת ניצולות בהוכחות מושגיות בתוך פחות משעה—המהירה משמעותית מקצבי ביקורת חודשיים מסורתיים.
תמרוני ההגנה תלויים בשילוב בינה מלאכותית: fuzzing מתמשך המבוסס על סוכנים ב-CI/CD, מעגלי תיקונים מואצים עם מפסקי עצירה ותיזמונים, ובדיקות טרום-פריסה אגרסיביות. עם יכולת ניצול שמוכפלת כל 1.3 חודשים, המגנים חייבים להתאים את הקצב הזה כדי למתן סיכון מערכתי.
מרוץ האוטומציה הזה חורג מעבר ל-DeFi: אותן הטכניקות חלות גם על נקודות API, הגדרות תשתית ואבטחת ענן. השאלה הקריטית איננה האם הסוכנים ייצרו ניצול—הם עושים זאת כבר—אלא האם המגנים יוכלו לפרוס יכולות מקבילות בתחילה.
תגובות (0)