Studie av AI-agenter og smarte kontrakter
En nylig studie av MATS og Anthropic Fellows bekrefter at AI-agenter kan utnytte sårbarheter i smarte kontrakter på en lønnsom måte, og etablerer en «konkret nedre grense» for økonomisk skade. Den akselererende innsatsen for å automatisere menneskelige oppgaver med kunstig intelligens (AI) står nå overfor en betydelig, kvantifiserbar ulempe: disse agentene kan lønnsomt utnytte sårbarheter i smarte kontrakter.
Forskning og resultater
Studien brukte Smart Contracts Exploitation Benchmark (SCONE-bench) for å måle denne risikoen. Forskerne implementerte modeller som Claude Opus 4.5, Claude Sonnet 4.5, og GPT-5 for å utvikle utnyttelser simulert til å være verdt $4,6 millioner. SCONE-bench består av 405 smarte kontrakter som faktisk ble utnyttet mellom 2020 og 2025.
I sin rapport fra 1. desember uttalte teamet at suksessen til AI-agenter i utviklingen av utnyttelser testet på blockchain-simulatoren etablerer «en konkret nedre grense for den økonomiske skaden disse evnene kan muliggjøre.»
Forskningen gikk videre med å teste Sonnet 4.5 og GPT-5 mot 2.849 nylig implementerte kontrakter uten kjente sårbarheter. Agentene beviste at de kunne generere lønnsomme utnyttelser selv i dette nye miljøet: Begge agenter avdekket to nye zero-day sårbarheter og produserte utnyttelser verdsatt til $3.694. GPT-5 oppnådde denne suksessen med en API-kostnad på bare $3.476.
Økt effektivitet og kostnadsreduksjon
Dette utfallet fungerer som et bevis på konseptet for den tekniske gjennomførbarheten av lønnsom, autonom utnyttelse i den virkelige verden, og understreker det umiddelbare behovet for proaktive AI-drevne forsvarsmekanismer. Kanskje den mest alarmerende oppdagelsen er den dramatiske økningen i effektivitet: en angriper kan nå oppnå omtrent 3,4 ganger flere vellykkede utnyttelser for det samme databehandlingsbudsjettet som for seks måneder siden.
Videre har tokenkostnadene for vellykkede utnyttelser falt med hele 70%, noe som gjør disse kraftige agentene betydelig billigere å bruke. Jean Rausis, medgründer av SMARDEX, tilskriver denne bratte kostnadsnedgangen primært til agentiske sløyfer. Disse sløyfene muliggjør flertrinns, selvkorrigerende arbeidsflyter som reduserer tokenavfall under kontraktanalyse.
Rausis fremhever også rollen til forbedret modellarkitektur: «Større kontekstvinduer og minneverktøy i modeller som Claude Opus 4.5 og GPT-5 tillater vedvarende simuleringer uten repetisjon, noe som øker effektiviteten med 15-100% i lange oppgaver.»
Han bemerker at disse optimaliseringsgevinstene overgår rå sårbarhetsdeteksjonsforbedringer (som bare økte suksessen på SCONE-bench fra 2% til 51%), ettersom de fokuserer på å optimalisere kjøretid i stedet for bare å oppdage feil.
Fremtidige risikoer og anbefalinger
Selv om studien etablerer en simulert kostnad på $4,6 millioner, frykter eksperter at de faktiske økonomiske kostnadene kan være betydelig høyere. Rausis anslår at de reelle risikoene kan være 10-100 ganger høyere, potensielt nå $50 millioner til $500 millioner eller mer per større utnyttelse.
Han advarer om at med AI som skalerer, kan den totale eksponeringen i sektoren—som tar hensyn til umodellerte gir og oracle-feil—nå $10–20 milliarder årlig.
MATS og Anthropic Fellows-papiret avslutter med en advarsel: mens smarte kontrakter kan være det første målet for denne bølgen av automatiserte angrep, er proprietær programvare sannsynligvis det neste målet ettersom agenter blir bedre til omvendt ingeniørarbeid.
Viktigst er det at papiret også minner leserne om at de samme AI-agentene kan brukes til forsvar for å tette sårbarheter. For å redusere den systemiske finansielle trusselen fra lett automatiserte DeFi-angrep, foreslår Rausis en tre-trinns handlingsplan for beslutningstakere og regulatorer: AI-tilsyn, nye revisjonsstandarder og global koordinering.