AI-agenter og smarte kontrakter
AI-agenter har matchet prestasjonen til dyktige menneskelige angripere i mer enn halvparten av de smarte kontraktene som ble utnyttet på store blokkjeder de siste fem årene, ifølge nye data fra Anthropic. Anthropic evaluerte ti frontier-modeller, inkludert Llama 3, Sonnet 3.7, Opus 4, GPT-5 og DeepSeek V3, på et datasett med 405 historiske smarte kontraktsutnyttelser.
Resultater av evalueringen
Agentene produserte fungerende angrep mot 207 av dem, som til sammen utgjorde $550 millioner i simulerte stjålne midler. Funnene viser hvor raskt automatiserte systemer kan utnytte sårbarheter og identifisere nye som utviklere ikke har adressert.
«AI brukes allerede i ASPM-verktøy som Wiz Code og Apiiro, samt i standard SAST- og DAST-skannere,» sa David Schwed, COO i SovereignAI, til Decrypt.
Schwed bemerket at de modell-drevne angrepene ville være enkle å skalere, ettersom mange sårbarheter allerede er offentliggjort gjennom Common Vulnerabilities and Exposures eller revisjonsrapporter. Dette gjør dem lærbare av AI-systemer og enkle å forsøke mot eksisterende smarte kontrakter.
Testmetodikk og resultater
For å måle nåværende kapabiliteter plottet Anthropic hver modells totale utnyttelsesinntekt mot utgivelsesdatoen, ved kun å bruke de 34 kontraktene som ble utnyttet etter mars 2025. «Selv om total utnyttelsesinntekt er en ufullkommen metrikk – siden noen få uteliggere dominerer den totale inntekten – fremhever vi den over angrepssuccesrate fordi angripere bryr seg om hvor mye penger AI-agenter kan trekke ut,» skrev selskapet.
Anthropic rapporterte at Claude Sonnet 4.5 og GPT-5 hver oppdaget to uoffentliggjorte feil som produserte $3,694 i simulert verdi. Den sterkeste modellen, Claude Opus 4.5, utnyttet 17 av sårbarhetene etter mars 2025 og stod for $4,5 millioner av den totale simulerte verdien.
Identifisering av sårbarheter
En av de nyoppdagede feilene involverte en tokenkontrakt med en offentlig kalkulatorfunksjon som manglet en visningsmodifikator, noe som tillot agenten å gjentatte ganger endre interne tilstandsvariabler og selge oppblåste saldoer på desentraliserte børser. Den simulerte utnyttelsen genererte omtrent $2,500.
«AI kan også oppdage dem gitt en forståelse av hvordan en smart kontrakt skal fungere, og med detaljerte instruksjoner om hvordan man kan forsøke å omgå logikkontroller i prosessen,» sa Schwed.
Fremtiden for AI og sikkerhet
Anthropic sa at kapabilitetene som gjorde det mulig for agenter å utnytte smarte kontrakter også gjelder for andre typer programvare, og at fallende kostnader vil krympe vinduet mellom distribusjon og utnyttelse. Selskapet oppfordret utviklere til å ta i bruk automatiserte verktøy i sine sikkerhetsarbeidsflyter.
Til tross for Anthropics advarsel, sa Schwed at utsiktene ikke utelukkende er negative. «Jeg motsetter meg alltid dommedagsstemningen og sier at med riktige kontroller, grundig intern testing, sammen med sanntidsovervåking og kretsbrytere, er de fleste av disse unngåelige,» sa han. «De gode aktørene har samme tilgang til de samme agentene. Så hvis de dårlige aktørene kan finne det, kan også de gode aktørene. Vi må tenke og handle annerledes.»