Ny Trusselintelligensrapport fra Anthropic
Anthropic publiserte en ny trusselintelligensrapport på onsdag som gir et innblikk i fremtiden for cyberkriminalitet. Rapporten dokumenterer hvordan kriminelle aktører ikke lenger bare ber AI om kodingstips, men også bruker den til å gjennomføre angrep i sanntid – og benytter kryptovaluta som betalingskanal.
Vibe Hacking
Det fremtredende tilfellet er det forskerne kaller «vibe hacking». I denne kampanjen brukte en cyberkriminell Anthropic sin Claude Code – en naturlig språk-kodingassistent som kjører i terminalen – for å utføre en masseutpressingsoperasjon mot minst 17 organisasjoner, inkludert regjeringer, helsevesen og religiøse institusjoner.
I stedet for å bruke klassisk ransomware, stolte angriperen på Claude for å automatisere rekognosering, samle inn legitimasjon, trenge inn i nettverk og eksfiltrere sensitiv data. Claude ga ikke bare veiledning; den utførte «on-keyboard» handlinger som å skanne VPN-endepunkter, skrive tilpasset malware og analysere stjålet data for å avgjøre hvilke ofre som kunne betale mest.
Så kom utpressingen: Claude genererte tilpassede HTML-løsepenger-notater, skreddersydd for hver organisasjon med økonomiske tall, antall ansatte og regulatoriske trusler. Kravene varierte fra $75,000 til $500,000 i Bitcoin.
AI i Cyberkriminalitet
En operatør, forsterket av AI, hadde ildkraften til en hel hackinggruppe. Mens rapporten dekker alt fra statlig spionasje til romantiske svindler, er fokuset på penger – og mye av det flyter gjennom kryptovaluta.
«Vibe hacking»-utpressingskampanjen krevde betalinger på opptil $500,000 i Bitcoin, med løsepenger-notater som ble automatisk generert av Claude for å inkludere lommebokadresser og spesifikke trusler mot ofrene.
En separat ransomware-as-a-service-butikk selger AI-bygde malware-kits på mørke nettfora hvor kryptovaluta er standardvaluta. I det større geopolitiske bildet kanaliserer Nord-Koreas AI-aktiverte IT-arbeidere svindel for millioner inn i regimets våpenprogrammer, ofte hvitvasket gjennom kryptovaluta.
AI og Nord-Korea
Med andre ord: AI skalerer de typene angrep som allerede er avhengige av kryptovaluta for både utbetalinger og hvitvasking, noe som gjør kryptovaluta mer tett sammenvevd med økonomien i cyberkriminalitet enn noen gang. En annen avsløring: Nord-Korea har vevd AI dypt inn i sin strategi for å unngå sanksjoner.
Regimets IT-operatører får falske fjernjobber hos vestlige teknologifirmaer ved å late som de har teknisk kompetanse med Claudes hjelp. Ifølge rapporten er disse arbeiderne nesten helt avhengige av AI for daglige oppgaver. Claude genererer CV-er, skriver søknadsbrev, svarer på intervjuspørsmål i sanntid, feilsøker kode og til og med komponerer profesjonelle e-poster.
Ordningen er lukrativ. FBI anslår at disse fjernansatte kanaliserer hundrevis av millioner dollar årlig tilbake til Nord-Koreas våpenprogrammer. Det som tidligere krevde år med elite teknisk opplæring ved universiteter i Pyongyang, kan nå simuleres på farten med AI.
No-Code Ransomware
Hvis ikke det var nok, beskriver rapporten en aktør basert i Storbritannia (sporet som GTG-5004) som driver en no-code ransomware-butikk. Med Claudes hjelp selger operatøren ransomware-as-a-service (RaaS) kits på mørke nettfora som Dread og CryptBB. For så lite som $400 kan aspirerende kriminelle kjøpe DLL-er og kjørbare filer drevet av ChaCha20-kryptering.
Et komplett kit med en PHP-konsoll, kommandosentralverktøy og anti-analyse unngåelse koster $1,200. Disse pakkene inkluderer triks som FreshyCalls og RecycledGate, teknikker som normalt krever avansert kunnskap om Windows-interne for å omgå endepunktsdeteksjonssystemer.
Den forstyrrende delen? Selgeren ser ut til å være ute av stand til å skrive denne koden uten AI-hjelp. Anthropics rapport understreker at AI har visket ut ferdighetsbarrieren – hvem som helst kan nå bygge og selge avansert ransomware.
Statlige Aktører og AI
Rapporten fremhever også hvordan statlige aktører integrerer AI i sine operasjoner. En kinesisk gruppe som retter seg mot vietnamesisk kritisk infrastruktur brukte Claude på 12 av 14 MITRE ATT&CK taktikker – alt fra rekognosering til privilegiereskalering og lateral bevegelse. Målene inkluderte telekomleverandører, statlige databaser og landbrukssystemer.
Separat sier Anthropic at de automatisk forstyrret en nordkoreansk malware-kampanje knyttet til den beryktede «Contagious Interview»-ordningen. Automatiserte sikkerhetstiltak fanget og utestengte kontoer før de kunne lansere angrep, noe som tvang gruppen til å gi opp sitt forsøk.
AI-drevet Svindel
Utover høyprofilerte utpressinger og spionasje, beskriver rapporten hvordan AI stille driver svindel i stor skala. Kriminelle fora tilbyr syntetiske identitetstjenester og AI-drevne kortbutikker som er i stand til å validere stjålne kredittkort på tvers av flere API-er med bedriftsgrad failover.
Det finnes til og med en Telegram-bot markedsført for romantiske svindler, hvor Claude ble annonsert som en «høy EQ-modell» for å generere følelsesmessig manipulerende meldinger. Bot-en håndterte flere språk og betjente over 10,000 brukere månedlig, ifølge rapporten.
AI skriver ikke bare ondsinnet kode – det skriver kjærlighetsbrev til ofre som ikke vet at de blir svindlet.
Konklusjon
Anthropic rammer inn disse avsløringene som en del av sin bredere transparensstrategi: å vise hvordan deres egne modeller har blitt misbrukt, samtidig som de deler tekniske indikatorer med partnere for å hjelpe det bredere økosystemet med å forsvare seg mot misbruk. Kontoer knyttet til disse operasjonene ble utestengt, og nye klassifiseringsverktøy ble rullet ut for å oppdage lignende misbruk.
Men den større konklusjonen er at AI fundamentalt endrer økonomien i cyberkriminalitet. Som rapporten direkte sier,
«Tradisjonelle antakelser om forholdet mellom aktørens sofistikering og angrepets kompleksitet holder ikke lenger.»
En person, med den rette AI-assistenten, kan nå etterligne arbeidet til en hel hackinggruppe. Ransomware er tilgjengelig som en SaaS-abonnement. Og fiendtlige stater integrerer AI i spionasjekampanjer. Cyberkriminalitet var allerede en lukrativ virksomhet. Med AI blir det skremmende skalerbart.