Studie av ondsinnede rutere i AI-økosystemet
En ny studie avdekket at enkelte rutere injiserer ondsinnet kode, henter ut legitimasjon som private nøkler og sky-token, og får tilgang til klartekstdata ved å avslutte TLS-forbindelser mellom brukere og leverandører som OpenAI, Anthropic og Google. Testing avdekket tilfeller av tilgang til legitimasjon, samt minst én hendelse der Ether ble tappet fra en testlommebok ved hjelp av en kompromittert nøkkel.
Kritisk sikkerhetsrisiko
Forskere fra University of California har avdekket en kritisk sikkerhetsrisiko i kunstig intelligens-økosystemet og advarer om at visse tredjeparts store språkmodell (LLM) rutere kan eksponere brukere for alvorlige sårbarheter, inkludert tyveri av kryptovaluta. Deres funn kaster lys over en voksende bekymring rundt de skjulte risikoene i AI-forsyningskjeden, spesielt ettersom utviklere er avhengige av mellomliggende tjenester for å koble til store AI-leverandører.
Ondsinnede mellomliggende angrep
Studien undersøkte ondsinnede mellomliggende angrep og identifiserte flere angrepsvektorer som kan kompromittere sensitiv informasjon. Blant de mest alarmerende oppdagelsene var at noen rutere aktivt injiserte ondsinnede verktøykall i AI-arbeidsflyter, mens andre var i stand til å hente ut legitimasjon som private nøkler og sky-tilgangstokens.
«Et stort antall av disse ruterne var stille engasjert i tyveri av legitimasjon uten brukernes bevissthet,» sa medforfatter Chaofan Shou.
Hvordan rutere opererer
I kjernen av problemet ligger hvordan disse ruterne opererer. Som mellomledd mellom brukere og store AI-leverandører avslutter de Transport Layer Security (TLS) forbindelser. Denne prosessen gir dem tilgang til all overført data i klartekst, noe som effektivt plasserer dem i en posisjon med full synlighet over sensitive interaksjoner.
For utviklere som arbeider med AI-koding agenter, spesielt innen områder som smarte kontrakter eller kryptovaluta-lommebøker, skaper dette et farlig scenario der private nøkler, frøfraser og legitimasjon kan bli utilsiktet eksponert.
Testresultater
For å teste disse risikoene evaluerte forskerne dusinvis av betalte og hundrevis av gratis rutere hentet fra offentlige samfunn. Resultatene var slående. Flere rutere ble funnet å injisere ondsinnet kode, mens andre fikk tilgang til konfidensielle sky-legitimasjoner. I ett tilfelle brukte en ruter med suksess en kompromittert privat nøkkel for å tømme Ether fra en testlommebok.
Selv om det økonomiske tapet i det kontrollerte eksperimentet var minimalt, er implikasjonene for virkelige applikasjoner ganske alvorlige. Studien avdekket også at selv rutere som ser trygge ut kan bli farlige over tid. Gjennom det forskerne beskriver som «forgiftning», kan tidligere harmløse systemer gjenbruke lekkede legitimasjoner, noe som forsterker trusselen over nettverket.
Vanskeligheter med å oppdage trusler
Å gjøre situasjonen enda vanskeligere er vanskeligheten med å oppdage ondsinnet atferd, ettersom rutere forventes å håndtere sensitiv data som en del av sin normale funksjon, noe som gjør grensen mellom legitim behandling og tyveri nesten usynlig. En annen risikofaktor er økningen av automatiseringsfunksjoner som «YOLO-modus», der AI-agenter utfører kommandoer uten brukerbekreftelse. I slike miljøer kan ondsinnede instruksjoner utføres umiddelbart, noe som øker sannsynligheten for utnyttelse.
Behov for sterkere sikkerhetstiltak
Forskere advarer om at noen rutere kan bli stille kompromittert uten at operatørene innser det, mens gratis tjenester kan bevisst lokke brukere med lavkostnadstilgang mens de høster verdifulle data. Funnene beviser klart at det er et presserende behov for sterkere sikkerhetstiltak. Utviklere anbefales å unngå å overføre sensitiv informasjon gjennom AI-systemer og å implementere strengere beskyttelser på klientsiden.