Kommentar

Kunstig intelligens gir hackere større overtak

Språkroboter som Auto GPT gjør at én ondsinnet person uten dyp teknisk kompetanse kan kjøre mange utpresningsoperasjoner samtidig. Kostnaden ved å true verdier hos et offer nærmer seg null.
En illustrasjon av en AI-person
Amund Kristiansen.jpg Amund Kristiansen, IT-sikkerhetsekspert i Canon Norge

Det er lettere å ødelegge enn å bygge. Det er en universell lov vi alle har forstått siden vi første gang så et sandslott forsvinne i bølgene på stranden. På samme måte er det mye mer energikrevende å bygge en organisasjon som er motstandsdyktig mot for eksempel løsepengevirus enn å utnytte en sårbarhet.

Det er denne asymmetrien profesjonelle hackergrupper drar nytte av i sine tilnærminger. Det har ikke så mye å si hvordan, eller hvem hackeren treffer, så lenge han bruker mindre ressurser på det enn offeret betaler i løsepenger for å komme ut av situasjonen.

For å være trygg, må det med andre ord koste mer enn det smaker å angripe deg.

Det er lett å finne eksempler på at Chat GPT eller andre såkalte store språkmodeller brukes for å bidra til å skape mer realistiske phishing-eposter, eller at de senker kompetansenivået som er nødvendig for å utnytte sårbarheter, for eksempel ved å hjelpe til å skrive en ondsinnet kode.

Dette er likevel bare starten på en demokratisering av ondsinnede kapabiliteter. Det skyldes flere faktorer.

Det finnes flere store språkmodeller som er nesten like gode som Chat GPT og langt mindre begrenset mot uetiske oppgaver gjennom finjustering fra lovlydige aktører:

LLaMA er en modell bygget etter samme prinsipper som Chat GPT og som ble lekket på nett. Etter bare få uker i det åpne, er denne modellen gjort effektiv nok til å kjøres lokalt på en MacBook Air. En kan altså ikke regne med at de store teknologiselskapene vil kunne holde et monopol på slike systemer og dermed lykkes i å luke ut ondsinnede aktører. Den tiden er allerede forbi.

Auto GPT er et tidlig eksempel på en selvkjørende kunstig intelligens (KI): kort sagt kan en plugge systemet inn i en loop, hvor den får ansvaret for både å skape input og output uavhengig av menneskelig kontroll. Samtidig kan den styre andre programmer via predefinerte grensesnitt. Da kan den lese filer, sende epost, navigere nettsider, eller andre oppgaver. Når modellen gir beskjed om det, kan den selv velge å starte nye instanser av seg selv for å kunne gjennomføre flere prosesser samtidig.

Denne fremgangsmåten er primitiv og bare et par uker gammel, men likevel effektiv nok til at Auto GPT selv kan laste ned riktig programvare til å teste en nettside for sårbarheter, loggføre dem, vurdere hvor utnyttbare de er, og så laste ned annen programvare for å forsøke å utnytte dem.

Dette gjør at ett enkelt ondsinnet individ i prinsippet kan kjøre mange utpresningsoperasjoner i parallell, selv uten dyp teknisk kompetanse.

Kostnaden ved å true en verdi hos et offer nærmer seg null.

Offentlige organer har flere initiativer for å regulere utvikling og bruk av kunstig intelligens. Disse initiativene vil sannsynligvis være effektive i å hindre at individer og organisasjoner blir krenket som følge av kunstig intelligens. Det forutsetter imidlertid at reglene blir respektert: En kriminell aktør vil per definisjon ikke la seg påvirke.

Det hadde vært mulig å regulere distribusjon, utvikling og bruk av slike systemer på et tidligere stadium, men ettersom «gode nok» verktøy er ute i det fri, vil disse kunne fortette og utgjøre en trussel, selv sett at en mot alle odds lykkes med å holde enda mer kapable systemer strengt regulert.

Store ressurser brukes allerede for å få redusert risikoen rundt digital kriminalitet. Microsoft har annonsert en Copilot for sikkerhet, som skal hjelpe deg å tolke loggdata samt å finne frem til riktige tiltak mer effektivt. Lignende verktøy for koding kan hjelpe organisasjoner å skrive sikrere koder.

Slike verktøy kan helt klart også gi lovlydige organisasjoner større kapabiliteter, men asymmetrien består.

Vanskeligheten ved lovlig bruk av KI, særlig i Europa, har Datatilsynet fått øye på. De har etablert KI-sandkassen for å geleide selskap til et mål om lovlig bruk av KI. I sandkassens fjerde runde vil to prosjekter få bistand av Datatilsynet. Forskjellen i båndbredde mellom lovlydige og kriminelle aktører som ønsker å ta i bruk KI, må måles på en logaritmisk skala.

Regulering er likevel bare en gren av problemstillingen. Selv om en lovlydig aktør lykkes i å ta i bruk KI-baserte sikkerhetstiltak, vil disse ikke ha like stor nytteverdi i forsvar som i angrep: Der en angriper kan la sine KI-agenter handle relativt fritt mot et mål, må den lovlydige aktøren hele tiden sikre at hans forsvarssystemer ikke selv utgjør en trussel eller utfører feilkonfigureringer.

Feilmarginen hos den lovlydige aktøren er lavere, og dermed kan ikke systemet utgjøre en like stor «kraftmultiplikator».

Ingen aktør kan utnytte sårbarheter som ikke er der. Målet må derfor være å designe it-systemer og bruksrutiner som har så lav kompleksitet og så klare føringer at sårbarheter ikke lenger kan gjemme seg i tvetydighet og uklare prioriteringer.

Det kan ikke lenger være en terskel for hva som utgjør en akseptabel it-sikkerhetsrisiko.

Publisert i Dagens Næringsliv april 2023.