AI-generert skadelig programvare har blitt oppdaget, og det kan endre cybersikkerhet slik vi kjenner det

I den utviklende verdenen av cybersikkerhet har vi visst en stund at AI kan utnyttes til å lage skadelig programvare. Men den siste utviklingen har signalisert at fremtiden til AI-generert skadelig programvare kan være nærmere enn vi tror. HP fanget nylig opp en e-postkampanje som leverte en standard nyttelast for skadelig programvare gjennom en AI-generert dropper, som markerte et betydelig skifte i taktikk for nettkriminalitet.
Innholdsfortegnelse
En ny type trussel funnet i AI-malwareutvikling
Oppdagelsen fant sted i juni 2024 da HPs sikkerhetsteam kom over en phishing-e-post som inneholdt en typisk faktura-tema. Vedlegget var en kryptert HTML-fil - en teknikk kjent som HTML-smugling designet for å unngå oppdagelse. Selv om HTML-smugling ikke er noe nytt, hadde denne saken en interessant vri. Vanligvis ville nettkriminelle sende en forhåndskryptert fil, men denne gangen inkluderte angriperne AES-dekrypteringsnøkkelen direkte i JavaScript-koden til vedlegget. Denne underligheten førte til ytterligere etterforskning.
Etter å ha dekryptert vedlegget, fant HPs forskere ut at det så ut til å være et normalt nettsted, men skjult inne i det var et VBScript og den beryktede AsyncRAT infostealer. VBScript fungerte som en dropper, distribuerte infostealer-nyttelasten, modifiserte systemregistre og kjørte JavaScript som en planlagt oppgave. Et PowerShell-skript ble deretter kjørt, og fullførte distribusjonen av AsyncRAT.
Selv om mye av denne prosessen er kjent, skilte en viktig detalj seg ut: VBScript var uvanlig godt strukturert og inneholdt kommentarer - en uvanlig praksis i utvikling av skadelig programvare. Enda mer overraskende var manuset skrevet på fransk. Disse faktorene fikk HP-forskere til å tro at dropperen ikke ble laget av et menneske, men snarere generert av AI.
Rollen til AI i å senke barrieren for nettkriminelle
For å teste teorien deres brukte HPs team sine egne AI-verktøy for å replikere VBScript. Det resulterende manuset hadde en slående likhet med det som ble brukt i angrepet. Selv om dette ikke er definitivt bevis, er forskerne sikre på at AI var involvert i opprettelsen av skadelig programvare. Men mysteriet blir dypere: hvorfor ble ikke skadelig programvare tilsløret? Hvorfor ble kommentarene lagt igjen i koden?
En mulig forklaring er at angriperen var en nykommer i nettkriminalitetens verden. AI-generert skadelig programvare kan senke inngangsbarrierene for potensielle hackere ved å gjøre verktøy som VBScript-generering tilgjengelig for enkeltpersoner med minimale tekniske ferdigheter. I dette tilfellet er AsyncRAT, den primære nyttelasten, fritt tilgjengelig, og teknikker som HTML-smugling krever ikke omfattende kodekunnskap.
Alex Holland, en ledende trusselforsker ved HP, påpekte at dette angrepet krevde svært få ressurser. Det var ingen kompleks infrastruktur bortsett fra en enkelt kommando-og-kontroll-server (C&C) for å administrere de stjålne dataene. Skadevaren i seg selv var grunnleggende og manglet den vanlige tilsløringen sett i mer sofistikerte angrep. Kort sagt, kan dette ha vært arbeidet til en uerfaren hacker som utnytter AI for å gjøre tunge løft.
Fremtiden til AI-generert skadelig programvare
Denne oppdagelsen reiser en annen alarmerende mulighet. Hvis en uerfaren angriper kunne legge igjen ledetråder som peker til AI-genererte skript, hva kan mer erfarne motstandere oppnå med lignende verktøy? Erfarne nettkriminelle vil sannsynligvis fjerne alle spor av AI-engasjement, noe som gjør oppdagelsen langt vanskeligere, om ikke umulig.
"Vi har lenge forventet at kunstig intelligens kan brukes til å generere skadelig programvare," sa Holland. "Men dette er et av de første virkelige eksemplene vi har sett. Det er nok et skritt mot fremtiden, hvor AI-generert skadelig programvare vil bli mer avansert og utbredt.»
Ettersom AI-teknologien fortsetter å utvikle seg raskt, krymper tidslinjen for fullstendig autonom AI-generert skadelig programvare. Selv om det er vanskelig å forutsi den nøyaktige tidslinjen, tror eksperter som Holland at det kan skje i løpet av de neste par årene. AI-trusselen truer ikke i horisonten – den er allerede her.
Forbereder for den neste bølgen av cybertrusler
Etter hvert som grensene mellom menneskelig og AI-generert skadelig programvare visker ut, vil cybersikkerhetslandskapet bli enda mer utfordrende. Selv om denne hendelsen fungerer som en advarsel, er den også et glimt inn i fremtiden hvor AI vil spille en større rolle i nettangrep. Sikkerhetseksperter må være på vakt og kontinuerlig tilpasse forsvaret for å motvirke disse nye truslene.
Med AI-generert skadelig programvare som gjør sin første opptreden i naturen, er det ikke langt å se for seg en tid da mer sofistikerte, AI-drevne angrep blir normen. Som Holland illevarslende antyder, kan vi allerede si: «De er allerede her! Du er neste! Du er neste!"