Datasikkerhet AI-generert skadelig programvare har blitt oppdaget, og...

AI-generert skadelig programvare har blitt oppdaget, og det kan endre cybersikkerhet slik vi kjenner det

I den utviklende verdenen av cybersikkerhet har vi visst en stund at AI kan utnyttes til å lage skadelig programvare. Men den siste utviklingen har signalisert at fremtiden til AI-generert skadelig programvare kan være nærmere enn vi tror. HP fanget nylig opp en e-postkampanje som leverte en standard nyttelast for skadelig programvare gjennom en AI-generert dropper, som markerte et betydelig skifte i taktikk for nettkriminalitet.

En ny type trussel funnet i AI-malwareutvikling

Oppdagelsen fant sted i juni 2024 da HPs sikkerhetsteam kom over en phishing-e-post som inneholdt en typisk faktura-tema. Vedlegget var en kryptert HTML-fil - en teknikk kjent som HTML-smugling designet for å unngå oppdagelse. Selv om HTML-smugling ikke er noe nytt, hadde denne saken en interessant vri. Vanligvis ville nettkriminelle sende en forhåndskryptert fil, men denne gangen inkluderte angriperne AES-dekrypteringsnøkkelen direkte i JavaScript-koden til vedlegget. Denne underligheten førte til ytterligere etterforskning.

Etter å ha dekryptert vedlegget, fant HPs forskere ut at det så ut til å være et normalt nettsted, men skjult inne i det var et VBScript og den beryktede AsyncRAT infostealer. VBScript fungerte som en dropper, distribuerte infostealer-nyttelasten, modifiserte systemregistre og kjørte JavaScript som en planlagt oppgave. Et PowerShell-skript ble deretter kjørt, og fullførte distribusjonen av AsyncRAT.

Selv om mye av denne prosessen er kjent, skilte en viktig detalj seg ut: VBScript var uvanlig godt strukturert og inneholdt kommentarer - en uvanlig praksis i utvikling av skadelig programvare. Enda mer overraskende var manuset skrevet på fransk. Disse faktorene fikk HP-forskere til å tro at dropperen ikke ble laget av et menneske, men snarere generert av AI.

Rollen til AI i å senke barrieren for nettkriminelle

For å teste teorien deres brukte HPs team sine egne AI-verktøy for å replikere VBScript. Det resulterende manuset hadde en slående likhet med det som ble brukt i angrepet. Selv om dette ikke er definitivt bevis, er forskerne sikre på at AI var involvert i opprettelsen av skadelig programvare. Men mysteriet blir dypere: hvorfor ble ikke skadelig programvare tilsløret? Hvorfor ble kommentarene lagt igjen i koden?

En mulig forklaring er at angriperen var en nykommer i nettkriminalitetens verden. AI-generert skadelig programvare kan senke inngangsbarrierene for potensielle hackere ved å gjøre verktøy som VBScript-generering tilgjengelig for enkeltpersoner med minimale tekniske ferdigheter. I dette tilfellet er AsyncRAT, den primære nyttelasten, fritt tilgjengelig, og teknikker som HTML-smugling krever ikke omfattende kodekunnskap.

Alex Holland, en ledende trusselforsker ved HP, påpekte at dette angrepet krevde svært få ressurser. Det var ingen kompleks infrastruktur bortsett fra en enkelt kommando-og-kontroll-server (C&C) for å administrere de stjålne dataene. Skadevaren i seg selv var grunnleggende og manglet den vanlige tilsløringen sett i mer sofistikerte angrep. Kort sagt, kan dette ha vært arbeidet til en uerfaren hacker som utnytter AI for å gjøre tunge løft.

Fremtiden til AI-generert skadelig programvare

Denne oppdagelsen reiser en annen alarmerende mulighet. Hvis en uerfaren angriper kunne legge igjen ledetråder som peker til AI-genererte skript, hva kan mer erfarne motstandere oppnå med lignende verktøy? Erfarne nettkriminelle vil sannsynligvis fjerne alle spor av AI-engasjement, noe som gjør oppdagelsen langt vanskeligere, om ikke umulig.

"Vi har lenge forventet at kunstig intelligens kan brukes til å generere skadelig programvare," sa Holland. "Men dette er et av de første virkelige eksemplene vi har sett. Det er nok et skritt mot fremtiden, hvor AI-generert skadelig programvare vil bli mer avansert og utbredt.»

Ettersom AI-teknologien fortsetter å utvikle seg raskt, krymper tidslinjen for fullstendig autonom AI-generert skadelig programvare. Selv om det er vanskelig å forutsi den nøyaktige tidslinjen, tror eksperter som Holland at det kan skje i løpet av de neste par årene. AI-trusselen truer ikke i horisonten – den er allerede her.

Forbereder for den neste bølgen av cybertrusler

Etter hvert som grensene mellom menneskelig og AI-generert skadelig programvare visker ut, vil cybersikkerhetslandskapet bli enda mer utfordrende. Selv om denne hendelsen fungerer som en advarsel, er den også et glimt inn i fremtiden hvor AI vil spille en større rolle i nettangrep. Sikkerhetseksperter må være på vakt og kontinuerlig tilpasse forsvaret for å motvirke disse nye truslene.

Med AI-generert skadelig programvare som gjør sin første opptreden i naturen, er det ikke langt å se for seg en tid da mer sofistikerte, AI-drevne angrep blir normen. Som Holland illevarslende antyder, kan vi allerede si: «De er allerede her! Du er neste! Du er neste!"

Laster inn...