AI-genererad skadlig programvara har upptäckts och det kan förändra cybersäkerhet som vi känner den

I den föränderliga världen av cybersäkerhet har vi sedan en tid tillbaka vetat att AI kan utnyttjas för att skapa skadlig programvara. Men den senaste utvecklingen har signalerat att framtiden för AI-genererad skadlig programvara kan vara närmare än vi tror. HP snappade nyligen upp en e-postkampanj som levererade en standardnyttolast för skadlig programvara genom en AI-genererad dropper, vilket markerade en betydande förändring i taktik för cyberbrott.
Innehållsförteckning
En ny typ av hot hittades i AI-malware-utveckling
Upptäckten ägde rum i juni 2024 när HP:s säkerhetsteam stötte på ett nätfiskemail som innehöll ett typiskt fakturatema. Bilagan var en krypterad HTML-fil – en teknik som kallas HTML-smuggling utformad för att undvika upptäckt. Även om HTML-smuggling inte är något nytt, hade det här fallet en intressant twist. Vanligtvis skulle cyberbrottslingar skicka en förkrypterad fil, men den här gången inkluderade angriparna AES-dekrypteringsnyckeln direkt i JavaScript-koden för bilagan. Denna märklighet föranledde ytterligare utredning.
Efter att ha dekrypterat bilagan fann HP:s forskare att det verkade vara en normal webbplats men gömt i den var ett VBScript och den ökända AsyncRAT infostealer. VBScript fungerade som en droppare, distribuerade infostealerns nyttolast, modifierade systemregister och körde JavaScript som en schemalagd uppgift. Ett PowerShell-skript kördes sedan och fullbordade distributionen av AsyncRAT.
Även om mycket av denna process är bekant, stack en viktig detalj ut: VBScript var ovanligt välstrukturerat och innehöll kommentarer - en ovanlig praxis vid utveckling av skadlig programvara. Ännu mer överraskande var manuset skrivet på franska. Dessa faktorer fick HP-forskare att tro att dropparen inte skapades av en människa, utan snarare genererad av AI.
AI:s roll för att sänka barriären för cyberkriminella
För att testa sin teori använde HP:s team sina egna AI-verktyg för att replikera VBScript. Det resulterande manuset hade en slående likhet med det som användes i attacken. Även om detta inte är definitivt bevis, är forskarna övertygade om att AI var inblandad i skapandet av skadlig programvara. Men mysteriet fördjupas: varför fördunklades inte skadlig programvara? Varför fanns kommentarerna kvar i koden?
En möjlig förklaring är att angriparen var en nykomling i världen av cyberbrottslighet. AI-genererad skadlig programvara kan sänka inträdesbarriärerna för blivande hackare genom att göra verktyg som VBScript-generering tillgängliga för individer med minimal teknisk kompetens. I det här fallet är AsyncRAT, den primära nyttolasten, fritt tillgänglig, och tekniker som HTML-smuggling kräver ingen omfattande kodningskunskap.
Alex Holland, en främsta hotforskare vid HP, påpekade att denna attack krävde mycket få resurser. Det fanns ingen komplex infrastruktur förutom en enda kommando-och-kontroll-server (C&C) för att hantera stulna data. Skadlig programvara i sig var grundläggande och saknade den vanliga förvirringen som ses i mer sofistikerade attacker. Kort sagt, detta kan ha varit en oerfaren hackers arbete som utnyttjar AI för att göra det tunga arbetet.
Framtiden för AI-genererad skadlig programvara
Denna upptäckt väcker en annan alarmerande möjlighet. Om en oerfaren angripare kunde lämna ledtrådar som pekar på AI-genererade skript, vad skulle mer rutinerade motståndare kunna uppnå med liknande verktyg? Erfarna cyberbrottslingar skulle sannolikt ta bort alla spår av AI-inblandning, vilket gör upptäckten mycket svårare, för att inte säga omöjlig.
"Vi har länge förväntat oss att AI skulle kunna användas för att generera skadlig programvara," sa Holland. "Men det här är ett av de första verkliga exemplen vi har sett. Det är ytterligare ett steg mot framtiden, där AI-genererad skadlig programvara kommer att bli mer avancerad och utbredd.”
Eftersom AI-tekniken fortsätter att utvecklas snabbt, krymper tidslinjen för helt autonom AI-genererad skadlig kod. Även om det är svårt att förutsäga den exakta tidslinjen, tror experter som Holland att det kan hända inom de närmaste åren. AI-hotet hotar inte vid horisonten – det är redan här.
Förbereder för nästa våg av cyberhot
När gränserna mellan mänsklig och AI-genererad skadlig programvara suddas ut, kommer cybersäkerhetslandskapet att bli ännu mer utmanande. Även om den här incidenten fungerar som en varning, är den också en inblick i framtiden där AI kommer att spela en större roll i cyberattacker. Säkerhetspersonal måste vara vaksamma och ständigt anpassa sina försvar för att motverka dessa framväxande hot.
Med AI-genererad skadlig programvara som gör sitt första uppträdande i naturen, är det inte långsökt att föreställa sig en tid då mer sofistikerade, AI-drivna attacker blir normen. Som Holland olycksbådande antyder, kanske vi redan säger: "De är redan här! Du är nästa! Du är nästa!"