Otkriven je zlonamjerni softver generiran umjetnom inteligencijom i mogao bi promijeniti kibernetičku sigurnost kakvu poznajemo

U svijetu kibernetičke sigurnosti koji se razvija, već neko vrijeme znamo da se umjetna inteligencija može iskoristiti za stvaranje zlonamjernog softvera. No nedavni razvoj događaja signalizirao je da je budućnost zlonamjernog softvera generiranog umjetnom inteligencijom bliža nego što mislimo. HP je nedavno presreo kampanju putem e-pošte koja je isporučila standardni sadržaj zlonamjernog softvera putem droppera generiranog umjetnom inteligencijom, označavajući značajan pomak u taktici kibernetičkog kriminala.
Sadržaj
Nova vrsta prijetnje pronađena u razvoju zlonamjernog softvera umjetne inteligencije
Otkriće se dogodilo u lipnju 2024. kada je HP-ov sigurnosni tim naišao na phishing e-poštu koja je sadržavala tipičan mamac na temu fakture. Privitak je bio šifrirana HTML datoteka—tehnika poznata kao krijumčarenje HTML-a osmišljena da izbjegne otkrivanje. Iako krijumčarenje HTML-a nije ništa novo, ovaj slučaj je imao zanimljiv obrat. Obično bi kibernetički kriminalci poslali unaprijed šifriranu datoteku, ali ovaj put su napadači uključili AES ključ za dešifriranje izravno u JavaScript kod privitka. Ova neobičnost potaknula je daljnju istragu.
Nakon dešifriranja privitka, HP-ovi istraživači otkrili su da se činilo da se radi o normalnoj web stranici, ali skriveni unutar nje bili su VBScript i zloglasni AsyncRAT infostealer. VBScript je djelovao kao dropper, postavljajući infostealer korisni teret, mijenjajući sistemske registre i izvršavajući JavaScript kao planirani zadatak. Zatim se izvršava skripta PowerShell, čime se dovršava implementacija AsyncRAT-a.
Iako je veći dio ovog procesa poznat, jedan se ključni detalj istaknuo: VBScript je bio neobično dobro strukturiran i sadržavao je komentare - neuobičajena praksa u razvoju zlonamjernog softvera. Što je još iznenađujuće, scenarij je napisan na francuskom. Ti čimbenici naveli su HP-ove istraživače da vjeruju da kapaljku nije izradio čovjek, već da ju je generirala umjetna inteligencija.
Uloga umjetne inteligencije u smanjenju barijera za kibernetičke kriminalce
Kako bi testirali svoju teoriju, HP-ov tim upotrijebio je vlastite AI alate za repliciranje VBScripta. Dobivena skripta zapanjujuće je sličila onoj korištenoj u napadu. Iako ovo nije konačan dokaz, istraživači su uvjereni da je umjetna inteligencija bila uključena u stvaranje zlonamjernog softvera. Ali misterij se produbljuje: zašto zlonamjerni softver nije zamagljen? Zašto su komentari ostavljeni u kodu?
Jedno od mogućih objašnjenja je da je napadač bio pridošlica u svijetu kibernetičkog kriminala. Zlonamjerni softver generiran umjetnom inteligencijom možda smanjuje ulazne barijere za potencijalne hakere čineći alate poput generiranja VBScripta dostupnima pojedincima s minimalnim tehničkim vještinama. U ovom slučaju, AsyncRAT, primarni korisni teret, je besplatno dostupan, a tehnike poput HTML krijumčarenja ne zahtijevaju opsežno znanje kodiranja.
Alex Holland, glavni istraživač prijetnji u HP-u, istaknuo je da ovaj napad zahtijeva vrlo malo resursa. Nije postojala složena infrastruktura osim jednog poslužitelja za upravljanje i kontrolu (C&C) za upravljanje ukradenim podacima. Sam zlonamjerni softver bio je jednostavan i nedostajalo mu je uobičajeno zamagljivanje koje se viđa kod sofisticiranijih napada. Ukratko, ovo je možda djelo neiskusnog hakera koji koristi AI da obavi težak posao.
Budućnost zlonamjernog softvera generiranog umjetnom inteligencijom
Ovo otkriće otvara još jednu alarmantnu mogućnost. Ako bi neiskusni napadač mogao ostaviti tragove koji upućuju na skripte koje je generirala umjetna inteligencija, što bi iskusniji protivnici mogli postići sličnim alatima? Iskusni kibernetički kriminalci vjerojatno bi uklonili sve tragove uključenosti umjetne inteligencije, čineći otkrivanje daleko težim, ako ne i nemogućim.
"Dugo smo očekivali da bi se umjetna inteligencija mogla koristiti za stvaranje zlonamjernog softvera", rekao je Holland. “Ali ovo je jedan od prvih primjera iz stvarnog svijeta koje smo vidjeli. To je još jedan korak prema budućnosti, gdje će malware generiran umjetnom inteligencijom postati napredniji i rašireniji.”
Kako AI tehnologija nastavlja brzo napredovati, vremenska linija za potpuno autonomni zlonamjerni softver generiran AI se smanjuje. Iako je teško predvidjeti točan vremenski okvir, stručnjaci poput Hollanda vjeruju da bi se to moglo dogoditi u sljedećih nekoliko godina. AI prijetnja se ne nazire na horizontu - već je tu.
Priprema za sljedeći val kibernetičkih prijetnji
Kako se granice između zlonamjernog softvera koji stvaraju ljudi i umjetne inteligencije zamagljuju, krajolik kibernetičke sigurnosti postaje još izazovniji. Iako ovaj incident služi kao upozorenje, on je također pogled u budućnost u kojoj će umjetna inteligencija igrati veću ulogu u kibernetičkim napadima. Stručnjaci za sigurnost moraju ostati na oprezu, neprestano prilagođavajući svoje obrane kako bi se suprotstavili ovim prijetnjama u nastajanju.
S obzirom na to da se zlonamjerni softver generiran umjetnom inteligencijom prvi put pojavljuje u divljini, nije nevjerojatno zamisliti vrijeme kada će sofisticiraniji napadi pokretani umjetnom inteligencijom postati norma. Kao što Holland zlokobno sugerira, možda već govorimo: “Već su ovdje! Ti si sljedeći! Ti si sljedeći!”