Zlonamjerni softver koji pokreće AI prijeti nadvladati sustave za otkrivanje stvaranjem 10.000 varijanti

Istraživači kibernetičke sigurnosti oglašavaju uzbunu zbog potencijalne zlouporabe velikih jezičnih modela (LLM) za poticanje razvoja zlonamjernog softvera. Nova analiza Palo Alto Networks' Unit 42 otkriva da LLM-ovi, iako nisu vješti u stvaranju zlonamjernog softvera od nule, mogu prepisati i zamaskirati postojeći zlonamjerni kod u velikim razmjerima, stvarajući varijante koje izbjegavaju otkrivanje u do 88% slučajeva.
To izaziva kritičnu zabrinutost o tome kako akteri prijetnji mogu iskoristiti generativnu umjetnu inteligenciju da zaobiđu sustave detekcije, degradiraju modele strojnog učenja i razviju sve veći arsenal zlonamjernog softvera .
Sadržaj
Mehanika stvaranja zlonamjernog softvera poboljšanog umjetnom inteligencijom
'Prema Jedinici 42, kriminalci mogu potaknuti LLM-e da izvrše transformacije zlonamjernog JavaScript koda, što otežava sustavima za otkrivanje označavanje prepisanih skripti . Za razliku od tradicionalnih alata za maskiranje koji generiraju manje uvjerljive rezultate, prepisi vođeni LLM-om izgledaju prirodnije i teže ih je otkriti.
Ključne tehnike transformacije uključuju:
- Preimenovanje varijabli
- Razdvajanje žica
- Umetanje neželjenog koda
- Uklanjanje razmaka
- Potpuna ponovna implementacija koda
Svaka iteracija generira novu varijantu zlonamjernog softvera koja zadržava izvornu zlonamjernu funkcionalnost dok značajno smanjuje šanse da bude otkriven.
Jedinica 42 demonstrirala je ovaj pristup korištenjem LLM-ova za stvaranje 10.000 JavaScript varijanti iz postojećih uzoraka zlonamjernog softvera. Ove su varijante uspješno prevarile klasifikatore zlonamjernog softvera, uključujući široko korištene modele poput PhishingJS i Innocent Until Proven Guilty (IUPG). U mnogim slučajevima čak ni platforma VirusTotal nije uspjela otkriti prepisane skripte kao zlonamjerne.
Opasna oštrica zamagljivanja umjetne inteligencije
Za razliku od starijih alata kao što je obfuscator.io, koji stvaraju uzorke koji se mogu lakše otkriti i otisnuti, prepisi temeljeni na LLM-u su inherentno sofisticiraniji. Čine se bliže legitimnom kodu, što ih otežava identificiranje modelima strojnog učenja (ML) i antivirusnim alatima.
Utjecaj ove metode je dubok:
- Klasifikatori zlonamjernog softvera na prijevaru označavaju zlonamjerne skripte kao benigne.
- ML modeli trpe degradaciju performansi, boreći se da održe korak sa stalnom evolucijom varijanti zlonamjernog softvera.
- Sustavi za otkrivanje riskiraju da postanu zastarjeli jer protivnici neprestano generiraju svježi zlonamjerni softver koji se ne može otkriti.
Iskorištavanje LLM-a za širi kibernetički kriminal
Ovaj trend nije ograničen na razvoj zlonamjernog softvera. Zlonamjerni akteri koriste lažne alate poput WormGPT-a, koji koriste generativnu umjetnu inteligenciju za automatizaciju phishing kampanja i izradu uvjerljivih napada društvenim inženjeringom prilagođenih određenim žrtvama.
Dok su pružatelji LLM-a implementirali zaštitne ograde za ograničavanje zloupotrebe, poput nedavnog blokiranja OpenAI-ja od 20 lažnih operacija u listopadu 2024., akteri prijetnji neprestano pronalaze načine zaobići ta ograničenja.
Srebrna obloga: Vatra se bori vatrom
Unatoč rizicima, iste tehnike vođene LLM-om koje se koriste za prikrivanje zlonamjernog softvera također mogu pomoći braniteljima. Jedinica 42 predlaže korištenje ovih metoda umjetne inteligencije za generiranje podataka za obuku koji poboljšavaju robusnost modela otkrivanja zlonamjernog softvera. Dajući klasifikatorima više primjera maskiranog koda, istraživači bi potencijalno mogli ojačati svoju sposobnost otkrivanja čak i najnaprednijih varijanti.
Nove AI ranjivosti: TPUXtract napad
Porast zlonamjernog softvera koji pokreće LLM nije jedina prijetnja povezana s umjetnom inteligencijom koja dospijeva na naslovnice. Istraživači s Državnog sveučilišta Sjeverne Karoline otkrili su napad sa strane kanala, nazvan TPUXtract, koji može ukrasti arhitekture AI modela iz Googleovih Edge Tensor Processing Units (TPU).
Hvatanjem elektromagnetskih signala emitiranih tijekom zaključivanja neuronske mreže, napadači mogu izvući detalje poput vrsta slojeva, brojeva čvorova, veličina filtera i funkcija aktivacije s 99,91% točnosti. Iako ovaj napad zahtijeva fizički pristup uređaju i skupoj opremi, on predstavlja ozbiljan rizik za intelektualno vlasništvo i može olakšati naknadne kibernetičke napade.
Što to znači za kibernetičku sigurnost
Brza evolucija generativne umjetne inteligencije dvosjekli je mač za kibernetičku sigurnost . Iako otvara nova vrata za inovacije, također nudi alate bez presedana za kibernetičke kriminalce.
- Organizacije moraju djelovati proaktivno , ulažući u napredne sustave detekcije koji se mogu prilagoditi tehnikama zamagljivanja koje pokreće umjetna inteligencija.
- Donositelji politika trebali bi uspostaviti jasne smjernice za etičku upotrebu umjetne inteligencije, istodobno provodeći strože kontrole kako bi se spriječila zlouporaba.
- Sigurnosni istraživači moraju iskoristiti AI kako bi nadmašili protivnike , razvijajući otporne sustave koji se mogu suprotstaviti rastućim prijetnjama.
Budućnost AI zlonamjernog softvera
Sposobnost LLM-ova da stvore 10.000 varijanti zlonamjernog softvera i izbjegnu otkrivanje u 88% slučajeva jasan je podsjetnik na rastuću sofisticiranost cyber prijetnji. Kako se tehnologija razvija, tako se moraju razvijati i naše obrane. Tvrtke, vlade i stručnjaci za kibersigurnost moraju prihvatiti inovativne strategije kako bi bili ispred zlonamjernih aktera i zaštitili digitalni svijet od napada pokretanih umjetnom inteligencijom.