Zlonamerna programska oprema, ki jo poganja AI, grozi, da bo preobremenila sisteme zaznavanja z ustvarjanjem 10.000 različic

Raziskovalci kibernetske varnosti oglašajo alarm zaradi morebitne zlorabe velikih jezikovnih modelov (LLM) za pospešitev razvoja zlonamerne programske opreme. Nova analiza, ki jo je opravila enota 42 podjetja Palo Alto Networks, razkriva, da lahko LLM-ji, čeprav niso vešči ustvarjanja zlonamerne programske opreme iz nič, prepišejo in zameglijo obstoječo zlonamerno kodo v velikem obsegu ter ustvarijo različice, ki se izognejo odkrivanju v do 88 % primerov.
To vzbuja kritične pomisleke o tem, kako bi akterji groženj lahko izkoristili generativno umetno inteligenco, da se izognejo sistemom zaznavanja, poslabšajo modele strojnega učenja in uvedejo vedno večji arzenal zlonamerne programske opreme .
Kazalo
Mehanika ustvarjanja zlonamerne programske opreme, izboljšane z umetno inteligenco
„Glede na enoto 42 lahko kriminalci pozovejo LLM-je k izvajanju transformacij zlonamerne kode JavaScript, zaradi česar sistemi za odkrivanje težje označijo prepisane skripte . Za razliko od tradicionalnih orodij za zamegljevanje, ki ustvarjajo manj prepričljive rezultate, so prepisi, ki jih poganja LLM, videti bolj naravni in jih je težje zaznati.
Glavne tehnike preoblikovanja vključujejo:
- Preimenovanje spremenljivk
- Razdelitev strun
- Vstavljanje neželene kode
- Odstranjevanje presledkov
- Popolna ponovna implementacija kode
Vsaka ponovitev ustvari novo različico zlonamerne programske opreme, ki ohranja prvotno zlonamerno funkcionalnost, hkrati pa znatno zmanjša možnosti za odkritje.
Enota 42 je prikazala ta pristop z uporabo LLM-jev za ustvarjanje 10.000 različic JavaScripta iz obstoječih vzorcev zlonamerne programske opreme. Te različice so uspešno pretentale klasifikatorje zlonamerne programske opreme, vključno s široko uporabljenimi modeli, kot sta PhishingJS in Innocent Until Proven Guilty (IUPG). V mnogih primerih celo platforma VirusTotal ni uspela zaznati prepisanih skriptov kot zlonamernih.
Nevarna prednost zakrivanja AI
Za razliko od starejših orodij, kot je obfuscator.io, ki ustvarjajo vzorce, ki jih je lažje zaznati in vzeti prstne odtise, so prepisi, ki temeljijo na LLM, sami po sebi bolj izpopolnjeni. Videti so bližje legitimni kodi, zaradi česar jih modeli strojnega učenja (ML) in protivirusna orodja težje prepoznajo.
Učinek te metode je velik:
- Klasifikatorji zlonamerne programske opreme so zavedeni, da zlonamerne skripte označijo kot benigne.
- Modeli ML trpijo zaradi poslabšanja zmogljivosti in težko sledijo nenehnemu razvoju različic zlonamerne programske opreme.
- Sistemi za odkrivanje tvegajo, da bodo zastareli, saj nasprotniki nenehno ustvarjajo novo, nezaznavno zlonamerno programsko opremo.
Izkoriščanje LLM za širši kibernetski kriminal
Ta trend ni omejen na razvoj zlonamerne programske opreme. Zlonamerni akterji uporabljajo lažna orodja, kot je WormGPT, ki uporabljajo generativno umetno inteligenco za avtomatizacijo lažnih kampanj in ustvarjanje prepričljivih napadov socialnega inženiringa, prilagojenih določenim žrtvam.
Medtem ko so ponudniki LLM uvedli zaščitne ograje za omejitev zlorab, kot je nedavno blokiranje 20 zavajajočih operacij s strani OpenAI oktobra 2024, akterji groženj nenehno iščejo načine, kako zaobiti te omejitve.
Srebrna podloga: boj proti ognju z ognjem
Kljub tveganjem lahko iste tehnike, ki jih poganja LLM, ki se uporabljajo za zakrivanje zlonamerne programske opreme, pomagajo tudi zagovornikom. Enota 42 predlaga uporabo teh metod AI za ustvarjanje podatkov o usposabljanju, ki izboljšajo robustnost modelov za odkrivanje zlonamerne programske opreme. Če bi klasifikatorjem dodali več primerov zakrite kode, bi lahko raziskovalci potencialno okrepili svojo sposobnost odkrivanja tudi najnaprednejših različic.
Nastajajoče ranljivosti AI: napad TPUXtract
Porast zlonamerne programske opreme, ki jo poganja LLM, ni edina grožnja, povezana z umetno inteligenco, ki polni naslovnice. Raziskovalci z univerze North Carolina State University so razkrili stranski napad, imenovan TPUXtract, ki lahko ukrade arhitekture modelov AI iz Googlovih enot za obdelavo robnih tenzorjev (TPU).
Z zajemanjem elektromagnetnih signalov, oddanih med sklepanjem nevronske mreže, lahko napadalci izluščijo podrobnosti, kot so vrste plasti, številke vozlišč, velikosti filtrov in aktivacijske funkcije z 99,91-odstotno natančnostjo. Čeprav ta napad zahteva fizični dostop do naprave in drage opreme, predstavlja resno tveganje za intelektualno lastnino in lahko olajša nadaljnje kibernetske napade.
Kaj to pomeni za kibernetsko varnost
Hiter razvoj generativne umetne inteligence je dvorezen meč za kibernetsko varnost . Čeprav odpira nova vrata za inovacije, ponuja tudi orodja brez primere za kibernetske kriminalce.
- Organizacije morajo delovati proaktivno in vlagati v napredne sisteme zaznavanja, ki se lahko prilagodijo tehnikam zakrivanja, ki jih poganja AI.
- Oblikovalci politik bi morali oblikovati jasne smernice za etično uporabo umetne inteligence, hkrati pa izvajati strožji nadzor za preprečevanje zlorabe.
- Varnostni raziskovalci morajo izkoristiti AI, da prehitijo nasprotnike in razvijejo prožne sisteme, ki se lahko zoperstavijo razvijajočim se grožnjam.
Prihodnost zlonamerne programske opreme AI
Sposobnost LLM-jev, da ustvarijo 10.000 različic zlonamerne programske opreme in se izognejo odkrivanju v 88 % primerov, je močan opomin na vse večjo sofisticiranost kibernetskih groženj. Z razvojem tehnologije se mora razvijati tudi naša obramba. Podjetja, vlade in strokovnjaki za kibernetsko varnost morajo sprejeti inovativne strategije, da ostanejo pred zlonamernimi akterji in zaščitijo digitalni svet pred napadi, ki jih poganja AI.