Arvuti turvalisus AI-toega pahavara ähvardab tuvastussüsteeme üle koormata,...

AI-toega pahavara ähvardab tuvastussüsteeme üle koormata, luues 10 000 varianti

Küberjulgeolekuteadlased löövad häirekella suurte keelemudelite (LLM) võimaliku väärkasutuse pärast pahavara arendamisel. Palo Alto Networksi üksuse 42 uus analüüs näitab, et kuigi LLM-id ei oska pahavara nullist luua, suudavad olemasoleva pahatahtliku koodi massiliselt ümber kirjutada ja hägustada, luues variante, mis väldivad tuvastamist kuni 88% juhtudest.

See tekitab kriitilist muret selle üle, kuidas ohus osalejad saaksid kasutada generatiivset tehisintellekti tuvastamissüsteemide kõrvalehoidmiseks, masinõppemudelite halvendamiseks ja üha laieneva pahavara arsenali juurutamiseks .

Tehisintellektiga täiustatud pahavara loomise mehaanika

„Vastavalt üksusele 42 võivad kurjategijad paluda LLM-idel teha pahatahtliku JavaScripti koodi teisendusi, mis muudab tuvastussüsteemide jaoks ümberkirjutatud skriptide märgistamise keerulisemaks . Erinevalt traditsioonilistest segamistööriistadest, mis loovad vähem veenvaid väljundeid, näivad LLM-põhised ümberkirjutused loomulikumad ja raskemini tuvastatavad.

Peamised teisendusmeetodid hõlmavad järgmist:

  • Muutujate ümbernimetamine
  • Stringi lõhenemine
  • Rämpskoodi sisestamine
  • Tühikute eemaldamine
  • Täielik koodi uuesti juurutamine

Iga iteratsioon loob uue pahavara variandi, mis säilitab algse pahatahtliku funktsionaalsuse, vähendades samal ajal oluliselt selle avastamise võimalusi.

Üksus 42 demonstreeris seda lähenemist, kasutades LLM-e, et luua olemasolevatest pahavaranäidistest 10 000 JavaScripti varianti. Need variandid petsid edukalt pahavara klassifikaatoreid, sealhulgas laialdaselt kasutatavaid mudeleid, nagu PhishingJS ja Innocent Until Proven Guilty (IUPG). Paljudel juhtudel ei suutnud isegi VirusTotali platvorm ümberkirjutatud skripte pahatahtlikena tuvastada.

AI segamise ohtlik serv

Erinevalt vanematest tööriistadest, nagu obfuscator.io, mis toodavad mustreid, mida saab hõlpsamini tuvastada ja sõrmejälgi võtta, on LLM-põhised ümberkirjutused oma olemuselt keerukamad. Need näivad olevat seaduslikule koodile lähedasemad, muutes masinõppemudelite (ML) ja viirusetõrjetööriistade tuvastamise raskemaks.

Selle meetodi mõju on sügav:

  • Pahavara klassifikaatorid püütakse pahatahtlikud skriptid healoomuliseks märgistada.
  • ML-mudelid kannatavad jõudluse halvenemise all, sest neil on raskusi pahavaravariantide pideva arenguga sammu pidada.
  • Tuvastamissüsteemid võivad vananeda, kuna vastased loovad pidevalt värsket, tuvastamatut pahavara.

LLM-ide kasutamine laiema küberkuritegevuse jaoks

See suundumus ei piirdu pahavara arendamisega. Pahatahtlikud osalejad kasutavad petturlikke tööriistu, nagu WormGPT, mis kasutavad generatiivset tehisintellekti andmepüügikampaaniate automatiseerimiseks ja konkreetsetele ohvritele kohandatud veenvate sotsiaalse manipuleerimise rünnakute loomiseks.

Kuigi LLM-i pakkujad on kuritarvitamise piiramiseks rakendanud kaitsepiirdeid, nagu OpenAI hiljutine 20 petteoperatsiooni blokeerimine 2024. aasta oktoobris, leiavad ohustajad pidevalt võimalusi nendest piirangutest mööda hiilida.

Hõbedane vooder: tulega võitlemine

Vaatamata riskidele võivad samad LLM-põhised tehnikad, mida kasutatakse pahavara hägustamiseks, aidata ka kaitsjaid. Üksus 42 soovitab kasutada neid tehisintellekti meetodeid koolitusandmete genereerimiseks, mis parandavad pahavara tuvastamise mudelite töökindlust. Andes klassifikaatoritele rohkem hägustatud koodi näiteid, võivad teadlased potentsiaalselt tugevdada nende võimet tuvastada isegi kõige arenenumaid variante.

Tekkivad AI haavatavused: TPUXtract Attack

LLM-põhise pahavara kasv ei ole ainus tehisintellektiga seotud oht, mis pealkirju teeb. Põhja-Carolina osariigi ülikooli teadlased on avalikustanud külgkanali rünnaku nimega TPUXtract, mis suudab varastada Google'i Edge Tensor Processing Units (TPU) AI mudeliarhitektuure.

Jäädvustades närvivõrgu järelduste käigus väljastatud elektromagnetilisi signaale, saavad ründajad 99,91% täpsusega eraldada üksikasju, nagu kihtide tüübid, sõlmede numbrid, filtrite suurused ja aktiveerimisfunktsioonid. Kuigi see rünnak nõuab füüsilist juurdepääsu seadmele ja kulukatele seadmetele, kujutab see endast tõsist ohtu intellektuaalomandile ja võib hõlbustada küberrünnakute järelmeetmeid.

Mida see küberturvalisuse jaoks tähendab

Generatiivse AI kiire areng on küberjulgeoleku jaoks kahe teraga mõõk . Kuigi see avab uusi uksi innovatsioonile, pakub see ka küberkurjategijatele enneolematuid tööriistu.

  • Organisatsioonid peavad tegutsema ennetavalt , investeerides täiustatud tuvastussüsteemidesse, mis on võimelised kohanema tehisintellekti juhitud segamistehnikatega.
  • Poliitikakujundajad peaksid kehtestama selged juhised tehisintellekti eetiliseks kasutamiseks, rakendades samal ajal rangemaid kontrolle, et vältida väärkasutamist.
  • Turvateadlased peavad võimendama tehisintellekti, et ületada vastased , arendades välja vastupidavaid süsteeme, mis suudavad võidelda arenevate ohtudega.

AI pahavara tulevik

LLM-ide võime luua 10 000 pahavara varianti ja 88% juhtudest avastamisest kõrvale hiilida tuletab teravalt meelde küberohtude keerukust. Tehnoloogia arenedes peavad arenema ka meie kaitsemehhanismid. Ettevõtted, valitsused ja küberjulgeoleku spetsialistid peavad kasutama uuenduslikke strateegiaid, et püsida ees pahatahtlikest osalejatest ja kaitsta digitaalset maailma tehisintellektil põhinevate rünnakute eest.

Laadimine...