Ar mākslīgo intelektu darbināma ļaunprogrammatūra draud pārslogot noteikšanas sistēmas, radot 10 000 variantu

Kiberdrošības pētnieki izsauc trauksmi par iespējamo lielo valodu modeļu (LLM) ļaunprātīgu izmantošanu, lai palielinātu ļaunprātīgas programmatūras izstrādi. Jaunā Palo Alto Networks 42. nodaļas analīze atklāj, ka LLM, lai gan nav lietpratīgi ļaunprogrammatūras radīšanā no nulles, var pārrakstīt un masveidā apslēpt esošo ļaunprātīgo kodu, radot variantus, kas izvairās no atklāšanas līdz pat 88% gadījumu.
Tas rada nopietnas bažas par to, kā apdraudējuma dalībnieki varētu izmantot ģeneratīvo AI, lai apietu atklāšanas sistēmas, pasliktinātu mašīnmācīšanās modeļus un izvietotu arvien plašāku ļaunprātīgas programmatūras arsenālu .
Satura rādītājs
Ar AI uzlabotas ļaunprātīgas programmatūras izveides mehānika
“Saskaņā ar 42. nodaļu noziedznieki var mudināt LLM veikt ļaundabīga JavaScript koda transformācijas, tādējādi atklāšanas sistēmām ir grūtāk atzīmēt pārrakstītos skriptus . Atšķirībā no tradicionālajiem apmulsināšanas rīkiem, kas rada mazāk pārliecinošus rezultātus, LLM vadīti pārraksti šķiet dabiskāki un grūtāk pamanāmi.
Galvenās transformācijas metodes ietver:
- Mainīgo pārdēvēšana
- Stīgu sadalīšana
- Nevēlama koda ievietošana
- Atstarpu noņemšana
- Pilnīga koda atkārtota ieviešana
Katra iterācija ģenerē jaunu ļaunprātīgas programmatūras variantu, kas saglabā sākotnējo ļaunprātīgo funkcionalitāti, vienlaikus ievērojami samazinot tās atklāšanas iespējas.
42. nodaļa demonstrēja šo pieeju, izmantojot LLM, lai no esošajiem ļaunprātīgas programmatūras paraugiem izveidotu 10 000 JavaScript variantu. Šie varianti veiksmīgi apmānīja ļaunprātīgas programmatūras klasifikatorus, tostarp plaši izmantotos modeļus, piemēram, PhishingJS un Innocent Until Proven Guilty (IUPG). Daudzos gadījumos pat VirusTotal platformai neizdevās atklāt pārrakstītos skriptus kā ļaunprātīgus.
AI neskaidrības bīstamā robeža
Atšķirībā no vecākiem rīkiem, piemēram, obfuscator.io, kas rada modeļus, kurus var vieglāk noteikt un noņemt pirkstu nospiedumus, uz LLM balstīta pārrakstīšana pēc būtības ir sarežģītāka. Šķiet, ka tie ir tuvāk likumīgam kodam, padarot tos grūtāk identificēt mašīnmācīšanās (ML) modeļiem un pretvīrusu rīkiem.
Šīs metodes ietekme ir dziļa:
- Ļaunprātīgos skriptus maldina kā labdabīgus.
- ML modeļi cieš no veiktspējas pasliktināšanās, un tiem ir grūti sekot līdzi pastāvīgajai ļaunprātīgas programmatūras variantu attīstībai.
- Atklāšanas sistēmas var kļūt novecojušas, jo pretinieki nepārtraukti ģenerē jaunu, nenosakāmu ļaunprātīgu programmatūru.
LLM izmantošana plašākai kibernoziedzībai
Šī tendence attiecas ne tikai uz ļaunprātīgas programmatūras izstrādi. Ļaunprātīgi dalībnieki izmanto tādus negodīgus rīkus kā WormGPT, kas izmanto ģeneratīvu AI, lai automatizētu pikšķerēšanas kampaņas un izveidotu pārliecinošus sociālās inženierijas uzbrukumus, kas pielāgoti konkrētiem upuriem.
Lai gan LLM pakalpojumu sniedzēji ir ieviesuši aizsargmargas, lai ierobežotu ļaunprātīgu izmantošanu, piemēram, OpenAI nesen bloķēja 20 maldinošas darbības 2024. gada oktobrī, apdraudējuma dalībnieki pastāvīgi meklē veidus, kā apiet šos ierobežojumus.
Sudraba odere: cīņa ar uguni ar uguni
Neskatoties uz riskiem, tās pašas LLM vadītās metodes, kas tiek izmantotas ļaunprātīgas programmatūras slēpšanai, var arī palīdzēt aizstāvjiem. 42. nodaļa iesaka izmantot šīs AI metodes, lai ģenerētu apmācības datus, kas uzlabo ļaunprātīgas programmatūras noteikšanas modeļu noturību. Sniedzot klasifikatoriem vairāk neskaidra koda piemēru, pētnieki potenciāli varētu stiprināt viņu spēju noteikt pat vismodernākos variantus.
Jaunās AI ievainojamības: TPUXtract Attack
Ar LLM darbināmas ļaunprogrammatūras pieaugums nav vienīgais ar AI saistītais apdraudējums, kas tiek publicēts virsrakstos. Pētnieki no Ziemeļkarolīnas štata universitātes ir atklājuši sānu kanālu uzbrukumu, kas nodēvēts par TPUXtract, kas spēj nozagt AI modeļu arhitektūras no Google Edge Tensor Processing Units (TPU).
Tverot elektromagnētiskos signālus, kas izstaro neironu tīklu secinājumu laikā, uzbrucēji var iegūt informāciju, piemēram, slāņu tipus, mezglu numurus, filtru izmērus un aktivizācijas funkcijas ar 99,91% precizitāti. Lai gan šim uzbrukumam ir nepieciešama fiziska piekļuve ierīcei un dārgs aprīkojums, tas rada nopietnu risku intelektuālajam īpašumam un var atvieglot turpmākus kiberuzbrukumus.
Ko tas nozīmē kiberdrošībai
Ātrā ģeneratīvā AI attīstība ir abpusēji griezīgs kiberdrošības zobens . Lai gan tas paver jaunas durvis inovācijām, tas arī nodrošina vēl nebijušus rīkus kibernoziedzniekiem.
- Organizācijām jārīkojas proaktīvi , ieguldot progresīvās noteikšanas sistēmās, kas spēj pielāgoties mākslīgā intelekta vadītām apmulsināšanas metodēm.
- Politikas veidotājiem būtu jāizstrādā skaidras vadlīnijas AI ētiskai izmantošanai, vienlaikus ieviešot stingrākas kontroles, lai novērstu ļaunprātīgu izmantošanu.
- Drošības pētniekiem ir jāizmanto AI, lai apsteigtu pretiniekus , izstrādājot izturīgas sistēmas, kas var cīnīties pret mainīgiem draudiem.
AI ļaunprogrammatūras nākotne
LLM spēja izveidot 10 000 ļaunprātīgas programmatūras variantu un izvairīties no atklāšanas 88% gadījumu ir spilgts atgādinājums par kiberdraudu pieaugošo sarežģītību. Attīstoties tehnoloģijai, ir jāattīstās arī mūsu aizsardzībai. Uzņēmumiem, valdībām un kiberdrošības profesionāļiem ir jāizmanto novatoriskas stratēģijas, lai apsteigtu ļaundarus un aizsargātu digitālo pasauli no AI vadītiem uzbrukumiem.