Kompiuterių apsauga Dirbtinio intelekto valdoma kenkėjiška programa,...

Dirbtinio intelekto valdoma kenkėjiška programa, sukurdama 10 000 variantų, kelia grėsmę užblokuoti aptikimo sistemas

Kibernetinio saugumo tyrinėtojai skambina pavojaus varpais dėl galimo piktnaudžiavimo didelių kalbų modeliais (LLM), siekiant padidinti kenkėjiškų programų kūrimą. Nauja „Palo Alto Networks“ 42 skyriaus analizė atskleidžia, kad LLM, nors ir nėra įgudę kurti kenkėjiškų programų nuo nulio, gali didžiuliu mastu perrašyti ir užmaskuoti esamą kenkėjišką kodą, sukurdami variantus, kurių išvengiama iki 88 % atvejų.

Tai kelia didelį susirūpinimą dėl to, kaip grėsmės veikėjai galėtų išnaudoti generatyvųjį AI, kad apeitų aptikimo sistemas, pablogintų mašininio mokymosi modelius ir diegtų vis didėjantį kenkėjiškų programų arsenalą .

AI patobulintos kenkėjiškų programų kūrimo mechanika

„Pagal 42 skyrių, nusikaltėliai gali paraginti LLM atlikti kenkėjiško JavaScript kodo transformacijas, todėl aptikimo sistemoms bus sunkiau pažymėti perrašytus scenarijus . Skirtingai nuo tradicinių užmaskavimo įrankių, kurie sukuria mažiau įtikinamus rezultatus, LLM pagrįsti perrašymai atrodo natūralesni ir sunkiau aptinkami.

Pagrindiniai transformavimo būdai yra šie:

  • Kintamųjų pervadinimas
  • Stygų skilimas
  • Šlamšto kodo įvedimas
  • Tarpų pašalinimas
  • Užbaigti kodo pakartotinį įdiegimą

Kiekviena iteracija sukuria naują kenkėjiškos programos variantą, kuris išlaiko originalias kenkėjiškas funkcijas ir žymiai sumažina jos aptikimo tikimybę.

42 skyrius demonstravo šį metodą, naudodamas LLM, kad sukurtų 10 000 „JavaScript“ variantų iš esamų kenkėjiškų programų pavyzdžių. Šie variantai sėkmingai apgavo kenkėjiškų programų klasifikatorius, įskaitant plačiai naudojamus modelius, tokius kaip PhishingJS ir Innocent Until Proven Guilty (IUPG). Daugeliu atvejų net VirusTotal platforma nesugebėjo aptikti perrašytų scenarijų kaip kenkėjiškų.

Pavojingas AI užtemimo kraštas

Skirtingai nuo senesnių įrankių, pvz., obfuscator.io, kurie sukuria šablonus, kuriuos galima lengviau aptikti ir atspausdinti pirštų atspaudus, LLM pagrįsti perrašymai iš esmės yra sudėtingesni. Jie atrodo artimesni teisėtam kodui, todėl mašininio mokymosi (ML) modeliams ir antivirusiniams įrankiams juos sunkiau atpažinti.

Šio metodo poveikis yra didžiulis:

  • Kenkėjiškų programų klasifikatoriai apgaudinėjami, kad kenkėjiškus scenarijus būtų pažymėti kaip nepiktybinius.
  • ML modelių našumas prastėja, nes jiems sunku neatsilikti nuo nuolatinės kenkėjiškų programų variantų evoliucijos.
  • Aptikimo sistemos gali pasenti, nes priešai nuolat generuoja naujas, neaptinkamas kenkėjiškas programas.

LLM naudojimas platesniam elektroniniam nusikaltimui

Ši tendencija neapsiriboja kenkėjiškų programų kūrimu. Kenkėjiški veikėjai naudoja nesąžiningus įrankius, tokius kaip WormGPT, kurie naudoja generatyvųjį dirbtinį intelektą, kad automatizuotų sukčiavimo kampanijas ir sukurtų įtikinamas socialinės inžinerijos atakas, pritaikytas konkrečioms aukoms.

Nors LLM teikėjai įdiegė apsauginius turėklus, kad apribotų piktnaudžiavimą, pvz., OpenAI neseniai 2024 m. spalį užblokavo 20 apgaulingų operacijų, grėsmės veikėjai nuolat ieško būdų, kaip apeiti šiuos apribojimus.

Sidabrinis pamušalas: kova su ugnimi ugnimi

Nepaisant rizikos, tie patys LLM pagrįsti metodai, naudojami kenkėjiškų programų užmaskavimui, taip pat gali padėti gynėjams. 42 skyriuje siūloma naudoti šiuos AI metodus mokymo duomenims generuoti, kurie pagerina kenkėjiškų programų aptikimo modelių patikimumą. Pateikdami klasifikatoriams daugiau užmaskuoto kodo pavyzdžių, mokslininkai galėtų sustiprinti savo gebėjimą aptikti net pažangiausius variantus.

Atsirandančios AI pažeidžiamumas: TPUXtract Attack

LLM valdomų kenkėjiškų programų augimas nėra vienintelė su AI susijusi grėsmė, kuri patenka į antraštes. Tyrėjai iš Šiaurės Karolinos valstijos universiteto pristatė šoninio kanalo ataką, pavadintą TPUXtract, galinčią pavogti AI modelių architektūras iš Google Edge Tensor Processing Units (TPU).

Užfiksuodami elektromagnetinius signalus, skleidžiamus atliekant neuroninio tinklo išvadas, užpuolikai gali 99,91 % tikslumu išgauti tokias detales kaip sluoksnių tipai, mazgų numeriai, filtrų dydžiai ir aktyvinimo funkcijos. Nors šiai atakai reikia fizinės prieigos prie įrenginio ir brangios įrangos, ji kelia rimtą pavojų intelektinei nuosavybei ir gali palengvinti tolesnius kibernetinius išpuolius.

Ką tai reiškia kibernetiniam saugumui

Sparti generatyvaus AI raida yra dviašmenis kibernetinio saugumo kardas . Nors tai atveria naujas duris naujovėms, ji taip pat suteikia precedento neturinčių įrankių kibernetiniams nusikaltėliams.

  • Organizacijos turi veikti aktyviai , investuodamos į pažangias aptikimo sistemas, galinčias prisitaikyti prie dirbtinio intelekto pagrįstų užmaskavimo metodų.
  • Politikos formuotojai turėtų nustatyti aiškias etiško dirbtinio intelekto naudojimo gaires ir užtikrinti griežtesnę kontrolę, kad būtų išvengta piktnaudžiavimo.
  • Saugumo tyrinėtojai turi panaudoti dirbtinį intelektą, kad aplenktų priešus , kurdami atsparias sistemas, galinčias atremti besivystančias grėsmes.

AI kenkėjiškų programų ateitis

LLM galimybė sukurti 10 000 kenkėjiškų programų variantų ir išvengti aptikimo 88 % atvejų yra ryškus priminimas apie didėjantį kibernetinių grėsmių sudėtingumą. Tobulėjant technologijoms, turi tobulėti ir mūsų gynyba. Įmonės, vyriausybės ir kibernetinio saugumo specialistai turi imtis naujoviškų strategijų, kad aplenktų piktybinius veikėjus ir apsaugotų skaitmeninį pasaulį nuo dirbtinio intelekto atakų.

Įkeliama...