Siguria kompjuterike Malware i fuqizuar nga AI kërcënon të mposht sistemet e...

Malware i fuqizuar nga AI kërcënon të mposht sistemet e zbulimit me krijimin e 10,000 varianteve

Studiuesit e sigurisë kibernetike po japin alarmin mbi keqpërdorimin e mundshëm të modeleve të mëdha gjuhësore (LLM) për të shtuar zhvillimin e malware. Një analizë e re nga Njësia 42 e Palo Alto Networks zbulon se LLM-të, megjithëse nuk janë të aftë në krijimin e malware nga e para, mund të rishkruajnë dhe errësojnë kodin ekzistues keqdashës në një shkallë masive, duke krijuar variante që shmangin zbulimin deri në 88% të rasteve.

Kjo ngre shqetësime kritike rreth asaj se si aktorët e kërcënimit mund të shfrytëzojnë AI gjeneruese për të anashkaluar sistemet e zbulimit, për të degraduar modelet e mësimit të makinerive dhe për të vendosur një arsenal gjithnjë në zgjerim të malware .

Mekanika e krijimit të malware të përmirësuar me AI

"Sipas Njësisë 42, kriminelët mund t'i nxisin LLM-të të kryejnë transformime në kodin keqdashës JavaScript, duke e bërë më të vështirë për sistemet e zbulimit që të raportojnë skriptet e rishkruara . Ndryshe nga mjetet tradicionale të turbullimit që gjenerojnë rezultate më pak bindëse, rishkrimet e drejtuara nga LLM duken më të natyrshme dhe më të vështira për t'u zbuluar.

Teknikat kryesore të transformimit përfshijnë:

  • Riemërtimi i ndryshores
  • Ndarja e vargut
  • Futja e kodit të padëshiruar
  • Heqja e hapësirës së bardhë
  • Rizbatimi i plotë i kodit

Çdo përsëritje gjeneron një variant të ri malware që ruan funksionalitetin origjinal me qëllim të keq duke reduktuar ndjeshëm shanset e tij për t'u zbuluar.

Njësia 42 demonstroi këtë qasje duke përdorur LLM për të krijuar 10,000 variante JavaScript nga mostrat ekzistuese të malware. Këto variante mashtruan me sukses klasifikuesit e malware, duke përfshirë modele të përdorura gjerësisht si PhishingJS dhe Innocent Until Proven Guilty (IUPG). Në shumë raste, edhe platforma VirusTotal nuk arriti të zbulojë skriptet e rishkruara si me qëllim të keq.

Skaji i rrezikshëm i turbullimit të AI

Ndryshe nga mjetet e vjetra si obfuscator.io, të cilat prodhojnë modele që mund të zbulohen më lehtë dhe të merren gjurmët e gishtave, rishkrimet e bazuara në LLM janë në thelb më të sofistikuara. Ato duken më afër kodit legjitim, duke i bërë më të vështira për t'i identifikuar modelet e mësimit të makinerive (ML) dhe mjetet antivirus.

Ndikimi i kësaj metode është i thellë:

  • Klasifikuesit e malware janë mashtruar për të etiketuar skriptet me qëllim të keq si të mirë.
  • Modelet ML pësojnë një degradim të performancës, duke luftuar për të vazhduar me evolucionin e vazhdueshëm të varianteve të malware.
  • Sistemet e zbulimit rrezikojnë të vjetërohen pasi kundërshtarët gjenerojnë vazhdimisht malware të freskët dhe të pazbulueshëm.

Shfrytëzimi i LLM-ve për krimin më të gjerë kibernetik

Ky trend nuk është i kufizuar në zhvillimin e malware. Aktorët keqdashës po përdorin mjete mashtruese si WormGPT, të cilat përdorin AI gjeneruese për të automatizuar fushatat e phishing dhe për të krijuar sulme bindëse inxhinierike sociale të përshtatura për viktima specifike.

Ndërsa ofruesit e LLM kanë zbatuar parmakë për të kufizuar abuzimin, siç është bllokimi i fundit i OpenAI i 20 operacioneve mashtruese në tetor 2024, aktorët e kërcënimit po gjejnë vazhdimisht mënyra për t'i shmangur këto kufizime.

Rreshtimi i argjendtë: Luftimi i zjarrit me zjarr

Pavarësisht nga rreziqet, të njëjtat teknika të drejtuara nga LLM të përdorura për të errësuar malware mund të ndihmojnë gjithashtu mbrojtësit. Njësia 42 sugjeron përdorimin e këtyre metodave të AI për të gjeneruar të dhëna trajnimi që përmirësojnë qëndrueshmërinë e modeleve të zbulimit të malware. Duke ushqyer klasifikuesit më shumë shembuj të kodit të turbullt, studiuesit mund të forcojnë potencialisht aftësinë e tyre për të zbuluar edhe variantet më të avancuara.

Dobësitë e reja të AI: Sulmi TPUXtract

Rritja e malware-ve të mundësuar nga LLM nuk është i vetmi kërcënim i lidhur me AI që bën tituj. Studiuesit nga Universiteti Shtetëror i Karolinës së Veriut kanë zbuluar një sulm në kanalin anësor, të quajtur TPUXtract, i aftë për të vjedhur arkitekturat e modelit të AI nga Njësitë e Përpunimit të Tensoreve të Edge të Google (TPU).

Duke kapur sinjalet elektromagnetike të emetuara gjatë konkluzioneve të rrjetit nervor, sulmuesit mund të nxjerrin detaje si llojet e shtresave, numrat e nyjeve, madhësitë e filtrave dhe funksionet e aktivizimit me saktësi 99,91%. Megjithëse ky sulm kërkon qasje fizike në pajisje dhe pajisje të kushtueshme, ai paraqet një rrezik serioz për pronën intelektuale dhe mund të lehtësojë sulmet kibernetike pasuese.

Çfarë do të thotë kjo për sigurinë kibernetike

Evolucioni i shpejtë i AI gjeneruese është një thikë me dy tehe për sigurinë kibernetike . Ndërsa hap dyer të reja për inovacion, ai gjithashtu ofron mjete të paprecedentë për kriminelët kibernetikë.

  • Organizatat duhet të veprojnë në mënyrë proaktive , duke investuar në sisteme të avancuara zbulimi të afta për t'u përshtatur me teknikat e mjegullimit të drejtuara nga AI.
  • Politikëbërësit duhet të vendosin udhëzime të qarta për përdorimin etik të AI ndërsa zbatojnë kontrolle më të rrepta për të parandaluar keqpërdorimin.
  • Hulumtuesit e sigurisë duhet të përdorin AI për të kapërcyer kundërshtarët , duke zhvilluar sisteme elastike që mund të kundërshtojnë kërcënimet në zhvillim.

E ardhmja e AI Malware

Aftësia e LLM-ve për të krijuar 10,000 variante malware dhe për të shmangur zbulimin në 88% të rasteve është një kujtesë e fortë e sofistikimit në rritje të kërcënimeve kibernetike. Ndërsa teknologjia evoluon, po ashtu duhet edhe mbrojtja jonë. Bizneset, qeveritë dhe profesionistët e sigurisë kibernetike duhet të përqafojnë strategji novatore për të qëndruar përpara aktorëve keqdashës dhe për të mbrojtur botën dixhitale nga sulmet e fuqizuara nga AI.

Po ngarkohet...