Malware alimentat de AI amenință să copleșească sistemele de detectare cu crearea a 10.000 de variante

Cercetătorii în domeniul securității cibernetice trag un semnal de alarmă cu privire la potențiala utilizare greșită a modelelor de limbaj mari (LLM) pentru a supraalimenta dezvoltarea de malware. O nouă analiză realizată de Unitatea 42 de la Palo Alto Networks dezvăluie că LLM-urile, deși nu sunt adepți în crearea de programe malware de la zero, pot rescrie și ofusca codul rău intenționat existent la scară masivă, creând variante care eludează detectarea în până la 88% din cazuri.
Acest lucru ridică îngrijorări critice cu privire la modul în care actorii amenințărilor ar putea exploata AI generativă pentru a evita sistemele de detectare, a degrada modelele de învățare automată și a implementa un arsenal de programe malware în continuă expansiune .
Cuprins
Mecanismul creării de programe malware îmbunătățite cu inteligența artificială
„Conform Unității 42, infractorii pot determina LLM să efectueze transformări pe coduri JavaScript rău intenționate, ceea ce face mai dificilă pentru sistemele de detectare să semnalizeze scripturile rescrise . Spre deosebire de instrumentele tradiționale de ofuscare care generează rezultate mai puțin convingătoare, rescrierile bazate pe LLM par mai naturale și mai greu de detectat.
Tehnicile cheie de transformare includ:
- Redenumire variabilă
- Împărțirea șirurilor
- Inserarea codului nedorit
- Eliminarea spațiilor albe
- Reimplementarea completă a codului
Fiecare iterație generează o nouă variantă de malware care menține funcționalitatea rău inițială, reducând în același timp semnificativ șansele de a fi detectate.
Unitatea 42 a demonstrat această abordare prin utilizarea LLM-urilor pentru a crea 10.000 de variante JavaScript din mostre de malware existente. Aceste variante au păcălit cu succes clasificatorii de malware, inclusiv modele utilizate pe scară largă precum PhishingJS și Innocent Until Proven Guilty (IUPG). În multe cazuri, chiar și platforma VirusTotal nu a reușit să detecteze scripturile rescrise ca fiind rău intenționate.
Marginea periculoasă a obscurării AI
Spre deosebire de instrumentele mai vechi, cum ar fi obfuscator.io, care produc modele care pot fi mai ușor detectate și imprimate cu amprentă, rescrierile bazate pe LLM sunt în mod inerent mai sofisticate. Ele par mai aproape de codul legitim, ceea ce le face mai greu de identificat pentru modelele de învățare automată (ML) și instrumentele antivirus.
Impactul acestei metode este profund:
- Clasificatorii de programe malware sunt păcăliți să eticheteze scripturile rău intenționate ca fiind benigne.
- Modelele ML suferă o degradare a performanței, luptându-se să țină pasul cu evoluția constantă a variantelor de malware.
- Sistemele de detectare riscă să devină învechite, deoarece adversarii generează continuu malware proaspăt, nedetectabil.
Exploatarea LLM-urilor pentru criminalitatea cibernetică mai largă
Această tendință nu se limitează la dezvoltarea de malware. Actorii rău intenționați folosesc instrumente necinstite precum WormGPT, care utilizează AI generativă pentru a automatiza campaniile de phishing și a crea atacuri convingătoare de inginerie socială, adaptate anumitor victime.
În timp ce furnizorii de LLM au implementat balustrade pentru a limita abuzul, cum ar fi blocarea recentă de către OpenAI a 20 de operațiuni înșelătoare în octombrie 2024, actorii amenințărilor găsesc în mod constant modalități de a evita aceste restricții.
The Silver Lining: Combaterea focului cu focul
În ciuda riscurilor, aceleași tehnici bazate pe LLM folosite pentru a ofusca programele malware pot ajuta și apărătorii. Unitatea 42 sugerează utilizarea acestor metode AI pentru a genera date de antrenament care îmbunătățesc robustețea modelelor de detectare a programelor malware. Furnizând clasificatorilor mai multe exemple de cod ofuscat, cercetătorii le-ar putea spori capacitatea de a detecta chiar și cele mai avansate variante.
Vulnerabilități emergente ale inteligenței artificiale: atacul TPUXtract
Creșterea malware-ului bazat pe LLM nu este singura amenințare legată de inteligența artificială care face titluri. Cercetătorii de la Universitatea de Stat din Carolina de Nord au dezvăluit un atac pe canal lateral, denumit TPUXtract, capabil să fure arhitecturi de modele AI din Unitățile de procesare a tensoarelor (TPU) de la Google.
Prin captarea semnalelor electromagnetice emise în timpul inferențelor rețelei neuronale, atacatorii pot extrage detalii precum tipurile de straturi, numerele de noduri, dimensiunile filtrelor și funcțiile de activare cu o precizie de 99,91%. Deși acest atac necesită acces fizic la dispozitiv și echipamente costisitoare, prezintă un risc serios pentru proprietatea intelectuală și ar putea facilita atacurile cibernetice ulterioare.
Ce înseamnă asta pentru securitatea cibernetică
Evoluția rapidă a IA generativă este o sabie cu două tăișuri pentru securitatea cibernetică . Deși deschide noi uși pentru inovație, oferă și instrumente fără precedent pentru infractorii cibernetici.
- Organizațiile trebuie să acționeze în mod proactiv , investind în sisteme avansate de detectare capabile să se adapteze la tehnicile de ofuscare bazate pe inteligență artificială.
- Factorii politici ar trebui să stabilească orientări clare pentru utilizarea etică a IA, impunând în același timp controale mai stricte pentru a preveni utilizarea abuzivă.
- Cercetătorii în domeniul securității trebuie să folosească AI pentru a depăși adversarii , dezvoltând sisteme rezistente care pot contracara amenințările în evoluție.
Viitorul programelor malware AI
Capacitatea LLM-urilor de a crea 10.000 de variante de malware și de a evita detectarea în 88% din cazuri este o reamintire clară a sofisticarii tot mai mari a amenințărilor cibernetice. Pe măsură ce tehnologia evoluează, la fel trebuie să evolueze și apărarea noastră. Întreprinderile, guvernele și profesioniștii în securitate cibernetică trebuie să adopte strategii inovatoare pentru a rămâne în fața actorilor rău intenționați și pentru a proteja lumea digitală de atacurile bazate pe inteligență artificială.