Il malware basato sull'intelligenza artificiale minaccia di sopraffare i sistemi di rilevamento con la creazione di 10.000 varianti

I ricercatori di sicurezza informatica stanno lanciando l'allarme sul potenziale uso improprio di modelli di linguaggio di grandi dimensioni (LLM) per potenziare lo sviluppo di malware. Una nuova analisi dell'Unità 42 di Palo Alto Networks rivela che gli LLM, pur non essendo abili nel creare malware da zero, possono riscrivere e offuscare il codice dannoso esistente su larga scala, creando varianti che eludono il rilevamento fino all'88% dei casi.
Ciò solleva preoccupazioni critiche su come gli autori delle minacce potrebbero sfruttare l'intelligenza artificiale generativa per eludere i sistemi di rilevamento, degradare i modelli di apprendimento automatico e distribuire un arsenale di malware in continua espansione .
Sommario
I meccanismi della creazione di malware potenziata dall'intelligenza artificiale
"Secondo l'Unità 42, i criminali possono indurre gli LLM a eseguire trasformazioni su codice JavaScript dannoso, rendendo più difficile per i sistemi di rilevamento contrassegnare gli script riscritti . A differenza dei tradizionali strumenti di offuscamento che generano output meno convincenti, le riscritture guidate dagli LLM sembrano più naturali e più difficili da rilevare.
Le principali tecniche di trasformazione includono:
- Rinominazione delle variabili
- Divisione delle stringhe
- Inserimento di codice spazzatura
- Rimozione degli spazi vuoti
- Reimplementazione completa del codice
Ogni iterazione genera una nuova variante del malware che mantiene la funzionalità dannosa originale, riducendo però significativamente le possibilità che venga rilevato.
L'Unità 42 ha dimostrato questo approccio utilizzando LLM per creare 10.000 varianti JavaScript da campioni di malware esistenti. Queste varianti hanno ingannato con successo i classificatori di malware, inclusi modelli ampiamente utilizzati come PhishingJS e Innocent Until Proven Guilty (IUPG). In molti casi, persino la piattaforma VirusTotal non è riuscita a rilevare gli script riscritti come dannosi.
Il limite pericoloso dell'offuscamento dell'intelligenza artificiale
A differenza di strumenti più vecchi come obfuscator.io, che producono pattern che possono essere più facilmente rilevati e identificati, le riscritture basate su LLM sono intrinsecamente più sofisticate. Appaiono più vicine al codice legittimo, il che le rende più difficili da identificare per i modelli di apprendimento automatico (ML) e gli strumenti antivirus.
L'impatto di questo metodo è profondo:
- I classificatori di malware vengono indotti con l'inganno a etichettare gli script dannosi come innocui.
- I modelli di ML subiscono un calo delle prestazioni e faticano a tenere il passo con la continua evoluzione delle varianti di malware.
- I sistemi di rilevamento rischiano di diventare obsoleti poiché gli aggressori generano continuamente nuovi malware non rilevabili.
Sfruttare gli LLM per una criminalità informatica più ampia
Questa tendenza non si limita allo sviluppo di malware. Gli attori malintenzionati stanno sfruttando strumenti non autorizzati come WormGPT, che utilizzano l'intelligenza artificiale generativa per automatizzare le campagne di phishing e creare attacchi di ingegneria sociale convincenti e su misura per vittime specifiche.
Sebbene i provider LLM abbiano implementato misure di sicurezza per limitare gli abusi, come il recente blocco di 20 operazioni ingannevoli da parte di OpenAI nell'ottobre 2024, gli autori delle minacce trovano costantemente modi per aggirare queste restrizioni.
Il lato positivo: combattere il fuoco con il fuoco
Nonostante i rischi, le stesse tecniche basate su LLM utilizzate per offuscare il malware possono anche aiutare i difensori. L'Unità 42 suggerisce di utilizzare questi metodi di intelligenza artificiale per generare dati di addestramento che migliorino la robustezza dei modelli di rilevamento del malware. Fornendo ai classificatori più esempi di codice offuscato, i ricercatori potrebbero potenzialmente rafforzare la loro capacità di rilevare anche le varianti più avanzate.
Nuove vulnerabilità dell'intelligenza artificiale: attacco TPUXtract
L'ascesa del malware basato su LLM non è l'unica minaccia correlata all'IA a fare notizia. I ricercatori della North Carolina State University hanno svelato un attacco side-channel, denominato TPUXtract, in grado di rubare le architetture dei modelli di IA dalle Edge Tensor Processing Unit (TPU) di Google.
Catturando i segnali elettromagnetici emessi durante le inferenze delle reti neurali, gli aggressori possono estrarre dettagli come tipi di layer, numeri di nodi, dimensioni dei filtri e funzioni di attivazione con una precisione del 99,91%. Sebbene questo attacco richieda l'accesso fisico al dispositivo e attrezzature costose, rappresenta un serio rischio per la proprietà intellettuale e potrebbe facilitare attacchi informatici successivi.
Cosa significa per la sicurezza informatica
La rapida evoluzione dell'IA generativa è un'arma a doppio taglio per la sicurezza informatica . Mentre apre nuove porte all'innovazione, fornisce anche strumenti senza precedenti per i criminali informatici.
- Le organizzazioni devono agire in modo proattivo , investendo in sistemi di rilevamento avanzati in grado di adattarsi alle tecniche di offuscamento basate sull'intelligenza artificiale.
- I decisori politici dovrebbero stabilire linee guida chiare per l'uso etico dell'intelligenza artificiale, applicando nel contempo controlli più severi per prevenirne l'uso improprio.
- I ricercatori in materia di sicurezza devono sfruttare l'intelligenza artificiale per superare gli avversari , sviluppando sistemi resilienti in grado di contrastare le minacce in continua evoluzione.
Il futuro del malware AI
La capacità degli LLM di creare 10.000 varianti di malware e di eludere il rilevamento nell'88% dei casi è un duro promemoria della crescente sofisticatezza delle minacce informatiche. Con l'evoluzione della tecnologia, devono evolversi anche le nostre difese. Aziende, governi e professionisti della sicurezza informatica devono adottare strategie innovative per stare al passo con gli attori malintenzionati e salvaguardare il mondo digitale dagli attacchi basati sull'intelligenza artificiale.