Gli hacker iraniani hanno utilizzato in modo improprio ChatGPT in attacchi informatici mirati alle infrastrutture critiche

In un report rivoluzionario, OpenAI ha rivelato come gli hacker iraniani hanno sfruttato ChatGPT per potenziare gli attacchi informatici sui sistemi di controllo industriale (ICS). Il report fa luce sulle attività informatiche svolte da gruppi come CyberAv3ngers, collegati al Corpo delle guardie rivoluzionarie islamiche (IRGC) dell'Iran, e altri sponsorizzati dalla Cina.
Questi autori di minacce hanno utilizzato ChatGPT per azioni di ricognizione, sfruttamento delle vulnerabilità e post-compromissione. Mentre OpenAI sottolinea che l'IA non ha offerto nuove capacità, ha comunque aiutato questi hacker a condurre attacchi in modo più efficiente utilizzando tecniche disponibili al pubblico.
Sommario
Il gruppo iraniano CyberAv3ngers e gli attacchi alle strutture idriche
CyberAv3ngers ha guadagnato notorietà quest'anno per aver preso di mira i servizi idrici in Irlanda e Pennsylvania, causando notevoli interruzioni. Il gruppo ha sfruttato sistemi ICS scarsamente protetti che erano esposti a Internet e utilizzavano password predefinite. Il loro obiettivo era di concentrarsi sui controllori logici programmabili (PLC), dispositivi critici che controllano i processi industriali.
L'uso di ChatGPT consisteva nel chiedere al chatbot informazioni su router industriali, PLC e password predefinite per dispositivi infrastrutturali critici come i router Tridium Niagara e Hirschmann RS.
Uso improprio dell'intelligenza artificiale per attacchi informatici
Oltre agli obiettivi specifici di ICS, CyberAv3ngers ha chiesto assistenza a ChatGPT per offuscare il codice dannoso e analizzare le reti alla ricerca di vulnerabilità sfruttabili. Il gruppo ha anche tentato di trovare modi per accedere alle password di macOS.
Tuttavia, OpenAI ha chiarito che queste attività non hanno fornito agli hacker alcuna capacità nuova o avanzata oltre a quella disponibile tramite strumenti non AI. Ciò evidenzia i pericoli dell'uso improprio dell'AI, anche se le informazioni ottenute non sono rivoluzionarie.
Altri attori della minaccia coinvolti
Oltre a CyberAv3ngers, un altro gruppo iraniano noto come Storm-0817 ha abusato di ChatGPT. Hanno cercato di sviluppare malware Android e di raschiare dati Instagram, sfruttando l'IA per tradurre i profili LinkedIn in persiano. Sebbene non siano direttamente dannose come gli attacchi ICS, queste attività riflettono sforzi più ampi per usare l'IA come arma nelle operazioni informatiche.
Nel rapporto è stato menzionato anche SweetSpectre, legato alla Cina. Questo gruppo ha utilizzato ChatGPT per lo sviluppo di malware e la ricerca di vulnerabilità. In particolare, SweetSpectre ha tentato di inviare e-mail piene di malware ai dipendenti di OpenAI, ma l'attacco è stato sventato prima che raggiungesse i suoi obiettivi.
Il quadro generale
Il rapporto sottolinea il crescente rischio di un uso improprio dell'IA nella guerra informatica. Sebbene l'IA, incluso ChatGPT, possa semplificare le attività per gli utenti legittimi, può anche fungere da strumento per i malintenzionati. L'approccio proattivo di OpenAI per rilevare e neutralizzare queste minacce è fondamentale per limitarne l'impatto.
Ciò solleva interrogativi per il settore della sicurezza informatica: come si può proteggere l'IA da un uso improprio? Quali misure sono necessarie per impedire agli attori della minaccia di utilizzare tali strumenti per migliorare le proprie capacità?
Queste rivelazioni dovrebbero spingere le industrie e i governi a riconsiderare le strategie di sicurezza, in particolare per le infrastrutture critiche, e a dare priorità alla colmatura delle lacune che consentono agli hacker di sfruttare i sistemi vulnerabili.
L'intelligenza artificiale ha un potenziale enorme per far progredire le industrie e migliorare l'efficienza. Ma come mostra il rapporto, è anche un'arma a doppio taglio. Quando viene usata in modo improprio, può amplificare le capacità dei criminali informatici e degli attori degli stati nazionali. Per restare al passo con queste minacce sono necessarie una vigilanza costante, difese più forti e uno sviluppo responsabile delle tecnologie di intelligenza artificiale.
Il ruolo di ChatGPT in questi incidenti potrebbe essere limitato, ma rappresenta un campanello d'allarme per le più ampie implicazioni dell'intelligenza artificiale nel panorama della sicurezza informatica.