Microsoft e OpenAI mettono in guardia contro gli hacker nazionali che sfruttano l'intelligenza artificiale per attacchi informatici distruttivi

Microsoft e OpenAI hanno lanciato congiuntamente un avvertimento sulla crescente minaccia rappresentata dagli hacker nazionali che utilizzano l'intelligenza artificiale (AI) e i modelli linguistici di grandi dimensioni (LLM) per migliorare le loro capacità di attacco informatico. Il rapporto identifica attori statali legati a Russia, Corea del Nord, Iran e Cina che sperimentano attivamente le tecnologie di intelligenza artificiale per attività informatiche dannose.
La collaborazione tra Microsoft e OpenAI ha rivelato che avevano contrastato gli sforzi di cinque attori affiliati allo stato, interrompendo i loro tentativi di sfruttare i servizi di intelligenza artificiale per scopi distruttivi chiudendo risorse e conti. Secondo Microsoft, l’attrattiva dei modelli linguistici di grandi dimensioni risiede nel loro supporto al linguaggio naturale, che li rende attraenti per gli autori di minacce specializzati nell’ingegneria sociale e nella comunicazione ingannevole su misura per obiettivi specifici.
Sebbene finora non siano stati osservati attacchi significativi o nuovi che utilizzano LLM, il rapporto evidenzia che questi attori affiliati allo Stato stanno esplorando le tecnologie di intelligenza artificiale nelle varie fasi della catena di attacchi informatici. Le attività spaziano dalla ricognizione e assistenza nella codifica allo sviluppo di malware.
Si dice che il gruppo statale russo Forest Blizzard (APT28) abbia utilizzato i servizi OpenAI per la ricerca open source sui protocolli di comunicazione satellitare e sulla tecnologia di imaging radar, nonché per attività di scripting. Allo stesso modo, altri autori di minacce come l'Emerald Sleet (Kimusky) della Corea del Nord, il Crimson Sandstorm dell'Iran (Imperial Kitten) e il Charcoal Typhoon (Aquatic Panda) e il Salmon Typhoon (Maverick Panda) della Cina hanno utilizzato gli LLM per compiti quali identificare esperti, condurre ricerche , generazione di snippet di codice e creazione di contenuti per campagne di phishing.
In risposta alla crescente minaccia, Microsoft sta adottando misure proattive formulando una serie di principi per mitigare i rischi associati all'uso dannoso di strumenti di intelligenza artificiale e API da parte di attori statali, minacce persistenti avanzate (APT), manipolatori persistenti avanzati (APM) e sindacati criminali informatici. I principi includono l’identificazione e l’azione contro gli autori malintenzionati, la notifica ad altri fornitori di servizi di intelligenza artificiale, la collaborazione con le parti interessate e la garanzia di trasparenza nell’affrontare queste minacce.
Questa collaborazione tra Microsoft e OpenAI sottolinea la necessità di uno sforzo collettivo per stabilire guardrail e meccanismi di sicurezza attorno ai modelli di intelligenza artificiale , rafforzando l’impegno per un uso responsabile e la sicurezza dell’IA di fronte alle minacce informatiche in evoluzione.