Sicurezza informatica OpenAI blocca 20 operazioni informatiche dannose per...

OpenAI blocca 20 operazioni informatiche dannose per contrastare le campagne di criminalità informatica globali

Sorprendentemente, OpenAI è emersa come una forza formidabile nella battaglia contro le minacce digitali. Dall'inizio dell'anno, l'azienda ha interrotto con successo più di 20 campagne dannose che cercavano di sfruttare la sua piattaforma AI per attività dannose , dimostrando che il futuro della sicurezza informatica è già qui.

Queste operazioni spaziavano dal debug di malware e dalla creazione di disinformazione alla creazione di falsi profili sui social media. Gli autori delle minacce hanno tentato di sfruttare la piattaforma di OpenAI per facilitare attività dannose come la generazione di biografie per account falsi o la creazione di immagini del profilo generate dall'IA per false identità sui social media su X (ex Twitter).

Tuttavia, nonostante questi sforzi, OpenAI ha rassicurato il pubblico che nessuna di queste campagne ha portato a progressi rivoluzionari nella creazione di malware o nella diffusione virale di disinformazione. In altre parole, mentre i malintenzionati stanno sperimentando con l'IA, devono ancora raggiungere risultati significativi.

Come i criminali informatici hanno sfruttato l'intelligenza artificiale

Gli attori malintenzionati provenivano da ogni angolo del globo, dalla Cina all'Iran, e impiegavano una varietà di tattiche. Un esempio importante è stato SweetSpecter, un gruppo con sede in Cina che ha utilizzato l'IA per la ricognizione e la ricerca di vulnerabilità, e ha persino tentato (senza successo) di fare spear-phishing ai dipendenti di OpenAI.

Anche i gruppi iraniani hanno avuto un ruolo notevole. I Cyber Av3ngers, collegati al Corpo delle guardie rivoluzionarie islamiche iraniane (IRGC), hanno studiato i controllori logici programmabili usando l'intelligenza artificiale, mentre un'altra entità iraniana, Storm-0817, ha usato l'intelligenza artificiale per eseguire il debug del malware Android e raschiare i profili dei social media.

Oltre a queste campagne mirate, OpenAI ha bloccato diverse operazioni di influenza su larga scala. Una di queste, A2Z, ha generato contenuti in inglese e francese per una pubblicazione diffusa sui social media, mentre Stop News ha sfruttato immagini generate dall'IA, spesso in stile cartoon o drammatico, per migliorare i propri articoli e tweet.

Interrompere le campagne di disinformazione globali

Un'altra area di preoccupazione sono state le campagne di disinformazione che hanno preso di mira i sistemi politici. OpenAI ha riferito di essere intervenuta nei tentativi di influenzare le elezioni negli Stati Uniti, in Ruanda, in India e nell'Unione Europea. Nessuno di questi sforzi ha ottenuto una trazione virale, ma il fatto che gli attori della minaccia abbiano cercato di manipolare le elezioni sottolinea i crescenti rischi posti dalla disinformazione guidata dall'IA.

STOIC, un'azienda israeliana nota anche come Zero Zeno, è stata tra i protagonisti principali in questo ambito, generando commenti sui social media sulle elezioni indiane, un'attività che era stata precedentemente resa nota sia da Meta che da OpenAI all'inizio di quest'anno.

La costante vigilanza di OpenAI ha portato anche alla scoperta di altre due reti, Bet Bot e Corrupt Comment, che hanno utilizzato la sua API per generare conversazioni su X e collegare gli utenti a siti di gioco d'azzardo o inondare i social media con commenti inventati.

Il ruolo dell'intelligenza artificiale nella disinformazione micro-mirata

L'intelligenza artificiale generativa ha il potenziale per essere trasformata in un'arma non solo per la disinformazione su larga scala, ma anche per il microtargeting. Secondo un recente rapporto della società di sicurezza informatica Sophos, l'intelligenza artificiale può essere manipolata per diffondere disinformazione politica altamente personalizzata tramite e-mail, siti Web e personaggi falsi. Adattando attentamente i messaggi a specifici punti della campagna, gli attori della minaccia possono ingannare gli elettori a un nuovo livello, alterando eventualmente i risultati delle elezioni o influenzando le opinioni con false informazioni.

I ricercatori avvertono che è inquietantemente facile associare una figura o un movimento politico a una posizione politica che in realtà potrebbe non sostenere, seminando confusione tra gli elettori e danneggiando il processo democratico.

L'impegno di OpenAI per la sicurezza informatica

Sebbene l'IA offra opportunità di progresso senza precedenti, presenta anche gravi sfide per la sicurezza. OpenAI ha dimostrato di essere all'altezza del compito di contrastare i tentativi malevoli di sfruttare la sua tecnologia. Tuttavia, il gioco del gatto e del topo tra esperti di sicurezza informatica e criminali informatici probabilmente continuerà.

Gli sforzi di OpenAI per interrompere oltre 20 campagne globali quest'anno segnano una vittoria significativa, ma la lotta è ben lungi dall'essere finita. Con l'evoluzione dell'IA, evolveranno anche le tattiche utilizzate dagli attori delle minacce. Vigilanza e innovazione costanti saranno fondamentali per garantire che l'IA rimanga una forza per il bene, piuttosto che uno strumento per l'inganno digitale.

Caricamento in corso...