Sicurezza informatica La violazione della sicurezza di DeepSeek espone le...

La violazione della sicurezza di DeepSeek espone le vulnerabilità dell'intelligenza artificiale e innesca attacchi informatici

L'ultima IA generativa cinese, DeepSeek, è stata oggetto di un intenso controllo della sicurezza informatica sin dal suo lancio. I ricercatori di sicurezza hanno recentemente esposto un jailbreak rapido del sistema che ha rivelato il funzionamento interno del modello. Nel frattempo, DeepSeek ha anche dovuto affrontare ondate di attacchi DDoS, costringendolo a limitare le registrazioni di nuovi utenti. Questi incidenti evidenziano sia i rischi per la sicurezza dei modelli di IA sia la crescente sofisticatezza degli attacchi informatici che prendono di mira i servizi di IA.

Jailbreak rapido del sistema DeepSeek: cosa hanno scoperto i ricercatori

Poco dopo il debutto di DeepSeek, i ricercatori della società di sicurezza API Wallarm hanno scoperto una vulnerabilità di jailbreak che ha esposto il prompt di sistema completo del modello AI. Questo tipo di difetto di sicurezza è particolarmente preoccupante perché il prompt di sistema di un'AI ne detta il comportamento, le limitazioni di risposta e le policy di moderazione dei contenuti. La maggior parte degli sviluppatori di AI, tra cui OpenAI con ChatGPT, adotta misure rigorose per prevenire tali perdite.

Wallarm ha dichiarato in un post del blog del 1° febbraio che il suo metodo di jailbreak sfruttava la logica di risposta AI basata su pregiudizi, sebbene l'azienda abbia omesso dettagli tecnici specifici a causa delle policy di divulgazione responsabile. DeepSeek è stata informata del problema e da allora ha distribuito una correzione. Tuttavia, Wallarm ha pubblicato il testo completo del prompt di sistema, consentendo agli esperti di sicurezza di analizzare il framework operativo di DeepSeek.

Questa rivelazione ha scatenato discussioni su:

  • Misure di privacy basate sull'intelligenza artificiale e l'efficacia con cui DeepSeek protegge i dati degli utenti.
  • Potenziali distorsioni nell'addestramento di DeepSeek, soprattutto se si considerano le affermazioni secondo cui potrebbe aver utilizzato dati OpenAI per l'addestramento.
  • Vincoli normativi che potrebbero influenzare il funzionamento del modello di intelligenza artificiale, in particolare in Cina, dove i contenuti di intelligenza artificiale sono strettamente controllati.

Per indagare la potenziale influenza di OpenAI, Wallarm ha confrontato il prompt di sistema di DeepSeek con quello di ChatGPT. Secondo l'analisi di ChatGPT, le risposte di DeepSeek sono in linea con misure di conformità più severe, mentre l'approccio di OpenAI è più flessibile e incentrato sull'utente.

Attacchi DDoS su DeepSeek: un assalto informatico coordinato

Con l'aumentare della popolarità di DeepSeek, è diventato il bersaglio di attacchi DDoS (distributed denial-of-service) su larga scala. L'azienda ha annunciato di aver dovuto bloccare le registrazioni di nuovi utenti a causa dell'enorme volume di attacchi.

Secondo NSFocus, un'azienda di sicurezza informatica che monitora gli attacchi, DeepSeek ha dovuto affrontare tre grandi ondate di attacchi DDoS che hanno preso di mira la sua interfaccia API il 25, 26 e 27 gennaio. Ogni attacco è durato circa 35 minuti, con un impatto grave sulla piattaforma di DeepSeek. Entro il 28 gennaio, l'interfaccia API non era ancora disponibile a causa delle continue interruzioni.

Anche il sistema di chat DeepSeek è stato attaccato, con attacchi DDoS osservati il 20 e il 25 gennaio, ciascuno della durata di circa un'ora.

Metodi di attacco DDoS

NSFocus ha identificato molteplici tecniche di attacco basate sulla riflessione, tra cui:

  • Attacchi di riflessione NTP : sfruttamento dei server NTP (Network Time Protocol) per amplificare il traffico di attacco.
  • Attacchi di riflessione Memcached : utilizzo di server Memcached non configurati correttamente per inondare DeepSeek con traffico massiccio.
  • Attacchi di riflessione SSDP : prendono di mira i servizi Simple Service Discovery Protocol (SSDP) per sovraccaricare le risorse di rete.
  • Attacchi di riflessione CLDAP : sfruttamento dei server Connection-less Lightweight Directory Access Protocol (CLDAP) per aumentare il volume degli attacchi.

Un attacco altamente coordinato

Entro il 28 gennaio, DeepSeek ha segnalato che gli aggressori stavano adattando i loro metodi in risposta agli sforzi di mitigazione dell'azienda. La precisione e il coordinamento di questi attacchi hanno portato NSFocus a concludere che gli autori erano un team professionale e ben organizzato, piuttosto che hacker casuali.

"L'attaccante dimostra un'altissima professionalità in ogni fase dell'attacco, dalla selezione degli obiettivi alla tempistica degli attacchi e al controllo dell'intensità", ha affermato NSFocus.

Secondo l'analisi dell'azienda di sicurezza informatica, le principali fonti di attacco includono sistemi provenienti dagli Stati Uniti, dal Regno Unito e dall'Australia.

Cosa significa per la sicurezza dell’intelligenza artificiale

Gli incidenti DeepSeek evidenziano i crescenti rischi per la sicurezza informatica nell'IA generativa. Dalle vulnerabilità del jailbreak agli attacchi informatici mirati, i servizi di IA sono ora obiettivi primari sia per i ricercatori di sicurezza che per gli attori malintenzionati.

Punti chiave:

  1. I jailbreak basati sull'intelligenza artificiale continuano a rappresentare una sfida per la sicurezza : anche i modelli di intelligenza artificiale più recenti, come DeepSeek, possono essere sottoposti a reverse engineering per esporre la loro logica interna.
  2. Gli attacchi DDoS contro le piattaforme di intelligenza artificiale sono in aumento : man mano che i servizi di intelligenza artificiale diventano più popolari, attraggono attacchi informatici più coordinati.
  3. La sicurezza dell'intelligenza artificiale deve evolversi rapidamente : gli sviluppatori devono implementare misure di sicurezza solide per prevenire fughe di notizie immediate e difendersi dalle minacce informatiche.

Mentre l'intelligenza artificiale continua a plasmare il panorama digitale, i team di sicurezza informatica devono restare un passo avanti per garantire che i modelli di intelligenza artificiale rimangano sicuri e resilienti contro le minacce emergenti.

Caricamento in corso...