Încălcarea securității DeepSeek expune vulnerabilitățile AI și provoacă atacuri cibernetice

Cea mai recentă IA generativă a Chinei, DeepSeek, a făcut obiectul unui control intens al securității cibernetice de la lansare. Cercetătorii de securitate au dezvăluit recent un jailbreak prompt al sistemului care a dezvăluit funcționarea interioară a modelului. Între timp, DeepSeek s-a confruntat și cu valuri de atacuri DDoS, forțându-l să restricționeze înregistrările de noi utilizatori. Aceste incidente evidențiază atât riscurile de securitate ale modelelor AI, cât și sofisticarea tot mai mare a atacurilor cibernetice care vizează serviciile AI.
Cuprins
Jailbreakul prompt al sistemului DeepSeek: Ce au descoperit cercetătorii
La scurt timp după debutul DeepSeek, cercetătorii de la firma de securitate API Wallar au descoperit o vulnerabilitate de jailbreak care a expus promptul complet al modelului AI. Acest tip de defect de securitate este deosebit de îngrijorător, deoarece promptul unui sistem AI îi dictează comportamentul, limitările de răspuns și politicile de moderare a conținutului. Majoritatea dezvoltatorilor AI, inclusiv OpenAI cu ChatGPT, iau măsuri stricte pentru a preveni astfel de scurgeri.
Wallarm a declarat într-o postare pe blog din 1 februarie că metoda sa de jailbreak a exploatat logica de răspuns AI bazată pe părtinire, deși compania a ascuns detalii tehnice specifice din cauza politicilor responsabile de dezvăluire. DeepSeek a fost notificat cu privire la problemă și de atunci a implementat o remediere. Cu toate acestea, Wallar a publicat textul complet al promptului de sistem, permițând experților în securitate să analizeze cadrul operațional DeepSeek.
Această revelație a stârnit discuții despre:
- Măsuri de confidențialitate AI și cât de eficient protejează DeepSeek datele utilizatorilor.
- Potențiale părtiniri în instruirea DeepSeek, mai ales având în vedere afirmațiile conform cărora ar fi folosit date OpenAI pentru antrenament.
- Constrângeri de reglementare care ar putea influența modul în care funcționează modelul AI, în special în China, unde conținutul AI este strict controlat.
Pentru a investiga potențiala influență OpenAI, Wallar a comparat promptul de sistem al DeepSeek cu cel al ChatGPT. Conform analizei ChatGPT, răspunsurile DeepSeek se aliniază cu măsurile de conformitate mai stricte, în timp ce abordarea OpenAI este mai flexibilă și mai centrată pe utilizator.
Atacurile DDoS asupra DeepSeek: un atac cibernetic coordonat
Pe măsură ce popularitatea DeepSeek a crescut, acesta a devenit ținta unor atacuri distribuite de refuz de serviciu (DDoS) la scară largă. Compania a anunțat că trebuie să blocheze înregistrările de noi utilizatori din cauza volumului copleșitor de atacuri.
Potrivit NSFocus, o firmă de securitate cibernetică care monitorizează atacurile, DeepSeek s-a confruntat cu trei valuri majore de atacuri DDoS care vizează interfața sa API pe 25, 26 și 27 ianuarie. Fiecare atac a durat aproximativ 35 de minute, impactând grav platforma DeepSeek. Până pe 28 ianuarie, interfața API era încă indisponibilă din cauza unor întreruperi în curs.
Sistemul de chat DeepSeek a fost de asemenea atacat, cu atacuri DDoS observate pe 20 și 25 ianuarie, fiecare durând aproximativ o oră.
Metode de atac DDoS
NSFocus a identificat mai multe tehnici de atac bazate pe reflexie, inclusiv:
- Atacurile de reflectare NTP – exploatarea serverelor Network Time Protocol (NTP) pentru a amplifica traficul de atac.
- Atacurile de reflexie Memcached – Utilizarea serverelor Memcached configurate greșit pentru a inunda DeepSeek cu trafic masiv.
- Atacurile de reflectare SSDP – țintirea serviciilor SSDP (Simple Service Discovery Protocol) pentru a copleși resursele rețelei.
- Atacurile de reflectare CLDAP – Utilizarea serverelor CLDAP (Conection-less Directory Access Protocol) pentru a crește volumul atacurilor.
Un atac foarte coordonat
Până pe 28 ianuarie, DeepSeek a raportat că atacatorii își adaptau metodele ca răspuns la eforturile companiei de atenuare. Precizia și coordonarea acestor atacuri au determinat NSFocus să concluzioneze că autorii au fost o echipă profesionistă, bine organizată, mai degrabă decât hackeri aleatori.
„Atacatorul dă dovadă de un profesionalism extrem de ridicat în fiecare pas de atac, de la selectarea țintelor până la sincronizarea atacurilor și controlul intensității”, a declarat NSFocus.
Sursele de atac de top au inclus sisteme din Statele Unite, Regatul Unit și Australia, potrivit analizei companiei de securitate cibernetică.
Ce înseamnă asta pentru securitatea AI
Incidentele DeepSeek evidențiază riscuri tot mai mari de securitate cibernetică în IA generativă. De la vulnerabilitățile jailbreak la atacuri cibernetice vizate, serviciile AI sunt acum ținte principale atât pentru cercetătorii de securitate, cât și pentru actorii rău intenționați.
Recomandări cheie:
- Jailbreak-urile AI rămân o provocare de securitate – Chiar și modelele AI mai noi, cum ar fi DeepSeek, pot fi proiectate invers pentru a-și expune logica internă.
- Atacurile DDoS împotriva platformelor AI sunt în creștere – Pe măsură ce serviciile AI câștigă popularitate, atrag atacuri cibernetice mai bine coordonate.
- Securitatea AI trebuie să evolueze rapid – Dezvoltatorii trebuie să implementeze măsuri de protecție robuste pentru a preveni scurgerile prompte și pentru a se apăra împotriva amenințărilor cibernetice.
Pe măsură ce AI continuă să modeleze peisajul digital, echipele de securitate cibernetică trebuie să rămână cu un pas înainte pentru a se asigura că modelele AI rămân sigure și rezistente împotriva amenințărilor emergente.