DeepSeek Security Breach odhaľuje slabiny AI a podnecuje kybernetické útoky

Najnovšia generatívna AI v Číne, DeepSeek, je od svojho uvedenia predmetom intenzívnej kontroly kybernetickej bezpečnosti. Bezpečnostní výskumníci nedávno odhalili systémový okamžitý útek z väzenia, ktorý odhalil vnútorné fungovanie modelu. Medzitým DeepSeek čelil aj vlnám DDoS útokov, ktoré ho prinútili obmedziť registrácie nových používateľov. Tieto incidenty poukazujú na bezpečnostné riziká modelov AI a zvyšujúcu sa sofistikovanosť kybernetických útokov zameraných na služby AI.
Obsah
Promptný útek z väzenia od DeepSeek: Čo výskumníci objavili
Krátko po debute DeepSeek našli výskumníci z bezpečnostnej firmy API Wallarm zraniteľnosť pri úteku z väzenia, ktorá odhalila úplnú systémovú výzvu modelu AI. Tento typ bezpečnostnej chyby je obzvlášť znepokojujúci, pretože systémová výzva AI diktuje jej správanie, obmedzenia odozvy a zásady moderovania obsahu. Väčšina vývojárov AI, vrátane OpenAI s ChatGPT, prijíma prísne opatrenia, aby takýmto únikom zabránila.
Wallarm v blogovom príspevku z 1. februára uviedol, že jeho metóda útek z väzenia využívala logiku odozvy AI založenú na zaujatosti, hoci spoločnosť zadržala konkrétne technické podrobnosti z dôvodu zodpovedných zásad zverejňovania. DeepSeek bol upozornený na problém a odvtedy nasadil opravu. Wallarm však zverejnil celý text systémovej výzvy, čo bezpečnostným expertom umožnilo analyzovať operačný rámec DeepSeek.
Toto odhalenie vyvolalo diskusie o:
- Opatrenia na ochranu súkromia AI a ako efektívne DeepSeek chráni údaje používateľov.
- Potenciálne zaujatosti v tréningu DeepSeek, najmä vzhľadom na tvrdenia, že na tréning mohol použiť dáta OpenAI .
- Regulačné obmedzenia , ktoré by mohli ovplyvniť fungovanie modelu AI, najmä v Číne, kde je obsah AI prísne kontrolovaný.
Na preskúmanie potenciálneho vplyvu OpenAI porovnal Wallarm systémovú výzvu DeepSeek s výzvou ChatGPT. Podľa analýzy ChatGPT sú odpovede DeepSeek v súlade s prísnejšími opatreniami na dodržiavanie predpisov, zatiaľ čo prístup OpenAI je flexibilnejší a zameraný na používateľa.
DDoS útoky na DeepSeek: Koordinovaný kybernetický útok
S rastúcou popularitou DeepSeek sa stal terčom rozsiahlych útokov distribuovaného odmietnutia služby (DDoS). Spoločnosť oznámila, že kvôli obrovskému množstvu útokov musí zablokovať registrácie nových používateľov.
Podľa NSFocus, firmy zaoberajúcej sa kybernetickou bezpečnosťou, ktorá útoky monitoruje, DeepSeek 25., 26. a 27. januára čelil trom veľkým vlnám DDoS útokov zameraných na jeho rozhranie API. Každý útok trval približne 35 minút a vážne zasiahol platformu DeepSeek. Do 28. januára bolo rozhranie API stále nedostupné z dôvodu pokračujúcich výpadkov.
Napadnutý bol aj chatovací systém DeepSeek, pričom útoky DDoS boli pozorované 20. a 25. januára, pričom každý z nich trval približne hodinu.
Metódy útoku DDoS
NSFocus identifikoval viaceré techniky útoku založené na odraze, vrátane:
- Útoky odrazu NTP – Využitie serverov Network Time Protocol (NTP) na zosilnenie útokov.
- Útoky odrazu Memcached – Používanie nesprávne nakonfigurovaných serverov Memcached na zaplavenie DeepSeek masívnou návštevnosťou.
- Útoky odrazu SSDP – Zacielenie na služby protokolu SSDP (Simple Service Discovery Protocol) na preťaženie sieťových zdrojov.
- Reflexné útoky CLDAP – Využitie serverov CLDAP (Lightweight Directory Access Protocol) bez pripojenia na zvýšenie objemu útokov.
Vysoko koordinovaný útok
Do 28. januára DeepSeek oznámil, že útočníci prispôsobujú svoje metódy v reakcii na snahy spoločnosti o zmiernenie. Presnosť a koordinácia týchto útokov viedla NSFocus k záveru, že páchateľmi bol skôr profesionálny, dobre organizovaný tím než náhodní hackeri.
"Útočník prejavuje extrémne vysokú profesionalitu v každom kroku útoku, od výberu cieľov až po načasovanie útokov a kontrolu intenzity," uviedol NSFocus.
Medzi hlavné zdroje útokov patrili systémy zo Spojených štátov, Spojeného kráľovstva a Austrálie, podľa analýzy firmy zaoberajúcej sa kybernetickou bezpečnosťou.
Čo to znamená pre bezpečnosť AI
Incidenty DeepSeek poukazujú na rastúce riziká kybernetickej bezpečnosti v generatívnej AI. Od zraniteľností pri úteku z väzenia až po cielené kybernetické útoky, služby AI sú teraz hlavnými cieľmi pre výskumníkov v oblasti bezpečnosti, ako aj pre zákerných aktérov.
Kľúčové poznatky:
- Útek z väzenia AI zostáva bezpečnostnou výzvou – Dokonca aj novšie modely AI, ako je DeepSeek, môžu byť reverzne skonštruované, aby odhalili ich vnútornú logiku.
- Útoky DDoS proti platformám AI pribúdajú – S rastúcou popularitou služieb AI priťahujú čoraz viac koordinovaných kybernetických útokov.
- Zabezpečenie AI sa musí rýchlo vyvíjať – vývojári musia implementovať robustné bezpečnostné opatrenia, aby zabránili okamžitým únikom a chránili sa pred kybernetickými hrozbami.
Keďže AI naďalej formuje digitálne prostredie, tímy kybernetickej bezpečnosti musia zostať o krok vpred, aby zaistili, že modely AI zostanú bezpečné a odolné voči novým hrozbám.