Računalniška varnost Kršitev varnosti DeepSeek razkrije ranljivosti AI in...

Kršitev varnosti DeepSeek razkrije ranljivosti AI in sproži kibernetske napade

Najnovejša kitajska generativna umetna inteligenca, DeepSeek, je bila predmet intenzivnega nadzora kibernetske varnosti od svoje uvedbe. Varnostni raziskovalci so pred kratkim razkrili sistemski hitri beg iz zapora, ki je razkril notranje delovanje modela. Medtem se je DeepSeek soočil tudi z valovi napadov DDoS, zaradi česar je moral omejiti registracije novih uporabnikov. Ti incidenti poudarjajo varnostna tveganja modelov umetne inteligence in vse večjo sofisticiranost kibernetskih napadov, usmerjenih v storitve umetne inteligence.

DeepSeek System Prompt Jailbreak: Kaj so odkrili raziskovalci

Kmalu po debiju DeepSeeka so raziskovalci varnostnega podjetja API Wallarm odkrili ranljivost za pobeg iz zapora, ki je razkrila celoten sistemski poziv modela AI. Ta vrsta varnostne napake je še posebej zaskrbljujoča, ker sistemski poziv AI narekuje njegovo vedenje, omejitve odziva in politike moderiranja vsebine. Večina razvijalcev umetne inteligence, vključno z OpenAI s ChatGPT, sprejema stroge ukrepe za preprečevanje takšnih uhajanj.

Wallarm je v objavi na spletnem dnevniku 1. februarja izjavil, da je njegova metoda bega iz zapora izkoriščala logiko odziva umetne inteligence, ki temelji na pristranskosti, čeprav je podjetje zamolčalo določene tehnične podrobnosti zaradi politik odgovornega razkritja. DeepSeek je bil obveščen o težavi in je od takrat uvedel popravek. Vendar pa je Wallarm objavil celotno besedilo sistemskega poziva, kar je varnostnim strokovnjakom omogočilo analizo operativnega okvira DeepSeek.

To razkritje je sprožilo razprave o:

  • Umetna inteligenca meri zasebnost in kako učinkovito DeepSeek ščiti uporabniške podatke.
  • Morebitne pristranskosti pri usposabljanju DeepSeek, zlasti če upoštevamo trditve, da je za usposabljanje morda uporabil podatke OpenAI .
  • Regulativne omejitve , ki bi lahko vplivale na delovanje modela umetne inteligence, zlasti na Kitajskem, kjer je vsebina umetne inteligence strogo nadzorovana.

Da bi raziskal potencialni vpliv OpenAI, je Wallarm primerjal sistemski poziv DeepSeeka s pozivom ChatGPT. Glede na analizo ChatGPT so odgovori DeepSeeka usklajeni s strožjimi ukrepi skladnosti, medtem ko je pristop OpenAI bolj prilagodljiv in osredotočen na uporabnika.

DDoS napadi na DeepSeek: usklajen kibernetski napad

Ko je priljubljenost DeepSeeka rasla, je postal tarča obsežnih porazdeljenih napadov zavrnitve storitve (DDoS). Podjetje je objavilo, da je moralo blokirati registracije novih uporabnikov zaradi izjemnega obsega napadov.

Glede na NSFocus, podjetje za kibernetsko varnost, ki spremlja napade, se je DeepSeek 25., 26. in 27. januarja soočil s tremi velikimi valovi napadov DDoS, ki so ciljali na njegov vmesnik API. Vsak napad je trajal približno 35 minut in je resno vplival na platformo DeepSeek. Do 28. januarja vmesnik API še vedno ni bil na voljo zaradi stalnih motenj.

Napaden je bil tudi klepetalni sistem DeepSeek, pri čemer so napade DDoS opazili 20. in 25. januarja, vsak pa je trajal približno eno uro.

Metode DDoS napadov

NSFocus je identificiral več napadalnih tehnik, ki temeljijo na refleksiji, vključno z:

  • Napadi refleksije NTP – izkoriščanje strežnikov protokola Network Time Protocol (NTP) za povečanje prometa napadov.
  • Napadi refleksije Memcached – uporaba napačno konfiguriranih strežnikov Memcached za preplavljanje DeepSeek z ogromnim prometom.
  • Napadi refleksije SSDP – ciljanje na storitve protokola Simple Service Discovery Protocol (SSDP) za preobremenitev omrežnih virov.
  • Odbojni napadi CLDAP – izkoriščanje strežnikov CLDAP (Lightweight Directory Access Protocol) brez povezave za povečanje obsega napadov.

Zelo koordiniran napad

Do 28. januarja je DeepSeek poročal, da napadalci prilagajajo svoje metode kot odgovor na prizadevanja podjetja za ublažitev. Natančnost in usklajenost teh napadov sta NSFocus pripeljali do zaključka, da so bili storilci profesionalna, dobro organizirana ekipa in ne naključni hekerji.

"Napadalec kaže izjemno visoko profesionalnost v vsakem napadalnem koraku, od izbire tarč do časovne razporeditve napadov in nadzora intenzivnosti," je dejal NSFocus.

Po analizi podjetja za kibernetsko varnost so glavni viri napadov vključevali sisteme iz Združenih držav, Združenega kraljestva in Avstralije.

Kaj to pomeni za varnost AI

Incidenti DeepSeek poudarjajo naraščajoča tveganja kibernetske varnosti v generativni umetni inteligenci. Storitve umetne inteligence so zdaj glavne tarče tako varnostnih raziskovalcev kot zlonamernih akterjev, od ranljivosti za pobeg iz zapora do ciljanih kibernetskih napadov.

Ključni zaključki:

  1. Pobegi iz zapora z umetno inteligenco ostajajo varnostni izziv – Celo novejše modele umetne inteligence, kot je DeepSeek, je mogoče z obratnim inženiringom razkriti njihovo notranjo logiko.
  2. Napadi DDoS na platforme umetne inteligence naraščajo – Ko storitve umetne inteligence postajajo priljubljene, pritegnejo več visoko usklajenih kibernetskih napadov.
  3. Varnost umetne inteligence se mora hitro razvijati – razvijalci morajo uvesti robustne zaščitne ukrepe za preprečevanje takojšnjega uhajanja in obrambo pred kibernetskimi grožnjami.

Medtem ko umetna inteligenca še naprej oblikuje digitalno krajino, morajo biti ekipe za kibernetsko varnost korak naprej, da zagotovijo, da modeli umetne inteligence ostanejo varni in odporni na nastajajoče grožnje.

Nalaganje...