Narušavanje sigurnosti DeepSeek razotkriva AI ranjivosti i izaziva kibernetičke napade

Najnovija kineska generativna umjetna inteligencija, DeepSeek, predmet je intenzivnog nadzora kibernetičke sigurnosti od svog lansiranja. Sigurnosni istraživači nedavno su razotkrili brzi jailbreak sustava koji je otkrio unutarnje funkcioniranje modela. U međuvremenu, DeepSeek se također suočio s valovima DDoS napada, zbog čega je morao ograničiti registraciju novih korisnika. Ovi incidenti naglašavaju i sigurnosne rizike modela umjetne inteligencije i sve veću sofisticiranost kibernetičkih napada usmjerenih na usluge umjetne inteligencije.
Sadržaj
DeepSeek System Prompt Jailbreak: Što su istraživači otkrili
Ubrzo nakon debija DeepSeek-a, istraživači API sigurnosne tvrtke Wallarm pronašli su jailbreak ranjivost koja je razotkrila cijeli sistemski upit AI modela. Ova vrsta sigurnosne greške posebno je zabrinjavajuća jer odziv AI sustava diktira njegovo ponašanje, ograničenja odgovora i politike moderiranja sadržaja. Većina AI programera, uključujući OpenAI s ChatGPT-om, poduzimaju stroge mjere za sprječavanje takvih curenja.
Wallarm je u postu na blogu od 1. veljače izjavio da je njegova metoda bjekstva iz zatvora iskorištavala logiku odgovora umjetne inteligencije temeljenu na pristranosti, iako je tvrtka zatajila određene tehničke detalje zbog odgovorne politike otkrivanja podataka. DeepSeek je obaviješten o problemu i od tada je implementirao popravak. Međutim, Wallarm je objavio cijeli tekst odzivnika sustava, omogućujući sigurnosnim stručnjacima da analiziraju operativni okvir DeepSeeka.
Ovo otkriće potaknulo je rasprave o:
- AI mjere privatnosti i koliko učinkovito DeepSeek štiti korisničke podatke.
- Potencijalne pristranosti u obuci DeepSeek-a, posebno s obzirom na tvrdnje da je možda koristio podatke OpenAI-ja za obuku.
- Regulatorna ograničenja koja bi mogla utjecati na funkcioniranje modela umjetne inteligencije, posebno u Kini, gdje je sadržaj umjetne inteligencije strogo kontroliran.
Kako bi istražio potencijalni utjecaj OpenAI-ja, Wallarm je usporedio upit sustava DeepSeeka s upitom ChatGPT-a. Prema analizi ChatGPT-a, odgovori DeepSeeka usklađeni su sa strožim mjerama usklađenosti, dok je OpenAI-jev pristup fleksibilniji i usmjereniji na korisnika.
DDoS napadi na DeepSeek: koordinirani kibernetički napad
Kako je popularnost DeepSeeka rasla, postao je meta velikih distribuiranih napada uskraćivanjem usluge (DDoS). Tvrtka je objavila da je morala blokirati registracije novih korisnika zbog ogromne količine napada.
Prema NSFocusu, tvrtki za kibernetičku sigurnost koja prati napade, DeepSeek se suočio s tri velika vala DDoS napada koji su ciljali njegovo API sučelje 25., 26. i 27. siječnja. Svaki napad trajao je oko 35 minuta, ozbiljno utječući na platformu DeepSeeka. Do 28. siječnja API sučelje još uvijek nije bilo dostupno zbog stalnih prekida.
Chat sustav DeepSeek također je napadnut, a DDoS napadi zabilježeni su 20. i 25. siječnja, a svaki je trajao oko sat vremena.
Metode DDoS napada
NSFocus je identificirao višestruke tehnike napada temeljene na refleksiji, uključujući:
- NTP refleksijski napadi – Iskorištavanje poslužitelja mrežnog vremenskog protokola (NTP) za pojačavanje prometa napada.
- Memcached refleksijski napadi – Korištenje pogrešno konfiguriranih Memcached poslužitelja za preplavljivanje DeepSeeka ogromnim prometom.
- SSDP refleksijski napadi – ciljanje usluga Simple Service Discovery Protocol (SSDP) za preplavljivanje mrežnih resursa.
- CLDAP refleksijski napadi – Iskorištavanje poslužitelja Lightweight Directory Access Protocol (CLDAP) bez veze za povećanje opsega napada.
Vrlo koordiniran napad
Do 28. siječnja, DeepSeek je izvijestio da su napadači prilagođavali svoje metode kao odgovor na napore tvrtke za ublažavanje. Preciznost i koordinacija ovih napada navela je NSFocus na zaključak da su počinitelji profesionalni, dobro organizirani tim, a ne nasumični hakeri.
"Napadač pokazuje iznimno visok profesionalizam u svakom koraku napada, od odabira meta do tempiranja napada i kontrole intenziteta", navodi NSFocus.
Glavni izvori napada uključivali su sustave iz Sjedinjenih Država, Ujedinjenog Kraljevstva i Australije, prema analizi tvrtke za kibernetičku sigurnost.
Što to znači za AI sigurnost
Incidenti DeepSeek-a naglašavaju rastuće rizike kibernetičke sigurnosti u generativnoj umjetnoj inteligenciji. Od ranjivosti bjekstva iz zatvora do ciljanih kibernetičkih napada, usluge umjetne inteligencije sada su glavne mete i za sigurnosne istraživače i za zlonamjerne aktere.
Ključni zaključci:
- AI bjekstva iz zatvora ostaju sigurnosni izazov – čak i noviji AI modeli poput DeepSeeka mogu se obrnutim inženjeringom razotkriti svoju unutarnju logiku.
- DDoS napadi na AI platforme su u porastu – Kako AI usluge dobivaju na popularnosti, one privlače više dobro koordiniranih kibernetičkih napada.
- Sigurnost umjetne inteligencije mora se brzo razvijati – Programeri moraju implementirati snažne zaštitne mjere kako bi spriječili brzo curenje i obranili se od kibernetičkih prijetnji.
Dok umjetna inteligencija nastavlja oblikovati digitalni krajolik, timovi za kibernetičku sigurnost moraju biti korak ispred kako bi osigurali da modeli umjetne inteligencije ostanu sigurni i otporni na nove prijetnje.