Bezpieczeństwo komputerowe Naruszenie bezpieczeństwa DeepSeek ujawnia luki w...

Naruszenie bezpieczeństwa DeepSeek ujawnia luki w zabezpieczeniach AI i wywołuje cyberataki

Najnowsza generatywna sztuczna inteligencja Chin, DeepSeek, jest przedmiotem intensywnej kontroli cyberbezpieczeństwa od momentu jej uruchomienia. Badacze ds. bezpieczeństwa niedawno ujawnili jailbreak systemu, który ujawnił wewnętrzne działanie modelu. W międzyczasie DeepSeek również stawił czoła falom ataków DDoS, zmuszając go do ograniczenia rejestracji nowych użytkowników. Incydenty te podkreślają zarówno zagrożenia bezpieczeństwa modeli AI, jak i rosnącą wyrafinowaną naturę cyberataków na usługi AI.

System Prompt Jailbreak firmy DeepSeek: co odkryli badacze

Krótko po debiucie DeepSeek, badacze z firmy Wallarm zajmującej się bezpieczeństwem API odkryli lukę w zabezpieczeniach jailbreak, która ujawniła pełny monit systemowy modelu AI. Ten typ luki w zabezpieczeniach jest szczególnie niepokojący, ponieważ monit systemowy AI dyktuje jego zachowanie, ograniczenia odpowiedzi i zasady moderowania treści. Większość programistów AI, w tym OpenAI z ChatGPT, podejmuje surowe środki, aby zapobiec takim wyciekom.

Wallarm stwierdził w poście na blogu z 1 lutego, że jego metoda jailbreaku wykorzystywała logikę odpowiedzi AI opartą na uprzedzeniach, chociaż firma wstrzymała się z podaniem konkretnych szczegółów technicznych ze względu na odpowiedzialne zasady ujawniania informacji. DeepSeek został powiadomiony o problemie i od tego czasu wdrożył poprawkę. Jednak Wallarm opublikował pełny tekst monitu systemowego, umożliwiając ekspertom ds. bezpieczeństwa analizę ram operacyjnych DeepSeek.

To odkrycie wywołało dyskusje na temat:

  • Środki ochrony prywatności AI i skuteczność DeepSeek w ochronie danych użytkowników.
  • Możliwe błędy w szkoleniu DeepSeek, zwłaszcza jeśli weźmiemy pod uwagę twierdzenia, że do szkolenia wykorzystano dane OpenAI .
  • Ograniczenia regulacyjne , które mogą mieć wpływ na sposób działania modelu sztucznej inteligencji, szczególnie w Chinach, gdzie treść dotycząca sztucznej inteligencji podlega ścisłej kontroli.

Aby zbadać potencjalny wpływ OpenAI, Wallarm porównał monit systemowy DeepSeek z ChatGPT. Według analizy ChatGPT odpowiedzi DeepSeek są zgodne z bardziej rygorystycznymi środkami zgodności, podczas gdy podejście OpenAI jest bardziej elastyczne i zorientowane na użytkownika.

Ataki DDoS na DeepSeek: Skoordynowany cyberatak

Wraz ze wzrostem popularności DeepSeek stał się celem ataków typu DDoS (Distributed Denial-of-Service) na dużą skalę. Firma ogłosiła, że musi zablokować rejestracje nowych użytkowników z powodu przytłaczającej liczby ataków.

Według NSFocus, firmy zajmującej się cyberbezpieczeństwem monitorującej ataki, DeepSeek stawił czoła trzem dużym falom ataków DDoS wymierzonych w interfejs API 25, 26 i 27 stycznia. Każdy atak trwał około 35 minut, poważnie wpływając na platformę DeepSeek. Do 28 stycznia interfejs API był nadal niedostępny z powodu trwających zakłóceń.

System czatów DeepSeek również padł ofiarą ataków DDoS 20 i 25 stycznia; każdy z nich trwał około godziny.

Metody ataków DDoS

NSFocus zidentyfikował wiele technik ataków opartych na odbiciu, w tym:

  • Ataki odbiciowe NTP – wykorzystywanie serwerów protokołu NTP (Network Time Protocol) do wzmacniania ruchu atakującego.
  • Ataki odbiciowe Memcached – wykorzystywanie nieprawidłowo skonfigurowanych serwerów Memcached do zalewania DeepSeek ogromnym ruchem.
  • Ataki odbiciowe SSDP – ataki mające na celu przeciążenie zasobów sieciowych za pomocą usług protokołu SSDP (Simple Service Discovery Protocol).
  • Ataki odbiciowe CLDAP – wykorzystanie serwerów Connection-less Lightweight Directory Access Protocol (CLDAP) w celu zwiększenia liczby ataków.

Wysoce skoordynowany atak

Do 28 stycznia DeepSeek poinformował, że atakujący dostosowali swoje metody w odpowiedzi na działania firmy mające na celu złagodzenie skutków. Precyzja i koordynacja tych ataków doprowadziły NSFocus do wniosku, że sprawcami byli profesjonaliści, dobrze zorganizowany zespół, a nie przypadkowi hakerzy.

„Napastnik wykazuje się niezwykle wysokim profesjonalizmem na każdym etapie ataku, począwszy od wyboru celów, przez planowanie czasu ataków, po kontrolowanie ich intensywności” – stwierdził NSFocus.

Według analizy firmy zajmującej się cyberbezpieczeństwem, głównymi źródłami ataków były systemy ze Stanów Zjednoczonych, Wielkiej Brytanii i Australii.

Co to oznacza dla bezpieczeństwa sztucznej inteligencji

Incydenty DeepSeek podkreślają rosnące zagrożenia cyberbezpieczeństwa w generatywnej AI. Od luk jailbreakowych po ukierunkowane cyberataki, usługi AI są obecnie głównymi celami zarówno dla badaczy bezpieczeństwa, jak i złośliwych aktorów.

Najważniejsze wnioski:

  1. Jailbreaking AI nadal stanowi wyzwanie dla bezpieczeństwa – nawet nowsze modele AI, takie jak DeepSeek, można poddać inżynierii wstecznej w celu ujawnienia ich wewnętrznej logiki.
  2. Ataki DDoS na platformy AI są coraz częstsze – W miarę jak usługi AI zyskują na popularności, stają się one obiektem coraz bardziej skoordynowanych cyberataków.
  3. Bezpieczeństwo sztucznej inteligencji musi się szybko rozwijać – programiści muszą wdrożyć solidne zabezpieczenia, aby zapobiec szybkim wyciekom danych i bronić się przed cyberzagrożeniami.

W miarę jak sztuczna inteligencja nadal kształtuje cyfrowy krajobraz, zespoły zajmujące się cyberbezpieczeństwem muszą być o krok przed innymi, aby zapewnić bezpieczeństwo modeli sztucznej inteligencji i ich odporność na nowe zagrożenia.

Ładowanie...