Chińska sztuczna inteligencja DeepSeek ogranicza nowe rejestracje w obliczu cyberataków i rosnących obaw o bezpieczeństwo

Chiński startup AI DeepSeek szybko zyskał popularność w świecie sztucznej inteligencji, ale wraz z rosnącą popularnością pojawia się coraz więcej wyzwań. Firma niedawno ograniczyła rejestracje nowych użytkowników z powodu tego, co opisuje jako złośliwe ataki na dużą skalę na jej usługi. Podczas gdy istniejący użytkownicy mogą nadal korzystać z platformy, nowe rejestracje zostały tymczasowo ograniczone.
Sytuacja ta uwypukla rosnące zagrożenia bezpieczeństwa, z jakimi borykają się platformy sztucznej inteligencji, i budzi obawy dotyczące szerszych implikacji kwestii bezpieczeństwa sztucznej inteligencji, prywatności i napięć geopolitycznych wokół chińskich firm technologicznych.
Spis treści
Cyberataki wymierzone w DeepSeek
DeepSeek nie ujawnił szczegółów natury tych ataków, jednak eksperci ds. cyberbezpieczeństwa uważają, że może to być mieszanka ataków typu „odmowa usługi” (DDoS), ekstrakcji komunikatów systemowych i prób jailbreaku mających na celu ominięcie ograniczeń treści lub manipulowanie zachowaniem sztucznej inteligencji.
Według Stuarta Millara, głównego inżyniera AI w Rapid7, atakujący mogliby testować odpowiedzi DeepSeek na wrażliwe pytania, próbując wyodrębnić monity systemowe lub próbując zmienić sposób działania AI. Udana ekstrakcja monitu systemowego mogłaby ujawnić zastrzeżone instrukcje i potencjalnie narazić luki w zabezpieczeniach AI na dalsze wykorzystanie.
Badacz ds. cyberbezpieczeństwa Erich Kron z KnowBe4 zauważył, że tego rodzaju ataki mogą być motywowane różnymi czynnikami:
- Wymuszenia – atakujący mogą żądać okupu w zamian za zaprzestanie zakłóceń.
- Sabotaż korporacyjny – Konkurencja może próbować osłabić reputację i pozycję rynkową DeepSeek.
- Ochrona inwestycji – Podmioty inwestujące w konkurencyjne projekty AI mogą postrzegać DeepSeek jako zagrożenie i starać się osłabić jego pozycję.
Gwałtowny wzrost DeepSeek w świecie sztucznej inteligencji
Założona w 2023 r. firma DeepSeek szybko stała się głównym pretendentem w wyścigu AI. Modele firmy, w tym DeepSeek-V3, trafiły na pierwsze strony gazet ze względu na ich zdolność do konkurowania, a nawet przewyższania zachodnich modeli AI, takich jak GPT firmy OpenAI i LLaMA firmy Meta, przy jednoczesnym szkoleniu za ułamek kosztów.
Aplikacja chatbota na iOS niedawno znalazła się na szczycie list darmowych aplikacji Apple w USA i Wielkiej Brytanii, prześcigając nawet aplikację ChatGPT firmy OpenAI.
Głównym czynnikiem sukcesu DeepSeek jest jego wydajność. Firma twierdzi, że jej model DeepSeek-V3 wymaga znacznie mniej godzin GPU w porównaniu do odpowiedników z Doliny Krzemowej. Ze względu na sankcje USA ograniczające sprzedaż zaawansowanych chipów AI chińskim firmom, wydajność ta stała się krytyczną przewagą konkurencyjną.
Pomimo tych przełomów technologicznych, DeepSeek pozostaje firmą kontrowersyjną ze względu na politykę cenzury i potencjalne zagrożenia dla bezpieczeństwa narodowego związane z praktykami przechowywania danych.
Luki w zabezpieczeniach i obawy dotyczące prywatności
DeepSeek napotkał w przeszłości luki w zabezpieczeniach , w tym eksploit szybkiego wstrzykiwania odkryty przez badacza bezpieczeństwa Johanna Rehbergera. Ta wada mogła umożliwić atakującym przejęcie kont użytkowników za pomocą ładunku cross-site scripting (XSS) osadzonego w odpowiedziach generowanych przez AI.
Ponadto niedawny raport Kela dotyczący zagrożeń wykazał, że modele sztucznej inteligencji DeepSeek są podatne na ataki typu jailbreak, które umożliwiają im generowanie nieetycznych i nielegalnych treści, w tym:
- Generowanie kodu ransomware
- Tworzenie dezinformacji
- Przewodniki krok po kroku dotyczące wytwarzania materiałów wybuchowych i toksyn
- Instrukcje dotyczące tworzenia złośliwego oprogramowania
Odkrycia te budzą poważne obawy etyczne dotyczące możliwości niewłaściwego wykorzystania sztucznej inteligencji, jeśli nie zostanie ona odpowiednio zabezpieczona.
Ponadto polityka prywatności DeepSeek ujawnia, że dane użytkownika — w tym informacje o urządzeniu, szczegóły sieci i dane dotyczące płatności — są przechowywane na serwerach zlokalizowanych w Chinach. Wywołało to obawy w krajach zachodnich, szczególnie w Stanach Zjednoczonych, gdzie US Navy niedawno zaleciła personelowi unikanie korzystania z DeepSeek ze względu na potencjalne zagrożenia bezpieczeństwa i etyki.
Włoski organ ochrony danych również wszczął dochodzenie, żądając, aby DeepSeek wyjaśnił, w jaki sposób zbiera, przechowuje i przetwarza dane użytkowników. Firma ma 20 dni na odpowiedź na pytania dotyczące źródeł danych, uzasadnienia prawnego przetwarzania i tego, czy szkolenie modelu AI obejmuje scrapowanie danych.
Nowa rywalizacja w dziedzinie sztucznej inteligencji w obliczu napięć geopolitycznych
Pojawienie się DeepSeek dodaje nowy wymiar do globalnego wyścigu AI, szczególnie w obliczu narastających napięć technologicznych między USA a Chinami. Społeczność AI to zauważyła, a dyrektor generalny OpenAI Sam Altman nazwał model rozumowania DeepSeek „imponującym” i uznał go za prawowitego konkurenta.
Co ciekawe, Jim Fan z firmy NVIDIA zauważył, że DeepSeek „podtrzymuje pierwotną misję OpenAI” poprzez skupienie się na otwartych badaniach i szerokiej dostępności — stwierdzenie to subtelnie krytykuje niedawne przejście OpenAI w stronę modeli o zamkniętym kodzie źródłowym.
Chiny tymczasem broniły swojego stanowiska w sprawie regulacji technologicznych, twierdząc, że pozwalają globalnym firmom AI działać, o ile przestrzegają lokalnych przepisów. Nadal jednak istnieją obawy dotyczące tego, w jaki sposób chińskie firmy AI mogą być pod wpływem regulacji rządowych, polityki cenzury i dyrektyw bezpieczeństwa narodowego.
Przełomowy moment dla bezpieczeństwa sztucznej inteligencji
Rozwój DeepSeek pokazuje, że Chiny czynią poważne postępy w rozwoju AI, ale podkreśla również rosnące wyzwania w zakresie cyberbezpieczeństwa, z którymi mierzą się firmy AI. Niezależnie od tego, czy chodzi o złośliwe cyberataki, obawy dotyczące prywatności czy geopolityczną kontrolę, podróż DeepSeek podkreśla złożoną interakcję między innowacją AI, bezpieczeństwem i globalną polityką.
Dla użytkowników te wydarzenia są przypomnieniem, aby zachować ostrożność w przypadku platform AI, które obsługują wrażliwe dane, zwłaszcza tych z nieprzejrzystą polityką prywatności i potencjalnymi lukami w zabezpieczeniach. W miarę rozwoju AI zapewnienie solidnych środków cyberbezpieczeństwa i przejrzystych praktyk dotyczących danych będzie miało kluczowe znaczenie dla firm, które chcą utrzymać zaufanie użytkowników i globalną wiarygodność.