Datorsäkerhet DeepSeek Security Breach avslöjar AI-sårbarheter och...

DeepSeek Security Breach avslöjar AI-sårbarheter och utlöser cyberattacker

Kinas senaste generativa AI, DeepSeek, har varit föremål för intensiv cybersäkerhetsgranskning sedan lanseringen. Säkerhetsforskare avslöjade nyligen en systemprompt jailbreak som avslöjade modellens inre funktioner. Samtidigt har DeepSeek också mött vågor av DDoS-attacker, vilket tvingar den att begränsa nya användarregistreringar. Dessa incidenter belyser både säkerhetsriskerna med AI-modeller och den ökande sofistikeringen av cyberattacker som riktar sig till AI-tjänster.

DeepSeeks systemprompt Jailbreak: Vad forskare upptäckte

Strax efter DeepSeeks debut fann forskare vid API-säkerhetsföretaget Wallarm en sårbarhet i jailbreak som avslöjade AI-modellens fullständiga systemprompt. Denna typ av säkerhetsbrister är särskilt oroande eftersom en AI:s systemprompt dikterar dess beteende, svarsbegränsningar och policyer för innehållsmoderering. De flesta AI-utvecklare, inklusive OpenAI med ChatGPT, vidtar strikta åtgärder för att förhindra sådana läckor.

Wallarm uppgav i ett blogginlägg den 1 februari att dess jailbreak-metod utnyttjade fördomsbaserad AI-svarslogik, även om företaget undanhöll specifika tekniska detaljer på grund av ansvarsfulla avslöjandepolicyer. DeepSeek underrättades om problemet och har sedan dess implementerat en fix. Wallarm publicerade dock hela systemets text, vilket gjorde det möjligt för säkerhetsexperter att analysera DeepSeeks operativa ramverk.

Denna uppenbarelse väckte diskussioner om:

  • AI-integritetsåtgärder och hur effektivt DeepSeek skyddar användardata.
  • Potentiella fördomar i DeepSeeks utbildning, särskilt med tanke på påståenden om att de kan ha använt OpenAI-data för träning.
  • Regulatoriska begränsningar som kan påverka hur AI-modellen fungerar, särskilt i Kina, där AI-innehållet är hårt kontrollerat.

För att undersöka potentiellt OpenAI-inflytande jämförde Wallarm DeepSeeks systemprompt med ChatGPTs. Enligt ChatGPT:s analys överensstämmer DeepSeeks svar med strängare efterlevnadsåtgärder, medan OpenAI:s tillvägagångssätt är mer flexibelt och användarcentrerat.

DDoS Attacks on DeepSeek: A Coordinated Cyber Assault

När DeepSeeks popularitet växte, blev det målet för storskaliga DDoS-attacker (distributed denial-of-service). Företaget meddelade att det var tvunget att blockera nya användarregistreringar på grund av den överväldigande mängden attacker.

Enligt NSFocus, ett cybersäkerhetsföretag som övervakar attackerna, mötte DeepSeek tre stora vågor av DDoS-attacker som riktade sig mot dess API-gränssnitt den 25, 26 och 27 januari. Varje attack varade i cirka 35 minuter, vilket allvarligt påverkade DeepSeeks plattform. Den 28 januari var API-gränssnittet fortfarande otillgängligt på grund av pågående störningar.

Chattsystemet DeepSeek attackerades också, med DDoS-angrepp observerades den 20 och 25 januari, var och en pågick i ungefär en timme.

DDoS-attackmetoder

NSFocus identifierade flera reflektionsbaserade attacktekniker, inklusive:

  • NTP-reflektionsattacker – Utnyttja Network Time Protocol (NTP)-servrar för att förstärka attacktrafiken.
  • Memcachade reflektionsattacker – Använder felkonfigurerade Memcachade servrar för att översvämma DeepSeek med massiv trafik.
  • SSDP-reflektionsattacker – Inriktar sig på Simple Service Discovery Protocol-tjänster (SSDP) för att överväldiga nätverksresurser.
  • CLDAP-reflektionsattacker – Utnyttja anslutningslösa CLDAP-servrar (Lightweight Directory Access Protocol) för att öka attackvolymen.

En mycket koordinerad attack

Den 28 januari rapporterade DeepSeek att angripare anpassade sina metoder som svar på företagets begränsningsansträngningar. Precisionen och samordningen av dessa attacker fick NSFocus att dra slutsatsen att förövarna var ett professionellt, välorganiserat team snarare än slumpmässiga hackare.

"Angriparen visar extremt hög professionalism i varje attacksteg, från att välja mål till att tajma attackerna och kontrollera intensiteten", sa NSFocus.

De främsta attackkällorna inkluderade system från USA, Storbritannien och Australien, enligt cybersäkerhetsföretagets analys.

Vad detta betyder för AI-säkerhet

DeepSeek-incidenterna belyser växande cybersäkerhetsrisker i generativ AI. Från sårbarheter i jailbreak till riktade cyberattacker, AI-tjänster är nu främsta mål för både säkerhetsforskare och illvilliga aktörer.

Viktiga takeaways:

  1. AI-jailbreaks är fortfarande en säkerhetsutmaning – även nyare AI-modeller som DeepSeek kan omvändas för att exponera sin interna logik.
  2. DDoS-attacker mot AI-plattformar ökar – När AI-tjänster blir populära, lockar de till sig mer välkoordinerade cyberattacker.
  3. AI-säkerhet måste utvecklas snabbt – Utvecklare måste implementera robusta skyddsåtgärder för att förhindra snabba läckor och försvara sig mot cyberhot.

När AI fortsätter att forma det digitala landskapet måste cybersäkerhetsteam ligga steget före för att säkerställa att AI-modeller förblir säkra och motståndskraftiga mot nya hot.

Läser in...