Computersikkerhed DeepSeek Security Breach afslører AI-sårbarheder og...

DeepSeek Security Breach afslører AI-sårbarheder og udløser cyberangreb

Kinas seneste generative AI, DeepSeek, har været genstand for intens cybersikkerhedskontrol siden lanceringen. Sikkerhedsforskere afslørede for nylig en systemprompt jailbreak, der afslørede modellens indre funktion. I mellemtiden har DeepSeek også stået over for bølger af DDoS-angreb, hvilket har tvunget det til at begrænse nye brugerregistreringer. Disse hændelser fremhæver både sikkerhedsrisiciene ved AI-modeller og den stigende sofistikering af cyberangreb rettet mod AI-tjenester.

DeepSeeks systemprompt Jailbreak: Hvad forskerne opdagede

Kort efter DeepSeeks debut fandt forskere hos API-sikkerhedsfirmaet Wallarm en jailbreak-sårbarhed, der afslørede AI-modellens fulde systemprompt. Denne type sikkerhedsfejl er særligt bekymrende, fordi en AI's systemprompt dikterer dens adfærd, svarbegrænsninger og politikker for indholdsmoderering. De fleste AI-udviklere, inklusive OpenAI med ChatGPT, træffer strenge foranstaltninger for at forhindre sådanne lækager.

Wallarm udtalte i et blogindlæg den 1. februar, at dens jailbreak-metode udnyttede bias-baseret AI-responslogik, selvom virksomheden tilbageholdt specifikke tekniske detaljer på grund af ansvarlige offentliggørelsespolitikker. DeepSeek blev underrettet om problemet og har siden implementeret en rettelse. Wallarm offentliggjorde dog den fulde systemprompttekst, hvilket tillod sikkerhedseksperter at analysere DeepSeeks operationelle rammer.

Denne afsløring satte gang i diskussioner om:

  • AI privatlivsforanstaltninger og hvor effektivt DeepSeek beskytter brugerdata.
  • Potentielle skævheder i DeepSeeks træning, især i betragtning af påstande om, at de kan have brugt OpenAI-data til træning.
  • Regulatoriske begrænsninger , der kan påvirke, hvordan AI-modellen fungerer, især i Kina, hvor AI-indhold er stramt kontrolleret.

For at undersøge potentiel OpenAI-påvirkning sammenlignede Wallarm DeepSeeks systemprompt med ChatGPT's. Ifølge ChatGPTs analyse stemmer DeepSeeks svar overens med strengere overholdelsesforanstaltninger, hvorimod OpenAIs tilgang er mere fleksibel og brugercentreret.

DDoS-angreb på DeepSeek: Et koordineret cyberangreb

Efterhånden som DeepSeeks popularitet voksede, blev det målet for storstilede distribuerede denial-of-service (DDoS)-angreb. Virksomheden meddelte, at det var nødt til at blokere nye brugerregistreringer på grund af det overvældende antal angreb.

Ifølge NSFocus, et cybersikkerhedsfirma, der overvåger angrebene, stod DeepSeek over for tre store bølger af DDoS-angreb rettet mod deres API-grænseflade den 25., 26. og 27. januar. Hvert angreb varede omkring 35 minutter, hvilket havde en alvorlig indvirkning på DeepSeeks platform. Den 28. januar var API-grænsefladen stadig utilgængelig på grund af igangværende forstyrrelser.

DeepSeek chat-systemet blev også angrebet, med DDoS-angreb observeret den 20. og 25. januar, som hver varede omkring en time.

DDoS-angrebsmetoder

NSFocus identificerede flere refleksionsbaserede angrebsteknikker, herunder:

  • NTP-reflektionsangreb – Udnyttelse af NTP-servere (Network Time Protocol) til at forstærke angrebstrafikken.
  • Memcached refleksionsangreb – Brug af forkert konfigurerede Memcached-servere til at oversvømme DeepSeek med massiv trafik.
  • SSDP-reflektionsangreb – Målretning af Simple Service Discovery Protocol (SSDP)-tjenester for at overvælde netværksressourcer.
  • CLDAP-reflektionsangreb – Udnyttelse af forbindelsesløse Lightweight Directory Access Protocol-servere (CLDAP) for at øge angrebsvolumen.

Et yderst koordineret angreb

Inden den 28. januar rapporterede DeepSeek, at angribere tilpassede deres metoder som svar på virksomhedens afbødningsbestræbelser. Præcisionen og koordineringen af disse angreb fik NSFocus til at konkludere, at gerningsmændene var et professionelt, velorganiseret team snarere end tilfældige hackere.

"Angriberen viser ekstrem høj professionalisme i hvert angrebstrin, fra at vælge mål til at time angrebene og kontrollere intensiteten," udtalte NSFocus.

Topangrebskilder omfattede systemer fra USA, Storbritannien og Australien, ifølge cybersikkerhedsfirmaets analyse.

Hvad dette betyder for AI-sikkerhed

DeepSeek-hændelserne fremhæver voksende cybersikkerhedsrisici i generativ AI. Fra jailbreak-sårbarheder til målrettede cyberangreb er AI-tjenester nu primære mål for både sikkerhedsforskere og ondsindede aktører.

Vigtigste takeaways:

  1. AI-jailbreaks forbliver en sikkerhedsudfordring - Selv nyere AI-modeller som DeepSeek kan omvendt konstrueres for at afsløre deres interne logik.
  2. DDoS-angreb mod AI-platforme er stigende – Efterhånden som AI-tjenester vinder popularitet, tiltrækker de mere koordinerede cyberangreb.
  3. AI-sikkerhed skal udvikle sig hurtigt – Udviklere skal implementere robuste sikkerhedsforanstaltninger for at forhindre hurtige lækager og forsvare sig mod cybertrusler.

Mens AI fortsætter med at forme det digitale landskab, skal cybersikkerhedsteams være et skridt foran for at sikre, at AI-modeller forbliver sikre og modstandsdygtige over for nye trusler.

Indlæser...