Shkelja e sigurisë në DeepSeek ekspozon dobësitë e AI dhe ndez sulmet kibernetike

Inteligjenca artificiale e fundit gjeneruese e Kinës, DeepSeek, ka qenë subjekt i një shqyrtimi intensiv të sigurisë kibernetike që nga fillimi i tij. Studiuesit e sigurisë së fundmi ekspozuan një jailbreak të shpejtë të sistemit që zbuloi funksionimin e brendshëm të modelit. Ndërkohë, DeepSeek është përballur edhe me valë sulmesh DDoS, duke e detyruar atë të kufizojë regjistrimet e përdoruesve të rinj. Këto incidente nxjerrin në pah si rreziqet e sigurisë të modeleve të AI, ashtu edhe sofistikimin në rritje të sulmeve kibernetike që synojnë shërbimet e AI.
Tabela e Përmbajtjes
Jailbreak i shpejtë i sistemit të DeepSeek: Çfarë zbuluan studiuesit
Menjëherë pas debutimit të DeepSeek, studiuesit në firmën e sigurisë API Wallarm gjetën një cenueshmëri të jailbreak-it që ekspozoi kërkesat e sistemit të plotë të modelit të AI. Ky lloj i mete sigurie është veçanërisht shqetësues sepse kërkesa e sistemit të një AI dikton sjelljen e saj, kufizimet e reagimit dhe politikat e moderimit të përmbajtjes. Shumica e zhvilluesve të AI, përfshirë OpenAI me ChatGPT, marrin masa të rrepta për të parandaluar rrjedhje të tilla.
Wallarm deklaroi në një postim në blog të 1 shkurtit se metoda e saj e jailbreak-it shfrytëzonte logjikën e përgjigjes së AI të bazuar në paragjykime, megjithëse kompania mbajti detaje teknike specifike për shkak të politikave të përgjegjshme të zbulimit. DeepSeek u njoftua për problemin dhe që atëherë ka vendosur një rregullim. Sidoqoftë, Wallarm publikoi tekstin e plotë të sistemit, duke lejuar ekspertët e sigurisë të analizojnë kuadrin operacional të DeepSeek.
Kjo zbulesë ngjalli diskutime rreth:
- Masat e privatësisë së AI dhe sa efektivisht mbron DeepSeek të dhënat e përdoruesit.
- Paragjykimet e mundshme në trajnimin e DeepSeek, veçanërisht duke marrë parasysh pretendimet se mund të ketë përdorur të dhënat e OpenAI për trajnim.
- Kufizimet rregullatore që mund të ndikojnë në mënyrën se si funksionon modeli i AI, veçanërisht në Kinë, ku përmbajtja e AI kontrollohet fort.
Për të hetuar ndikimin e mundshëm të OpenAI, Wallarm krahasoi kërkesën e sistemit të DeepSeek me atë të ChatGPT. Sipas analizës së ChatGPT, përgjigjet e DeepSeek përputhen me masa më të rrepta të pajtueshmërisë, ndërsa qasja e OpenAI është më fleksibël dhe e përqendruar te përdoruesi.
Sulmet DDoS në DeepSeek: Një sulm i koordinuar kibernetik
Ndërsa popullariteti i DeepSeek u rrit, ai u bë objektivi i sulmeve në shkallë të gjerë të shpërndara të mohimit të shërbimit (DDoS). Kompania njoftoi se duhej të bllokonte regjistrimet e përdoruesve të rinj për shkak të vëllimit dërrmues të sulmeve.
Sipas NSFocus, një firmë e sigurisë kibernetike që monitoron sulmet, DeepSeek u përball me tre valë të mëdha sulmesh DDoS që synonin ndërfaqen e saj API më 25, 26 dhe 27 janar. Çdo sulm zgjati rreth 35 minuta, duke ndikuar rëndë platformën e DeepSeek. Deri më 28 janar, ndërfaqja API ishte ende e padisponueshme për shkak të ndërprerjeve të vazhdueshme.
Sistemi i bisedës DeepSeek u sulmua gjithashtu, me sulme DDoS të vëzhguara më 20 dhe 25 janar, secila që zgjat rreth një orë.
Metodat e sulmit DDoS
NSFocus identifikoi teknika të shumta sulmi të bazuara në reflektim, duke përfshirë:
- Sulmet e reflektimit NTP – Shfrytëzimi i serverëve të Protokollit të Kohës së Rrjetit (NTP) për të përforcuar trafikun e sulmeve.
- Sulmet e reflektimit të Memcached – Përdorimi i serverëve Memcached të konfiguruar gabimisht për të përmbytur DeepSeek me trafik masiv.
- Sulmet e reflektimit SSDP – Synimi i shërbimeve të Protokollit të Zbulimit të Shërbimit të Thjeshtë (SSDP) për të tejkaluar burimet e rrjetit.
- Sulmet e reflektimit CLDAP – Shfrytëzoni serverët e Protokollit të Qasjes së Drejtorisë së lehtë (CLDAP) pa lidhje pa lidhje për të rritur volumin e sulmit.
Një sulm shumë i koordinuar
Deri më 28 janar, DeepSeek raportoi se sulmuesit po përshtatnin metodat e tyre në përgjigje të përpjekjeve zbutëse të kompanisë. Saktësia dhe koordinimi i këtyre sulmeve e çoi NSFocus në përfundimin se autorët ishin një ekip profesional dhe i mirëorganizuar dhe jo hakerë të rastësishëm.
“Sulmuesi tregon profesionalizëm jashtëzakonisht të lartë në çdo hap sulmues, nga zgjedhja e objektivave deri te koha e sulmeve dhe kontrolli i intensitetit,” tha NSFocus.
Burimet kryesore të sulmeve përfshinin sisteme nga Shtetet e Bashkuara, Mbretëria e Bashkuar dhe Australia, sipas analizës së firmës së sigurisë kibernetike.
Çfarë do të thotë kjo për sigurinë e AI
Incidentet e DeepSeek nxjerrin në pah rreziqet në rritje të sigurisë kibernetike në AI gjeneruese. Nga dobësitë e jailbreak-it deri te sulmet kibernetike të synuara, shërbimet e AI janë tani objektivat kryesore si për studiuesit e sigurisë ashtu edhe për aktorët keqdashës.
Marrëdhëniet kryesore:
- Jailbreak-et e AI mbeten një sfidë sigurie – Edhe modelet më të reja të AI si DeepSeek mund të projektohen në mënyrë të kundërt për të ekspozuar logjikën e tyre të brendshme.
- Sulmet DDoS kundër platformave të AI po rriten – Ndërsa shërbimet e AI fitojnë popullaritet, ato tërheqin më shumë sulme kibernetike shumë të koordinuara.
- Siguria e AI duhet të evoluojë me shpejtësi - Zhvilluesit duhet të zbatojnë masa mbrojtëse të forta për të parandaluar rrjedhjet e menjëhershme dhe për t'u mbrojtur kundër kërcënimeve kibernetike.
Ndërsa AI vazhdon të formësojë peizazhin dixhital, ekipet e sigurisë kibernetike duhet të qëndrojnë një hap përpara për të siguruar që modelet e AI të mbeten të sigurta dhe elastike ndaj kërcënimeve në zhvillim.