Počítačová bezpečnost DeepSeek Security Breach odhaluje zranitelnosti AI a...

DeepSeek Security Breach odhaluje zranitelnosti AI a podněcuje kybernetické útoky

Nejnovější čínská generativní umělá inteligence, DeepSeek, je od svého uvedení předmětem intenzivního zkoumání kybernetické bezpečnosti. Bezpečnostní výzkumníci nedávno odhalili systémový okamžitý útěk z vězení, který odhalil vnitřní fungování modelu. Mezitím DeepSeek také čelil vlnám DDoS útoků, které ho donutily omezit registrace nových uživatelů. Tyto incidenty zdůrazňují jak bezpečnostní rizika modelů umělé inteligence, tak zvyšující se sofistikovanost kybernetických útoků zaměřených na služby umělé inteligence.

Prompt Jailbreak systému DeepSeek: Co výzkumníci objevili

Krátce po debutu DeepSeek našli výzkumníci z bezpečnostní firmy API Wallarm zranitelnost při útěku z vězení, která odhalila úplnou systémovou výzvu modelu AI. Tento typ bezpečnostní chyby je zvláště znepokojivý, protože systémová výzva AI diktuje její chování, omezení odezvy a zásady moderování obsahu. Většina vývojářů AI, včetně OpenAI s ChatGPT, přijímá přísná opatření, aby takovým únikům zabránila.

Wallarm v blogovém příspěvku z 1. února uvedl, že jeho metoda útěku z vězení využívala logiku odezvy AI založenou na zkreslení, ačkoli společnost zatajila konkrétní technické podrobnosti kvůli zásadám odpovědného zveřejňování. DeepSeek byl na problém upozorněn a od té doby nasadil opravu. Wallarm však zveřejnil celý text výzvy k systému, což bezpečnostním expertům umožnilo analyzovat operační rámec DeepSeek.

Toto odhalení vyvolalo diskuse o:

  • Opatření na ochranu soukromí AI a jak efektivně DeepSeek chrání uživatelská data.
  • Potenciální zaujatosti v tréninku DeepSeek, zejména s ohledem na tvrzení, že mohl používat data OpenAI pro trénink.
  • Regulační omezení , která by mohla ovlivnit fungování modelu AI, zejména v Číně, kde je obsah AI přísně kontrolován.

Aby prozkoumal potenciální vliv OpenAI, porovnal Wallarm systémovou výzvu DeepSeek s výzvou ChatGPT. Podle analýzy ChatGPT jsou odpovědi DeepSeek v souladu s přísnějšími opatřeními pro dodržování předpisů, zatímco přístup OpenAI je flexibilnější a zaměřený na uživatele.

DDoS útoky na DeepSeek: Koordinovaný kybernetický útok

Jak popularita DeepSeek rostla, stal se cílem rozsáhlých distribuovaných útoků typu denial-of-service (DDoS). Společnost oznámila, že kvůli drtivému objemu útoků musela zablokovat registrace nových uživatelů.

Podle NSFocus, firmy zabývající se kybernetickou bezpečností, která útoky monitoruje, DeepSeek čelil 25., 26. a 27. lednu třem velkým vlnám DDoS útoků zaměřených na jeho rozhraní API. Každý útok trval asi 35 minut a vážně zasáhl platformu DeepSeek. Do 28. ledna bylo rozhraní API stále nedostupné kvůli neustálým výpadkům.

Napaden byl také chatovací systém DeepSeek, přičemž 20. a 25. ledna byly pozorovány DDoS stávky, z nichž každá trvala asi hodinu.

Metody útoku DDoS

NSFocus identifikoval různé techniky útoku založené na reflexi, včetně:

  • Útoky odrazem NTP – Využití serverů NTP (Network Time Protocol) k zesílení útočného provozu.
  • Útoky odrazu Memcached – Použití nesprávně nakonfigurovaných serverů Memcached k zaplavení DeepSeek masivním provozem.
  • Útoky odrazem SSDP – Cílení na služby protokolu SSDP (Simple Service Discovery Protocol) za účelem zahlcení síťových zdrojů.
  • Reflexní útoky CLDAP – Využití serverů CLDAP (Lightweight Directory Access Protocol) bez připojení ke zvýšení objemu útoků.

Vysoce koordinovaný útok

Do 28. ledna DeepSeek oznámil, že útočníci přizpůsobují své metody v reakci na snahy společnosti o zmírnění. Přesnost a koordinace těchto útoků vedla NSFocus k závěru, že pachatelé byli profesionální, dobře organizovaný tým, nikoli náhodní hackeři.

„Útočník prokazuje extrémně vysokou profesionalitu v každém kroku útoku, od výběru cílů po načasování útoků a kontrolu intenzity,“ uvedl NSFocus.

Mezi hlavní zdroje útoků patřily systémy ze Spojených států, Spojeného království a Austrálie, podle analýzy firmy zabývající se kybernetickou bezpečností.

Co to znamená pro bezpečnost AI

Incidenty DeepSeek poukazují na rostoucí rizika kybernetické bezpečnosti v generativní umělé inteligenci. Od zranitelností při útěku z vězení až po cílené kybernetické útoky jsou nyní služby umělé inteligence hlavním cílem jak pro výzkumníky v oblasti bezpečnosti, tak pro zákeřné aktéry.

Klíčové poznatky:

  1. Úniky z vězení s umělou inteligencí zůstávají bezpečnostní výzvou – dokonce i novější modely umělé inteligence, jako je DeepSeek, lze reverzně zkonstruovat a odhalit tak jejich vnitřní logiku.
  2. DDoS útoků proti platformám AI přibývá – jak služby AI získávají na popularitě, přitahují více koordinovaných kybernetických útoků.
  3. Zabezpečení umělé inteligence se musí rychle vyvíjet – vývojáři musí implementovat robustní zabezpečení, aby zabránili rychlým únikům a bránili se kybernetickým hrozbám.

Vzhledem k tomu, že umělá inteligence neustále utváří digitální prostředí, musí týmy kybernetické bezpečnosti zůstat o krok napřed, aby zajistily, že modely umělé inteligence zůstanou bezpečné a odolné vůči vznikajícím hrozbám.

Načítání...