Čínská umělá inteligence DeepSeek omezuje nové registrace uprostřed kybernetických útoků a rostoucích bezpečnostních obav

Čínský startup DeepSeek s umělou inteligencí se rychle prosadil ve světě umělé inteligence, ale s jeho rostoucí popularitou přichází stále větší množství výzev. Společnost nedávno omezila registrace nových uživatelů kvůli tomu, co popisuje jako rozsáhlé škodlivé útoky na její služby. Stávající uživatelé mohou k platformě nadále přistupovat, ale nové registrace byly dočasně omezeny.
Situace zdůrazňuje rostoucí bezpečnostní hrozby, kterým čelí platformy umělé inteligence, a vyvolává obavy ohledně širších důsledků bezpečnosti umělé inteligence, soukromí a geopolitického napětí kolem čínských technologických společností.
Obsah
Kybernetické útoky zaměřené na DeepSeek
DeepSeek nezveřejnil podrobnosti o povaze těchto útoků, ale odborníci na kybernetickou bezpečnost se domnívají, že by mohly být kombinací distribuovaných útoků denial-of-service (DDoS), extrakcí systémových rychlých extrakce a pokusů o útěk z vězení zaměřených na obcházení omezení obsahu nebo manipulaci s chováním AI.
Podle Stuarta Millara, hlavního inženýra AI v Rapid7, by útočníci mohli testovat odpovědi DeepSeek na citlivé otázky, pokoušet se extrahovat systémové výzvy nebo se pokoušet změnit, jak AI funguje. Úspěšná okamžitá extrakce systému by mohla odhalit proprietární instrukce a potenciálně vystavit zranitelnosti AI dalšímu zneužití.
Výzkumník v oblasti kybernetické bezpečnosti Erich Kron z KnowBe4 poukázal na to, že takové útoky mohou být motivovány různými faktory:
- Vydírání – Útočníci mohou požadovat výkupné výměnou za zastavení narušení.
- Firemní sabotáž – Konkurenti by se mohli pokusit oslabit pověst a pozici DeepSeek na trhu.
- Ochrana investic – Subjekty investující do konkurenčních projektů AI mohou DeepSeek vnímat jako hrozbu a snažit se ji podkopat.
Meteorický vzestup DeepSeek ve světě umělé inteligence
DeepSeek, který byl založen v roce 2023, se rychle umístil jako hlavní uchazeč v závodě AI. Modely společnosti, včetně DeepSeek-V3, se dostaly na titulní stránky pro svou schopnost konkurovat a dokonce předčit západní modely umělé inteligence, jako je GPT od OpenAI a LLaMA od Meta, přičemž jsou školeny za zlomek nákladů.
Jeho aplikace chatbot pro iOS nedávno raketově vylétla na vrchol žebříčků bezplatných aplikací Apple v USA a Velké Británii, a dokonce v popularitě překonala ChatGPT od OpenAI.
Hlavním faktorem úspěchu DeepSeek je jeho efektivita. Společnost tvrdí, že její model DeepSeek-V3 vyžaduje výrazně méně GPU hodin ve srovnání s protějšky ze Silicon Valley. S americkými sankcemi omezujícími prodej pokročilých AI čipů čínským firmám se tato efektivita stala kritickou konkurenční výhodou.
Navzdory těmto technologickým průlomům zůstává DeepSeek kontroverzní kvůli svým politikám cenzury a potenciálním národním bezpečnostním rizikům spojeným s postupy ukládání dat.
Bezpečnostní chyby a obavy o soukromí
DeepSeek v minulosti čelil bezpečnostním zranitelnostem , včetně rychlého injektování, které objevil bezpečnostní výzkumník Johann Rehberger. Tato chyba mohla umožnit útočníkům převzít uživatelské účty pomocí užitečného zatížení cross-site scripting (XSS) zabudovaného do odpovědí generovaných AI.
Nedávná zpráva o hrozbách od Kela navíc zjistila, že modely umělé inteligence DeepSeek jsou zranitelné vůči útokům útěk z vězení, které jim umožňují generovat neetický a nelegální obsah, včetně:
- Generování ransomwarového kódu
- Vymýšlení dezinformací
- Návody krok za krokem pro výrobu výbušnin a toxinů
- Pokyny pro vývoj malwaru
Tato zjištění vyvolávají vážné etické obavy ohledně toho, jak by mohla být umělá inteligence zneužita, pokud by nebyla řádně zabezpečena.
Zásady ochrany osobních údajů DeepSeek dále odhalují, že uživatelská data – včetně informací o zařízení, síťových údajů a platebních údajů – jsou uložena na serverech umístěných v Číně. To vyvolalo obavy v západních zemích, zejména ve Spojených státech, kde americké námořnictvo nedávno doporučilo personálu, aby se vyhnul používání DeepSeek kvůli potenciálním bezpečnostním a etickým rizikům.
Italský úřad pro ochranu údajů také zahájil vyšetřování a požaduje, aby DeepSeek objasnil, jak shromažďuje, ukládá a zpracovává uživatelská data. Společnost má 20 dní na to, aby odpověděla na otázky týkající se zdrojů dat, právního zdůvodnění zpracování a toho, zda školení modelu AI zahrnuje seškrabování dat.
Nová rivalita AI uprostřed geopolitického napětí
Vznik DeepSeek přidává nový rozměr do globálního závodu v oblasti umělé inteligence, zvláště když technologické napětí mezi USA a Čínou stále eskaluje. Komunita umělé inteligence si toho všimla a generální ředitel OpenAI Sam Altman označil model uvažování DeepSeek za „působivý“ a uznal jej jako legitimního konkurenta.
Je zajímavé, že Jim Fan z NVIDIA poznamenal, že DeepSeek „udržuje původní poslání OpenAI naživu“ tím, že se zaměřuje na otevřený výzkum a širokou dostupnost – což je prohlášení, které nenápadně kritizuje nedávný posun OpenAI směrem k uzavřeným modelům.
Čína mezitím hájila svůj postoj k technickým předpisům a tvrdila, že umožňuje globálním společnostem AI fungovat, pokud dodržují místní zákony. Přetrvávají však obavy z toho, jak mohou být čínské společnosti AI ovlivněny vládními nařízeními, politikami cenzury a směrnicemi o národní bezpečnosti.
Klíčový okamžik pro zabezpečení AI
Vzestup DeepSeek ukazuje, že Čína dělá vážné pokroky ve vývoji umělé inteligence, ale také podtrhuje rostoucí výzvy kybernetické bezpečnosti, kterým společnosti AI čelí. Ať už se jedná o škodlivé kybernetické útoky, obavy o soukromí nebo geopolitickou kontrolu, cesta DeepSeek zdůrazňuje složitou souhru mezi inovacemi AI, bezpečností a globální politikou.
Pro uživatele tyto události slouží jako připomenutí, aby byli opatrní ohledně platforem AI, které zpracovávají citlivá data, zejména ty s neprůhlednými zásadami ochrany osobních údajů a potenciálními bezpečnostními chybami. Vzhledem k tomu, že se umělá inteligence neustále vyvíjí, bude zajištění robustních opatření v oblasti kybernetické bezpečnosti a transparentních datových postupů zásadní pro společnosti, které si chtějí udržet důvěru uživatelů a globální důvěryhodnost.