Китайський DeepSeek AI обмежує нові реєстрації через кібератаки та зростаючі проблеми безпеки

Китайський стартап зі штучного інтелекту DeepSeek швидко завоював популярність у світі штучного інтелекту, але зі зростанням його популярності постає все більше проблем. Нещодавно компанія обмежила реєстрацію нових користувачів через те, що вона описує як масштабні зловмисні атаки на її сервіси. Хоча існуючі користувачі можуть продовжувати доступ до платформи, нові реєстрації тимчасово обмежені.
Ситуація підкреслює зростаючі загрози безпеці, з якими стикаються платформи ШІ, і викликає занепокоєння щодо ширших наслідків безпеки ШІ, конфіденційності та геополітичної напруженості навколо китайських технологічних компаній.
Зміст
Кібератаки, націлені на DeepSeek
DeepSeek не розкриває подробиць про природу цих атак, але експерти з кібербезпеки вважають, що вони можуть бути сумішшю розподілених атак типу «відмова в обслуговуванні» (DDoS), вилучення системних підказок і спроб джейлбрейка, спрямованих на обхід обмежень вмісту або маніпулювання поведінкою ШІ.
За словами Стюарта Міллара, головного інженера ШІ в Rapid7, зловмисники могли перевіряти відповіді DeepSeek на делікатні запитання, намагаючись отримати системні підказки або намагатися змінити роботу ШІ. Успішне вилучення системної підказки може виявити власні інструкції та потенційно відкрити вразливі місця штучного інтелекту для подальшого використання.
Дослідник кібербезпеки Еріх Крон з KnowBe4 зазначив, що такі атаки можуть бути мотивовані різними факторами:
- Вимагання – зловмисники можуть вимагати викуп в обмін на припинення збоїв.
- Корпоративний саботаж – конкуренти можуть спробувати послабити репутацію DeepSeek і позиції на ринку.
- Захист інвестицій . Суб’єкти, інвестовані в конкуруючі проекти штучного інтелекту, можуть сприймати DeepSeek як загрозу та прагнути підірвати її.
Метеоритний підйом DeepSeek у світі ШІ
Заснована у 2023 році компанія DeepSeek швидко позиціонувала себе як головного суперника в гонці ШІ. Моделі компанії, включно з DeepSeek-V3, потрапили в заголовки газет завдяки своїй здатності конкурувати з західними моделями штучного інтелекту, такими як GPT OpenAI і LLaMA від Meta, і навіть перевершувати їх, хоча їх навчання коштує незначно дешевше.
Його додаток для чат-ботів iOS нещодавно різко піднявся на вершину чартів безкоштовних програм Apple у США та Великобританії, навіть обійшовши за популярністю ChatGPT від OpenAI.
Головним фактором успіху DeepSeek є його ефективність. Компанія стверджує, що її модель DeepSeek-V3 вимагає значно менше годин GPU порівняно з аналогами з Кремнієвої долини. Оскільки санкції США обмежують продаж передових чіпів ШІ китайським фірмам, ця ефективність стала критичною конкурентною перевагою.
Незважаючи на ці технологічні досягнення, DeepSeek залишається суперечливим через політику цензури та потенційні ризики для національної безпеки, пов’язані з його практикою зберігання даних.
Помилки безпеки та проблеми з конфіденційністю
DeepSeek стикався з минулими вразливими місцями системи безпеки , зокрема експлойтом швидкого впровадження, який виявив дослідник безпеки Йоганн Ребергер. Цей недолік міг дозволити зловмисникам заволодіти обліковими записами користувачів за допомогою корисного навантаження міжсайтового сценарію (XSS), вбудованого у відповіді, створені ШІ.
Крім того, нещодавній звіт Kela про аналіз загроз виявив, що моделі штучного інтелекту DeepSeek вразливі до атак джейлбрейку, які дозволяють створювати неетичний і незаконний вміст, зокрема:
- Генерація коду програм-вимагачів
- Виготовлення дезінформації
- Покрокові інструкції з виготовлення вибухівки та токсинів
- Інструкції з розробки шкідливих програм
Ці висновки викликають серйозні етичні занепокоєння щодо того, як штучний інтелект можна використати неналежним чином, якщо його не захистити належним чином.
Крім того, політика конфіденційності DeepSeek показує, що дані користувача, включно з інформацією про пристрій, відомостями про мережу та платіжними даними, зберігаються на серверах, розташованих у Китаї. Це викликало занепокоєння в західних країнах, зокрема в Сполучених Штатах, де ВМС США нещодавно порадили персоналу уникати використання DeepSeek через потенційні ризики для безпеки та етичні ризики.
Італійський орган захисту даних також розпочав розслідування, вимагаючи від DeepSeek пояснити, як він збирає, зберігає та обробляє дані користувачів. У компанії є 20 днів, щоб відповісти на запитання щодо джерел даних, юридичного обґрунтування обробки та того, чи передбачає навчання моделі ШІ збирання даних.
Нове суперництво ШІ на тлі геополітичної напруги
Поява DeepSeek додає новий вимір до глобальної гонки штучного інтелекту, особливо в умовах ескалації технічної напруженості між США та Китаєм. Спільнота штучного інтелекту звернула увагу на це: генеральний директор OpenAI Сем Альтман назвав модель міркування DeepSeek «вражаючою» та визнав її законним конкурентом.
Цікаво, що Джим Фан з NVIDIA зазначив, що DeepSeek «зберігає оригінальну місію OpenAI», зосереджуючись на відкритих дослідженнях і широкій доступності — заява, яка тонко критикує нещодавній перехід OpenAI до моделей із закритим кодом.
Тим часом Китай захищає свою позицію щодо технічних правил, стверджуючи, що це дозволяє глобальним компаніям ШІ працювати до тих пір, поки вони дотримуються місцевих законів. Проте залишається занепокоєння щодо того, як на китайські компанії ШІ можуть вплинути урядові постанови, політика цензури та директиви національної безпеки.
Вирішальний момент для безпеки ШІ
Зростання DeepSeek демонструє, що Китай робить серйозні кроки в розвитку штучного інтелекту, але це також підкреслює зростаючі виклики кібербезпеки, з якими стикаються компанії ШІ. Незалежно від того, чи йдеться про зловмисні кібератаки, занепокоєння конфіденційністю чи геополітичний контроль, подорож DeepSeek висвітлює складну взаємодію між інноваціями ШІ, безпекою та глобальною політикою.
Для користувачів ці події служать нагадуванням про необхідність бути обережними щодо платформ штучного інтелекту, які обробляють конфіденційні дані, особливо з непрозорими політиками конфіденційності та потенційними вразливими місцями безпеки. Оскільки штучний інтелект продовжує розвиватися, забезпечення надійних заходів кібербезпеки та прозорих практик обробки даних буде вкрай важливим для компаній, які прагнуть зберегти довіру користувачів і глобальну довіру.