Порушення безпеки DeepSeek виявляє вразливості ШІ та викликає кібератаки

Останній генеративний штучний інтелект Китаю, DeepSeek, був об’єктом ретельного вивчення кібербезпеки з моменту його запуску. Дослідники безпеки нещодавно викрили системний джейлбрейк, який розкрив внутрішню роботу моделі. Тим часом DeepSeek також зіткнувся з хвилями DDoS-атак, що змусило його обмежити реєстрацію нових користувачів. Ці інциденти підкреслюють як ризики для безпеки моделей штучного інтелекту, так і зростаючу витонченість кібератак, націлених на сервіси штучного інтелекту.
Зміст
Втеча з в'язниці DeepSeek System Prompt: що виявили дослідники
Невдовзі після дебюту DeepSeek дослідники з фірми безпеки API Wallarm виявили вразливість джейлбрейка, яка відкривала повну системну підказку моделі AI. Цей тип недоліку безпеки викликає особливе занепокоєння, оскільки системна підказка штучного інтелекту визначає його поведінку, обмеження відповіді та політику модерування вмісту. Більшість розробників штучного інтелекту, включаючи OpenAI з ChatGPT, вживають суворих заходів для запобігання таким витокам.
У дописі в блозі від 1 лютого Wallarm заявила, що її метод джейлбрейка використовує логіку реагування штучного інтелекту на основі упередженості, хоча компанія приховала конкретні технічні деталі через політику відповідального розкриття інформації. DeepSeek було повідомлено про проблему та згодом розгорнуто її виправлення. Однак Wallarm опублікував повний текст системної підказки, що дозволило експертам з безпеки проаналізувати операційну структуру DeepSeek.
Це відкриття викликало дискусії про:
- ШІ визначає конфіденційність і наскільки ефективно DeepSeek захищає дані користувачів.
- Потенційні упередження в навчанні DeepSeek, особливо враховуючи заяви про те, що він міг використовувати дані OpenAI для навчання.
- Регуляторні обмеження , які можуть вплинути на роботу моделі штучного інтелекту, особливо в Китаї, де вміст штучного інтелекту жорстко контролюється.
Щоб дослідити потенційний вплив OpenAI, Wallarm порівняв системну підказку DeepSeek із підказкою ChatGPT. Згідно з аналізом ChatGPT, відповіді DeepSeek узгоджуються з більш суворими заходами відповідності, тоді як підхід OpenAI є більш гнучким і орієнтованим на користувача.
DDoS-атаки на DeepSeek: скоординований кібернапад
Зі зростанням популярності DeepSeek він став об’єктом широкомасштабних розподілених атак типу «відмова в обслуговуванні» (DDoS). Компанія оголосила, що їй довелося блокувати реєстрацію нових користувачів через величезну кількість атак.
За даними NSFocus, фірми з кібербезпеки, яка відслідковує атаки, DeepSeek зіткнувся з трьома великими хвилями DDoS-атак, націлених на інтерфейс API 25, 26 і 27 січня. Кожна атака тривала близько 35 хвилин, серйозно вплинувши на платформу DeepSeek. Станом на 28 січня інтерфейс API все ще був недоступний через постійні збої.
Система чату DeepSeek також піддалася атаці: 20 і 25 січня були зафіксовані DDoS-атаки, кожна з яких тривала близько години.
Методи DDoS атак
NSFocus виявив кілька методів атаки на основі відображення, зокрема:
- Атаки відображення NTP – використання серверів протоколу мережевого часу (NTP) для посилення трафіку атак.
- Атаки відображення Memcached – використання неправильно налаштованих серверів Memcached для переповнення DeepSeek масовим трафіком.
- Атаки відображення SSDP – націлені на служби Simple Service Discovery Protocol (SSDP) для перевантаження мережевих ресурсів.
- Атаки відображення CLDAP – використання серверів легкого протоколу доступу до каталогу (CLDAP) без підключення для збільшення обсягу атак.
Високоскоординована атака
28 січня DeepSeek повідомив, що зловмисники адаптували свої методи у відповідь на зусилля компанії щодо пом’якшення наслідків. Точність і координація цих атак привели NSFocus до висновку, що зловмисники були професійною, добре організованою командою, а не випадковими хакерами.
«Зловмисник демонструє надзвичайно високий професіоналізм на кожному етапі атаки, від вибору цілей до визначення часу атак і контролю інтенсивності», — заявив NSFocus.
Згідно з аналізом фірми з кібербезпеки, джерелами найпопулярніших атак були системи зі Сполучених Штатів, Великобританії та Австралії.
Що це означає для безпеки ШІ
Інциденти DeepSeek підкреслюють зростаючі ризики кібербезпеки в генеративному ШІ. Від уразливостей джейлбрейка до цілеспрямованих кібератак сервіси штучного інтелекту тепер є головними цілями як для дослідників безпеки, так і для зловмисників.
Ключові висновки:
- Втеча з в’язниці штучного інтелекту залишається проблемою безпеки – навіть новіші моделі штучного інтелекту, такі як DeepSeek, можуть бути перероблені, щоб розкрити їхню внутрішню логіку.
- Зростає кількість DDoS-атак на платформи штучного інтелекту . У міру того, як служби штучного інтелекту стають популярними, вони приваблюють більше скоординованих кібератак.
- Безпека штучного інтелекту має швидко розвиватися – розробники повинні запровадити надійні засоби захисту, щоб запобігти миттєвим витокам і захиститися від кіберзагроз.
Оскільки штучний інтелект продовжує формувати цифровий ландшафт, команди з кібербезпеки повинні бути на крок попереду, щоб гарантувати, що моделі штучного інтелекту залишатимуться безпечними та стійкими до нових загроз.