Компьютерная безопасность Китайская система искусственного интеллекта DeepSeek...

Китайская система искусственного интеллекта DeepSeek ограничивает новые регистрации на фоне кибератак и растущих проблем безопасности

Китайский стартап DeepSeek быстро набирает обороты в мире искусственного интеллекта, но с ростом его популярности появляется все больше проблем. Недавно компания ограничила регистрацию новых пользователей из-за того, что она описывает как масштабные вредоносные атаки на ее сервисы. Хотя существующие пользователи могут продолжать получать доступ к платформе, новые регистрации временно ограничены.

Ситуация подчеркивает растущие угрозы безопасности, с которыми сталкиваются платформы ИИ, и вызывает обеспокоенность по поводу более широких последствий безопасности ИИ, конфиденциальности и геополитической напряженности вокруг китайских технологических компаний.

Кибератаки, нацеленные на DeepSeek

DeepSeek не раскрывает подробностей о характере этих атак, но эксперты по кибербезопасности полагают, что они могут представлять собой смесь атак типа «распределенный отказ в обслуживании» (DDoS), извлечения системных запросов и попыток взлома, направленных на обход ограничений контента или манипулирование поведением ИИ.

По словам Стюарта Миллара, главного инженера ИИ в Rapid7, злоумышленники могут тестировать ответы DeepSeek на деликатные вопросы, пытаться извлечь системные подсказки или пытаться изменить работу ИИ. Успешное извлечение системных подсказок может раскрыть фирменные инструкции и потенциально подвергнуть уязвимости ИИ дальнейшей эксплуатации.

Исследователь кибербезопасности Эрих Крон из KnowBe4 отметил, что подобные атаки могут быть мотивированы различными факторами:

  • Вымогательство . Злоумышленники могут потребовать выкуп в обмен на прекращение сбоев.
  • Корпоративный саботаж . Конкуренты могут попытаться ослабить репутацию и положение DeepSeek на рынке.
  • Защита инвестиций . Организации, инвестирующие в конкурирующие проекты в области ИИ, могут рассматривать DeepSeek как угрозу и стремиться подорвать его.

Стремительный взлет DeepSeek в мире искусственного интеллекта

Основанная в 2023 году, компания DeepSeek быстро позиционировала себя как основного претендента на гонку ИИ. Модели компании, включая DeepSeek-V3, попали в заголовки благодаря своей способности конкурировать и даже превосходить западные модели ИИ, такие как OpenAI GPT и Meta LLaMA, при этом обучаясь за малую часть стоимости.

Его приложение-чатбот для iOS недавно взлетело на вершину рейтингов бесплатных приложений Apple в США и Великобритании, даже обогнав по популярности ChatGPT от OpenAI.

Основным фактором успеха DeepSeek является ее эффективность. Компания утверждает, что ее модель DeepSeek-V3 требует значительно меньше часов работы GPU по сравнению с аналогами из Кремниевой долины. С учетом санкций США, ограничивающих продажу передовых чипов ИИ китайским фирмам, эта эффективность стала критически важным конкурентным преимуществом.

Несмотря на эти технологические прорывы, DeepSeek остается спорным проектом из-за его политики цензуры и потенциальных рисков для национальной безопасности, связанных с его методами хранения данных.

Уязвимости безопасности и проблемы конфиденциальности

DeepSeek сталкивался с уязвимостями безопасности в прошлом, включая эксплойт с подсказкой инъекции, обнаруженный исследователем безопасности Йоханном Ребергером. Эта уязвимость могла позволить злоумышленникам захватить учетные записи пользователей, используя полезную нагрузку межсайтового скриптинга (XSS), встроенную в ответы, сгенерированные ИИ.

Кроме того, недавний отчет Kela об угрозах показал, что модели искусственного интеллекта DeepSeek уязвимы для атак с использованием джейлбрейка, которые позволяют им генерировать неэтичный и незаконный контент, в том числе:

Эти результаты вызывают серьезные этические опасения относительно того, как ИИ может быть использован не по назначению, если не обеспечить его надлежащую защиту.

Кроме того, политика конфиденциальности DeepSeek показывает, что данные пользователей, включая информацию об устройствах, сетевые данные и платежные данные, хранятся на серверах, расположенных в Китае. Это вызвало обеспокоенность в западных странах, особенно в Соединенных Штатах, где ВМС США недавно рекомендовали персоналу избегать использования DeepSeek из-за потенциальных рисков безопасности и этики.

Итальянский орган по защите данных также начал расследование, требуя от DeepSeek разъяснить, как компания собирает, хранит и обрабатывает пользовательские данные. У компании есть 20 дней, чтобы ответить на вопросы относительно источников данных, правовых обоснований обработки и того, включает ли обучение модели ИИ сбор данных.

Новое соперничество в области искусственного интеллекта на фоне геополитической напряженности

Появление DeepSeek добавляет новое измерение в глобальную гонку ИИ, особенно в условиях продолжающейся эскалации технологической напряженности между США и Китаем. Сообщество ИИ обратило на это внимание, а генеральный директор OpenAI Сэм Альтман назвал модель рассуждений DeepSeek «впечатляющей» и признал ее законным конкурентом.

Интересно, что Джим Фэн из NVIDIA отметил, что DeepSeek «сохраняет изначальную миссию OpenAI», сосредоточившись на открытых исследованиях и широкой доступности — заявление, которое тонко критикует недавний сдвиг OpenAI в сторону моделей с закрытым исходным кодом.

Тем временем Китай отстаивает свою позицию по технологическому регулированию, утверждая, что он позволяет глобальным компаниям ИИ работать, пока они соблюдают местные законы. Однако сохраняются опасения относительно того, как китайские компании ИИ могут подвергнуться влиянию правительственных постановлений, политики цензуры и директив национальной безопасности.

Решающий момент для безопасности ИИ

Рост DeepSeek демонстрирует, что Китай делает серьезные шаги в развитии ИИ, но он также подчеркивает растущие проблемы кибербезопасности, с которыми сталкиваются компании ИИ. Будь то вредоносные кибератаки, проблемы конфиденциальности или геополитическое наблюдение, путь DeepSeek подчеркивает сложное взаимодействие между инновациями ИИ, безопасностью и глобальной политикой.

Для пользователей эти события служат напоминанием о необходимости проявлять осторожность в отношении платформ ИИ, обрабатывающих конфиденциальные данные, особенно тех, которые имеют непрозрачную политику конфиденциальности и потенциальные уязвимости безопасности. Поскольку ИИ продолжает развиваться, обеспечение надежных мер кибербезопасности и прозрачных методов работы с данными будет иметь решающее значение для компаний, стремящихся сохранить доверие пользователей и глобальную репутацию.

Загрузка...