نقض امنیتی DeepSeek آسیبپذیریهای هوش مصنوعی را افشا میکند و جرقههای حملات سایبری را میدهد

جدیدترین هوش مصنوعی مولد چین، DeepSeek، از زمان راه اندازی مورد بررسی شدید امنیت سایبری قرار گرفته است. محققان امنیتی اخیراً یک جیلبریک سیستمی را افشا کردند که عملکرد درونی مدل را آشکار می کرد. در همین حال، DeepSeek همچنین با امواجی از حملات DDoS مواجه شده است که آن را مجبور به محدود کردن ثبت نام کاربران جدید کرده است. این حوادث هم خطرات امنیتی مدل های هوش مصنوعی و هم پیچیدگی روزافزون حملات سایبری را که خدمات هوش مصنوعی را هدف قرار می دهند، برجسته می کند.
فهرست مطالب
فرار از زندان سریع سیستم DeepSeek: آنچه محققان کشف کردند
مدت کوتاهی پس از معرفی DeepSeek، محققان شرکت امنیتی API Wallarm یک آسیبپذیری فرار از زندان پیدا کردند که سیستم کامل مدل هوش مصنوعی را فاش کرد. این نوع نقص امنیتی به ویژه نگرانکننده است زیرا سیستم هوش مصنوعی رفتار، محدودیتهای پاسخ و سیاستهای تعدیل محتوا را دیکته میکند. اکثر توسعه دهندگان هوش مصنوعی، از جمله OpenAI با ChatGPT، اقدامات سختگیرانه ای را برای جلوگیری از چنین نشت هایی انجام می دهند.
Wallarm در یک پست وبلاگی در تاریخ 1 فوریه اظهار داشت که روش فرار از زندان از منطق پاسخ هوش مصنوعی مبتنی بر تعصب سوء استفاده می کند، اگرچه این شرکت به دلیل سیاست های افشای مسئولانه از جزئیات فنی خاصی خودداری می کند. DeepSeek از این مشکل مطلع شد و از آن زمان به بعد راه حلی برای رفع این مشکل ارائه کرده است. با این حال، Wallarm متن کامل سیستم را منتشر کرد و به کارشناسان امنیتی اجازه داد تا چارچوب عملیاتی DeepSeek را تجزیه و تحلیل کنند.
این مکاشفه بحث هایی را برانگیخت:
- حریم خصوصی هوش مصنوعی اندازه گیری می کند و اینکه DeepSeek چگونه به طور موثر از داده های کاربر محافظت می کند.
- سوگیری های بالقوه در آموزش DeepSeek، به ویژه با توجه به ادعاهایی که ممکن است از داده های OpenAI برای آموزش استفاده کرده باشد.
- محدودیت های نظارتی که می تواند بر نحوه عملکرد مدل هوش مصنوعی تأثیر بگذارد، به ویژه در چین، جایی که محتوای هوش مصنوعی به شدت کنترل می شود.
برای بررسی تأثیر بالقوه OpenAI، Wallarm دستور سیستم DeepSeek را با ChatGPT مقایسه کرد. بر اساس تجزیه و تحلیل ChatGPT، پاسخ های DeepSeek با معیارهای انطباق سخت گیرانه تر مطابقت دارد، در حالی که رویکرد OpenAI انعطاف پذیرتر و کاربر محور است.
حملات DDoS به DeepSeek: یک حمله سایبری هماهنگ
با افزایش محبوبیت DeepSeek، هدف حملات انکار سرویس (DDoS) در مقیاس بزرگ قرار گرفت. این شرکت اعلام کرد که به دلیل حجم بالای حملات، باید ثبت نام کاربران جدید را مسدود کند.
به گفته NSFocus، یک شرکت امنیت سایبری که حملات را رصد می کند، DeepSeek با سه موج عمده از حملات DDoS مواجه شد که رابط API خود را در 25، 26 و 27 ژانویه هدف قرار دادند. هر حمله حدود 35 دقیقه طول کشید و به شدت بر پلت فرم DeepSeek تأثیر گذاشت. تا 28 ژانویه، رابط API به دلیل اختلالات مداوم هنوز در دسترس نبود.
سیستم چت DeepSeek نیز مورد حمله قرار گرفت و حملات DDoS در 20 و 25 ژانویه مشاهده شد که هر یک حدود یک ساعت به طول انجامید.
روشهای حمله DDoS
NSFocus چندین تکنیک حمله مبتنی بر بازتاب را شناسایی کرد، از جمله:
- حملات انعکاسی NTP – بهره برداری از سرورهای پروتکل زمان شبکه (NTP) برای تقویت ترافیک حمله.
- حملات بازتاب Memcached – استفاده از سرورهای Memcached با پیکربندی نادرست برای پر کردن ترافیک عظیم DeepSeek.
- حملات انعکاسی SSDP – هدف قرار دادن سرویسهای پروتکل کشف سرویس ساده (SSDP) برای غلبه بر منابع شبکه.
- حملات انعکاسی CLDAP – استفاده از سرورهای پروتکل دسترسی کم وزن به دایرکتوری (CLDAP) برای افزایش حجم حمله.
یک حمله بسیار هماهنگ
در 28 ژانویه، DeepSeek گزارش داد که مهاجمان روشهای خود را در پاسخ به تلاشهای کاهشدهنده شرکت تطبیق میدهند. دقت و هماهنگی این حملات باعث شد تا NSFocus به این نتیجه برسد که عاملان این حملات یک تیم حرفه ای و سازمان یافته بودند تا هکرهای تصادفی.
NSFocus اظهار داشت: مهاجم در هر مرحله حمله، از انتخاب اهداف گرفته تا زمانبندی حملات و کنترل شدت، حرفهای بودن بسیار بالایی را نشان میدهد.
بر اساس تحلیل این شرکت امنیت سایبری، منابع اصلی حمله شامل سیستمهایی از ایالات متحده، بریتانیا و استرالیا بودند.
این به چه معناست برای امنیت هوش مصنوعی
حوادث DeepSeek خطرات رو به رشد امنیت سایبری در هوش مصنوعی مولد را برجسته می کند. از آسیبپذیریهای فرار از زندان گرفته تا حملات سایبری هدفمند، سرویسهای هوش مصنوعی اکنون اهداف اصلی هم برای محققان امنیتی و هم برای عوامل مخرب هستند.
نکات کلیدی:
- جیلبریکهای هوش مصنوعی همچنان یک چالش امنیتی هستند – حتی مدلهای جدیدتر هوش مصنوعی مانند DeepSeek را میتوان مهندسی معکوس کرد تا منطق داخلی آنها را آشکار کند.
- حملات DDoS علیه پلتفرمهای هوش مصنوعی در حال افزایش است – با افزایش محبوبیت سرویسهای هوش مصنوعی، حملات سایبری بسیار هماهنگتری را جذب میکنند.
- امنیت هوش مصنوعی باید به سرعت تکامل یابد - توسعه دهندگان باید پادمان های قوی را برای جلوگیری از نشت سریع و دفاع در برابر تهدیدات سایبری اجرا کنند.
همانطور که هوش مصنوعی به شکلدهی چشمانداز دیجیتال ادامه میدهد، تیمهای امنیت سایبری باید یک قدم جلوتر باشند تا مطمئن شوند مدلهای هوش مصنوعی در برابر تهدیدات نوظهور ایمن و انعطافپذیر باقی میمانند.