امنیت کامپیوتر نقض امنیتی DeepSeek آسیب‌پذیری‌های هوش مصنوعی را افشا...

نقض امنیتی DeepSeek آسیب‌پذیری‌های هوش مصنوعی را افشا می‌کند و جرقه‌های حملات سایبری را می‌دهد

جدیدترین هوش مصنوعی مولد چین، DeepSeek، از زمان راه اندازی مورد بررسی شدید امنیت سایبری قرار گرفته است. محققان امنیتی اخیراً یک جیلبریک سیستمی را افشا کردند که عملکرد درونی مدل را آشکار می کرد. در همین حال، DeepSeek همچنین با امواجی از حملات DDoS مواجه شده است که آن را مجبور به محدود کردن ثبت نام کاربران جدید کرده است. این حوادث هم خطرات امنیتی مدل های هوش مصنوعی و هم پیچیدگی روزافزون حملات سایبری را که خدمات هوش مصنوعی را هدف قرار می دهند، برجسته می کند.

فرار از زندان سریع سیستم DeepSeek: آنچه محققان کشف کردند

مدت کوتاهی پس از معرفی DeepSeek، محققان شرکت امنیتی API Wallarm یک آسیب‌پذیری فرار از زندان پیدا کردند که سیستم کامل مدل هوش مصنوعی را فاش کرد. این نوع نقص امنیتی به ویژه نگران‌کننده است زیرا سیستم هوش مصنوعی رفتار، محدودیت‌های پاسخ و سیاست‌های تعدیل محتوا را دیکته می‌کند. اکثر توسعه دهندگان هوش مصنوعی، از جمله OpenAI با ChatGPT، اقدامات سختگیرانه ای را برای جلوگیری از چنین نشت هایی انجام می دهند.

Wallarm در یک پست وبلاگی در تاریخ 1 فوریه اظهار داشت که روش فرار از زندان از منطق پاسخ هوش مصنوعی مبتنی بر تعصب سوء استفاده می کند، اگرچه این شرکت به دلیل سیاست های افشای مسئولانه از جزئیات فنی خاصی خودداری می کند. DeepSeek از این مشکل مطلع شد و از آن زمان به بعد راه حلی برای رفع این مشکل ارائه کرده است. با این حال، Wallarm متن کامل سیستم را منتشر کرد و به کارشناسان امنیتی اجازه داد تا چارچوب عملیاتی DeepSeek را تجزیه و تحلیل کنند.

این مکاشفه بحث هایی را برانگیخت:

  • حریم خصوصی هوش مصنوعی اندازه گیری می کند و اینکه DeepSeek چگونه به طور موثر از داده های کاربر محافظت می کند.
  • سوگیری های بالقوه در آموزش DeepSeek، به ویژه با توجه به ادعاهایی که ممکن است از داده های OpenAI برای آموزش استفاده کرده باشد.
  • محدودیت های نظارتی که می تواند بر نحوه عملکرد مدل هوش مصنوعی تأثیر بگذارد، به ویژه در چین، جایی که محتوای هوش مصنوعی به شدت کنترل می شود.

برای بررسی تأثیر بالقوه OpenAI، Wallarm دستور سیستم DeepSeek را با ChatGPT مقایسه کرد. بر اساس تجزیه و تحلیل ChatGPT، پاسخ های DeepSeek با معیارهای انطباق سخت گیرانه تر مطابقت دارد، در حالی که رویکرد OpenAI انعطاف پذیرتر و کاربر محور است.

حملات DDoS به DeepSeek: یک حمله سایبری هماهنگ

با افزایش محبوبیت DeepSeek، هدف حملات انکار سرویس (DDoS) در مقیاس بزرگ قرار گرفت. این شرکت اعلام کرد که به دلیل حجم بالای حملات، باید ثبت نام کاربران جدید را مسدود کند.

به گفته NSFocus، یک شرکت امنیت سایبری که حملات را رصد می کند، DeepSeek با سه موج عمده از حملات DDoS مواجه شد که رابط API خود را در 25، 26 و 27 ژانویه هدف قرار دادند. هر حمله حدود 35 دقیقه طول کشید و به شدت بر پلت فرم DeepSeek تأثیر گذاشت. تا 28 ژانویه، رابط API به دلیل اختلالات مداوم هنوز در دسترس نبود.

سیستم چت DeepSeek نیز مورد حمله قرار گرفت و حملات DDoS در 20 و 25 ژانویه مشاهده شد که هر یک حدود یک ساعت به طول انجامید.

روش‌های حمله DDoS

NSFocus چندین تکنیک حمله مبتنی بر بازتاب را شناسایی کرد، از جمله:

  • حملات انعکاسی NTP – بهره برداری از سرورهای پروتکل زمان شبکه (NTP) برای تقویت ترافیک حمله.
  • حملات بازتاب Memcached – استفاده از سرورهای Memcached با پیکربندی نادرست برای پر کردن ترافیک عظیم DeepSeek.
  • حملات انعکاسی SSDP – هدف قرار دادن سرویس‌های پروتکل کشف سرویس ساده (SSDP) برای غلبه بر منابع شبکه.
  • حملات انعکاسی CLDAP – استفاده از سرورهای پروتکل دسترسی کم وزن به دایرکتوری (CLDAP) برای افزایش حجم حمله.

یک حمله بسیار هماهنگ

در 28 ژانویه، DeepSeek گزارش داد که مهاجمان روش‌های خود را در پاسخ به تلاش‌های کاهش‌دهنده شرکت تطبیق می‌دهند. دقت و هماهنگی این حملات باعث شد تا NSFocus به این نتیجه برسد که عاملان این حملات یک تیم حرفه ای و سازمان یافته بودند تا هکرهای تصادفی.

NSFocus اظهار داشت: مهاجم در هر مرحله حمله، از انتخاب اهداف گرفته تا زمان‌بندی حملات و کنترل شدت، حرفه‌ای بودن بسیار بالایی را نشان می‌دهد.

بر اساس تحلیل این شرکت امنیت سایبری، منابع اصلی حمله شامل سیستم‌هایی از ایالات متحده، بریتانیا و استرالیا بودند.

این به چه معناست برای امنیت هوش مصنوعی

حوادث DeepSeek خطرات رو به رشد امنیت سایبری در هوش مصنوعی مولد را برجسته می کند. از آسیب‌پذیری‌های فرار از زندان گرفته تا حملات سایبری هدفمند، سرویس‌های هوش مصنوعی اکنون اهداف اصلی هم برای محققان امنیتی و هم برای عوامل مخرب هستند.

نکات کلیدی:

  1. جیلبریک‌های هوش مصنوعی همچنان یک چالش امنیتی هستند – حتی مدل‌های جدیدتر هوش مصنوعی مانند DeepSeek را می‌توان مهندسی معکوس کرد تا منطق داخلی آنها را آشکار کند.
  2. حملات DDoS علیه پلتفرم‌های هوش مصنوعی در حال افزایش است – با افزایش محبوبیت سرویس‌های هوش مصنوعی، حملات سایبری بسیار هماهنگ‌تری را جذب می‌کنند.
  3. امنیت هوش مصنوعی باید به سرعت تکامل یابد - توسعه دهندگان باید پادمان های قوی را برای جلوگیری از نشت سریع و دفاع در برابر تهدیدات سایبری اجرا کنند.

همانطور که هوش مصنوعی به شکل‌دهی چشم‌انداز دیجیتال ادامه می‌دهد، تیم‌های امنیت سایبری باید یک قدم جلوتر باشند تا مطمئن شوند مدل‌های هوش مصنوعی در برابر تهدیدات نوظهور ایمن و انعطاف‌پذیر باقی می‌مانند.

بارگذاری...