أمن الكمبيوتر خرق أمني في DeepSeek يكشف عن نقاط ضعف في الذكاء الاصطناعي...

خرق أمني في DeepSeek يكشف عن نقاط ضعف في الذكاء الاصطناعي ويثير هجمات إلكترونية

لقد كان أحدث الذكاء الاصطناعي التوليدي في الصين، DeepSeek، موضوعًا لتدقيق أمني مكثف منذ إطلاقه. فقد كشف باحثون أمنيون مؤخرًا عن كسر حماية النظام الذي كشف عن العمليات الداخلية للنموذج. وفي الوقت نفسه، واجهت DeepSeek أيضًا موجات من هجمات الحرمان من الخدمة الموزعة، مما أجبرها على تقييد تسجيلات المستخدمين الجدد. تسلط هذه الحوادث الضوء على المخاطر الأمنية لنماذج الذكاء الاصطناعي والتعقيد المتزايد للهجمات الإلكترونية التي تستهدف خدمات الذكاء الاصطناعي.

كسر الحماية من خلال System Prompt في DeepSeek: ما اكتشفه الباحثون

بعد وقت قصير من ظهور DeepSeek لأول مرة، اكتشف الباحثون في شركة أمان API Wallarm ثغرة اختراق كشفت عن مطالبة النظام الكاملة لنموذج الذكاء الاصطناعي. هذا النوع من الخلل الأمني مثير للقلق بشكل خاص لأن مطالبة نظام الذكاء الاصطناعي تملي سلوكه وحدود الاستجابة وسياسات تعديل المحتوى. يتخذ معظم مطوري الذكاء الاصطناعي، بما في ذلك OpenAI مع ChatGPT، تدابير صارمة لمنع مثل هذه التسريبات.

صرحت شركة Wallarm في منشور على مدونتها في الأول من فبراير أن طريقة كسر الحماية الخاصة بها استغلت منطق الاستجابة للذكاء الاصطناعي القائم على التحيز، على الرغم من أن الشركة حجبت تفاصيل تقنية محددة بسبب سياسات الإفصاح المسؤولة. تم إخطار DeepSeek بالمشكلة ونشرت منذ ذلك الحين إصلاحًا. ومع ذلك، نشرت Wallarm نص المطالبة الكامل للنظام، مما سمح لخبراء الأمن بتحليل الإطار التشغيلي لـ DeepSeek.

وقد أثار هذا الكشف مناقشات حول:

  • إجراءات الخصوصية الخاصة بالذكاء الاصطناعي ومدى فعالية DeepSeek في حماية بيانات المستخدم.
  • تحيزات محتملة في تدريب DeepSeek، خاصة بالنظر إلى الادعاءات بأنها ربما استخدمت بيانات OpenAI للتدريب.
  • القيود التنظيمية التي قد تؤثر على كيفية عمل نموذج الذكاء الاصطناعي، وخاصة في الصين، حيث يتم التحكم بشكل صارم في محتوى الذكاء الاصطناعي.

للتحقق من التأثير المحتمل لـ OpenAI، قارن Wallarm بين مطالبات نظام DeepSeek ومطالبات نظام ChatGPT. ووفقًا لتحليل ChatGPT، فإن استجابات DeepSeek تتوافق مع تدابير الامتثال الأكثر صرامة، في حين أن نهج OpenAI أكثر مرونة ويركز على المستخدم.

هجمات الحرمان من الخدمة الموزعة على DeepSeek: هجوم إلكتروني منسق

مع تزايد شعبية DeepSeek، أصبحت هدفًا لهجمات رفض الخدمة الموزعة (DDoS) واسعة النطاق. وأعلنت الشركة أنها اضطرت إلى حظر تسجيلات المستخدمين الجدد بسبب الحجم الهائل للهجمات.

وفقًا لشركة NSFocus، وهي شركة أمن سيبراني تراقب الهجمات، واجهت DeepSeek ثلاث موجات رئيسية من هجمات DDoS استهدفت واجهة API الخاصة بها في 25 و26 و27 يناير. واستمرت كل هجمة حوالي 35 دقيقة، مما أثر بشدة على منصة DeepSeek. وبحلول 28 يناير، كانت واجهة API لا تزال غير متاحة بسبب الاضطرابات المستمرة.

وتعرض نظام الدردشة DeepSeek أيضًا لهجوم، مع ملاحظة ضربات DDoS في 20 و25 يناير، واستمرت كل منها لمدة ساعة تقريبًا.

طرق هجوم الحرمان من الخدمة الموزعة

حددت NSFocus تقنيات هجوم متعددة تعتمد على الانعكاس، بما في ذلك:

  • هجمات انعكاس NTP – استغلال خوادم بروتوكول وقت الشبكة (NTP) لتضخيم حركة الهجوم.
  • هجمات الانعكاس على Memcached – استخدام خوادم Memcached غير المهيأة بشكل صحيح لإغراق DeepSeek بحركة مرور هائلة.
  • هجمات انعكاس SSDP – استهداف خدمات بروتوكول اكتشاف الخدمة البسيطة (SSDP) لإغراق موارد الشبكة.
  • هجمات انعكاس CLDAP - الاستفادة من خوادم بروتوكول الوصول إلى الدليل الخفيف بدون اتصال (CLDAP) لزيادة حجم الهجوم.

هجوم منسق للغاية

بحلول 28 يناير/كانون الثاني، أفادت شركة DeepSeek أن المهاجمين كانوا يكيفون أساليبهم استجابة لجهود التخفيف التي تبذلها الشركة. وقد أدت دقة وتنسيق هذه الهجمات إلى استنتاج شركة NSFocus أن الجناة كانوا فريقًا محترفًا ومنظمًا جيدًا وليسوا قراصنة عشوائيين.

وذكر موقع NSFocus أن "المهاجم أظهر احترافية عالية للغاية في كل خطوة هجومية، من اختيار الأهداف إلى تحديد توقيت الهجمات والتحكم في كثافتها".

وشملت مصادر الهجوم الرئيسية أنظمة من الولايات المتحدة والمملكة المتحدة وأستراليا، وفقًا لتحليل شركة الأمن السيبراني.

ماذا يعني هذا بالنسبة لأمن الذكاء الاصطناعي؟

تسلط حوادث DeepSeek الضوء على المخاطر الأمنية السيبرانية المتزايدة في مجال الذكاء الاصطناعي التوليدي. بدءًا من نقاط ضعف كسر الحماية إلى الهجمات السيبرانية المستهدفة، أصبحت خدمات الذكاء الاصطناعي الآن أهدافًا رئيسية لكل من الباحثين الأمنيين والجهات الخبيثة.

النقاط الرئيسية:

  1. تظل عمليات كسر الحماية باستخدام الذكاء الاصطناعي تشكل تحديًا أمنيًا - حتى نماذج الذكاء الاصطناعي الأحدث مثل DeepSeek يمكن إجراء هندسة عكسية لها للكشف عن منطقها الداخلي.
  2. تتزايد هجمات الحرمان من الخدمة الموزعة ضد منصات الذكاء الاصطناعي - ومع تزايد شعبية خدمات الذكاء الاصطناعي، فإنها تجتذب المزيد من الهجمات الإلكترونية المنسقة للغاية.
  3. يجب أن يتطور أمن الذكاء الاصطناعي بسرعة - يجب على المطورين تنفيذ ضمانات قوية لمنع التسريبات السريعة والدفاع ضد التهديدات الإلكترونية.

مع استمرار الذكاء الاصطناعي في تشكيل المشهد الرقمي، يجب على فرق الأمن السيبراني أن تظل متقدمة بخطوة واحدة لضمان بقاء نماذج الذكاء الاصطناعي آمنة ومرنة ضد التهديدات الناشئة.

جار التحميل...