مايكروسوفت تتخذ إجراءات قانونية ضد المتسللين الذين يستغلون الذكاء الاصطناعي في Azure لأغراض خبيثة

وصلت معركة مايكروسوفت المستمرة ضد الجرائم الإلكترونية إلى مستويات جديدة مع أحدث دعوى قضائية تستهدف مجموعة قرصنة متهمة باستغلال خدمات الذكاء الاصطناعي التوليدية من Azure. كشفت شركة التكنولوجيا العملاقة أن الجهات الفاعلة في الخارج أنشأت منصة اختراق كخدمة لتجاوز بروتوكولات أمان Azure AI، مما يتيح إنشاء محتوى ضار وبرامج ضارة .
تسلط هذه القضية الضوء على المخاطر المتصاعدة التي يشكلها مجرمو الإنترنت الذين يستغلون منصات الذكاء الاصطناعي لأغراض خبيثة، مما يفرض تحديات كبيرة للأمن السيبراني للمؤسسات في جميع أنحاء العالم.
جدول المحتويات
كيف استغل القراصنة الذكاء الاصطناعي من مايكروسوفت Azure
كشفت وحدة الجرائم الرقمية (DCU) التابعة لشركة Microsoft عن العملية في يوليو 2024. استخدمت المجموعة بيانات اعتماد العملاء المسروقة، التي تم الحصول عليها من مصادر عامة، لاختراق أنظمة Azure والتلاعب بنماذج الذكاء الاصطناعي مثل DALL-E من OpenAI.
تتضمن التفاصيل الرئيسية ما يلي:
- سرقة بيانات الاعتماد : تم استخدام مفاتيح Azure API المسروقة وبيانات مصادقة Entra ID للوصول إلى خدمات Azure OpenAI.
- إنشاء محتوى ضار : قامت المجموعة بتحقيق الدخل من وصولها إلى المحتوى من خلال إنشاء أدوات لإنشاء صور مسيئة وتجاوز مرشحات محتوى الذكاء الاصطناعي.
- القرصنة كخدمة : باعت المجموعة إمكانية الوصول إلى أدواتها عبر مواقع الويب مثل aitism[.]net وشاركت تعليمات الاستخدام مع مجرمي الإنترنت الآخرين.
وقد أدت هذه الأنشطة إلى إنشاء آلاف الصور الضارة بشكل غير قانوني وتسهيل المزيد من الانتهاكات غير المشروعة للذكاء الاصطناعي، كل ذلك في حين حاول الجناة محو بصماتهم الرقمية.
الاتصال بالبرمجيات الخبيثة
إن إساءة استخدام خدمات الذكاء الاصطناعي التوليدي لها آثار أوسع نطاقًا على تطوير البرامج الضارة . يمكن للجهات الفاعلة المهددة أن تقوم بما يلي:
- إنشاء مواقع احتيالية أو مواقع ويب مزيفة مصممة لتقليد المنصات الموثوقة.
يسلط هذا الاستغلال الضوء على كيفية قيام مجموعات القرصنة بتطوير تكتيكاتها، ودمج بيانات الاعتماد المسروقة وقدرات الذكاء الاصطناعي المتقدمة لتنفيذ هجمات إلكترونية على نطاق واسع.
استغلال الوكيل العكسي و LLMjacking
أحد الجوانب البارزة في هذه القضية هو استخدام وكلاء عكسيين، مثل أداة de3u. أعادت هذه الوكلاء توجيه الاتصالات من أجهزة المستخدم عبر نفق Cloudflare إلى خدمات Azure OpenAI، محاكية استدعاءات واجهة برمجة التطبيقات المشروعة.
تعكس هذه التقنية التكتيكات التي تم تحديدها في هجمات LLMjacking، حيث يتم استخدام بيانات اعتماد السحابة المسروقة للوصول إلى خدمات نموذج اللغة الكبيرة (LLM) مثل Anthropic وAWS Bedrock وGoogle Vertex AI. تسمح مثل هذه المخططات للجهات الفاعلة في مجال التهديد باختراق أدوات الذكاء الاصطناعي المستندة إلى السحابة، وغالبًا ما يتم تحقيق الدخل من الوصول إليها عن طريق بيعها لمجرمين آخرين.
التدابير المضادة التي اتخذتها مايكروسوفت والتداعيات الأوسع نطاقاً
ردًا على هذه العملية، قامت Microsoft بما يلي:
- تم إلغاء الوصول : تم تعطيل بيانات اعتماد المجموعة المسروقة وإغلاق البنية التحتية لخدمتهم.
- المجالات المصادرة : حصل على أمر من المحكمة لإغلاق aitism[.]net .
- تعزيز الدفاعات : تم تنفيذ ضمانات إضافية لمنع حدوث انتهاكات مماثلة في المستقبل.
ومع ذلك، اكتشفت مايكروسوفت أيضًا أدلة على استهداف المجموعة لمقدمي خدمات الذكاء الاصطناعي الآخرين، مما يشير إلى وجود اتجاه أكبر لإساءة استخدام الذكاء الاصطناعي في مجال الأمن السيبراني.
أدوات الذكاء الاصطناعي: سلاح ذو حدين
في حين توفر أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وDALL-E فوائد هائلة، فإن إساءة استخدامها من قبل مجرمي الإنترنت تسلط الضوء على الحاجة الملحة إلى بروتوكولات أمنية محسنة:
- أمان واجهة برمجة التطبيقات (API) : يجب على المؤسسات ضمان حماية قوية لمفاتيح واجهة برمجة التطبيقات (API) لمنع الوصول غير المصرح به.
- مراقبة التهديدات : يمكن أن تساعد المراقبة المستمرة لاستخدام خدمة الذكاء الاصطناعي في اكتشاف السلوكيات الشاذة وحظرها.
تسلط دعوى مايكروسوفت الضوء على التقاطع الخطير بين الذكاء الاصطناعي والجرائم الإلكترونية. ومع تزايد استغلال الجهات الفاعلة للتهديدات لخدمات الذكاء الاصطناعي لتوليد محتوى ضار وتطوير البرامج الضارة، يتعين على المنظمات إعطاء الأولوية لحماية البنية الأساسية للذكاء الاصطناعي.
وتعتبر هذه القضية بمثابة تذكير صارخ: في حين يمثل الذكاء الاصطناعي مستقبل التكنولوجيا، فإن نقاط ضعفه يمكن تسليحها، مما يجعل تدابير الأمن السيبراني القوية ضرورة مطلقة في مكافحة التهديدات الرقمية.