قراصنة إيرانيون يستغلون برنامج ChatGPT في هجمات إلكترونية تستهدف البنية التحتية الحيوية

في تقرير رائد، كشفت شركة OpenAI كيف استغل قراصنة إيرانيون برنامج ChatGPT لتعزيز الهجمات الإلكترونية على أنظمة التحكم الصناعية (ICS). ويلقي التقرير الضوء على الأنشطة الإلكترونية التي تنفذها مجموعات مثل CyberAv3ngers، المرتبطة بالحرس الثوري الإسلامي الإيراني (IRGC)، وغيرها من المجموعات التي ترعاها الصين.
استخدم هؤلاء المهاجمون ChatGPT للاستطلاع واستغلال الثغرات الأمنية والإجراءات التي تتم بعد الاختراق. وفي حين تؤكد OpenAI أن الذكاء الاصطناعي لم يقدم قدرات جديدة، إلا أنه ساعد هؤلاء المتسللين على تنفيذ هجمات بكفاءة أكبر باستخدام تقنيات متاحة للجمهور.
جدول المحتويات
مجموعة إيرانية تهاجم منشآت المياه والإنترنت
اكتسبت مجموعة CyberAv3ngers شهرة كبيرة هذا العام بسبب استهدافها لمرافق المياه في أيرلندا وبنسلفانيا، مما تسبب في حدوث اضطرابات كبيرة. استغلت المجموعة أنظمة التحكم الصناعي سيئة الحماية والتي كانت معرضة للإنترنت واستخدمت كلمات مرور افتراضية. كان تركيزهم على وحدات التحكم المنطقية القابلة للبرمجة (PLCs)، وهي أجهزة بالغة الأهمية تتحكم في العمليات الصناعية.
يتضمن استخدامهم لبرنامج ChatGPT طلب معلومات من برنامج المحادثة الآلي حول أجهزة التوجيه الصناعية وأجهزة التحكم المنطقية القابلة للبرمجة وكلمات المرور الافتراضية لأجهزة البنية التحتية الحيوية مثل أجهزة توجيه Tridium Niagara وHirschmann RS.
إساءة استخدام الذكاء الاصطناعي في الهجمات الإلكترونية
بالإضافة إلى الأهداف المحددة لـ ICS، سعى أعضاء CyberAv3ngers إلى الحصول على مساعدة من ChatGPT لإخفاء التعليمات البرمجية الضارة ومسح الشبكات بحثًا عن نقاط ضعف يمكن استغلالها. كما حاولت المجموعة أيضًا إيجاد طرق للوصول إلى كلمات مرور macOS.
ومع ذلك، أوضحت شركة OpenAI أن هذه الأنشطة لم توفر للمتسللين أي قدرات جديدة أو متقدمة تتجاوز ما هو متاح من خلال أدوات غير الذكاء الاصطناعي. وهذا يسلط الضوء على مخاطر إساءة استخدام الذكاء الاصطناعي، حتى لو لم تكن المعلومات المكتسبة ثورية.
جهات تهديد أخرى متورطة
بالإضافة إلى CyberAv3ngers، أساءت مجموعة إيرانية أخرى تُعرف باسم Storm-0817 استخدام ChatGPT. فقد حاولوا تطوير برامج ضارة لنظام Android وسرقة بيانات Instagram، والاستفادة من الذكاء الاصطناعي لترجمة ملفات تعريف LinkedIn إلى اللغة الفارسية. ورغم أن هذه الأنشطة لا تلحق ضررًا مباشرًا مثل هجمات ICS، إلا أنها تعكس جهودًا أوسع نطاقًا لتسليح الذكاء الاصطناعي في العمليات السيبرانية.
كما ذُكرت مجموعة SweetSpectre المرتبطة بالصين في التقرير. استخدمت هذه المجموعة برنامج ChatGPT لتطوير البرامج الضارة وأبحاث الثغرات الأمنية. والجدير بالذكر أن SweetSpectre حاولت إرسال رسائل بريد إلكتروني محملة بالبرامج الضارة إلى موظفي OpenAI، لكن الهجوم أحبط قبل أن يصل إلى أهدافه.
الصورة الأكبر
ويؤكد التقرير على الخطر المتزايد المتمثل في إساءة استخدام الذكاء الاصطناعي في الحرب السيبرانية. ورغم أن الذكاء الاصطناعي، بما في ذلك ChatGPT، قادر على تبسيط المهام للمستخدمين الشرعيين، فإنه قد يعمل أيضًا كأداة للجهات الخبيثة. ويشكل النهج الاستباقي الذي تتبناه OpenAI للكشف عن هذه التهديدات وتحييدها أهمية حيوية للحد من تأثيرها.
وهذا يثير تساؤلات حول صناعة الأمن السيبراني: كيف يمكن حماية الذكاء الاصطناعي من سوء الاستخدام؟ ما هي التدابير اللازمة لمنع الجهات الفاعلة المهددة من استخدام مثل هذه الأدوات لتعزيز قدراتها؟
وينبغي لهذه الاكتشافات أن تدفع الصناعات والحكومات إلى إعادة النظر في استراتيجياتها الأمنية، وخاصة فيما يتصل بالبنية التحتية الحيوية، وإعطاء الأولوية لإغلاق الثغرات التي تسمح للمتسللين باستغلال الأنظمة الضعيفة.
تتمتع الذكاء الاصطناعي بإمكانات هائلة لتطوير الصناعات وتحسين الكفاءة. ولكن كما يوضح التقرير، فهو أيضًا سلاح ذو حدين. فعندما يُساء استخدامه، يمكن أن يؤدي إلى تضخيم قدرات مجرمي الإنترنت والجهات الفاعلة في الدول القومية. ويتطلب البقاء في طليعة هذه التهديدات اليقظة المستمرة، والدفاعات الأقوى، والتطوير المسؤول لتقنيات الذكاء الاصطناعي.
قد يكون دور ChatGPT في هذه الحوادث محدودًا، ولكنه بمثابة جرس إنذار للتأثيرات الأوسع للذكاء الاصطناعي في مجال الأمن السيبراني.