أمن الكمبيوتر البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي تهدد بإرباك...

البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي تهدد بإرباك أنظمة الكشف من خلال إنشاء 10 آلاف متغير

يدق باحثو الأمن السيبراني ناقوس الخطر بشأن إساءة استخدام نماذج اللغة الكبيرة (LLMs) لتعزيز تطوير البرامج الضارة. يكشف تحليل جديد أجرته وحدة 42 التابعة لشركة Palo Alto Networks أن نماذج اللغة الكبيرة، على الرغم من عدم قدرتها على إنشاء برامج ضارة من الصفر، يمكنها إعادة كتابة وإخفاء التعليمات البرمجية الضارة الموجودة على نطاق واسع، مما يؤدي إلى إنشاء متغيرات تتجنب الكشف عنها في ما يصل إلى 88٪ من الحالات.

ويثير هذا مخاوف بالغة بشأن كيفية تمكن الجهات الفاعلة في مجال التهديد من استغلال الذكاء الاصطناعي التوليدي لتجاوز أنظمة الكشف، وإتلاف نماذج التعلم الآلي، ونشر ترسانة متزايدة من البرامج الضارة .

آليات إنشاء البرمجيات الخبيثة المعززة بالذكاء الاصطناعي

"وفقًا لوحدة 42، يمكن للمجرمين مطالبة LLMs بإجراء تحويلات على أكواد JavaScript الضارة، مما يجعل من الصعب على أنظمة الكشف تحديد البرامج النصية المعاد كتابتها . وعلى عكس أدوات التعتيم التقليدية التي تولد مخرجات أقل إقناعًا، تبدو عمليات إعادة الكتابة التي يقودها LLM أكثر طبيعية وأصعب في الكشف عنها.

تتضمن تقنيات التحويل الرئيسية ما يلي:

  • إعادة تسمية المتغيرات
  • تقسيم الخيط
  • إدراج رمز غير مرغوب فيه
  • إزالة المسافات البيضاء
  • إعادة تنفيذ الكود بالكامل

يؤدي كل تكرار إلى إنشاء متغير جديد للبرامج الضارة يحافظ على الوظيفة الخبيثة الأصلية مع تقليل فرص اكتشافه بشكل كبير.

وقد أظهرت الوحدة 42 هذا النهج باستخدام برامج LLM لإنشاء 10000 متغير JavaScript من عينات البرامج الضارة الموجودة. وقد نجحت هذه المتغيرات في خداع مصنفي البرامج الضارة، بما في ذلك النماذج المستخدمة على نطاق واسع مثل PhishingJS وInnocent Until Proven Guilty (IUPG). وفي كثير من الحالات، فشلت حتى منصة VirusTotal في اكتشاف البرامج النصية المعاد كتابتها على أنها ضارة.

الحافة الخطيرة لتعتيم الذكاء الاصطناعي

على عكس الأدوات القديمة مثل obfuscator.io، التي تنتج أنماطًا يمكن اكتشافها وتسجيل بصماتها بسهولة أكبر، فإن عمليات إعادة الكتابة المستندة إلى LLM أكثر تعقيدًا بطبيعتها. تبدو أقرب إلى الكود الشرعي، مما يجعل من الصعب على نماذج التعلم الآلي وأدوات مكافحة الفيروسات التعرف عليها.

إن تأثير هذه الطريقة عميق:

  • يتم خداع مصنفي البرامج الضارة لتصنيف البرامج النصية الضارة على أنها حميدة.
  • تعاني نماذج التعلم الآلي من انخفاض الأداء، وتكافح لمواكبة التطور المستمر لمتغيرات البرامج الضارة.
  • تواجه أنظمة الكشف خطر التقادم مع استمرار الخصوم في إنشاء برامج ضارة جديدة غير قابلة للكشف.

استغلال درجات الماجستير في القانون لارتكاب جرائم إلكترونية أوسع نطاقا

لا يقتصر هذا الاتجاه على تطوير البرامج الضارة. حيث يستغل المجرمون أدوات غير مشروعة مثل WormGPT، التي تستخدم الذكاء الاصطناعي التوليدي لأتمتة حملات التصيد الاحتيالي وصياغة هجمات الهندسة الاجتماعية المقنعة المصممة خصيصًا لضحايا محددين.

في حين قام موفرو LLM بتنفيذ حواجز حماية للحد من الانتهاكات، مثل حظر OpenAI الأخير لـ 20 عملية خادعة في أكتوبر 2024، فإن الجهات الفاعلة في مجال التهديد تجد باستمرار طرقًا للتغلب على هذه القيود.

الجانب المشرق: مكافحة النار بالنار

وعلى الرغم من المخاطر، فإن نفس التقنيات التي تعتمد على LLM والتي تستخدم لإخفاء البرامج الضارة يمكن أن تساعد المدافعين أيضًا. وتقترح الوحدة 42 استخدام أساليب الذكاء الاصطناعي هذه لتوليد بيانات تدريب تعمل على تحسين قوة نماذج اكتشاف البرامج الضارة. ومن خلال تزويد المصنفين بمزيد من أمثلة التعليمات البرمجية المشوشة، يمكن للباحثين تعزيز قدرتهم على اكتشاف حتى المتغيرات الأكثر تقدمًا.

نقاط الضعف الناشئة في الذكاء الاصطناعي: هجوم TPUXtract

لا يعد ظهور البرامج الضارة المدعومة بـ LLM التهديد الوحيد المتعلق بالذكاء الاصطناعي الذي يتصدر العناوين الرئيسية. فقد كشف باحثون من جامعة ولاية كارولينا الشمالية عن هجوم جانبي، أطلقوا عليه اسم TPUXtract، قادر على سرقة هياكل نماذج الذكاء الاصطناعي من وحدات معالجة Tensor Edge (TPUs) من Google.

من خلال التقاط الإشارات الكهرومغناطيسية المنبعثة أثناء استدلالات الشبكة العصبية، يمكن للمهاجمين استخراج تفاصيل مثل أنواع الطبقات وأرقام العقد وأحجام المرشحات ووظائف التنشيط بدقة تصل إلى 99.91%. وعلى الرغم من أن هذا الهجوم يتطلب الوصول المادي إلى الجهاز والمعدات المكلفة، إلا أنه يشكل خطرًا خطيرًا على الملكية الفكرية وقد يسهل الهجمات الإلكترونية اللاحقة.

ماذا يعني هذا بالنسبة للأمن السيبراني؟

إن التطور السريع للذكاء الاصطناعي التوليدي هو سلاح ذو حدين فيما يتعلق بالأمن السيبراني . ففي حين أنه يفتح أبوابًا جديدة للابتكار، فإنه يوفر أيضًا أدوات غير مسبوقة لمجرمي الإنترنت.

  • يجب على المنظمات أن تتصرف بشكل استباقي ، من خلال الاستثمار في أنظمة الكشف المتقدمة القادرة على التكيف مع تقنيات التعتيم المعتمدة على الذكاء الاصطناعي.
  • ينبغي لصناع السياسات وضع مبادئ توجيهية واضحة للاستخدام الأخلاقي للذكاء الاصطناعي مع فرض ضوابط أكثر صرامة لمنع سوء الاستخدام.
  • يتعين على الباحثين في مجال الأمن الاستفادة من الذكاء الاصطناعي للتغلب على الخصوم ، وتطوير أنظمة مرنة قادرة على مواجهة التهديدات المتطورة.

مستقبل البرمجيات الخبيثة المرتبطة بالذكاء الاصطناعي

إن قدرة برامج مكافحة البرمجيات الخبيثة على إنشاء 10 آلاف نوع من البرمجيات الخبيثة والتهرب من الكشف في 88% من الحالات هي تذكير صارخ بالتطور المتزايد للتهديدات السيبرانية. ومع تطور التكنولوجيا، يجب أن تتطور دفاعاتنا أيضًا. يجب على الشركات والحكومات ومحترفي الأمن السيبراني تبني استراتيجيات مبتكرة للبقاء في صدارة الجهات الخبيثة وحماية العالم الرقمي من الهجمات المدعومة بالذكاء الاصطناعي.

جار التحميل...