بدافزار مجهز به هوش مصنوعی با ایجاد 10000 نوع، سیستمهای شناسایی را تحت تأثیر قرار میدهد

محققان امنیت سایبری در مورد سوء استفاده احتمالی از مدلهای زبان بزرگ (LLM) برای افزایش تولید بدافزار هشدار میدهند. یک تجزیه و تحلیل جدید توسط واحد 42 شبکههای پالو آلتو نشان میدهد که LLMها، اگرچه در ایجاد بدافزار از ابتدا مهارت ندارند، میتوانند کدهای مخرب موجود را در مقیاس وسیع بازنویسی و مبهم کنند و انواعی را ایجاد کنند که در 88 درصد موارد از شناسایی اجتناب میکنند.
این نگرانیهای مهمی را در مورد اینکه چگونه بازیگران تهدید میتوانند از هوش مصنوعی مولد برای دور زدن سیستمهای تشخیص، تخریب مدلهای یادگیری ماشینی و استقرار زرادخانهای از بدافزارها در حال گسترش استفاده کنند، ایجاد میکند.
فهرست مطالب
مکانیک ایجاد بدافزار با هوش مصنوعی
طبق واحد 42، مجرمان میتوانند از LLMها بخواهند تا روی کدهای مخرب جاوا اسکریپت تغییر شکل دهند، و این کار را برای سیستمهای تشخیص برای پرچمگذاری اسکریپتهای بازنویسی شده دشوارتر میکند. برخلاف ابزارهای مبهم سازی سنتی که خروجی های متقاعدکننده کمتری تولید می کنند، بازنویسی های مبتنی بر LLM طبیعی تر و تشخیص آن سخت تر به نظر می رسند.
تکنیک های کلیدی تبدیل عبارتند از:
- تغییر نام متغیر
- شکافتن رشته
- درج کد ناخواسته
- حذف فضای خالی
- پیاده سازی مجدد کد را کامل کنید
هر تکرار یک نوع بدافزار جدید ایجاد می کند که عملکرد مخرب اصلی را حفظ می کند و در عین حال شانس شناسایی آن را به میزان قابل توجهی کاهش می دهد.
واحد 42 این رویکرد را با استفاده از LLM برای ایجاد 10000 نوع جاوا اسکریپت از نمونههای بدافزار موجود نشان داد. این گونهها با موفقیت طبقهبندیکنندههای بدافزار، از جمله مدلهای پرکاربرد مانند PhishingJS و Innocent Until Proven Guilty (IUPG) را فریب دادند. در بسیاری از موارد، حتی پلتفرم VirusTotal نتوانست اسکریپت های بازنویسی شده را به عنوان مخرب تشخیص دهد.
لبه خطرناک مبهم سازی هوش مصنوعی
برخلاف ابزارهای قدیمیتر مانند obfuscator.io، که الگوهایی را تولید میکنند که به راحتی قابل شناسایی و اثر انگشت هستند، بازنویسیهای مبتنی بر LLM ذاتاً پیچیدهتر هستند. به نظر می رسد که آنها به کد قانونی نزدیک تر هستند و شناسایی آنها را برای مدل های یادگیری ماشینی (ML) و ابزارهای آنتی ویروس سخت تر می کند.
تأثیر این روش عمیق است:
- طبقهبندیکنندههای بدافزار فریب خوردهاند تا اسکریپتهای مخرب را بهعنوان خوشخیم برچسبگذاری کنند.
- مدلهای ML از کاهش عملکرد رنج میبرند و تلاش میکنند تا با تکامل دائمی انواع بدافزار همگام شوند.
- سیستمهای تشخیص خطر منسوخ شدن را دارند زیرا دشمنان به طور مداوم بدافزار جدید و غیرقابل شناسایی تولید میکنند.
بهره برداری از LLM برای جرایم سایبری گسترده تر
این روند به توسعه بدافزار محدود نمی شود. بازیگران مخرب از ابزارهای سرکشی مانند WormGPT استفاده می کنند که از هوش مصنوعی مولد برای خودکارسازی کمپین های فیشینگ و ایجاد حملات مهندسی اجتماعی متقاعد کننده متناسب با قربانیان خاص استفاده می کند.
در حالی که ارائه دهندگان LLM نرده هایی را برای محدود کردن سوء استفاده اجرا کرده اند، مانند مسدود کردن اخیر 20 عملیات فریبنده توسط OpenAI در اکتبر 2024، عوامل تهدید دائماً راه هایی را برای دور زدن این محدودیت ها پیدا می کنند.
The Silver Lining: Fighting Fire with Fire
علیرغم خطرات، همان تکنیکهای مبتنی بر LLM که برای مبهم کردن بدافزارها استفاده میشوند نیز میتوانند به مدافعان کمک کنند. واحد 42 استفاده از این روشهای هوش مصنوعی را برای تولید دادههای آموزشی پیشنهاد میکند که استحکام مدلهای تشخیص بدافزار را بهبود میبخشد. با ارائه نمونههای بیشتری از کد مبهم به طبقهبندیکنندهها، محققان به طور بالقوه میتوانند توانایی خود را در تشخیص پیشرفتهترین انواع را تقویت کنند.
آسیب پذیری های نوظهور هوش مصنوعی: حمله TPUXtract
ظهور بدافزارهای مبتنی بر LLM تنها تهدید مرتبط با هوش مصنوعی نیست که تیتر خبرها می شود. محققان دانشگاه ایالتی کارولینای شمالی از یک حمله کانال جانبی با نام TPUXtract رونمایی کردند که میتواند معماریهای مدل هوش مصنوعی را از واحدهای پردازش تانسور لبه (TPU) گوگل بدزدد.
با گرفتن سیگنال های الکترومغناطیسی منتشر شده در طول استنتاج شبکه های عصبی، مهاجمان می توانند جزئیاتی مانند انواع لایه ها، شماره گره ها، اندازه فیلترها و عملکردهای فعال سازی را با دقت 99.91 درصد استخراج کنند. اگرچه این حمله مستلزم دسترسی فیزیکی به دستگاه و تجهیزات پرهزینه است، اما خطری جدی برای مالکیت معنوی دارد و میتواند حملات سایبری را پیگیری کند.
این به چه معناست برای امنیت سایبری
تکامل سریع هوش مصنوعی مولد یک شمشیر دولبه برای امنیت سایبری است . در حالی که درهای جدیدی را برای نوآوری باز می کند، ابزارهای بی سابقه ای را نیز برای مجرمان سایبری فراهم می کند.
- سازمانها باید فعالانه عمل کنند و روی سیستمهای تشخیص پیشرفته سرمایهگذاری کنند که قادر به تطبیق با تکنیکهای مبهمسازی مبتنی بر هوش مصنوعی هستند.
- سیاست گذاران باید دستورالعمل های روشنی را برای استفاده اخلاقی از هوش مصنوعی ایجاد کنند و در عین حال کنترل های سخت تری را برای جلوگیری از سوء استفاده اعمال کنند.
- محققان امنیتی باید از هوش مصنوعی برای پیشی گرفتن از دشمنان استفاده کنند و سیستمهای انعطافپذیری را توسعه دهند که بتواند با تهدیدات در حال تکامل مقابله کند.
آینده بدافزار هوش مصنوعی
توانایی LLM ها برای ایجاد 10000 نوع بدافزار و فرار از شناسایی در 88 درصد موارد، یادآور پیچیدگی روزافزون تهدیدهای سایبری است. همانطور که تکنولوژی تکامل می یابد، دفاع ما نیز باید تکامل یابد. کسبوکارها، دولتها و متخصصان امنیت سایبری باید از استراتژیهای نوآورانه استفاده کنند تا از بازیگران مخرب جلوتر بمانند و از دنیای دیجیتال در برابر حملات مبتنی بر هوش مصنوعی محافظت کنند.