امنیت کامپیوتر بدافزار مجهز به هوش مصنوعی با ایجاد 10000 نوع، سیستم‌های...

بدافزار مجهز به هوش مصنوعی با ایجاد 10000 نوع، سیستم‌های شناسایی را تحت تأثیر قرار می‌دهد

محققان امنیت سایبری در مورد سوء استفاده احتمالی از مدل‌های زبان بزرگ (LLM) برای افزایش تولید بدافزار هشدار می‌دهند. یک تجزیه و تحلیل جدید توسط واحد 42 شبکه‌های پالو آلتو نشان می‌دهد که LLMها، اگرچه در ایجاد بدافزار از ابتدا مهارت ندارند، می‌توانند کدهای مخرب موجود را در مقیاس وسیع بازنویسی و مبهم کنند و انواعی را ایجاد کنند که در 88 درصد موارد از شناسایی اجتناب می‌کنند.

این نگرانی‌های مهمی را در مورد اینکه چگونه بازیگران تهدید می‌توانند از هوش مصنوعی مولد برای دور زدن سیستم‌های تشخیص، تخریب مدل‌های یادگیری ماشینی و استقرار زرادخانه‌ای از بدافزارها در حال گسترش استفاده کنند، ایجاد می‌کند.

مکانیک ایجاد بدافزار با هوش مصنوعی

طبق واحد 42، مجرمان می‌توانند از LLM‌ها بخواهند تا روی کدهای مخرب جاوا اسکریپت تغییر شکل دهند، و این کار را برای سیستم‌های تشخیص برای پرچم‌گذاری اسکریپت‌های بازنویسی شده دشوارتر می‌کند. برخلاف ابزارهای مبهم سازی سنتی که خروجی های متقاعدکننده کمتری تولید می کنند، بازنویسی های مبتنی بر LLM طبیعی تر و تشخیص آن سخت تر به نظر می رسند.

تکنیک های کلیدی تبدیل عبارتند از:

  • تغییر نام متغیر
  • شکافتن رشته
  • درج کد ناخواسته
  • حذف فضای خالی
  • پیاده سازی مجدد کد را کامل کنید

هر تکرار یک نوع بدافزار جدید ایجاد می کند که عملکرد مخرب اصلی را حفظ می کند و در عین حال شانس شناسایی آن را به میزان قابل توجهی کاهش می دهد.

واحد 42 این رویکرد را با استفاده از LLM برای ایجاد 10000 نوع جاوا اسکریپت از نمونه‌های بدافزار موجود نشان داد. این گونه‌ها با موفقیت طبقه‌بندی‌کننده‌های بدافزار، از جمله مدل‌های پرکاربرد مانند PhishingJS و Innocent Until Proven Guilty (IUPG) را فریب دادند. در بسیاری از موارد، حتی پلتفرم VirusTotal نتوانست اسکریپت های بازنویسی شده را به عنوان مخرب تشخیص دهد.

لبه خطرناک مبهم سازی هوش مصنوعی

برخلاف ابزارهای قدیمی‌تر مانند obfuscator.io، که الگوهایی را تولید می‌کنند که به راحتی قابل شناسایی و اثر انگشت هستند، بازنویسی‌های مبتنی بر LLM ذاتاً پیچیده‌تر هستند. به نظر می رسد که آنها به کد قانونی نزدیک تر هستند و شناسایی آنها را برای مدل های یادگیری ماشینی (ML) و ابزارهای آنتی ویروس سخت تر می کند.

تأثیر این روش عمیق است:

  • طبقه‌بندی‌کننده‌های بدافزار فریب خورده‌اند تا اسکریپت‌های مخرب را به‌عنوان خوش‌خیم برچسب‌گذاری کنند.
  • مدل‌های ML از کاهش عملکرد رنج می‌برند و تلاش می‌کنند تا با تکامل دائمی انواع بدافزار همگام شوند.
  • سیستم‌های تشخیص خطر منسوخ شدن را دارند زیرا دشمنان به طور مداوم بدافزار جدید و غیرقابل شناسایی تولید می‌کنند.

بهره برداری از LLM برای جرایم سایبری گسترده تر

این روند به توسعه بدافزار محدود نمی شود. بازیگران مخرب از ابزارهای سرکشی مانند WormGPT استفاده می کنند که از هوش مصنوعی مولد برای خودکارسازی کمپین های فیشینگ و ایجاد حملات مهندسی اجتماعی متقاعد کننده متناسب با قربانیان خاص استفاده می کند.

در حالی که ارائه دهندگان LLM نرده هایی را برای محدود کردن سوء استفاده اجرا کرده اند، مانند مسدود کردن اخیر 20 عملیات فریبنده توسط OpenAI در اکتبر 2024، عوامل تهدید دائماً راه هایی را برای دور زدن این محدودیت ها پیدا می کنند.

The Silver Lining: Fighting Fire with Fire

علیرغم خطرات، همان تکنیک‌های مبتنی بر LLM که برای مبهم کردن بدافزارها استفاده می‌شوند نیز می‌توانند به مدافعان کمک کنند. واحد 42 استفاده از این روش‌های هوش مصنوعی را برای تولید داده‌های آموزشی پیشنهاد می‌کند که استحکام مدل‌های تشخیص بدافزار را بهبود می‌بخشد. با ارائه نمونه‌های بیشتری از کد مبهم به طبقه‌بندی‌کننده‌ها، محققان به طور بالقوه می‌توانند توانایی خود را در تشخیص پیشرفته‌ترین انواع را تقویت کنند.

آسیب پذیری های نوظهور هوش مصنوعی: حمله TPUXtract

ظهور بدافزارهای مبتنی بر LLM تنها تهدید مرتبط با هوش مصنوعی نیست که تیتر خبرها می شود. محققان دانشگاه ایالتی کارولینای شمالی از یک حمله کانال جانبی با نام TPUXtract رونمایی کردند که می‌تواند معماری‌های مدل هوش مصنوعی را از واحدهای پردازش تانسور لبه (TPU) گوگل بدزدد.

با گرفتن سیگنال های الکترومغناطیسی منتشر شده در طول استنتاج شبکه های عصبی، مهاجمان می توانند جزئیاتی مانند انواع لایه ها، شماره گره ها، اندازه فیلترها و عملکردهای فعال سازی را با دقت 99.91 درصد استخراج کنند. اگرچه این حمله مستلزم دسترسی فیزیکی به دستگاه و تجهیزات پرهزینه است، اما خطری جدی برای مالکیت معنوی دارد و می‌تواند حملات سایبری را پیگیری کند.

این به چه معناست برای امنیت سایبری

تکامل سریع هوش مصنوعی مولد یک شمشیر دولبه برای امنیت سایبری است . در حالی که درهای جدیدی را برای نوآوری باز می کند، ابزارهای بی سابقه ای را نیز برای مجرمان سایبری فراهم می کند.

  • سازمان‌ها باید فعالانه عمل کنند و روی سیستم‌های تشخیص پیشرفته سرمایه‌گذاری کنند که قادر به تطبیق با تکنیک‌های مبهم‌سازی مبتنی بر هوش مصنوعی هستند.
  • سیاست گذاران باید دستورالعمل های روشنی را برای استفاده اخلاقی از هوش مصنوعی ایجاد کنند و در عین حال کنترل های سخت تری را برای جلوگیری از سوء استفاده اعمال کنند.
  • محققان امنیتی باید از هوش مصنوعی برای پیشی گرفتن از دشمنان استفاده کنند و سیستم‌های انعطاف‌پذیری را توسعه دهند که بتواند با تهدیدات در حال تکامل مقابله کند.

آینده بدافزار هوش مصنوعی

توانایی LLM ها برای ایجاد 10000 نوع بدافزار و فرار از شناسایی در 88 درصد موارد، یادآور پیچیدگی روزافزون تهدیدهای سایبری است. همانطور که تکنولوژی تکامل می یابد، دفاع ما نیز باید تکامل یابد. کسب‌وکارها، دولت‌ها و متخصصان امنیت سایبری باید از استراتژی‌های نوآورانه استفاده کنند تا از بازیگران مخرب جلوتر بمانند و از دنیای دیجیتال در برابر حملات مبتنی بر هوش مصنوعی محافظت کنند.

بارگذاری...