امنیت کامپیوتر اقدام قانونی مایکروسافت علیه هکرهایی که از هوش مصنوعی...

اقدام قانونی مایکروسافت علیه هکرهایی که از هوش مصنوعی Azure برای اهداف مخرب سوء استفاده می کنند

نبرد مداوم مایکروسافت با جرایم سایبری با آخرین شکایت خود علیه یک گروه هکری که متهم به سوء استفاده از خدمات هوش مصنوعی Azure هستند، به اوج جدیدی رسیده است. این غول فناوری فاش کرد که عوامل تهدید مستقر در خارج از کشور، یک پلتفرم هک به عنوان یک سرویس برای دور زدن پروتکل‌های ایمنی Azure AI ایجاد کرده‌اند که امکان ایجاد محتوای مضر و بدافزار را فراهم می‌کند .

این مورد بر خطرات فزاینده ناشی از مجرمان سایبری که از پلتفرم‌های هوش مصنوعی برای اهداف مخرب استفاده می‌کنند، تاکید می‌کند و چالش‌های امنیت سایبری قابل توجهی را برای سازمان‌ها در سراسر جهان ایجاد می‌کند.

چگونه هکرها از هوش مصنوعی Azure مایکروسافت سوء استفاده کردند؟

واحد جرایم دیجیتالی مایکروسافت (DCU) این عملیات را در ژوئیه 2024 کشف کرد. این گروه از اعتبارنامه های مشتری سرقت شده، که از منابع عمومی جمع آوری شده بود، برای نقض سیستم های Azure و دستکاری مدل های هوش مصنوعی مانند DALL-E OpenAI استفاده کرد.

جزئیات کلیدی عبارتند از:

  • سرقت اعتبار : کلیدهای دزدیده شده Azure API و داده های احراز هویت Entra ID برای دسترسی به خدمات Azure OpenAI استفاده شد.
  • ایجاد محتوای مضر : این گروه با ایجاد ابزارهایی برای تولید تصاویر توهین آمیز و دور زدن فیلترهای محتوای هوش مصنوعی، از دسترسی خود درآمد کسب کردند.
  • هک کردن به عنوان سرویس : این گروه دسترسی به ابزارهای خود را از طریق وب سایت هایی مانند aitism[.]net فروخت و دستورالعمل های استفاده را با سایر مجرمان سایبری به اشتراک گذاشت.

این فعالیت ها منجر به تولید غیرقانونی هزاران تصویر مضر و تسهیل سوء استفاده غیرقانونی بیشتر از هوش مصنوعی شد، در حالی که عاملان تلاش کردند ردپای دیجیتالی خود را پاک کنند.

اتصال بدافزار

سوء استفاده از خدمات مولد هوش مصنوعی پیامدهای گسترده تری برای توسعه بدافزار دارد. عوامل تهدید به طور بالقوه می توانند:

  • فریب های فیشینگ یا وب سایت های جعلی که برای تقلید از پلتفرم های قابل اعتماد طراحی شده اند را ایجاد کنید.
  • از ابزارهای هوش مصنوعی برای خودکارسازی کدگذاری بدافزار استفاده کنید، که تشخیص آن را پیچیده‌تر و سخت‌تر می‌کند.
  • فیلترهای امنیتی را با استفاده از ابزارهای طراحی شده برای استفاده های قانونی، مانند ترجمه زبان و ترکیب داده ها، دور بزنید.
  • این بهره‌برداری نشان می‌دهد که چگونه گروه‌های هک تاکتیک‌های خود را تکامل می‌دهند، اعتبارنامه‌های سرقت شده و قابلیت‌های پیشرفته هوش مصنوعی را برای انجام حملات سایبری در مقیاس ترکیب می‌کنند.

    بهره برداری معکوس از پروکسی و LLMjacking

    یکی از جنبه های قابل توجه این مورد، استفاده از پراکسی های معکوس، مانند ابزار de3u است. این پراکسی‌ها ارتباطات را از دستگاه‌های کاربر از طریق یک تونل Cloudflare به خدمات Azure OpenAI هدایت می‌کردند و از تماس‌های API قانونی تقلید می‌کردند.

    این تکنیک تاکتیک‌های شناسایی‌شده در حملات LLMjacking را منعکس می‌کند، جایی که اعتبارنامه‌های ابری سرقت شده برای دسترسی به سرویس‌های مدل زبان بزرگ (LLM) مانند Anthropic، AWS Bedrock و Google Vertex AI استفاده می‌شود. چنین طرح هایی به عوامل تهدید اجازه می دهد تا ابزارهای هوش مصنوعی مبتنی بر ابر را ربوده و اغلب از این دسترسی با فروش آن به مجرمان دیگر درآمد کسب کنند.

    اقدامات متقابل مایکروسافت و پیامدهای گسترده تر

    در پاسخ به این عملیات، مایکروسافت:

    • دسترسی لغو شده : اطلاعات کاربری سرقت شده گروه را غیرفعال کرد و زیرساخت سرویس آنها را بسته بود.
    • دامنه های توقیف شده : حکم دادگاه برای تعطیلی aitism[.]net دریافت کردم.
    • دفاع تقویت شده : تدابیر حفاظتی اضافی برای جلوگیری از سوء استفاده های مشابه در آینده اعمال شده است.

    با این حال، مایکروسافت همچنین شواهدی را کشف کرد که نشان می‌دهد این گروه سایر ارائه‌دهندگان خدمات هوش مصنوعی را هدف قرار می‌دهد که نشان‌دهنده روند بزرگ‌تر سوء استفاده از هوش مصنوعی در چشم‌انداز امنیت سایبری است.

    ابزارهای هوش مصنوعی: شمشیر دو لبه

    در حالی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و DALL-E مزایای بسیار زیادی را ارائه می دهند، سوء استفاده از آنها توسط مجرمان سایبری نیاز فوری به پروتکل های امنیتی پیشرفته را برجسته می کند:

    1. امنیت API : سازمان ها باید از حفاظت قوی برای کلیدهای API اطمینان حاصل کنند تا از دسترسی غیرمجاز جلوگیری شود.
    2. نظارت بر تهدید : نظارت مستمر بر استفاده از خدمات هوش مصنوعی می تواند به شناسایی و جلوگیری از رفتار غیرعادی کمک کند.
  • همکاری : ارائه‌دهندگان ابر، شرکت‌های امنیت سایبری و مجریان قانون باید با هم همکاری کنند تا چنین عملیاتی را از بین ببرند.
  • شکایت مایکروسافت تقاطع خطرناک هوش مصنوعی و جرایم سایبری را روشن می کند. از آنجایی که عوامل تهدید به طور فزاینده ای از خدمات هوش مصنوعی برای تولید محتوای مضر و توسعه بدافزار سوء استفاده می کنند، سازمان ها باید حفاظت از زیرساخت هوش مصنوعی خود را در اولویت قرار دهند.

    این مورد به عنوان یک یادآوری واضح عمل می کند: در حالی که هوش مصنوعی آینده فناوری را نشان می دهد، آسیب پذیری های آن را می توان به سلاح تبدیل کرد و اقدامات امنیتی سایبری قوی را به یک ضرورت مطلق در مبارزه با تهدیدات دیجیتال تبدیل کرد.

    بارگذاری...