امنیت کامپیوتر هکرهای ایرانی از ChatGPT در حملات سایبری برای هدف قرار...

هکرهای ایرانی از ChatGPT در حملات سایبری برای هدف قرار دادن زیرساخت های حیاتی سوء استفاده کردند.

OpenAI در گزارشی پیشگامانه فاش کرد که چگونه هکرهای ایرانی از ChatGPT برای تقویت حملات سایبری به سیستم های کنترل صنعتی (ICS) سوء استفاده کردند. این گزارش فعالیت‌های سایبری انجام شده توسط گروه‌هایی مانند CyberAv3ngers، مرتبط با سپاه پاسداران انقلاب اسلامی ایران (سپاه پاسداران انقلاب اسلامی) و سایرین تحت حمایت چین را روشن می‌کند.

این عوامل تهدید از ChatGPT برای شناسایی، بهره برداری از آسیب پذیری و اقدامات پس از سازش استفاده کردند. در حالی که OpenAI تاکید می‌کند که هوش مصنوعی قابلیت‌های جدیدی را ارائه نمی‌دهد، اما به این هکرها کمک کرد تا با استفاده از تکنیک‌های در دسترس عموم، حملات را با کارآمدتر انجام دهند.

گروه ایرانیان CyberAv3ngers و حملات تاسیسات آبی

CyberAv3ngers امسال به دلیل هدف قرار دادن تاسیسات آب در ایرلند و پنسیلوانیا، که باعث اختلالات قابل توجهی شد، به شهرت رسید. این گروه از سیستم‌های ICS با امنیت ضعیفی که در معرض اینترنت بودند و از رمزهای عبور پیش‌فرض استفاده می‌کردند بهره‌برداری کرد. تمرکز آنها بر روی کنترل‌کننده‌های منطقی قابل برنامه‌ریزی (PLC) بود، دستگاه‌های حیاتی که فرآیندهای صنعتی را کنترل می‌کنند.

استفاده آنها از ChatGPT شامل درخواست از ربات چت برای اطلاعاتی در مورد روترهای صنعتی، PLC ها و رمزهای عبور پیش فرض برای دستگاه های زیرساختی حیاتی مانند روترهای Tridium Niagara و Hirschmann RS بود.

استفاده نادرست از هوش مصنوعی برای حملات سایبری

علاوه بر اهداف خاص ICS، CyberAv3ngers به دنبال کمک از ChatGPT برای مخفی کردن کدهای مخرب و اسکن شبکه‌ها برای آسیب‌پذیری‌های قابل بهره‌برداری بود. این گروه همچنین تلاش کرد تا راه هایی برای دسترسی به رمزهای عبور macOS بیابد.

با این حال، OpenAI تصریح کرد که این فعالیت‌ها قابلیت‌های جدید یا پیشرفته‌ای فراتر از آنچه از طریق ابزارهای غیر هوش مصنوعی در دسترس است، در اختیار هکرها قرار نداده است. این امر خطرات سوء استفاده از هوش مصنوعی را نشان می دهد، حتی اگر اطلاعات به دست آمده انقلابی نباشد.

سایر عوامل تهدید کننده درگیر

علاوه بر CyberAv3ngers، گروه ایرانی دیگری به نام Storm-0817 از ChatGPT سوء استفاده کرد. آنها سعی کردند بدافزار اندرویدی توسعه دهند و داده های اینستاگرام را حذف کنند و از هوش مصنوعی برای ترجمه پروفایل های لینکدین به فارسی استفاده کنند. این فعالیت‌ها در حالی که مستقیماً به اندازه حملات ICS آسیب‌رسان نیستند، منعکس‌کننده تلاش‌های گسترده‌تر برای مسلح کردن هوش مصنوعی در عملیات‌های سایبری هستند.

SweetSpectre مرتبط با چین نیز در این گزارش ذکر شده است. این گروه از ChatGPT برای توسعه بدافزار و تحقیقات آسیب‌پذیری استفاده کردند. نکته قابل توجه، SweetSpectre تلاش کرد تا ایمیل های حاوی بدافزار را برای کارکنان OpenAI ارسال کند، اما این حمله قبل از رسیدن به اهداف خنثی شد.

تصویر بزرگتر

این گزارش بر خطر فزاینده سوء استفاده از هوش مصنوعی در جنگ سایبری تاکید دارد. اگرچه هوش مصنوعی، از جمله ChatGPT، می تواند وظایف را برای کاربران قانونی ساده کند، اما می تواند به عنوان ابزاری برای بازیگران بد عمل کند. رویکرد فعال OpenAI برای شناسایی و خنثی کردن این تهدیدها برای مهار تأثیر آنها حیاتی است.

این سؤالاتی را برای صنعت امنیت سایبری ایجاد می کند: چگونه می توان از هوش مصنوعی در برابر سوء استفاده محافظت کرد؟ چه تدابیری برای جلوگیری از استفاده بازیگران تهدید از چنین ابزارهایی برای ارتقای قابلیت های خود لازم است؟

این افشاگری‌ها باید صنایع و دولت‌ها را وادار کند تا در استراتژی‌های امنیتی، به‌ویژه برای زیرساخت‌های حیاتی، تجدید نظر کنند و شکاف‌هایی را که به هکرها امکان سوء استفاده از سیستم‌های آسیب‌پذیر را می‌دهد، اولویت دهند.

هوش مصنوعی پتانسیل فوق العاده ای برای پیشرفت صنایع و بهبود کارایی دارد. اما همانطور که گزارش نشان می دهد، این یک شمشیر دو لبه نیز هست. در صورت استفاده نادرست، می تواند توانایی های مجرمان سایبری و بازیگران دولت-ملت را تقویت کند. جلوتر ماندن از این تهدیدات مستلزم هوشیاری مداوم، دفاع قوی تر و توسعه مسئولانه فناوری های هوش مصنوعی است.

نقش ChatGPT در این حوادث ممکن است محدود باشد، اما به عنوان زنگ خطری برای پیامدهای گسترده تر هوش مصنوعی در چشم انداز امنیت سایبری عمل می کند.

بارگذاری...