هکرهای ایرانی از ChatGPT در حملات سایبری برای هدف قرار دادن زیرساخت های حیاتی سوء استفاده کردند.

OpenAI در گزارشی پیشگامانه فاش کرد که چگونه هکرهای ایرانی از ChatGPT برای تقویت حملات سایبری به سیستم های کنترل صنعتی (ICS) سوء استفاده کردند. این گزارش فعالیتهای سایبری انجام شده توسط گروههایی مانند CyberAv3ngers، مرتبط با سپاه پاسداران انقلاب اسلامی ایران (سپاه پاسداران انقلاب اسلامی) و سایرین تحت حمایت چین را روشن میکند.
این عوامل تهدید از ChatGPT برای شناسایی، بهره برداری از آسیب پذیری و اقدامات پس از سازش استفاده کردند. در حالی که OpenAI تاکید میکند که هوش مصنوعی قابلیتهای جدیدی را ارائه نمیدهد، اما به این هکرها کمک کرد تا با استفاده از تکنیکهای در دسترس عموم، حملات را با کارآمدتر انجام دهند.
فهرست مطالب
گروه ایرانیان CyberAv3ngers و حملات تاسیسات آبی
CyberAv3ngers امسال به دلیل هدف قرار دادن تاسیسات آب در ایرلند و پنسیلوانیا، که باعث اختلالات قابل توجهی شد، به شهرت رسید. این گروه از سیستمهای ICS با امنیت ضعیفی که در معرض اینترنت بودند و از رمزهای عبور پیشفرض استفاده میکردند بهرهبرداری کرد. تمرکز آنها بر روی کنترلکنندههای منطقی قابل برنامهریزی (PLC) بود، دستگاههای حیاتی که فرآیندهای صنعتی را کنترل میکنند.
استفاده آنها از ChatGPT شامل درخواست از ربات چت برای اطلاعاتی در مورد روترهای صنعتی، PLC ها و رمزهای عبور پیش فرض برای دستگاه های زیرساختی حیاتی مانند روترهای Tridium Niagara و Hirschmann RS بود.
استفاده نادرست از هوش مصنوعی برای حملات سایبری
علاوه بر اهداف خاص ICS، CyberAv3ngers به دنبال کمک از ChatGPT برای مخفی کردن کدهای مخرب و اسکن شبکهها برای آسیبپذیریهای قابل بهرهبرداری بود. این گروه همچنین تلاش کرد تا راه هایی برای دسترسی به رمزهای عبور macOS بیابد.
با این حال، OpenAI تصریح کرد که این فعالیتها قابلیتهای جدید یا پیشرفتهای فراتر از آنچه از طریق ابزارهای غیر هوش مصنوعی در دسترس است، در اختیار هکرها قرار نداده است. این امر خطرات سوء استفاده از هوش مصنوعی را نشان می دهد، حتی اگر اطلاعات به دست آمده انقلابی نباشد.
سایر عوامل تهدید کننده درگیر
علاوه بر CyberAv3ngers، گروه ایرانی دیگری به نام Storm-0817 از ChatGPT سوء استفاده کرد. آنها سعی کردند بدافزار اندرویدی توسعه دهند و داده های اینستاگرام را حذف کنند و از هوش مصنوعی برای ترجمه پروفایل های لینکدین به فارسی استفاده کنند. این فعالیتها در حالی که مستقیماً به اندازه حملات ICS آسیبرسان نیستند، منعکسکننده تلاشهای گستردهتر برای مسلح کردن هوش مصنوعی در عملیاتهای سایبری هستند.
SweetSpectre مرتبط با چین نیز در این گزارش ذکر شده است. این گروه از ChatGPT برای توسعه بدافزار و تحقیقات آسیبپذیری استفاده کردند. نکته قابل توجه، SweetSpectre تلاش کرد تا ایمیل های حاوی بدافزار را برای کارکنان OpenAI ارسال کند، اما این حمله قبل از رسیدن به اهداف خنثی شد.
تصویر بزرگتر
این گزارش بر خطر فزاینده سوء استفاده از هوش مصنوعی در جنگ سایبری تاکید دارد. اگرچه هوش مصنوعی، از جمله ChatGPT، می تواند وظایف را برای کاربران قانونی ساده کند، اما می تواند به عنوان ابزاری برای بازیگران بد عمل کند. رویکرد فعال OpenAI برای شناسایی و خنثی کردن این تهدیدها برای مهار تأثیر آنها حیاتی است.
این سؤالاتی را برای صنعت امنیت سایبری ایجاد می کند: چگونه می توان از هوش مصنوعی در برابر سوء استفاده محافظت کرد؟ چه تدابیری برای جلوگیری از استفاده بازیگران تهدید از چنین ابزارهایی برای ارتقای قابلیت های خود لازم است؟
این افشاگریها باید صنایع و دولتها را وادار کند تا در استراتژیهای امنیتی، بهویژه برای زیرساختهای حیاتی، تجدید نظر کنند و شکافهایی را که به هکرها امکان سوء استفاده از سیستمهای آسیبپذیر را میدهد، اولویت دهند.
هوش مصنوعی پتانسیل فوق العاده ای برای پیشرفت صنایع و بهبود کارایی دارد. اما همانطور که گزارش نشان می دهد، این یک شمشیر دو لبه نیز هست. در صورت استفاده نادرست، می تواند توانایی های مجرمان سایبری و بازیگران دولت-ملت را تقویت کند. جلوتر ماندن از این تهدیدات مستلزم هوشیاری مداوم، دفاع قوی تر و توسعه مسئولانه فناوری های هوش مصنوعی است.
نقش ChatGPT در این حوادث ممکن است محدود باشد، اما به عنوان زنگ خطری برای پیامدهای گسترده تر هوش مصنوعی در چشم انداز امنیت سایبری عمل می کند.