האקרים איראנים השתמשו לרעה ב-ChatGPT בהתקפות סייבר מכוונות לתשתית קריטית

בדו"ח פורץ דרך, OpenAI חשפה כיצד האקרים איראנים ניצלו את ChatGPT כדי לשפר מתקפות סייבר על מערכות בקרה תעשייתיות (ICS). הדו"ח שופך אור על פעילויות סייבר שבוצעו על ידי קבוצות כמו CyberAv3ngers, הקשורות למשמרות המהפכה האיסלאמית (IRGC), ואחרות בחסות סין.
גורמי איומים אלו השתמשו ב-ChatGPT לצורך סיור, ניצול פגיעות ופעולות לאחר פשרה. בעוד ש-OpenAI מדגישה שה-AI לא הציע יכולות חדשות, היא כן עזרה להאקרים הללו לבצע התקפות בצורה יעילה יותר תוך שימוש בטכניקות זמינות לציבור.
תוכן העניינים
התקפות CyberAv3ngers ומתקני מים של הקבוצה האיראנית
CyberAv3ngers זכתה לשמצה השנה בשל התמקדות בשירותי מים באירלנד ופנסילבניה, וגרמה לשיבושים משמעותיים. הקבוצה ניצלה מערכות ICS מאובטחות גרוע שנחשפו לאינטרנט והשתמשו בסיסמאות ברירת מחדל. ההתמקדות שלהם הייתה בבקרי לוגיקה ניתנים לתכנות (PLC), התקנים קריטיים השולטים בתהליכים תעשייתיים.
השימוש שלהם ב-ChatGPT כלל בקשת הצ'אט-בוט מידע על נתבים תעשייתיים, PLC וסיסמאות ברירת מחדל עבור התקני תשתית קריטיים כמו נתבי Tridium Niagara ו-Hirschmann RS.
שימוש לרעה ב-AI עבור התקפות סייבר
בנוסף למטרות ספציפיות ל-ICS, CyberAv3ngers ביקשו סיוע מ-ChatGPT כדי לטשטש קוד זדוני ולסרוק רשתות לאיתור פגיעויות שניתנות לניצול. הקבוצה גם ניסתה למצוא דרכים לגשת לסיסמאות macOS.
עם זאת, OpenAI הבהירה כי פעילויות אלו לא סיפקו להאקרים יכולות חדשות או מתקדמות מעבר למה שזמין דרך כלים שאינם בינה מלאכותית. זה מדגיש את הסכנות של שימוש לרעה ב-AI, גם אם המידע שהושג אינו מהפכני.
שחקני איום אחרים מעורבים
מלבד CyberAv3ngers, קבוצה איראנית אחרת הידועה בשם Storm-0817 עשתה שימוש לרעה ב-ChatGPT. הם ניסו לפתח תוכנות זדוניות באנדרואיד ולגרד נתוני אינסטגרם, תוך מינוף ה-AI לתרגום פרופילי לינקדאין לפרסית. למרות שאינן מזיקות באופן ישיר כמו התקפות ICS, פעילויות אלה משקפות מאמצים רחבים יותר לנשק בינה מלאכותית בפעולות סייבר.
SweetSpectre, הקשורה לסין, הוזכרה גם היא בדו"ח. קבוצה זו השתמשה ב-ChatGPT לפיתוח תוכנות זדוניות ומחקר פגיעות. יש לציין כי SweetSpectre ניסתה לשלוח מיילים עמוסי תוכנות זדוניות לעובדי OpenAI, אך המתקפה סוכלה לפני שהגיעה ליעדיה.
התמונה הגדולה יותר
הדו"ח מדגיש את הסיכון הגובר לשימוש לרעה בינה מלאכותית בלוחמת סייבר. למרות ש-AI, כולל ChatGPT, יכול לייעל משימות עבור משתמשים לגיטימיים, זה יכול לשמש גם ככלי לשחקנים גרועים. הגישה היזומה של OpenAI לאיתור ולנטרול איומים אלו חיונית לבלימת השפעתם.
זה מעלה שאלות לתעשיית אבטחת הסייבר: כיצד ניתן להגן על בינה מלאכותית מפני שימוש לרעה? אילו אמצעים נחוצים כדי למנוע מגורמי איומים להשתמש בכלים כאלה כדי לשפר את היכולות שלהם?
גילויים אלה צריכים לעורר תעשיות וממשלות לחשוב מחדש על אסטרטגיות אבטחה, במיוחד עבור תשתית קריטית, ולתעדף סגירת הפערים המאפשרים להאקרים לנצל מערכות פגיעות.
ל-AI יש פוטנציאל אדיר לקדם תעשיות ולשפר את היעילות. אבל כפי שמראה הדו"ח, זו גם חרב פיפיות. כאשר נעשה בו שימוש לרעה, הוא יכול להגביר את היכולות של פושעי סייבר ושחקנים במדינת לאום. הישארות לפני האיומים הללו דורשת ערנות מתמדת, הגנות חזקות יותר ופיתוח אחראי של טכנולוגיות AI.
התפקיד של ChatGPT בתקריות אלה עשוי להיות מוגבל, אך הוא משמש קריאת השכמה להשלכות הרחבות יותר של AI בנוף אבטחת הסייבר.