אבטחת מחשבים מיקרוסופט נוקטת פעולה משפטית נגד האקרים המנצלים את Azure...

מיקרוסופט נוקטת פעולה משפטית נגד האקרים המנצלים את Azure AI למטרות זדוניות

המאבק המתמשך של מיקרוסופט נגד פשעי סייבר הגיע לשיאים חדשים עם התביעה האחרונה שלה נגד קבוצת פריצה שהואשמה בניצול שירותי הבינה המלאכותית של Azure. ענקית הטכנולוגיה חשפה ששחקני האיומים הזרים יצרו פלטפורמת פריצה כשירות כדי לעקוף את פרוטוקולי הבטיחות של Azure AI, מה שמאפשר יצירת תוכן מזיק ותוכנות זדוניות .

המקרה הזה מדגיש את הסיכונים ההולכים וגדלים שמציבים פושעי סייבר הממנפים פלטפורמות בינה מלאכותית למטרות זדוניות, מה שמציב אתגרי אבטחת סייבר משמעותיים לארגונים ברחבי העולם.

כיצד האקרים ניצלו את ה-Azure AI של מיקרוסופט

יחידת הפשעים הדיגיטליים של מיקרוסופט (DCU) חשפה את הפעולה ביולי 2024. הקבוצה השתמשה באישורי לקוחות גנובים, שנאספו ממקורות ציבוריים, כדי לפרוץ מערכות של Azure ולהתעסק בדגמי AI כמו DALL-E של OpenAI.

פרטים מרכזיים כוללים:

  • גניבת אישורים : מפתחות Azure API נגנבו ונתוני אימות Entra ID שימשו לגישה לשירותי Azure OpenAI.
  • יצירת תוכן מזיק : הקבוצה מיצרה את הגישה שלהם על ידי יצירת כלים ליצירת תמונות פוגעניות ולעקוף מסנני תוכן בינה מלאכותית.
  • Hacking-as-a-Service : הקבוצה מכרה גישה לכלים שלה דרך אתרים כמו aitism[.]net ושיתפה הוראות שימוש עם פושעי סייבר אחרים.

פעילויות אלו הובילו ליצירה בלתי חוקית של אלפי תמונות מזיקות ולהקלה נוספת של שימוש לרעה ב-AI בלתי חוקי, כל זאת בזמן שהמבצעים ניסו למחוק את עקבותיהם הדיגיטליות.

חיבור תוכנה זדונית

לשימוש לרעה בשירותי בינה מלאכותית יש השלכות רחבות יותר על פיתוח תוכנות זדוניות . שחקנים מאיימים יכולים:

  • צור פתיונות דיוג או אתרים מזויפים שנועדו לחקות פלטפורמות מהימנות.
  • השתמש בכלי AI כדי להפוך קידוד של תוכנות זדוניות לאוטומטיות, מה שהופך אותו למתוחכם יותר וקשה יותר לזיהוי.
  • עוקף מסנני אבטחה על ידי מינוף כלים המיועדים לשימושים לגיטימיים, כגון תרגום שפות וסינתזת נתונים.
  • ניצול זה מדגיש כיצד קבוצות פריצה מתפתחות את הטקטיקה שלהן, משלבות אישורים גנובים ויכולות בינה מלאכותית מתקדמות כדי לבצע התקפות סייבר בקנה מידה.

    ניצול פרוקסי הפוך ו-LLMjacking

    היבט בולט אחד של המקרה הוא השימוש בפרוקסי הפוך, כגון הכלי de3u. פרוקסי אלה הפנו מחדש את התקשורת ממכשירי המשתמש דרך מנהרת Cloudflare לשירותי Azure OpenAI, תוך חיקוי קריאות API לגיטימיות.

    טכניקה זו משקפת טקטיקות שזוהו בהתקפות LLMjacking, שבהן נעשה שימוש באישורי ענן גנובים כדי לגשת לשירותי מודל שפה גדול (LLM) כמו Anthropic, AWS Bedrock ו-Google Vertex AI. תוכניות כאלה מאפשרות לשחקני איומים לחטוף כלי בינה מלאכותית מבוססי ענן, ולעתים קרובות לייצר רווח מהגישה על ידי מכירתה לפושעים אחרים.

    אמצעי הנגד וההשלכות הרחבות יותר של מיקרוסופט

    בתגובה לפעולה זו, Microsoft:

    • ביטול גישה : השבית את האישורים הגנובים של הקבוצה וסגר את תשתית השירות שלה.
    • Seized Domains : קיבל צו בית משפט לסגור את Aitism[.]net .
    • הגנות מחוזקות : הטמיעו אמצעי הגנה נוספים כדי למנוע התעללות דומות בעתיד.

    עם זאת, מיקרוסופט גילתה גם עדויות לכך שהקבוצה מכוונת לספקי שירותי בינה מלאכותית אחרים, מה שמצביע על מגמה גדולה יותר של שימוש לרעה בבינה מלאכותית בנוף אבטחת הסייבר.

    כלי בינה מלאכותית: חרב פיפיות

    בעוד שכלי AI גנרטיביים כמו ChatGPT ו-DALL-E מציעים יתרונות עצומים, השימוש לרעה בהם על ידי פושעי סייבר מדגיש את הצורך הדחוף בפרוטוקולי אבטחה משופרים:

    1. אבטחת API : ארגונים חייבים להבטיח הגנה חזקה עבור מפתחות API כדי למנוע גישה לא מורשית.
    2. ניטור איומים : ניטור רציף של שימוש בשירותי AI יכול לעזור לזהות ולחסום התנהגות חריגה.
  • שיתוף פעולה : ספקי ענן, חברות אבטחת סייבר ורשויות אכיפת החוק חייבים לעבוד יחד כדי לפרק פעולות כאלה.
  • התביעה של מיקרוסופט שופכת אור על הצומת המסוכן של AI ופשעי סייבר. מכיוון ששחקני איומים מנצלים יותר ויותר שירותי בינה מלאכותית כדי ליצור תוכן מזיק ולפתח תוכנות זדוניות, ארגונים חייבים לתת עדיפות לשמירה על תשתית הבינה המלאכותית שלהם.

    המקרה משמש תזכורת חדה: בעוד שבינה מלאכותית מייצגת את עתיד הטכנולוגיה, ניתן לנצל את הפגיעויות שלה, מה שהופך אמצעי אבטחת סייבר חזקים להכרח מוחלט במאבק נגד איומים דיגיטליים.

    טוען...