תוכנה זדונית המופעלת בינה מלאכותית מאיימת להציף את מערכות הזיהוי עם יצירת 10,000 גרסאות

חוקרי אבטחת סייבר משמיעים אזעקה על פוטנציאל השימוש לרעה במודלים של שפה גדולה (LLMs) כדי להגביר פיתוח תוכנות זדוניות. ניתוח חדש על ידי יחידה 42 של Palo Alto Networks מגלה כי LLMs, למרות שאינם מיומנים ביצירת תוכנות זדוניות מאפס, יכולים לשכתב ולטשטש קוד זדוני קיים בקנה מידה עצום, וליצור גרסאות המתחמקות מזיהוי עד 88% מהמקרים.
זה מעלה חששות קריטיים לגבי האופן שבו יכולים שחקני איומים לנצל בינה מלאכותית גנרטיבית כדי לעקוף מערכות זיהוי, לבזות מודלים של למידת מכונה ולפרוס ארסנל הולך ומתרחב של תוכנות זדוניות .
תוכן העניינים
המכניקה של יצירת תוכנות זדוניות משופרות בינה מלאכותית
"לפי יחידה 42, פושעים יכולים להנחות LLMs לבצע טרנספורמציות בקוד JavaScript זדוני, מה שמקשה על מערכות זיהוי לסמן את הסקריפטים המשוכתבים . בניגוד לכלי ערפול מסורתיים שמייצרים פלטים פחות משכנעים, שכתובים מונעי LLM נראים טבעיים יותר וקשים יותר לזיהוי.
טכניקות המפתח העיקריות כוללות:
- שינוי שם משתנה
- פיצול מיתר
- הכנסת קוד זבל
- הסרת רווחים לבנים
- יישום מחדש של קוד מלא
כל איטרציה מייצרת גרסת תוכנה זדונית חדשה השומרת על הפונקציונליות הזדונית המקורית תוך הפחתה משמעותית של הסיכויים שלה להתגלות.
יחידה 42 הדגימה גישה זו על ידי שימוש ב-LLMs ליצירת 10,000 גרסאות JavaScript מדגימות תוכנות זדוניות קיימות. גרסאות אלה הצליחו להערים על מסווגים של תוכנות זדוניות, כולל מודלים בשימוש נרחב כמו PhishingJS ו-Innocent Until Proven Guilty (IUPG). במקרים רבים, אפילו פלטפורמת VirusTotal לא הצליחה לזהות את הסקריפטים המשוכתבים כזדוניים.
הקצה המסוכן של ערפול בינה מלאכותית
בניגוד לכלים ישנים יותר כמו obfuscator.io, המייצרים דפוסים שניתן לזהות בקלות רבה יותר ולטביעת אצבע, שכתובים מבוססי LLM הם מטבעם מתוחכמים יותר. הם נראים קרובים יותר לקוד לגיטימי, מה שמקשה על זיהוי דגמי למידת מכונה (ML) וכלי אנטי-וירוס.
ההשפעה של שיטה זו היא עמוקה:
- מסווגים של תוכנות זדוניות מורמות לתיוג סקריפטים זדוניים כשירים.
- דגמי ML סובלים מירידה בביצועים, ומתקשים לעמוד בקצב ההתפתחות המתמדת של גרסאות תוכנות זדוניות.
- מערכות זיהוי מסתכנות בהתיישנות מכיוון שהיריבים יוצרים ללא הרף תוכנות זדוניות טריות שאינן ניתנות לזיהוי.
ניצול לימודי LLM לפשעי סייבר רחבים יותר
מגמה זו אינה מוגבלת לפיתוח תוכנות זדוניות. שחקנים זדוניים ממנפים כלים נוכלים כמו WormGPT, המשתמשים בבינה מלאכותית גנרטיבית כדי להפוך קמפיינים דיוגים לאוטומטיים וליצור התקפות הנדסה חברתית משכנעות המותאמות לקורבנות ספציפיים.
בעוד שספקי LLM יישמו מעקות בטיחות כדי להגביל שימוש לרעה, כמו החסימה האחרונה של OpenAI של 20 פעולות הטעיה באוקטובר 2024, גורמי איומים מוצאים כל הזמן דרכים לעקוף את ההגבלות הללו.
The Silver Lining: להילחם באש באש
למרות הסיכונים, אותן טכניקות מונעות LLM המשמשות לטשטש תוכנות זדוניות יכולות גם לעזור למגינים. יחידה 42 מציעה להשתמש בשיטות בינה מלאכותיות אלה כדי ליצור נתוני אימון המשפרים את החוסן של מודלים לזיהוי תוכנות זדוניות. על ידי הזנת מסווגים בדוגמאות נוספות של קוד מעורפל, חוקרים יכולים לחזק את יכולתם לזהות אפילו את הגרסאות המתקדמות ביותר.
פגיעויות בינה מלאכותית מתעוררות: מתקפת TPUXtract
העלייה של תוכנות זדוניות המופעלות על ידי LLM אינה האיום היחיד הקשור ל-AI שעושה כותרות. חוקרים מאוניברסיטת צפון קרוליינה סטייט חשפו מתקפת ערוץ צדדי, המכונה TPUXtract, המסוגלת לגנוב ארכיטקטורות של מודל AI מיחידות עיבוד הקצה של גוגל (TPU).
על ידי לכידת אותות אלקטרומגנטיים הנפלטים במהלך מסקנות רשת עצביות, התוקפים יכולים לחלץ פרטים כמו סוגי שכבות, מספרי צמתים, גדלי מסננים ופונקציות הפעלה בדיוק של 99.91%. למרות שמתקפה זו מצריכה גישה פיזית למכשיר וציוד יקר, היא מהווה סיכון רציני לקניין הרוחני ועלולה להקל על מעקב אחר התקפות סייבר.
מה זה אומר על אבטחת סייבר
ההתפתחות המהירה של AI גנראטיבי היא חרב פיפיות לאבטחת סייבר . היא אמנם פותחת דלתות חדשות לחדשנות, אבל היא גם מספקת כלים חסרי תקדים לפושעי סייבר.
- ארגונים חייבים לפעול באופן יזום , ולהשקיע במערכות זיהוי מתקדמות המסוגלות להסתגל לטכניקות ערפול מונעות בינה מלאכותית.
- על קובעי המדיניות לקבוע קווים מנחים ברורים לשימוש אתי ב-AI תוך אכיפת בקרות מחמירות יותר למניעת שימוש לרעה.
- חוקרי אבטחה חייבים למנף AI כדי לעלות על יריבים , לפתח מערכות גמישות שיכולות להתמודד עם איומים מתפתחים.
העתיד של תוכנת AI זדונית
היכולת של LLMs ליצור 10,000 גרסאות תוכנות זדוניות ולהתחמק מזיהוי ב-88% מהמקרים היא תזכורת בולטת לתחכום ההולך וגדל של איומי סייבר. ככל שהטכנולוגיה מתפתחת, כך גם ההגנות שלנו חייבות. עסקים, ממשלות ואנשי מקצוע בתחום אבטחת הסייבר חייבים לאמץ אסטרטגיות חדשניות כדי להישאר לפני שחקנים זדוניים ולהגן על העולם הדיגיטלי מפני התקפות המופעלות על ידי בינה מלאכותית.