אבטחת מחשבים פרצת אבטחת DeepSeek חושפת פגיעויות בינה מלאכותית ומעוררת...

פרצת אבטחת DeepSeek חושפת פגיעויות בינה מלאכותית ומעוררת התקפות סייבר

ה-AI הגנרטיבי האחרון של סין, DeepSeek, היה נושא לבדיקה אינטנסיבית של אבטחת סייבר מאז השקתו. חוקרי אבטחה חשפו לאחרונה פריצת מעצר מיידית של המערכת שחשפה את פעולתו הפנימית של הדגם. בינתיים, DeepSeek גם התמודדה עם גלים של התקפות DDoS, מה שאילץ אותה להגביל רישומי משתמשים חדשים. תקריות אלו מדגישות הן את סיכוני האבטחה של מודלים של AI והן את התחכום ההולך וגובר של התקפות סייבר המכוונות לשירותי AI.

פריצת Jailbreak של מערכת DeepSeek: מה גילו החוקרים

זמן קצר לאחר הופעת הבכורה של DeepSeek, חוקרים בחברת אבטחת ה-API Wallarm מצאו פגיעות פריצת jail שחשפה את הנחיית המערכת המלאה של מודל הבינה המלאכותית. סוג זה של ליקוי אבטחה מדאיג במיוחד מכיוון שהנחיית מערכת של AI מכתיבה את ההתנהגות, מגבלות התגובה ומדיניות ניהול התוכן שלה. רוב מפתחי הבינה המלאכותית, כולל OpenAI עם ChatGPT, נוקטים באמצעים נוקשים כדי למנוע דליפות כאלה.

Wallarm הצהירה בפוסט בבלוג של 1 בפברואר ששיטת ה-jailbreak שלה ניצלה לוגיקה של תגובה מבוססת-AI מבוססת הטיה, אם כי החברה הסתירה פרטים טכניים ספציפיים עקב מדיניות חשיפה אחראית. DeepSeek קיבלה הודעה על הבעיה ומאז פרסה תיקון. עם זאת, Wallarm אכן פרסמה את טקסט הנחיית המערכת המלאה, המאפשרת למומחי אבטחה לנתח את המסגרת התפעולית של DeepSeek.

גילוי זה עורר דיונים על:

  • אמצעי פרטיות בינה מלאכותית ואיזו יעילות DeepSeek מגינה על נתוני המשתמש.
  • הטיות פוטנציאליות באימונים של DeepSeek, במיוחד בהתחשב בטענות שייתכן שהיא השתמשה בנתוני OpenAI לצורך אימון.
  • אילוצים רגולטוריים שיכולים להשפיע על אופן פעולתו של מודל הבינה המלאכותית, במיוחד בסין, שבה תוכן AI נשלט באופן הדוק.

כדי לחקור את ההשפעה הפוטנציאלית של OpenAI, Wallarm השווה את הנחיית המערכת של DeepSeek לזו של ChatGPT. על פי הניתוח של ChatGPT, התגובות של DeepSeek עולות בקנה אחד עם אמצעי ציות מחמירים יותר, בעוד שהגישה של OpenAI גמישה יותר וממוקדת משתמש.

התקפות DDoS על DeepSeek: מתקפת סייבר מתואמת

ככל שהפופולריות של DeepSeek גדלה, היא הפכה למטרה של התקפות מניעת שירות מבוזרות בקנה מידה גדול (DDoS). החברה הודיעה כי עליה לחסום רישומי משתמשים חדשים בשל נפח ההתקפות העצום.

לפי NSFocus, חברת אבטחת סייבר שמנטרת את ההתקפות, DeepSeek התמודדה עם שלושה גלים גדולים של התקפות DDoS המכוונות לממשק ה-API שלה ב-25, 26 ו-27 בינואר. כל התקפה נמשכה כ-35 דקות, והשפיעה קשות על הפלטפורמה של DeepSeek. עד 28 בינואר, ממשק ה-API עדיין לא היה זמין עקב שיבושים מתמשכים.

מערכת הצ'אט DeepSeek הותקפה גם היא, כשתקיפות DDoS נצפו ב-20 וב-25 בינואר, כל אחת נמשכת כשעה.

שיטות התקפה DDoS

NSFocus זיהה מספר טכניקות התקפה מבוססות השתקפות, כולל:

  • התקפות השתקפות NTP - ניצול שרתי Network Time Protocol (NTP) כדי להגביר את תעבורת ההתקפה.
  • התקפות השתקפות Memcached - שימוש בשרתי Memcached שהוגדרו בצורה שגויה כדי להציף את DeepSeek בתעבורה מסיבית.
  • התקפות השתקפות SSDP - מכוונות לשירותי Simple Service Discovery Protocol (SSDP) כדי להציף את משאבי הרשת.
  • התקפות השתקפות CLDAP - מינוף שרתי Lightweight Directory Access Protocol (CLDAP) נטולי חיבור כדי להגדיל את נפח ההתקפה.

התקפה מתואמת מאוד

עד 28 בינואר דיווחה DeepSeek שתוקפים התאימו את השיטות שלהם בתגובה למאמצי ההפחתה של החברה. הדיוק והתיאום של התקפות אלו הובילו את NSFocus למסקנה כי המבצעים היו צוות מקצועי ומאורגן היטב ולא האקרים אקראיים.

"התוקף מפגין מקצועיות גבוהה ביותר בכל שלב תקיפה, החל מבחירת מטרות ועד לתזמון התקיפות ושליטה בעוצמה", נמסר מ-NSFocus.

מקורות התקיפה המובילים כללו מערכות מארצות הברית, בריטניה ואוסטרליה, על פי הניתוח של חברת אבטחת הסייבר.

מה זה אומר על אבטחת AI

אירועי DeepSeek מדגישים סיכוני אבטחת סייבר הולכים וגדלים בבינה מלאכותית. מפגיעות פריצת כלא ועד התקפות סייבר ממוקדות, שירותי בינה מלאכותית הם כעת יעדים עיקריים עבור חוקרי אבטחה ושחקנים זדוניים.

נקודות עיקריות:

  1. פריצות לכלא של AI נותרו אתגר אבטחה - אפילו דגמי AI חדשים יותר כמו DeepSeek ניתנים להנדסה לאחור כדי לחשוף את ההיגיון הפנימי שלהם.
  2. התקפות DDoS נגד פלטפורמות בינה מלאכותיות מתגברות - ככל ששירותי בינה מלאכותית צוברים פופולריות, הם מושכים התקפות סייבר מתואמות יותר.
  3. אבטחת AI חייבת להתפתח במהירות - מפתחים חייבים ליישם אמצעי הגנה חזקים כדי למנוע דליפות מיידיות ולהגן מפני איומי סייבר.

בעוד בינה מלאכותית ממשיכה לעצב את הנוף הדיגיטלי, צוותי אבטחת סייבר חייבים להישאר צעד אחד קדימה כדי להבטיח שמודלים של בינה מלאכותית יישארו מאובטחים ועמידים בפני איומים מתעוררים.

טוען...