אבטחת מחשבים OpenAI חוסמת 20 פעולות סייבר זדוניות שנלחמות נגד מסעות...

OpenAI חוסמת 20 פעולות סייבר זדוניות שנלחמות נגד מסעות פרסום גלובליים של פשעי סייבר

באופן מפתיע, OpenAI התגלה ככוח אדיר במאבק נגד איומים דיגיטליים. מאז תחילת השנה, החברה שיבשה בהצלחה יותר מ-20 קמפיינים זדוניים שביקשו לנצל את פלטפורמת הבינה המלאכותית שלה לפעילויות מזיקות , מה שהוכיח שעתיד אבטחת הסייבר כבר כאן.

פעולות אלו נעו בין איתור באגים של תוכנות זדוניות ויצירת דיסאינפורמציה ליצירת פרסונות מזויפות של מדיה חברתית. שחקני איום ניסו למנף את הפלטפורמה של OpenAI כדי לסייע בפעילויות זדוניות כמו יצירת ביוגרפיות עבור חשבונות מזויפים או יצירת תמונות פרופיל שנוצרו על ידי AI עבור זהויות מזויפות של מדיה חברתית ב-X (לשעבר טוויטר).

עם זאת, למרות המאמצים הללו, OpenAI הרגיעה את הציבור שאף אחד מהקמפיינים הללו לא הוביל להתקדמות פורצת דרך ביצירת תוכנות זדוניות או להפצה ויראלית של דיסאינפורמציה. במילים אחרות, בעוד ששחקנים גרועים מתנסים ב-AI, הם עדיין לא השיגו פריצות דרך משמעותיות.

כיצד פושעי סייבר ניצלו בינה מלאכותית

השחקנים הזדוניים הגיעו מכל קצוות תבל, מסין ועד איראן, והפעילו מגוון טקטיקות. אחת הדוגמאות הבולטות הייתה SweetSpecter, קבוצה שבסיסה בסין שהשתמשה בבינה מלאכותית למחקר וחקר פגיעות, ואף ניסתה (ללא הצלחה) לדוג את עובדי OpenAI.

גם לקבוצות איראניות היה תפקיד בולט. ה-Cyber Av3ngers, המקושרים למשמרות המהפכה האסלאמית האיראנית (IRGC), חקרו בקרי לוגיקה ניתנים לתכנות באמצעות AI, בעוד ישות איראנית אחרת, Storm-0817, השתמשה בבינה מלאכותית כדי לנפות באגים בתוכנות זדוניות של אנדרואיד ולגרד פרופילים של מדיה חברתית.

בנוסף לקמפיינים ממוקדים אלה, OpenAI חסמה מספר פעולות השפעה בקנה מידה גדול. אחד מהם, A2Z, יצר תוכן באנגלית וצרפתית לפרסום נרחב ברשתות חברתיות, בעוד ש-Stop News מינפה תמונות שנוצרו על ידי AI, לעתים קרובות בסגנונות מצוירים או דרמטיים, כדי לשפר את המאמרים והציוצים שלהם.

שיבוש מסעות פרסום גלובליים של דיסאינפורמציה

קמפיינים של דיסאינפורמציה המכוונים למערכות פוליטיות היו תחום דאגה נוסף. OpenAI דיווחה שהיא התערבה בניסיונות להשפיע על בחירות בארה"ב, רואנדה, הודו והאיחוד האירופי. אף אחד מהמאמצים הללו לא השיג משיכה ויראלית, אבל העובדה ששחקני איומים ביקשו לתמרן בחירות מדגישה את הסיכונים ההולכים וגדלים הנשקפים מדי-אינפורמציה מונעת בינה מלאכותית.

STOIC, חברה ישראלית הידועה גם בשם Zero Zeno, הייתה בין השחקנים המרכזיים בתחום זה, ויצרה הערות ברשתות החברתיות על הבחירות בהודו, פעילות שנחשפה בעבר על ידי Meta ו-OpenAI מוקדם יותר השנה.

הערנות המתמשכת של OpenAI הובילה גם לגילוי של שתי רשתות נוספות, Bet Bot ו-Corrupt Comment, שהשתמשו ב-API שלה כדי ליצור שיחות ב-X ולקשר משתמשים לאתרי הימורים או להציף את המדיה החברתית בתגובות מיוצרות.

תפקידה של AI במידע שגוי ממוקד מיקרו

בינה מלאכותית גנרטיבית היא בעלת פוטנציאל להיות נשק לא רק לדיסאינפורמציה בקנה מידה המוני, אלא גם למיקוד מיקרו. על פי דו"ח אחרון של חברת אבטחת הסייבר Sophos, ניתן לתמרן בינה מלאכותית כדי להפיץ מידע מוטעה פוליטי בהתאמה אישית מאוד באמצעות מיילים, אתרי אינטרנט ופרסונות מזויפות. על ידי התאמה קפדנית של מסרים לנקודות ספציפיות בקמפיין, שחקני איום יכולים להונות את הבוחרים ברמה חדשה, ואולי לשנות את תוצאות הבחירות או להטות דעות עם מידע כוזב.

חוקרים מזהירים שקל להטריד לשייך כל דמות או תנועה פוליטית לעמדה פוליטית שאולי הם לא ממש תומכים בהם, מה שגורם לבלבול בקרב הבוחרים ופוגע בתהליך הדמוקרטי.

המחויבות של OpenAI לאבטחת סייבר

בעוד שבינה מלאכותית מציעה הזדמנויות חסרות תקדים להתקדמות, היא גם מציגה אתגרי אבטחה רציניים. OpenAI הוכיחה שהיא עומדת במשימה להתמודד עם ניסיונות זדוניים לנצל את הטכנולוגיה שלה. עם זאת, כנראה שמשחק החתול והעכבר בין מומחי אבטחת סייבר לפושעי סייבר יימשך.

המאמצים של OpenAI לשבש יותר מ-20 קמפיינים עולמיים השנה מסמנים ניצחון משמעותי, אבל המאבק רחוק מלהסתיים. ככל שה-AI מתפתח, כך גם הטקטיקות שבהן משתמשים שחקני איומים יתפתחו. ערנות וחדשנות מתמדת יהיו המפתח להבטיח שה-AI יישאר כוח לטוב, ולא כלי להטעיה דיגיטלית.

טוען...