OpenAI 阻止 20 項惡意網路操作,反擊全球網路犯罪活動

令人驚訝的是,OpenAI 已成為對抗數位威脅的強大力量。自今年年初以來,該公司已成功阻止了 20 多個試圖利用其人工智慧平台進行有害活動的惡意活動,這表明網路安全的未來已經到來。
這些操作的範圍從調試惡意軟體和製作虛假資訊到創建虛假的社交媒體角色。威脅行為者試圖利用 OpenAI 的平台來幫助進行惡意活動,例如為虛假帳戶生成傳記或為 X(以前稱為 Twitter)上的虛假社交媒體身份創建 AI 生成的個人資料圖片。
然而,儘管做出了這些努力,OpenAI 仍向公眾保證,這些活動都沒有在惡意軟體創建或虛假資訊病毒式傳播方面帶來突破性進展。換句話說,雖然壞人正在嘗試人工智慧,但他們尚未取得重大突破。
目錄
網路犯罪分子如何利用人工智慧
惡意行為者來自全球各個角落,從中國到伊朗,並採用了多種策略。一個突出的例子是 SweetSpecter,這是一個總部位於中國的組織,該組織利用人工智慧進行偵察和漏洞研究,甚至試圖(未成功)對 OpenAI 員工進行魚叉式網路釣魚。
伊朗團體也發揮了顯著作用。與伊朗伊斯蘭革命衛隊 (IRGC) 有聯繫的 Cyber Av3ngers 使用人工智慧研究可程式邏輯控制器,而另一個伊朗實體 Storm-0817 使用人工智慧來調試 Android 惡意軟體並抓取社群媒體資料。
除了這些有針對性的活動之外,OpenAI 還阻止了幾項大規模影響力行動。其中之一,A2Z,為廣泛的社交媒體發布生成英語和法語內容,而 Stop News 利用人工智慧生成的圖像(通常採用卡通或戲劇風格)來增強他們的文章和推文。
破壞全球假資訊活動
針對政治體系的假訊息活動是另一個令人擔憂的領域。 OpenAI 報導稱,它試圖幹預美國、盧安達、印度和歐盟的選舉。這些努力都沒有獲得病毒般的關注,但威脅行為者試圖操縱選舉的事實凸顯了人工智慧驅動的虛假資訊帶來的日益增加的風險。
STOIC 是一家以色列公司,也被稱為 Zero Zeno,是該領域的主要參與者之一,在社交媒體上產生了有關印度選舉的評論,Meta 和 OpenAI 今年早些時候都曾披露過這項活動。
OpenAI 的持續警惕也導致發現了另外兩個網路:Bet Bot 和 Corrupt Comment,它們使用其 API 在 X 上產生對話,並將用戶連結到賭博網站或用偽造的評論淹沒社交媒體。
人工智慧在微目標錯誤訊息中的作用
生成式人工智慧不僅有可能被武器化,不僅可以用於大規模虛假訊息,還可以用於微觀目標定位。根據網路安全公司 Sophos 最近的一份報告,人工智慧可以被操縱,透過電子郵件、網站和虛假人物角色傳播高度個人化的政治錯誤訊息。透過根據特定的競選要點精心定制訊息,威脅行為者可以在新的層面上欺騙選民,可能會改變選舉結果或用虛假訊息影響觀點。
研究人員警告說,令人不安的是,人們很容易將任何政治人物或運動與他們實際上並不支持的政策立場聯繫起來,從而在選民中造成混亂並損害民主進程。
OpenAI 對網路安全的承諾
雖然人工智慧提供了前所未有的進步機會,但它也帶來了嚴峻的安全挑戰。 OpenAI 已經證明,它能夠勝任打擊利用其技術的惡意企圖的任務。然而,網路安全專家和網路犯罪分子之間的貓鼠遊戲可能還會繼續。
OpenAI 今年擾亂了 20 多個全球活動的努力標誌著一項重大勝利,但戰鬥還遠未結束。隨著人工智慧的發展,威脅行為者所使用的策略也會隨之發展。持續的警覺和創新將是確保人工智慧仍然是一股善良的力量,而不是數位欺騙的工具的關鍵。