AI 驅動的惡意軟體可能會創建 10,000 個變體,威脅淹沒偵測系統

網路安全研究人員對可能濫用大型語言模型 (LLM) 來加速惡意軟體開發的情況發出警報。 Palo Alto Networks 的Unit 42 的一項新分析表明,法學碩士雖然不擅長從頭開始創建惡意軟體,但可以大規模重寫和混淆現有惡意程式碼,在高達88% 的情況下創建逃避檢測的變體。
這引發了人們對威脅行為者如何利用生成式人工智慧來繞過偵測系統、降低機器學習模型以及部署不斷擴大的惡意軟體庫的嚴重擔憂。
目錄
人工智慧增強型惡意軟體創建機制
根據 Unit 42 的說法,犯罪分子可以促使法學碩士對惡意 JavaScript 程式碼進行轉換,從而使檢測系統更難以標記重寫的腳本。與產生不太令人信服的輸出的傳統混淆工具不同,LLM 驅動的重寫顯得更自然且更難以檢測。
關鍵的轉型技術包括:
- 變數重命名
- 字串分割
- 插入垃圾程式碼
- 空白刪除
- 完整的程式碼重新實現
每次迭代都會產生一個新的惡意軟體變體,該變體保留了原始的惡意功能,同時顯著降低了其被檢測到的機會。
Unit 42 透過使用 LLM 從現有惡意軟體樣本建立 10,000 個 JavaScript 變體來示範此方法。這些變體成功欺騙了惡意軟體分類器,包括廣泛使用的模型,例如 PhishingJS 和 Innocent Until Proven Guilty (IUPG)。在許多情況下,即使是 VirusTotal 平台也無法將重寫的腳本偵測為惡意腳本。
人工智慧混淆的危險邊緣
與 obfuscator.io 等產生更容易檢測和指紋識別的模式的舊工具不同,基於 LLM 的重寫本質上更加複雜。它們看起來更接近合法程式碼,使得機器學習 (ML) 模型和防毒工具更難識別它們。
這種方法的影響是深遠的:
- 惡意軟體分類器被欺騙將惡意腳本標記為良性。
- 機器學習模型的效能下降,難以跟上惡意軟體變體的不斷發展。
- 由於攻擊者不斷產生新的、無法偵測的惡意軟體,偵測系統面臨過時的風險。
利用法學碩士進行更廣泛的網路犯罪
這種趨勢不僅限於惡意軟體的開發。惡意行為者正在利用 WormGPT 等流氓工具,這些工具使用生成式人工智慧來自動化網路釣魚活動,並針對特定受害者精心設計令人信服的社會工程攻擊。
雖然 LLM 供應商已經實施了限制濫用的防護措施,例如 OpenAI 最近在 2024 年 10 月阻止了 20 起欺騙性操作,但威脅行為者仍在不斷尋找繞過這些限制的方法。
一線希望:以毒攻毒
儘管存在風險,用於混淆惡意軟體的 LLM 驅動技術也可以幫助防禦者。 Unit 42 建議使用這些 AI 方法來產生訓練數據,以提高惡意軟體偵測模型的穩健性。透過向分類器提供更多混淆程式碼的範例,研究人員有可能增強他們檢測最先進變體的能力。
新興人工智慧漏洞:TPUXtract 攻擊
由 LLM 驅動的惡意軟體的興起並不是唯一成為頭條新聞的與人工智慧相關的威脅。北卡羅來納州立大學的研究人員公佈了一種名為 TPUXtract 的側通道攻擊,能夠從Google的邊緣張量處理單元 (TPU) 竊取人工智慧模型架構。
透過捕捉神經網路推理過程中發出的電磁訊號,攻擊者可以提取層類型、節點數量、濾波器大小和激活函數等詳細信息,準確率高達 99.91%。儘管這種攻擊需要對設備和昂貴的設備進行實體訪問,但它對智慧財產權構成了嚴重風險,並可能促進後續網路攻擊。
這對網路安全意味著什麼
生成式人工智慧的快速發展對於網路安全來說是一把雙面刃。雖然它為創新打開了新的大門,但它也為網路犯罪分子提供了前所未有的工具。
- 組織必須積極採取行動,投資能夠適應人工智慧驅動的混淆技術的先進檢測系統。
- 政策制定者應為人工智慧的道德使用制定明確的指導方針,同時實施更嚴格的控制以防止濫用。
- 安全研究人員必須利用人工智慧超越對手,開發能夠應對不斷變化的威脅的彈性系統。
人工智慧惡意軟體的未來
法學碩士能夠創建 10,000 個惡意軟體變體並在 88% 的情況下逃避檢測,這清楚地提醒我們網路威脅日益複雜。隨著科技的發展,我們的防禦也必須如此。企業、政府和網路安全專業人士必須採用創新策略,以領先惡意行為者,並保護數位世界免受人工智慧攻擊。