電腦安全 微軟對利用 Azure AI 進行惡意目的的駭客採取法律行動

微軟對利用 Azure AI 進行惡意目的的駭客採取法律行動

微軟持續打擊網路犯罪的鬥爭達到了新的高度,其最新的訴訟針對的是一個被指控利用 Azure 生成式人工智慧服務的駭客組織。這家科技巨頭透露,外國威脅行為者創建了一個駭客即服務平台來繞過 Azure AI 的安全協議,從而能夠創建有害內容和惡意軟體

此案凸顯了網路犯罪分子利用人工智慧平台進行惡意目的所帶來的不斷升級的風險,為全球組織帶來了重大的網路安全挑戰。

駭客如何利用微軟的 Azure AI

微軟數位犯罪部門 (DCU) 於 2024 年 7 月發現了這項行動。

關鍵細節包括:

  • 憑證竊取:被盜的 Azure API 金鑰和 Entra ID 驗證資料用於存取 Azure OpenAI 服務。
  • 有害內容創建:該組織透過創建生成攻擊性圖像並繞過人工智慧內容過濾器的工具來將其存取貨幣化。
  • 駭客即服務:該組織透過aitism[.]net等網站出售其工具的存取權限,並與其他網路犯罪分子分享使用說明。

這些活動導致非法產生數以千計的有害圖像,並進一步促進人工智慧的非法濫用,同時肇事者也試圖抹去他們的數位足跡。

惡意軟體連接

生成式人工智慧服務的濫用對惡意軟體的開發有更廣泛的影響。威脅行為者可能:

  • 產生旨在模仿可信任平台的網路釣魚誘餌或虛假網站。
  • 使用人工智慧工具自動進行惡意軟體編碼,使其更加複雜且更難以檢測。
  • 利用專為合法用途設計的工具(例如語言翻譯和資料合成)來繞過安全過濾器。
  • 這種利用凸顯了駭客組織如何不斷發展其策略,將被盜的憑證和先進的人工智慧功能結合起來進行大規模的網路攻擊。

    反向代理利用和 LLM 劫持

    該案例的一個值得注意的方面是反向代理的使用,例如 de3u 工具。這些代理程式透過 Cloudflare 隧道將通訊從使用者裝置重新導向到 Azure OpenAI 服務,模仿合法的 API 呼叫。

    這種技術反映了 LLMjacking 攻擊中確定的策略,其中竊取的雲端憑證用於存取大型語言模型 (LLM) 服務,例如 Anthropic、AWS Bedrock 和 Google Vertex AI。此類計劃允許威脅行為者劫持基於雲端的人工智慧工具,通常透過將其出售給其他犯罪分子來獲利。

    微軟的對策和更廣泛的影響

    針對這項操作,微軟:

    • 撤銷存取權限:停用該組織被盜的憑證並關閉其服務基礎設施。
    • 奪取網域名稱:取得法院命令關閉aitism[.]net
    • 加強防禦:實施額外的保障措施,以防止未來發生類似的濫用行為。

    然而,微軟也發現了該組織針對其他人工智慧服務提供者的證據,這表明網路安全領域存在更大的人工智慧濫用趨勢。

    人工智慧工具:一把雙面刃

    雖然 ChatGPT 和 DALL-E 等生成式人工智慧工具提供了巨大的好處,但網路犯罪分子對它們的濫用凸顯了對增強安全協議的迫切需求:

    1. API 安全:組織必須確保對 API 金鑰進行強有力的保護,以防止未經授權的存取。
    2. 威脅監控:持續監控人工智慧服務的使用可以幫助偵測和阻止異常行為。
  • 合作:雲端供應商、網路安全公司和執法部門必須共同努力拆除此類操作。
  • 微軟的訴訟揭示了人工智慧與網路犯罪的危險交叉點。隨著威脅行為者越來越多地利用人工智慧服務來產生有害內容和開發惡意軟體,組織必須優先考慮保護其人工智慧基礎設施。

    這個案例清楚地提醒我們:雖然人工智慧代表了科技的未來,但其漏洞可以被武器化,這使得強而有力的網路安全措施成為對抗數位威脅的絕對必要條件。

    加載中...