计算机安全 微软对利用 Azure AI 进行恶意攻击的黑客采取法律行动

微软对利用 Azure AI 进行恶意攻击的黑客采取法律行动

微软持续打击网络犯罪的斗争已达到新的高度,其最新诉讼针对的是被指控利用 Azure 生成 AI 服务的黑客组织。这家科技巨头透露,这些外国威胁行为者创建了一个黑客即服务平台,以绕过 Azure AI 的安全协议,从而能够创建有害内容和恶意软件

此案例凸显了网络犯罪分子利用人工智能平台进行恶意攻击所带来的风险日益升级,给全球组织带来了重大的网络安全挑战。

黑客如何利用微软的 Azure AI

微软数字犯罪部门 (DCU) 于 2024 年 7 月发现了这一行动。该组织利用从公共来源窃取的客户凭证,入侵 Azure 系统并篡改 OpenAI 的 DALL-E 等 AI 模型。

关键细节包括:

  • 凭证盗窃:被盗的 Azure API 密钥和 Entra ID 身份验证数据被用于访问 Azure OpenAI 服务。
  • 有害内容创作:该组织通过创建工具来生成攻击性图像并绕过人工智能内容过滤器,从而将其访问权限货币化。
  • 黑客即服务:该组织通过aitism[.]net等网站出售其工具的使用权,并与其他网络犯罪分子分享使用说明。

这些活动导致非法生成了数千张有害图像,并助长了进一步的非法人工智能滥用,而犯罪者则试图抹去他们的数字足迹。

恶意软件连接

滥用生成式人工智能服务对恶意软件开发具有更广泛的影响。威胁行为者可能会:

  • 生成旨在模仿可信平台的网络钓鱼诱饵或虚假网站。
  • 使用人工智能工具自动化恶意软件编码,使其更加复杂且更难检测。
  • 利用为合法用途而设计的工具(例如语言翻译和数据合成)绕过安全过滤器。
  • 此次攻击凸显了黑客组织如何不断改进其攻击策略,如何将窃取来的凭证与先进的人工智能能力相结合,大规模地发动网络攻击。

    反向代理利用和 LLMjacking

    该案件的一个值得注意的方面是使用反向代理,例如 de3u 工具。这些代理通过 Cloudflare 隧道将用户设备的通信重定向到 Azure OpenAI 服务,模仿合法的 API 调用。

    这种技术与 LLMjacking 攻击中发现的策略类似,攻击者利用被盗的云凭证访问大型语言模型 (LLM) 服务,例如 Anthropic、AWS Bedrock 和 Google Vertex AI。此类计划允许威胁行为者劫持基于云的 AI 工具,通常通过将访问权限出售给其他犯罪分子来获利。

    微软的应对措施及其更广泛的影响

    针对此操作,微软做出回应:

    • 撤销访问权限:禁用该组织被盗的凭证并关闭其服务基础设施。
    • 查封域名:获得法院命令关闭aitism[.]net
    • 加强防御:实施额外的保护措施,以防止将来发生类似的滥用行为。

    然而,微软还发现该组织针对其他人工智能服务提供商的证据,表明网络安全领域滥用人工智能的趋势更大。

    人工智能工具:一把双刃剑

    虽然 ChatGPT 和 DALL-E 等生成式 AI 工具提供了巨大的好处,但网络犯罪分子的滥用凸显了增强安全协议的迫切需求:

    1. API 安全:组织必须确保对 API 密钥进行强有力的保护,以防止未经授权的访问。
    2. 威胁监控:持续监控AI服务使用情况有助于检测和阻止异常行为。
  • 合作:云提供商、网络安全公司和执法部门必须共同努力,捣毁此类行动。
  • 微软的诉讼揭示了人工智能与网络犯罪之间的危险交集。随着威胁行为者越来越多地利用人工智能服务来生成有害内容并开发恶意软件,组织必须优先保护其人工智能基础设施。

    此案例警示我们:虽然人工智能代表着技术的未来,但其漏洞可以被武器化,因此在打击数字威胁的过程中,强有力的网络安全措施是绝对必要的。

    正在加载...