人工智能恶意软件产生 10,000 个变体,威胁检测系统不堪重负

网络安全研究人员对大型语言模型 (LLM) 可能被滥用来加速恶意软件开发发出警告。Palo Alto Networks 的 Unit 42 进行的一项新分析显示,LLM 虽然不擅长从头开始创建恶意软件,但可以大规模重写和混淆现有恶意代码,从而创建出在高达 88% 的情况下逃避检测的变体。
这引发了人们对威胁行为者如何利用生成式人工智能来绕过检测系统、降低机器学习模型以及部署不断扩大的恶意软件库的严重担忧。
目录
人工智能增强恶意软件的创建机制
“据 Unit 42 称,犯罪分子可以促使 LLM 对恶意 JavaScript 代码进行转换,从而使检测系统更难标记重写的脚本。与生成不太令人信服的输出的传统混淆工具不同,LLM 驱动的重写看起来更自然,更难检测。
关键的转型技术包括:
- 变量重命名
- 字符串拆分
- 插入垃圾代码
- 删除空格
- 完整代码重新实现
每次迭代都会生成一个新的恶意软件变种,它保留了原有的恶意功能,同时大大降低了被检测到的机会。
Unit 42 通过使用 LLM 从现有恶意软件样本中创建 10,000 个 JavaScript 变体,演示了这种方法。这些变体成功欺骗了恶意软件分类器,包括广泛使用的模型,如 PhishingJS 和 Innocent Until Proven Guilty (IUPG)。在许多情况下,即使是 VirusTotal 平台也无法将重写的脚本检测为恶意软件。
人工智能混淆的危险边缘
与 obfuscator.io 等旧工具不同,基于 LLM 的重写本质上更加复杂,这些工具产生的模式更容易被检测和识别。它们看起来更接近合法代码,这使得机器学习 (ML) 模型和防病毒工具更难识别它们。
这种方法的影响是深远的:
- 恶意软件分类器被欺骗将恶意脚本标记为良性。
- ML 模型的性能下降,难以跟上恶意软件变种的不断演变。
- 由于对手不断生成新的、无法检测的恶意软件,检测系统面临过时的风险。
利用法学硕士进行更广泛的网络犯罪
这种趋势并不局限于恶意软件开发。恶意行为者正在利用 WormGPT 等恶意工具,这些工具使用生成式人工智能来自动执行网络钓鱼活动,并针对特定受害者制定令人信服的社会工程攻击。
尽管 LLM 提供商已经实施了防护措施来限制滥用,例如 OpenAI 最近在 2024 年 10 月阻止了 20 次欺骗性操作,但威胁行为者不断寻找绕过这些限制的方法。
一线希望:以毒攻毒
尽管存在风险,但用于混淆恶意软件的相同 LLM 驱动技术也可以帮助防御者。Unit 42 建议使用这些 AI 方法来生成训练数据,以提高恶意软件检测模型的稳健性。通过向分类器提供更多混淆代码示例,研究人员可能会增强其检测最先进变体的能力。
新兴的人工智能漏洞:TPUXtract 攻击
LLM 驱动的恶意软件的兴起并不是唯一登上头条新闻的 AI 相关威胁。北卡罗来纳州立大学的研究人员发现了一种名为 TPUXtract 的侧信道攻击,能够从 Google 的边缘张量处理单元 (TPU) 窃取 AI 模型架构。
通过捕获神经网络推理过程中发出的电磁信号,攻击者可以以 99.91% 的准确率提取层类型、节点数、滤波器大小和激活函数等详细信息。虽然这种攻击需要物理访问设备和昂贵的设备,但它对知识产权构成了严重风险,并可能促进后续的网络攻击。
这对网络安全意味着什么
生成式人工智能的快速发展对网络安全来说是一把双刃剑。它为创新打开了新的大门,同时也为网络犯罪分子提供了前所未有的工具。
- 组织必须采取主动行动,投资能够适应人工智能驱动的混淆技术的先进检测系统。
- 政策制定者应该为人工智能的道德使用制定明确的指导方针,同时实施更严格的控制以防止滥用。
- 安全研究人员必须利用人工智能来超越对手,开发出能够应对不断演变的威胁的弹性系统。
人工智能恶意软件的未来
LLM 能够创建 10,000 种恶意软件变体,并在 88% 的情况下逃避检测,这清楚地提醒我们网络威胁的日益复杂化。随着技术的发展,我们的防御也必须随之发展。企业、政府和网络安全专业人员必须采用创新策略,以领先于恶意行为者并保护数字世界免受人工智能攻击。