OpenAI 阻止 20 项恶意网络攻击,打击全球网络犯罪活动

令人惊讶的是,OpenAI 已成为对抗数字威胁的一支强大力量。自今年年初以来,该公司已成功阻止了 20 多个试图利用其 AI 平台进行有害活动的恶意活动,表明网络安全的未来已经到来。
这些行动包括调试恶意软件、编造虚假信息和创建虚假社交媒体角色。威胁行为者试图利用 OpenAI 平台协助进行恶意活动,例如为虚假账户生成个人简介或为 X(以前称为 Twitter)上的虚假社交媒体身份创建 AI 生成的个人资料图片。
然而,尽管做出了这些努力,OpenAI 还是向公众保证,这些活动都没有带来恶意软件创建或虚假信息病毒式传播方面的突破性进展。换句话说,虽然坏人正在试验人工智能,但他们尚未取得重大突破。
目录
网络犯罪分子如何利用人工智能
恶意攻击者来自全球各个角落,从中国到伊朗,采用各种手段。一个突出的例子是 SweetSpecter,这是一个总部位于中国的组织,它使用人工智能进行侦察和漏洞研究,甚至试图(但没有成功)对 OpenAI 员工进行鱼叉式网络钓鱼。
伊朗组织也发挥了重要作用。与伊朗伊斯兰革命卫队 (IRGC) 有关联的 Cyber Av3ngers 研究了使用人工智能的可编程逻辑控制器,而另一个伊朗组织 Storm-0817 则使用人工智能调试 Android 恶意软件并抓取社交媒体资料。
除了这些有针对性的活动外,OpenAI 还阻止了几项大规模影响力行动。其中之一 A2Z 生成了英语和法语内容,供社交媒体广泛发布,而 Stop News 则利用人工智能生成的图像(通常采用卡通或戏剧风格)来增强其文章和推文的效果。
打击全球虚假信息传播
针对政治系统的虚假信息宣传是另一个令人担忧的领域。OpenAI 报告称,它曾干预试图影响美国、卢旺达、印度和欧盟选举的企图。这些努力都没有取得病毒式传播的效果,但威胁行为者试图操纵选举的事实凸显了人工智能驱动的虚假信息所带来的风险越来越大。
STOIC 是一家以色列公司,也称为 Zero Zeno,是该领域的主要参与者之一,它在社交媒体上对印度大选发表评论,Meta 和 OpenAI 在今年早些时候就曾披露过这一活动。
OpenAI 的持续警惕还导致了另外两个网络 Bet Bot 和 Corrupt Comment 的发现,它们使用其 API 在 X 上生成对话并将用户链接到赌博网站或在社交媒体上发布大量虚假评论。
人工智能在微目标虚假信息中的作用
生成式人工智能不仅可能被用作大规模虚假信息传播的武器,还可能被用于微目标定位。根据网络安全公司 Sophos 最近的一份报告,人工智能可以被操纵,通过电子邮件、网站和虚假角色传播高度个性化的政治虚假信息。通过精心定制针对特定竞选要点的信息,威胁行为者可以在新的层面上欺骗选民,可能改变选举结果或用虚假信息左右舆论。
研究人员警告说,人们很容易将任何政治人物或运动与他们可能实际上并不支持的政策立场联系起来,从而在选民中造成混乱并损害民主进程。
OpenAI 对网络安全的承诺
虽然人工智能为人们带来了前所未有的发展机遇,但也带来了严峻的安全挑战。OpenAI 已经证明,它有能力应对恶意利用其技术的企图。然而,网络安全专家和网络犯罪分子之间的猫捉老鼠游戏可能还会继续。
OpenAI 今年努力破坏了 20 多个全球活动,取得了重大胜利,但战斗远未结束。随着人工智能的发展,威胁行为者的策略也将随之演变。不断保持警惕和创新将是确保人工智能继续成为一股向善的力量而不是数字欺骗工具的关键。