Key Takeaways:
- 谷歌宣布挫败了其认为首例使用人工智能模型开发的零日漏洞攻击。
- 该攻击工具为一个 Python 脚本,可绕过双因素身份验证 (2FA),代码中包含 LLM 生成的特征,如教学式文档字符串。
- 此次事件证实了关于 AI 将加速网络威胁的警告,国家级黑客也在利用 AI 进行漏洞研究。
Key Takeaways:

谷歌周一表示,它挫败了一起网络犯罪活动,该活动使用了该公司认为的首个由人工智能开发的零日漏洞利用工具。这一里程碑式的事件证实了安全专家的警告,即人工智能将急剧升级企业的网络威胁格局。
“它已经来了,”谷歌旗下 Mandiant 威胁情报部门首席分析师约翰·赫特奎斯特 (John Hultquist) 在报告中表示,“人工智能驱动的漏洞发现与利用时代已经到来。人工智能将成为一个巨大的优势,因为攻击者的行动速度可以快得多。”
该攻击工具以 Python 脚本形式实现,针对一款流行的开源 Web 管理工具中先前未知的漏洞,允许攻击者绕过双因素身份验证 (2FA)。虽然谷歌没有指明具体的工具名称和威胁者,但表示对“使用人工智能模型创建攻击代码”持有“高度信心”。
这一发现标志着一个关键转折点,将人工智能在网络攻击中的应用从理论风险转变为已被证实的现实。这一进展可能迫使各行各业重新评估其安全态势,因为人工智能模型可以大幅降低发现和武器化软件漏洞所需的时间与技能。
谷歌对该攻击工具源自 AI 的信心来自于代码本身。公司注意到该 Python 脚本包含大量的教学式文档字符串(docstrings)、一个“幻觉”出的 CVSS 评分,以及高度符合大语言模型 (LLM) 训练数据特征的教科书式结构化格式。
漏洞本身是一个由于硬编码信任假设引起的高级语义逻辑缺陷,大语言模型在经过海量代码库训练后,特别擅长识别这类错误。
报告还强调,以经济利益为动机的网络罪犯并非唯一使用人工智能的群体。谷歌情报团队观察到来自中国和朝鲜的国家支持组织正积极利用 LLM 来增强其攻击能力。
据观察,一个名为 UNC2814 的中国相关组织使用了角色驱动的“越狱”手段——指示 AI 扮演安全专家的角色——来辅助其研究 TP-Link 固件中的漏洞。另一个被追踪为 APT45 的朝鲜组织据称发送了数千个重复提示,以递归方式分析已知漏洞并验证概念验证 (PoC) 攻击工具,构建了一个在没有 AI 辅助下几乎无法实现的更强大武器库。
此事件凸显了先进人工智能的双刃剑本质。虽然威胁者正利用它来加速攻击,但同样的技术也被定位为关键的防御工具。Anthropic 和 OpenAI 等公司正在开发专门的 AI 模型,旨在帮助防御者发现并修补其系统中的漏洞。
这开启了网络安全军备竞赛的新战线,形成了 AI 驱动的攻击者与 AI 驱动的防御者之间的对抗。目前,专家预测将进入一个“过渡期”,在此期间网络安全风险将显著上升,因为各公司都在努力适应一个其软件缺陷可能以史无前例的规模和速度被探测的世界。
本文仅供参考,不构成投资建议。