作为政府监管的重大扩张,全球三家最大的 AI 开发商已同意在发布最先进模型前接受安全审查。
返回
作为政府监管的重大扩张,全球三家最大的 AI 开发商已同意在发布最先进模型前接受安全审查。

在一项旨在大幅加强政府对人工智能监管的举措中,Alphabet 旗下的谷歌、微软公司以及 xAI 已同意在公开发布之前,提供其先进的 AI 模型以供安全评估。此项协议使这三家科技巨头与美国商务部 AI 标准与创新中心(CAISI)建立了合作伙伴关系,该中心此前已与 OpenAI 和 Anthropic PBC 达成类似安排。
“独立且严谨的测量科学对于理解前沿 AI 及其对国家安全的影响至关重要,”CAISI 主任克里斯·法尔在一份声明中表示。“这些扩大的行业合作有助于我们在关键时刻为公众利益扩大工作规模。”
该机构指出,与 OpenAI 和 Anthropic 的协议也已重新谈判,以配合总统唐纳德·特朗普的《AI 行动计划》。自 2024 年以来,该中心已完成 40 多项 AI 模型评估,其中包括部分尚未向公众发布的模型。此次将谷歌、微软及埃隆·马斯克的 xAI 纳入范围,是因为政府对 Anthropic 的 Mythos 等新系统能力日益担忧。
政府访问权限的扩大是日益强大的 AI 引发国家安全问题的直接结果。Anthropic 对其 Mythos 模型的自身分析据称发现关键软件和基础设施中存在数千个漏洞,这加速了特朗普政府内部的政策制定。白宫已经反对 Anthropic 扩大 Mythos 访问权限的计划,而国防部正就该公司作为供应链风险的地位与其进行法律纠纷。
这些协议赋予了 CAISI 更多的权力。该机构于 2023 年在拜登政府领导下成立,原名为 AI 安全研究所,去年由特朗普政府重新组建。虽然其存在尚未通过立法确立,但特朗普的《AI 行动计划》指示该中心领导与国家安全相关的模型评估。随着监管机构探索如何将现有法律应用于 AI 系统,这可能为法律的执行铺平道路。
政府的战略似乎是双管齐下的。一方面,由于强大的 AI 可能被滥用,政府明确推动加强安全审查。另一方面,特朗普政府也表示其目标是取消部分 AI 安全护栏,以加速新模型的推出,并确保美国在与中国的竞争中保持优势。这在降低风险与促进快速创新之间形成了一种微妙的平衡。新的评估协议以及可能出台的行政命令,代表了政府试图通过建立正式的政府审查程序来应对这一挑战。
本文仅供参考,不构成投资建议。