作為政府監管的重大擴張,全球三家最大的 AI 開發商已同意在發佈最先進模型前接受安全審查。
返回
作為政府監管的重大擴張,全球三家最大的 AI 開發商已同意在發佈最先進模型前接受安全審查。

在一項旨在大幅加強政府對人工智能監管的舉措中,Alphabet 旗下的谷歌、微軟公司以及 xAI 已同意在公開發佈之前,提供其先進的 AI 模型以供安全評估。此項協議使這三家科技巨頭與美國商務部 AI 標準與創新中心(CAISI)建立了合作夥伴關係,該中心此前已與 OpenAI 和 Anthropic PBC 達成類似安排。
「獨立且嚴謹的測量科學對於理解前沿 AI 及其對國家安全的影響至關重要,」CAISI 主任克里斯·法爾在一份聲明中表示。「這些擴大的行業合作有助於我們在關鍵時刻為公眾利益擴大工作規模。」
該機構指出,與 OpenAI 和 Anthropic 的協議也已重新談判,以配合總統唐納德·特朗普的《AI 行動計劃》。自 2024 年以來,該中心已完成 40 多項 AI 模型評估,其中包括部分尚未向公眾發佈的模型。此次將谷歌、微軟及埃隆·馬斯克的 xAI 納入範圍,是因為政府對 Anthropic 的 Mythos 等新系統能力日益擔憂。
政府訪問權限的擴大是日益強大的 AI 引發國家安全問題的直接結果。Anthropic 對其 Mythos 模型的自身分析據稱發現關鍵軟件和基礎設施中存在數千個漏洞,這加速了特朗普政府內部的政策制定。白宮已經反對 Anthropic 擴大 Mythos 訪問權限的計劃,而國防部正就該公司作為供應鏈風險的地位與其進行法律糾紛。
這些協議賦予了 CAISI 更多的權力。該機構於 2023 年在拜登政府領導下成立,原名為 AI 安全研究所,去年由特朗普政府重新組建。雖然其存在尚未通過立法確立,但特朗普的《AI 行動計劃》指示該中心領導與國家安全相關的模型評估。隨着監管機構探索如何將現有法律應用於 AI 系統,這可能為法律的執行鋪平道路。
政府的戰略似乎是雙管齊下的。一方面,由於強大的 AI 可能被濫用,政府明確推動加強安全審查。另一方面,特朗普政府也表示其目標是取消部分 AI 安全護欄,以加速新模型的推出,並確保美國在與中國的競爭中保持優勢。這在降低風險與促進快速創新之間形成了一種微妙的平衡。新的評估協議以及可能出台的行政命令,代表了政府試圖通過建立正式的政府審查程序來應對這一挑戰。
本文僅供參考,不構成投資建議。