在兩個月內,第二個組織聲稱已突破 Anthropic 高風險 AI 模型周圍的安全防禦,這引發了外界對該公司保護其最強大工具能力的質疑。
返回
在兩個月內,第二個組織聲稱已突破 Anthropic 高風險 AI 模型周圍的安全防禦,這引發了外界對該公司保護其最強大工具能力的質疑。

駭客組織 ShinyHunters 聲稱其已入侵 AI 安全領導者 Anthropic 的內部系統,據稱訪問了與其尚未發布的 Claude Mythos 模型相關的數據。這一未經證實的聲明是在 7 月份另一起獨立違規事件之後提出的,當時一個 Discord 小組獲得了該高風險模型的訪問權限。
Anthropic 尚未公開證實 ShinyHunters 的入侵聲明。根據彭博社的報導,該公司此前表示「已注意到該聲明並正在調查」7 月份的事件。
據稱,ShinyHunters 分享了用戶管理面板和內部 AI 實驗的螢幕截圖。在此之前的 7 月違規事件中,用戶透過猜測模型的在線位置並利用外包人員的特權訪問權限進入了系統。Anthropic 曾將 Claude Mythos 描述為具有「識別並利用每個主要操作系統中零日漏洞」的能力。
如果這一新聲明得到證實,反覆出現的安全失誤可能會嚴重損害 Anthropic 作為專注於安全的 AI 實驗室的聲譽,並削弱 Google 等企業客戶和合作夥伴的信任。隨著各公司競相開發功能日益強大的模型,這些事件對整個 AI 行業的安全協議提出了嚴峻挑戰。
ShinyHunters 的聲明標誌著最近幾週內未經授權的用戶第二次聲稱獲得了 Anthropic 所稱的「具有潛在危險」的 AI 的訪問權限。7 月初,社交平台 Discord 上的一個用戶小組獲得了 Mythos 的訪問權限,這並非透過複雜的攻擊,而是根據公司的命名習慣猜測其在線位置。
早前的違規行為得到了該小組一名成員的協助,該成員擁有 Anthropic 外包人員的特權訪問身份。雖然這些用戶告訴彭博社,他們使用該模型是為了完成無害的任務,但該事件暴露了重大的安全弱點。對於一家品牌建立在安全和負責任 AI 開發之上的公司來說,其最強大模型在短時間內接連發生兩起所謂的違規事件,令投資者和客戶深感憂慮。
Anthropic 一直對 Claude Mythos 嚴加保密,僅透過一項名為「Project Glasswing」的計劃向選定的合作夥伴提供訪問權限。該公司自己對該模型能力的描述——即能夠發現並利用新型軟件漏洞——使其處於獨特的風險類別。雖然 OpenAI 和 Google 等競爭對手也在開發強大的模型,但 Anthropic 的公開重點一直放在遏制先進 AI 的潛在危險上。
據稱的違規行為表明,該公司自身的運營安全可能與其高調的安全原則不匹配。如果像 ShinyHunters 這樣的組織能夠訪問內部儀表板,則存在模型被盜或 Anthropic 合作夥伴敏感數據洩露的可能性。這些事件發出了一次嚴酷的提醒:隨著 AI 模型變得越來越強大,構建它們的實驗室也正成為更有價值的目标。
本文僅供參考,不構成投資建議。