在两个月内,第二个组织声称已突破 Anthropic 高风险 AI 模型周围的安全防御,这引发了外界对该公司保护其最强大工具能力的质疑。
返回
在两个月内,第二个组织声称已突破 Anthropic 高风险 AI 模型周围的安全防御,这引发了外界对该公司保护其最强大工具能力的质疑。

骇客组织 ShinyHunters 声称其已入侵 AI 安全领导者 Anthropic 的内部系统,据称访问了与其尚未发布的 Claude Mythos 模型相关的数据。这一未经证实的声明是在 7 月份另一起独立违规事件之后提出的,当时一个 Discord 小组获得了该高风险模型的访问权限。
Anthropic 尚未公开证实 ShinyHunters 的入侵声明。根据彭博社的报道,该公司此前表示“已注意到该声明并正在调查”7 月份的事件。
据称,ShinyHunters 分享了用户管理面板和内部 AI 实验的屏幕截图。在此之前的 7 月违规事件中,用户通过猜测模型的在线位置并利用外包人员的特权访问权限进入了系统。Anthropic 曾将 Claude Mythos 描述为具有“识别并利用每个主要操作系统中零日漏洞”的能力。
如果这一新声明得到证实,反复出现的安全失误可能会严重损害 Anthropic 作为专注于安全的 AI 实验室的声誉,并削弱谷歌等企业客户和合作伙伴的信任。随着各公司竞相开发功能日益强大的模型,这些事件对整个 AI 行业的安全协议提出了严峻挑战。
ShinyHunters 的声明标志着最近几周内未经授权的用户第二次声称获得了 Anthropic 所称的“具有潜在危险”的 AI 的访问权限。7 月初,社交平台 Discord 上的一个用户小组获得了 Mythos 的访问权限,这并非通过复杂的攻击,而是根据公司的命名习惯猜测其在线位置。
早前的违规行为得到了该小组一名成员的协助,该成员拥有 Anthropic 外包人员的特权访问身份。虽然这些用户告诉彭博社,他们使用该模型是为了完成无害的任务,但该事件暴露了重大的安全弱点。对于一家品牌建立在安全和负责任 AI 开发之上的公司来说,其最强大模型在短时间内接连发生两起所谓的违规事件,令投资者和客户深感忧虑。
Anthropic 一直对 Claude Mythos 严加保密,仅通过一项名为“Project Glasswing”的计划向选定的合作伙伴提供访问权限。该公司自己对该模型能力的描述——即能够发现并利用新型软件漏洞——使其处于独特的风险类别。虽然 OpenAI 和谷歌等竞争对手也在开发强大的模型,但 Anthropic 的公开重点一直放在遏制先进 AI 的潜在危险上。
据称的违规行为表明,该公司自身的运营安全可能与其高调的安全原则不匹配。如果像 ShinyHunters 这样的组织能够访问内部仪表板,则存在模型被盗或 Anthropic 合作伙伴敏感数据泄露的可能性。这些事件发出了一次严酷的提醒:随着 AI 模型变得越来越强大,构建它们的实验室也正成为更有价值的目标。
本文仅供参考,不构成投资建议。