一家联邦上诉法院让五角大楼赢得了关键胜利,允许其维持对 AI 开发商 Anthropic 的黑名单,此案对人工智能在军事领域的应用具有重大影响。
返回
一家联邦上诉法院让五角大楼赢得了关键胜利,允许其维持对 AI 开发商 Anthropic 的黑名单,此案对人工智能在军事领域的应用具有重大影响。

联邦上诉法院周三拒绝了 Anthropic 暂时解除五角大楼黑名单的请求,这给这家 AI 初创公司带来了沉重打击。目前,双方正就军方将 Claude AI 模型用于战争和监控一事展开激烈的法律博弈。哥伦比亚特区巡回上诉法院的裁决允许国防部继续禁止 Anthropic 参与合同,该公司声称这一认定可能导致其损失数十亿美元。
“我们认为,这里的公平平衡倾向于政府,”上诉法院在判决书中表示。“天平的一边是单一私营公司面临的相对有限的财务损失风险;而另一边则是司法机关如何管理国防部在活跃的军事冲突期间,通过何种方式及何人来获取至关重要的 AI 技术。”
这一裁决导致联邦法院之间出现了分歧。上个月,旧金山一名法官在相关案件中批准了 Anthropic 的初步禁令,暂时阻止了一项单独的黑名单命令。这场法律纠纷源于五角大楼在 3 月初将 Anthropic 列为“国家安全供应链风险”——这是针对美国科技公司的前所未有的举动——此前 Anthropic 拒绝允许其 AI 用于自主武器或国内监控。
这场争端危及了 Anthropic 作为关键政府供应商的地位,并可能重塑价值数十亿美元的国防领域 AI 竞争格局。随着五角大楼目前正在探索 Google DeepMind 和 OpenAI 的替代方案,此案成为对行政部门对科技公司控制权的关键考验,并可能抑制公众对 AI 安全与伦理的讨论。
Anthropic 面临两起诉讼,因为五角大楼引用了两项不同的法规来证明其供应链风险认定的合理性。周三哥伦比亚特区法院的裁决涉及其中一项,而旧金山法院对 Anthropic 有利的裁决涉及另一项。法院之间的这种冲突为公司和政府制造了混乱的法律环境。虽然旧金山的禁令暂时恢复了 Anthropic 的准入权限,但哥伦比亚特区的裁决维持了五角大楼根据另一项法律将该公司列入黑名单的权力。
哥伦比亚特区法院承认,如果没有暂停执行,Anthropic“可能会遭受某种程度的不可挽回的损害”,但认为该公司的利益“主要属于财务性质”。此案的口头辩论定于 5 月 19 日举行。
黑名单标志着 Anthropic 与五角大楼关系的戏剧性逆转。这家 AI 公司曾于 7 月与国防部签署了一份价值 2 亿美元的合同,并且是第一家在国防部机密网络中部署模型的公司。然而,谈判在 9 月陷入僵局,当时 Anthropic 试图对其技术的用途设置伦理限制,特别是禁止将其用于自主武器系统。
争端在 2 月下旬升级,当时国防部长皮特·海格塞斯公开宣布 Anthropic 为供应链风险,此前唐纳德·特朗普总统曾在社交媒体上发帖,命令联邦机构“立即停止”使用 Anthropic 的所有技术。
在 Anthropic 与美国政府对簿公堂之际,据报道英国正提议吸引该公司落户。据《金融时报》报道,英国官员提出了多项激励措施,包括扩大 Anthropic 的伦敦办事处以及潜在的双重上市。此举突显了全球在人工智能领导地位上的竞争,英国正试图利用华盛顿与这家硅谷最有价值的 AI 初创公司之一之间的裂痕。
本文仅供参考,不构成投资建议。