主要なポイント
米国政府は、AIリーダーであるAnthropicを国家安全保障上のリスクに指定し、同社が自社技術の自律型兵器への使用を拒否したため、特定の国防契約から排除しました。この動きはAnthropicによる法的措置を引き起こし、テクノロジーセクターに衝撃を与え、顧客に同社の強力なAIモデルへの依存度を再考させることになりました。
- 政府の措置: 国防総省は2026年3月17日、評価額3800億ドルのAnthropicを「容認できない」国家安全保障およびサプライチェーンリスクとして分類しました。
- 契約紛争: この紛争は、2億ドル規模の契約交渉の一環として、Anthropicが自社AIを自律型兵器や大規模監視に使用することを防ぐ倫理的ガードレールを削除することを拒否したことに起因します。
- 市場への影響: Anthropicは現在、米国政府を提訴しており、法務テックなどの分野の顧客は、ブラックリスト登録によって生じたコンプライアンスの不確実性のため、同社のClaude AIモデルへの依存度を見直しています。
