Anthropic、競争力維持のため主要な安全誓約を撤回
3800億ドルと評価されるAI企業Anthropicは、その責任あるスケーリングポリシーの中核的な柱を正式に放棄しました。同社は火曜日のブログ投稿で、安全対策が適切であることを保証できない場合にAI開発を停止するという2023年の約束を撤回しました。この動きは、競合他社と差別化していた「安全性第一」のアイデンティティからの劇的な転換を意味します。最高科学責任者のジャレッド・カプランは、「競合他社が猛スピードで先行している場合」、同社は一方的な一時停止の約束はできないと述べ、イデオロギー的な純粋さよりも商業的勢いを重視する戦略的転換を示唆しました。
この方針転換は、Anthropicが年間収益が年間10倍の速度で成長していると報告するなど、著しい商業的成功を収めた後に起こりました。この決定により、同社は2024年に公開憲章で安全性の強調を弱めるようにミッションを更新したOpenAIなどの競合他社に近づきます。両社は、投資家の強い関心を利用しようとIPOの準備を進めていると報じられています。Anthropicの方針変更は、CEOのダリオ・アモデイが2020年にOpenAIを離れた際に、かつての会社が安全よりも速度を優先しているという懸念を理由に確立した中核的な原則を解消するものです。
国防総省、金曜日を期限として技術への強制アクセスを脅迫
Anthropicの方針転換は、米国防総省との深刻な紛争と同時に起こっています。火曜日の緊迫した会議で、ピート・ヘグセス国防長官はCEOのダリオ・アモデイに最後通牒を突きつけました。それは、金曜日までに軍にClaude AIモデルへの無制限アクセスを許可するか、さもなければ厳しい罰則に直面するというものでした。国防総省は、同社に遵守を強制するために冷戦時代の法律である国防生産法を発動すると脅しました。また、Anthropicを「サプライチェーンリスク」と宣言する可能性も警告し、これは業界全体の契約を複雑にするでしょう。
この対立は、国防総省がAIを**「すべての合法的目的」に使用することを要求していることと、Anthropicが自律兵器や大規模監視に技術が使用されることに対する「レッドライン」を表明していることとの衝突から生じています。脅迫にもかかわらず、国防総省は最も機密性の高い作業に使用されているClaudeモデルへの依存を認めています。国防当局者は、「私たちがこれらの人々とまだ話している唯一の理由は、彼らが必要であり、今すぐ必要なためだ」**と述べました。この力学は、期限が迫るにつれてAnthropicを不安定でありながら強力な交渉立場に置きます。