Key Takeaways
- ホワイトハウスの禁止令にもかかわらず、少なくとも3つの米連邦政府機関がAnthropicの新型AIモデル「Mythos」を極秘にテストしている。
- この禁止措置は、Anthropicが自社技術の自律型殺傷兵器への転用を拒否したことを受け、国防総省が同社を「サプライチェーンのリスク」と宣言したことで導入された。
- Anthropicは、Mythos級のサイバー攻撃能力を持つAIが2年以内に普及し、大規模な新たなセキュリティ脅威を生む可能性があると警告している。
Key Takeaways

複数の米連邦政府機関が、Anthropicの新型AIモデル「Mythos」を極秘にテストしていることが明らかになった。これは、同社が自社技術の殺傷型自律兵器への使用を拒否したことを受けてホワイトハウスが課した禁止令に背く動きである。このAIモデルが持つ、重大なソフトウェアの欠陥を発見する能力は、政権の政治的方針とサイバーセキュリティ上の必要性との間に激しい対立を生んでいる。
国家安全保障局(NSA)の元法律顧問であるグレン・ガーステル氏は、「国防総省とAnthropicの間の現在の緊張が、サイバーセキュリティに不可欠な業務の進展を妨げないことを切に願っている」と述べた。
商務省のAI標準・イノベーションセンター(CAISI)は、Mythosの「レッドチーム」評価を実施している。また、財務省もネットワークの脆弱性を特定するために同モデルの活用を模索していると報じられている。これに先立つ2月、Anthropicのダリオ・アモデイCEOが国防総省による自律攻撃へのモデル利用を拒否したことが、今回の禁止措置の引き金となった。
この膠着状態は、重大な国家安全保障上のジレンマを浮き彫りにしている。米政府は、国内企業による革命的なサイバーセキュリティツールの利用を自ら封じているのだ。Anthropicは、同様の競合モデルが2年以内に台頭すると予測しており、米国はAI主導のサイバーセキュリティ競争で後れを取り、重要インフラが脆弱なまま放置されるリスクに直面している。
Anthropicを「サプライチェーンのリスク」と指定した公式な禁止令にもかかわらず、政府のサイバーセキュリティ専門家たちは導入を進めている。事情に詳しい4人の関係者によると、CAISIの研究者たちはMythosの公表前から、その攻撃的な能力のテストを開始していたという。Anthropicの幹部は、政府に対して「自律的なテストおよび技術評価」のためにモデルを提供したことを認めたが、公的な声明では具体的な機関名は伏せられている。
Law & AI Instituteのシニアフェロー、チャーリー・ブロック氏は、「米政府は政府機関によるAnthropic製品の使用を禁止しようとしているが、そのわずか数週間後に同社はサイバーセキュリティにおいて極めて重要な革命的製品を発表した」と指摘する。政治的な圧力は萎縮効果を生んでおり、ある元国家安全保障当局者は、各機関がAnthropicと公に関わることを恐れていると語った。ある議会補佐官は、国防総省は「最も有能なAIベンダーに中指を立てながら、自分の足を撃ち抜いた」と皮肉った。
Anthropicは、未知のソフトウェアの脆弱性を発見・悪用するMythosの能力が一般公開するにはリスクが高すぎると判断し、特定のテクノロジー企業やサイバーセキュリティ企業にのみ提供を限定している。同様のツールが2年以内に拡散するという同社の警告は、高度なAI主導のサイバー攻撃の波が目前に迫っていることを示唆している。米政府は、内部の対立によって複雑化した、時間との戦いを強いられている。
本記事は情報提供のみを目的としており、投資勧誘を意図するものではありません。