政府による監視が大幅に拡大される中、世界最大級のAI開発企業3社が、最先端モデルのリリース前セキュリティ審査を受けることに同意した。
戻る
政府による監視が大幅に拡大される中、世界最大級のAI開発企業3社が、最先端モデルのリリース前セキュリティ審査を受けることに同意した。

人工知能に対する政府の監視を大幅に強化する動きとして、Alphabet傘下のGoogle、Microsoft、そしてxAIの3社は、高度なAIモデルを一般公開前にセキュリティ評価のために提供することに同意した。この合意により、これらテック大手3社は、すでにOpenAIやAnthropic PBCと同様の提携を行っている米商務省のAI標準・イノベーションセンター(CAISI)とのパートナーシップに参加することになる。
CAISIのクリス・フォール所長は声明で、「最先端のAIとそれが国家安全保障に与える影響を理解するためには、独立した厳格な測定科学が不可欠である。こうした業界との協力拡大は、重要な時期に公共の利益のために我々の業務を拡大する助けとなる」と述べた。
同局は、OpenAIおよびAnthropicとの合意についても、ドナルド・トランプ大統領の「AIアクションプラン」に沿う形で再交渉されたと指摘した。2024年以降、同センターは40件以上のAIモデルの評価を完了しており、その中にはまだ一般に公開されていないモデルも含まれている。Google、Microsoft、そしてイーロン・マスク氏のxAIを含む今回の拡大は、Anthropicの「Mythos」モデルのような新しいシステムの能力に対する政権内の懸念が高まっていることを受けたものである。
政府によるアクセスの拡大は、AIの強力化に伴って生じる国家安全保障上の懸念に直接起因している。Anthropic自身によるMythosモデルの分析では、重要なソフトウェアやインフラに数千の脆弱性が見つかったと報告されており、これがトランプ政権内の政策対応を加速させた。ホワイトハウスはすでに、AnthropicによるMythosへのアクセス拡大計画に反対しており、国防省は同社がサプライチェーンのリスクに該当するかどうかを巡って法的紛争を繰り広げている。
今回の合意は、2023年にバイデン政権下でAI安全研究所として設立され、昨年トランプ政権によって再編されたCAISIに、より大きな権限を与えるものである。その存在はまだ法律で成文化されていないものの、トランプ氏のAIアクションプランは、同センターに国家安全保障関連のモデル評価を主導するよう指示している。これは、規制当局が既存の法律をAIシステムにどのように適用するかを模索する中で、新たな法執行への道を開く可能性がある。
政権の戦略は二段構えのようだ。一方で、強力なAIが悪用される可能性を考慮し、安全性とセキュリティの審査を強化する明確な動きがある。その一方で、トランプ政権は、新しいモデルの展開を加速させ、米国が中国に対して競争優位を維持できるようにするため、一部のAI安全ガードレールを撤廃するという目標も掲げている。これは、リスクの軽減と迅速なイノベーションの促進との間の繊細なバランス調整を強いるものである。今回の新しい評価合意と、今後予定されている大統領令は、正式な政府審査プロセスを構築することで、その課題に対処しようとする政権の試みを象徴している。
本記事は情報提供のみを目的としており、投資助言を構成するものではありません。