AI軍備競争の焦点はGPUから、長らく見過ごされてきたCPUへと移りつつあります。複雑なエージェンティックAI(Agentic AI)ワークロードの台頭が、データセンターの基本アーキテクチャを変えようとしているためです。必要とされるCPU対GPUの比率は、従来の1:4〜1:8の範囲から1:1という極めてタイトな水準へシフトすると予想されており、これまで二の次だったコンポーネントにおいて深刻な生産ボトルネックが発生しています。
「CPUは極めて深刻な容量不足に直面している」と、SemiAnalysisのチーフアナリストであるディラン・パテル(Dylan Patel)氏は4月のインタビューで語りました。同氏は、AIワークロードのパラダイムが単純なテキスト生成から、AIエージェントが調整する複雑な多段階タスクへと進化しており、そのプロセスがCPUに強く依存していると指摘しています。
市場調査会社のTrendForceは最近のレポートでこの判断を裏付け、エージェンティックAIの時代にはCPU対GPUの比率が1:1から1:2の間に縮小すると予測しました。これらの新しいワークロードにおいて、CPUはタスクの計画、ツールの呼び出し、モデル間のデータフローの管理を行う「オーケストレーション層」を担います。2025年の学術論文「A CPU-Centric Perspective on Agentic AI」では、エージェント・タスクにおける総レイテンシの最大90.6%をCPUベースのツール処理が占める可能性があることが判明しました。Armの計算によれば、これは需要が4倍に増加することを意味し、従来のAIデータセンターでのギガワットあたり3,000万個のCPUコアから、エージェンティックAIでは1億2,000万個のコアが必要になります。
この構造的な需要ショックは競争環境を再構築しており、インテル(Intel)の歴史的な支配力に大きな圧力をかける一方で、AMDや新規参入者のエヌビディア(Nvidia)、アーム(Arm)に巨大な成長機会をもたらしています。投資家にとって、これは確立されたGPUトレードを超えて、AIインフラ構築から利益を得るための新たなベクトルを提示するものです。
このシフトはまず、伝統的なx86市場を不安定にさせました。サーバー市場で95%以上のシェアを誇っていたインテルのXeonプロセッサは、7nmプロセスの歩留まり問題でSapphire Rapidsチップが約2年遅れたことで地位が低下し、AMDのEPYC Milanに門戸を開くこととなりました。288コアのXeon 6+や256コアのXeon 7を含むインテルの2026年のロードマップは、まだ実証されていない18Aプロセスノードに依存しています。TrendForceの報告によると、歩留まりの問題によりこれらのチップの量産は2027年まで遅れる可能性があり、AMDがTSMCのN2プロセスで製造される256コア/512スレッドのEPYC Veniceで市場シェアを拡大し続ける可能性が高いとしています。
より重要な変化は、非伝統的なプレーヤーの参入です。2026年3月、GPU大国のエヌビディアは、Vera CPUを単体製品として販売すると発表しました。TSMCのN3プロセスを採用したこのチップは88コアを搭載し、NVLink-C2Cインターコネクトを介してエヌビディアのGPUと直接リンクできます。同月、アームは純粋なIPライセンサーとしての35年の歴史に終止符を打ち、自社CPUであるArm AGIを発表しました。同じくTSMCのN3プロセスを採用した136コアのチップは、すでにMeta、OpenAI、Microsoftとのデザインウィンを獲得しています。クラウドプロバイダーも自社製CPUの設計を加速させており、AWSのGraviton5、MicrosoftのCobalt 200、GoogleのAxionはいずれもAIワークロードのコスト削減を狙っています。
CPU需要の急増は、GPU以外の分野で過小評価されている新たな投資ベクトルを生み出しています。インテル(INTC)は18Aプロセスにおいて大きな実行リスクに直面していますが、AMD(AMD)はシェア獲得を継続できる位置にあります。エヌビディア(NVDA)とアーム(ARM)の参入は、両社に数十億ドル規模の新たな収益源をもたらします。こうした非伝統的なCPU設計者の拡大は、GoogleやMicrosoftの設計を手掛けるGlobal Unichip Corp.(GUC)などのICバックエンド・サービス企業や、より広範なTSMCの先端パッケージング・エコシステムにも直接的な利益をもたらします。
この記事は情報提供のみを目的としており、投資勧誘を意図するものではありません。