UBSの新しい報告書は、サーバーCPU市場が2025年の300億ドルから2030年には1,700億ドルへと急拡大すると予測しています。これは「エージェンティックAI(Agentic AI)」ワークロードへの移行により、計算需要のヒエラルキーが逆転し、CPUコア数が新たに重視されるようになるためです。
UBSのアナリスト、ティモシー・アルキュリ氏は、業界エキスパートへのインタビューを引用した5月5日付のメモの中で、「従来のAIでは、計算の70〜80%がGPU上で行われていましたが、エージェンティックな推論では、それがCPU上の70〜80%に反転します」と述べています。
報告書によると、従来のAI学習ワークロードではGPUあたりわずか8〜12個のCPUコアしか必要としませんが、エージェンティックAIモデルでは80〜120個のコアが必要となり、需要が5〜10倍に増加します。この分析を受けて、UBSはARMの目標株価を175ドルから245ドルに引き上げ、市場シェアが15%から40%以上に上昇すると予測しました。
この予測は、CPU中心の企業にとって大規模な再評価を意味し、ARMホールディングス(NASDAQ: ARM)とAMD(Advanced Micro Devices, Inc., NASDAQ: AMD)が主要な受益者として位置づけられています。インテル(Intel Corporation, NASDAQ: INTC)については、利益率の高いAIデータセンター市場で存在感を維持するために、より厳しい戦いを強いられることが示唆されています。
エージェンティックAIが計算需要の常識を覆す
生成AIの第一波はGPU集約型の学習によって定義されましたが、モデルが自律的に複雑なタスクを実行し、ツールを使いこなし、サブタスクをオーケストレーションする「エージェンティックAI」の次のフェーズは、根本的にCPUバウンドとなります。報告書の専門家ソースによると、このシフトによりデータセンターのアーキテクチャが完全に変わるとのことです。
その核心的な理由は、エージェンティックなワークフローにおいて、タスクのオーケストレーション、サンドボックス環境でのコード実行、ファイル検索などに多大な処理が必要となり、これらはすべてCPU集約型であるためです。ある専門家は、1つの複雑なAIエージェントが10〜100のサブエージェントを生成する可能性があり、それぞれが1〜4個の専用CPUコアを必要とすると指摘しています。このダイナミクスは、従来の「GPU重視、CPU軽視」のサーバーモデルを打破し、多コアCPUの巨大な新市場を創出します。
ARMがAI CPU収益の50%を獲得する見込み
UBSは、このアーキテクチャの転換における明確な勝者としてARMを挙げています。報告書は、ARMのサーバーCPU市場におけるユニットシェアが、2025年の約15%から2030年には40〜45%の間に急上昇すると予測しています。高価格なAI CPUの構成比が高まることで、収益シェアは50〜55%に達する可能性があります。
この優位性は、競合するx86設計よりも電力効率が約30%高く、メモリ効率が20〜30%高いとされるARMのアーキテクチャに由来します。これにより、エヌビディアのGrace CPU、AWSのGravitonシリーズ、グーグルのAxionプロセッサなど、ハイパースケーラーによる自社製CPU設計への採用が広がっています。UBSは、GPUラックのオーケストレーションを担当する「ヘッドノード」CPU市場において、ARMが75%以上のシェアを占めると予想しています。
AMDとインテルが直面する分岐点
従来のx86二強にとって、エージェンティックAIの波は機会と脅威の両方をもたらします。
UBSによれば、AMDは恩恵を受ける有利な立場にあります。EPYCラインのような多コア・マルチスレッドCPUにおける同社の強みは、エージェンティックなワークロードのニーズと直接一致しています。同行のモデルは、市場が予測通りに進展した場合、AMDの2030年EPS予想に11%の潜在的な上昇余地があることを示唆しています。
インテルの状況はより複雑です。同社のx86アーキテクチャは従来の企業向けサーバー市場で強力な足がかりを維持するものの、重要なAIヘッドノードセグメントではARMに急速にシェアを奪われています。報告書はまた、インテルの次期製品ライン「Coral Rapids」がその差を埋めることを目指していると述べていますが、現時点ではAMDとARMの方が有利な状況にあります。UBSはインテルの2030年EPS予測について、3社の中で最も低いわずか7%の潜在的な上昇余地しか見ていません。
この記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。