Key Takeaways:
- モルガン・スタンレーは、AIエージェントへの移行により、サーバー用CPU市場が2030年までに最大1100億ドルに達すると予測しています。
- AIサーバーにおけるCPU対GPUの比率は、現在の1:12から1:2まで変化し、CPU需要が劇的に増加すると見込まれています。
- 報告書は、GPU以外にもDRAM、ABF基板、その他のコンポーネントにおける新たなボトルネックと投資機会を特定しています。
Key Takeaways:

モルガン・スタンレーの新しいレポートは、AIバリューチェーンが構造的な変化を遂げており、資本が純粋なGPU競争からフルスタックのシステムアプローチへと再誘導されていると論じています。
モルガン・スタンレーの新しいレポートによると、人工知能への投資ストーリーは、グラフィックス・プロセッシング・ユニット(GPU)への単一の焦点を超えて動きつつあります。同銀行は、AIがコンテンツの生成からエージェントによるタスクの自動化へと進化するにつれ、業界の主要なボトルネックが未加工の計算能力からシステムレベルのオーケストレーションへと移行しており、2030年までに最大1100億ドル規模のサーバー用CPU市場が創出されると主張しています。
「インテリジェント・エージェントAIは、計算からオーケストレーションへの構造的なシフトを意味します」と、モルガン・スタンレーのリサーチ・アナリスト、ショーン・キム氏はレポートに記しています。この移行は、GPUが引き続きコアコンポーネントである一方で、より幅広いコンポーネントがパフォーマンスにとって重要になるため、GPUがAI予算とプレミアムのすべてを独占することはなくなるということを意味します。
同銀行の分析では、AIエージェントの台頭により、2030年までにサーバー用CPUの増分市場が325億ドルから600億ドル創出されると予測しています。これは、サーバーアーキテクチャの根本的な変化によって推進されており、CPU対GPUの比率が典型的な1:12の構成から、1:2というタイトな構成にまで変化します。また、レポートはこのシフトにより、同年までに15〜45エクサバイトの新たなDRAM需要が生まれると予測しています。
投資家にとって、このレポートはAI資本支出の受益者が、まもなく一握りのチップ大手を越えて拡大することを示唆しています。次の大きなリターンの波は、高度な基板、メモリ、ウェハー製造能力など、サプライチェーンにおいて最初にボトルネックとなり、スケールアップが最も困難な「支援コンポーネント(enabling components)」から生まれる可能性があります。
単一の負荷の高いタスクのためにGPUに大きく依存する生成AIとは異なり、AIエージェントは多段階のワークフローを通じて動作します。このプロセスには、計画、データの検索、外部ツールの呼び出し、および反復的な洗練が含まれます。これらのタスクは本質的にCPUにより適しています。モルガン・スタンレーの核心的な結論は、エージェントベースのシステムがより多くのステップ、状態、調整を導入し、CPUの役割を補助的なコンポーネントからミッションクリティカルなオーケストレーターへと高めるという点にあります。
これにはデータセンターアーキテクチャにとって2つの大きな影響があります。第一に、GPUに対するCPUの比率が体系的に上昇します。エヌビディア(Nvidia)自体のロードマップは、Rubinプラットフォームで1:2のCPU対GPU比率への移行を示唆しており、将来の「Rubin Ultra」構成では2:1の比率になる可能性があります。第二に、DRAMは単純な容量コンポーネントから、エージェントのワークフローにおけるコンテキストとメモリに必要な膨大な量のデータを保持する、システムパフォーマンスとスループットのコアドライバーへとアップグレードされます。
モルガン・スタンレーのレポートは、このアーキテクチャのシフトから価値を取り込む準備ができているサプライチェーンのいくつかの主要分野を特定しています。同社は特に、供給がタイトで検証サイクルが長く、より高い価格決定力を持つコンポーネントについて強気の見方を示しています。
レポートはAMDやインテルなどのCPUメーカーにとって構造的なメリットがあると見ていますが、両社に対しては「等重量(イコールウェイト)」の評価を維持しており、資本支出から収益への道筋がより直接的であると見ているエヌビディアやブロードコムなどの企業を通じてエージェントのテーマに投資することを好んでいます。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。