Key Takeaways:
- 摩根士丹利预测,在 AI 智能体趋势的推动下,服务器 CPU 市场到 2030 年将达到 1100 亿美元。
- AI 服务器中的 CPU 与 GPU 比例预计将从 1:12 转变至 1:2,显著提升 CPU 需求。
- 报告指出,除 GPU 之外,DRAM、ABF 载板等其他组件也将出现新的瓶颈与投资机会。
Key Takeaways:

摩根士丹利的一份新报告认为,AI 价值链正在经历结构性转变,资本正从纯粹的 GPU 竞赛转向全栈系统方法。
根据摩根士丹利的最新报告,人工智能的投资叙事正超越对图形处理单元(GPU)的单一关注。该行认为,随着 AI 从生成内容演进到通过智能体(Agents)实现任务自动化,行业的首要瓶颈正从原始计算能力转向系统级协同,这将创造一个到 2030 年价值高达 1100 亿美元的服务器 CPU 市场。
摩根士丹利研究分析师 Shawn Kim 在报告中写道:“智能体 AI 标志着从计算到编排的结构性转变。”这意味着,虽然 GPU 仍是核心组件,但由于更广泛的组件对性能变得至关重要,它们将不再独占 AI 预算和溢价。
该行的分析预测,AI 智能体的崛起将在 2030 年前为服务器 CPU 创造 325 亿至 600 亿美元的新增市场。这是由服务器架构的根本性变化驱动的,CPU 与 GPU 的配置比例将从典型的 1:12 缩减至 1:2。报告还预测,到同年,这一转变将产生 15 至 45 EB(exabytes)的新增 DRAM 需求。
对于投资者而言,报告建议 AI 资本支出的受益者将很快扩展到少数几家芯片巨头之外。下一波超额回报可能来自供应链中首先成为瓶颈且最难扩展的“赋能组件”,例如先进载板、内存和晶圆代工产能。
与严重依赖 GPU 执行单一密集型任务的生成式 AI 不同,AI 智能体通过多步工作流运行。这一过程涉及规划、数据检索、调用外部工具和迭代优化——这些任务本质上更适合 CPU。摩根士丹利的核心结论是,基于智能体的系统引入了更多的步骤、状态和协调,将 CPU 的角色从辅助组件提升到了关键任务编排者的地位。
这对数据中心架构有两个主要影响。首先,CPU 对 GPU 的比例将系统性上升。英伟达(Nvidia)自身路线图显示,其 Rubin 平台将向 1:2 的 CPU:GPU 比例迈进,而在未来的“Rubin Ultra”配置中甚至可能达到 2:1。其次,DRAM 将从单纯的容量组件升级为系统性能和吞吐量的核心驱动力,承载智能体工作流中上下文和记忆所需的海量数据。
摩根士丹利的报告确定了供应链中几个有望从这一架构转变中获取价值的关键领域。该公司尤其看好供应紧张且验证周期长的组件,因为这些组件拥有更强的定价权。
虽然该报告看好 AMD 和英特尔等 CPU 制造商的结构性收益,但对两家公司均维持“标配”(Equal-weight)评级,更倾向于通过英伟达和博通(Broadcom)等公司来布局智能体主题,因为在该行看来,这些公司的资本支出向盈利转化的路径更为直接。
本文仅供参考,不构成投资建议。