核心要点
- 瑞银预测服务器 CPU 市场将从 2025 年的约 300 亿美元扩大近五倍,到 2030 年达到 1700 亿美元,为芯片制造商创造巨大新机遇。
- 这一增长由“代理式 AI”驱动,它将计算工作负载逆转为 70-80% 依赖 CPU,每颗 GPU 所需的 CPU 核心数是传统 AI 模型的 5 到 10 倍。
- ARM 是最大受益者,预计到 2030 年其市场份额将达到 40-45%;瑞银将其目标价上调至 245 美元,意味着较当前水平有显著上涨空间。
核心要点

瑞银(UBS)的一份新报告预测,随着向“代理式 AI”(Agentic AI)工作负载的转变逆转了计算需求层级,并对 CPU 核心数提出了新要求,服务器 CPU 市场规模将从 2025 年的 300 亿美元激增至 2030 年的 1700 亿美元。
瑞银分析师 Timothy Arcuri 在 5 月 5 日的一份简报中援引行业专家访谈写道:“在传统 AI 中,70-80% 的计算在 GPU 上进行;而在代理式推理中,这一比例反转为 70-80% 在 CPU 上进行。”
报告发现,虽然传统 AI 训练工作负载每颗 GPU 仅需 8 到 12 个 CPU 核心,但代理式 AI 模型需要 80 到 120 个核心——需求增长了 5 到 10 倍。基于此分析,瑞银将 ARM 的目标价从 175 美元上调至 245 美元,预计其市场份额将从 15% 攀升至 40% 以上。
这一预测暗示着以 CPU 为中心的公司将迎来大规模的估值重估,ARM Holdings plc (NASDAQ: ARM) 和超威半导体 (Advanced Micro Devices, Inc., NASDAQ: AMD) 被视为主要受益者。对于英特尔 (Intel Corporation, NASDAQ: INTC),报告暗示其在保持高利润 AI 数据中心相关性方面将面临更艰巨的挑战。
虽然第一波生成式 AI 是由 GPU 密集型训练定义的,但“代理式 AI”的下一阶段——即模型可以自主执行复杂任务、使用工具并协调子任务——本质上受限于 CPU。根据报告中的专家来源,这种转变彻底改变了数据中心架构。
核心原因在于,代理式工作流需要大量的处理能力用于任务协调、沙箱环境中的代码执行以及文件检索,而这些都是 CPU 密集型任务。一位专家指出,一个复杂的 AI 代理可以产生 10 到 100 个子代理,每个子代理需要 1 到 4 个专用 CPU 核心。这种动态打破了旧有的“重 GPU、轻 CPU”的服务器模型,并为高核心数 CPU 创造了一个庞大的新市场。
瑞银将 ARM 确定为这场架构转变中的明显赢家。报告预计 ARM 在服务器 CPU 市场的出货量份额将从 2025 年的约 15% 激增至 2030 年的 40-45%。由于高价 AI CPU 占比更高,其收入份额可能达到 50-55%。
这一优势源于 ARM 的架构,专家称其比竞争对手的 x86 设计能效高出约 30%,内存效率高出 20-30%。这促使超大规模云计算厂商在其内部 CPU 设计中广泛采用 ARM,包括英伟达的 Grace CPU、亚马逊 AWS 的 Graviton 系列以及谷歌的 Axion 处理器。瑞银预计 ARM 将占据“头节点”CPU 市场 75% 以上的份额,该节点负责协调 GPU 机架。
对于传统的 x86 双寡头来说,代理式 AI 浪潮既是机遇也是威胁。
瑞银认为,超威半导体(AMD)已做好受益准备。该公司在高核心数和多线程 CPU(如 EPYC 系列)方面的实力直接契合代理式工作负载的需求。该行的模型建议,如果市场如预测般发展,AMD 2030 年的每股收益(EPS)估值有 11% 的潜在上行空间。
英特尔的情况则更为复杂。虽然其 x86 架构将在传统企业服务器市场保持稳固地位,但在关键的 AI 头节点细分市场,它正迅速输给 ARM。报告还指出,英特尔即将推出的“Coral Rapids”产品线旨在缩小差距,但目前 AMD 和 ARM 的地位更为有利。瑞银预计英特尔 2030 年的 EPS 预测仅有 7% 的潜在上行空间,是三家公司中最低的。
本文仅供参考,不构成投资建议。