核心要点
- 随着工作负载从简单的推理转向复杂的、CPU 密集型代理式 AI (Agentic AI),AI 数据中心对 CPU 的需求正在激增。
- 预计所需的 CPU 与 GPU 比例将从约 1:8 转变至低至 1:1,从而产生严重的供应瓶颈。
- 作为回应,GPU 巨头英伟达 (Nvidia) 和 IP 授权商安谋 (Arm) 均在 2026 年 3 月宣布计划销售其自有的服务器级 CPU,直接进入该市场。
核心要点

AI 军备竞赛的焦点正从 GPU 转向长期被忽视的 CPU,因为复杂的代理式 AI 工作负载的兴起正威胁着要改变数据中心的基础架构。所需的 CPU 与 GPU 比例预计将从 1:4 至 1:8 的范围大幅缩减至 1:1,使这一此前被视为次要的组件面临严重的产能瓶颈。
“CPU 正面临极其严重的产能短缺,”SemiAnalysis 首席分析师 Dylan Patel 在 4 月的一次采访中表示。他指出,AI 工作负载的范式正在从简单的文本生成进化为由 AI 代理协调的复杂多步任务,这一过程高度依赖 CPU。
市场研究机构 TrendForce 在最近的一份报告中证实了这一判断,预测在代理式 AI 时代,CPU 与 GPU 的比例将缩小至 1:1 到 1:2 之间。在这些新工作负载中,CPU 负责“编排层”——规划任务、调用工具以及管理模型之间的数据流。2025 年的一篇学术论文《以 CPU 为中心的代理式 AI 视角》发现,在代理任务中,基于 CPU 的工具处理可能占总延迟的 90.6%。安谋 (Arm) 计算得出,这意味着需求将增长四倍,从传统 AI 数据中心的每吉瓦 3000 万个 CPU 核心增加到代理式 AI 的 1.2 亿个核心。
这种结构性需求冲击正在重塑竞争格局,给英特尔的历史主导地位带来巨大压力,同时也为 AMD 以及新进入者英伟达和安谋创造了巨大的增长机会。对于投资者而言,这开启了在成熟的 GPU 交易之外,利用 AI 基础设施建设获利的新路径。
这一转变首先动摇了传统的 x86 市场。英特尔曾占据服务器市场 95% 以上的份额,但其 7nm 工艺良率问题导致 Sapphire Rapids 芯片推迟了近两年,为 AMD 的 EPYC Milan 打开了大门。英特尔 2026 年的路线图,包括 288 核的 Xeon 6+ 和 256 核的 Xeon 7,依赖于其尚未经证实的 18A 工艺节点。TrendForce 报告称,良率问题可能会将这些芯片的量产推迟到 2027 年,这可能使 AMD 凭借其基于台积电 N2 工艺的 256 核/512 线程 EPYC Venice 继续扩大市场份额。
更重大的变化是非传统参与者的进入。2026 年 3 月,GPU 巨头英伟达宣布将把其 Vera CPU 作为独立产品销售。该芯片采用台积电 N3 工艺,拥有 88 个核心,并可通过其 NVLink-C2C 互连技术与英伟达的 GPU 直接连接。同月,安谋结束了其 35 年纯 IP 授权商的历史,宣布推出自有 CPU——Arm AGI。这款 136 核芯片同样采用台积电 N3 工艺,已获得 Meta、OpenAI 和微软的设计订单。云服务提供商也在加速其自研 CPU 设计,亚马逊 (AWS) 的 Graviton5、微软的 Cobalt 200 和谷歌的 Axion 均旨在降低 AI 工作负载的成本。
CPU 需求的激增在 GPU 之外创造了一个新的、尚未被充分评估的投资矢量。虽然英特尔 (INTC) 在其 18A 工艺上面临重大执行风险,但 AMD (AMD) 有望继续获取市场份额。英伟达 (NVDA) 和安谋 (ARM) 的加入为两家公司开启了数十亿美元的新收入流。非传统 CPU 设计商的扩张也直接利好 IC 后端服务公司,如负责谷歌和微软设计的创意电子 (GUC),以及更广泛的台积电先进封装生态系统。
本文仅供参考,不构成投资建议。