关键要点:
- 从 AI 训练到推理的战略转型正驱动对 DDR5 内存的巨大需求,新型 AI CPU 需要高达 400GB 的内存,是之前部分配置的四倍以上。
- DRAM 市场已面临估计 10% 的供应短缺,导致 16GB DDR5 现货价格在 4 月上涨 2.8%,而较旧的 DDR4 价格则下跌了 16%。
- Meta 和微软等大型科技公司指出,内存成本上升是资本支出增加的驱动因素,部分供应商目前正签署多年、价值数十亿美元的合同以锁定供应。
关键要点:

AI 服务器架构的结构性转变将延长存储行业的繁荣期,分析师目前预测当前的超级周期将持续到 2027 年。
人工智能架构的根本性变革正在重塑规模达 1,700 亿美元的存储芯片市场。英特尔和 AMD 等主要 CPU 制造商正在设计需要高达 400GB DDR5 内存的芯片。由于行业重心从 AI 训练转向推理,这种需求激增导致了严重的供需失衡,分析师现在预测,当前的半导体“超级周期”将从 2026 年延长至 2027 年。
“这并非由单一技术浪潮驱动的暂时性飙升。这是一种结构性的需求变化,正在长期重塑 NAND 经济学,”NAND 控制器制造商群联电子(Phison Technology)社长潘健成(Michael Wu)在最近的《福布斯》专栏中写道,他强调这背离了行业历史上的繁荣与萧条周期。
市场已经表现出紧张迹象。根据韩国证券公司的数据,4 月份 16GB DDR5 模块的现货价格上涨了 2.8%,而旧一代 DDR4 模块的价格则下跌了 16%。这种分化反映了全行业高性能内存的供应短缺,估计缺口约为总需求的 10%。新型服务器 CPU 配备了 300-400GB 的内存配置,与前几代常见的 96-256GB 相比实现了巨大跨越。
硬件成本的剧增是行业战略重点转向 AI 推理的直接后果,因为推理能从运行模型中产生长期收益。这种转变对三星和 SK 海力士等存储厂商来说是利好,但对 Meta 和微软等大型数据中心运营商客户来说则构成了重大的成本挑战。这些科技巨头现在被迫签署价值数十亿美元、为期多年的供应协议以确保内存供应。存储生产商闪迪(Sandisk)证实了这一策略,该公司近期披露了超过 110 亿美元的此类交易。
存储需求激增的核心驱动力是 CPU 在 AI 系统中角色的演变。过去,数据中心是围绕 GPU 构建的,以处理 AI 训练的繁重工作,典型的服务器配置为每台 CPU 配备 8 个 GPU。但随着重心转向推理——即训练模型的持续运行——CPU 正在成为“AI 协调者”,管理多个 AI 智能体及其输出。
这一新角色需要巨大的“上下文内存”来实时跟踪和综合不同 AI 模型的输出。根据 VAST Data 的分析,与 Llama 3 等大语言模型的单次对话就会产生超过 60GB 需要存储和访问的数据。因此,推理服务器中的 CPU 与 GPU 比例正在从 1:8 缩小至 1:4,部分专家认为未来甚至会达到 1:1 的配置。
这种转变对硬件的影响是惊人的。哈佛商学院教授威利·希(Willy Shih)表示,一台典型的 AI 服务器所需的内存可能是传统数据中心服务器的 10 倍。这让存储制造商陷入了困境,他们目前仍维持着从以往市场崩盘中吸取的谨慎投资纪律。建造新的晶圆厂是一项耗时多年、耗资数十亿美元的任务,这意味着供应无法以 AI 需求的速度同步增长。
财务影响已在大型科技公司的财报中显现。Meta 最近将内存价格上涨列为提高其资本支出指引的主要原因。微软也指出,在其 2026 历年预计 1,900 亿美元的资本支出中,组件成本占约 250 亿美元。即使是拥有巨大议价能力的苹果公司,也向投资者发出警告,称内存紧缺可能会影响其未来的业务。
对于投资者而言,延长的超级周期预示着三星、SK 海力士和美光等存储厂商将获得持续盈利。然而,这也标志着超大规模云提供商和其他构建 AI 基础设施的公司将面临持续的利润率压力,这一逆风预计将一直持续到 2027 年。
本文仅供参考,不构成投资建议。