Key Takeaways
- 三星的“Pangea v2” CXL 2.0 内存系统性能比传统互连提升 10.2 倍,并将系统瓶颈减少高达 96%。
- 谷歌正在其数据中心部署 CXL,而英伟达即将推出的 Vera CPU 将支持 CXL 3.1 标准,为该技术提供大规模测试。
- CXL 的广泛采用需要整个生态系统(包括 CPU、GPU 和内存制造商)的支持,这是限制该技术此前版本迭代的关键障碍。
Key Takeaways

三星电子公司报告称,其新内存架构的性能提升了十倍以上。在谷歌和英伟达承诺部署该技术之际,这一关键进展可能解决人工智能数据中心的主要效率问题。
“AI 基础设施需要大量内存,且内存价格持续攀升,”韩国 CXL 初创公司 Xcena 首席执行官 Jin Kim 在最近的一次采访中表示,“这迫使我们的目标客户提高内存利用率,目前除了 CXL,没有其他方案可以替代以提高内存效率。”
根据最近 IEEE 会议上发表的一篇论文,三星基于 CXL 2.0 标准构建的“Pangea v2”系统,其数据传输性能比传统的远程直接内存访问(RDMA)方法提高了 10.2 倍。该系统汇集了高达 5.5 TB 的 DRAM,还将关键瓶颈减少了高达 96%。这一进步正值谷歌确认已开始在数据中心部署 CXL,且英伟达计划在今年晚些时候推出的 Vera CPU 中支持 CXL 3.1 标准之际。
对于投资者而言,顶级内存生产商与两家最大的数据中心运营商的同步举措,标志着 CXL(Compute Express Link)可能迎来拐点。该技术允许跨多个 CPU 和 GPU 共享公共内存池,解决了专用内存模块通常仅有 20% 到 30% 利用率的关键效率低下问题。CXL 的成功推出可能显著降低 AI 硬件的总拥有成本,从而影响三星和 SK 海力士等内存制造商的估值,并可能改变目前由英伟达主导的竞争格局。
三星的 Pangea v2 系统集成了 22 个 CXL DRAM 模块,形成一个统一的共享内存池,该系统是与 Marvell Technology Inc. 和 AI 基础设施公司 Liquid AI 合作开发的。虽然 10.2 倍的性能提升是一项重大的技术成就,但该系统基于的 CXL 2.0 标准目前正被更迭。
CXL 联盟此后已敲定了 3.2 版规范。三星表示计划在 2026 年前发布基于新标准的“Pangea v3”系统。竞争对手 SK 海力士公司的进展也十分迅速,已在 2025 年完成了兼容 CXL 2.0 的 96GB CMM-DDR5 内存的客户认证,并计划推出支持 CXL 3.0 的第二代产品。美光科技公司(Micron Technology Inc.)于 2024 年加入角逐,巩固了三大内存生产商之间的竞争格局。
CXL 广泛采用的主要障碍不在于技术,而在于协作。为了使该系统正常运行,数据中心中的每个组件——从 CPU 和 GPU 到内存模块和网络设备——都必须支持相同的标准。
“要让 CXL 发挥作用,你需要 CPU、GPU、内存和软件全部兼容,”伯恩斯坦研究公司(Bernstein Research)半导体分析师 Mark Li 表示,“极少有公司能够控制所有这些产品并推动协同变革。英伟达是其中之一,谷歌是另一个。”
历史证明了这种转型的难度。AMD 在 2022 年、英特尔在 2023 年都曾推出支持 CXL 的服务器芯片,但商业采用非常有限。即使有谷歌目前的部署,行业工程师仍暗示该技术尚未完全满足大型云服务提供商的所有要求。英伟达今年晚些时候推出的 Vera CPU,现在被视为衡量 CXL 能否最终从利基实验走向可靠行业标准的关键现实测试。
本文仅供参考,不构成投资建议。