Key Takeaways
- 三星的「Pangea v2」CXL 2.0 記憶體系統效能比傳統互連提升 10.2 倍,並將系統瓶頸減少高達 96%。
- Google 正在其數據中心部署 CXL,而 NVIDIA 即將推出的 Vera CPU 將支援 CXL 3.1 標準,為該技術提供大規模測試。
- CXL 的廣泛採用需要整個生態系統(包括 CPU、GPU 和記憶體製造商)的支持,這是限制該技術此前版本迭代的關鍵障礙。
Key Takeaways

三星電子公司報告稱,其新記憶體架構的效能提升了十倍以上。在 Google 和 NVIDIA 承諾部署該技術之際,這一關鍵進展可能解決人工智慧數據中心的主要效率問題。
「AI 基礎設施需要大量記憶體,且記憶體價格持續攀升,」南韓 CXL 新創公司 Xcena 執行長 Jin Kim 在最近的一次採訪中表示,「這迫使我們的目標客戶提高記憶體利用率,目前除了 CXL,沒有其他方案可以替代以提高記憶體效率。」
根據最近 IEEE 會議上發表的一篇論文,三星基於 CXL 2.0 標準構建的「Pangea v2」系統,其數據傳輸效能比傳統的遠端直接記憶體存取(RDMA)方法提高了 10.2 倍。該系統匯集了高達 5.5 TB 的 DRAM,還將關鍵瓶頸減少了高達 96%。這一進步正值 Google 確認已開始在數據中心部署 CXL,且 NVIDIA 計劃在今年晚些時候推出的 Vera CPU 中支援 CXL 3.1 標準之際。
對於投資者而言,頂級記憶體生產商與兩家最大的數據中心營運商的同步舉措,標誌著 CXL(Compute Express Link)可能迎來拐點。該技術允許跨多個 CPU 和 GPU 共享公共記憶體池,解決了專用記憶體模組通常僅有 20% 到 30% 利用率的關鍵效率低下問題。CXL 的成功推出可能顯著降低 AI 硬體的總擁有成本,從而影響三星和 SK 海力士等記憶體製造商的估值,並可能改變目前由 NVIDIA 主導的競爭格局。
三星的 Pangea v2 系統集成了 22 個 CXL DRAM 模組,形成一個統一的共享記憶體池,該系統是與 Marvell Technology Inc. 和 AI 基礎設施公司 Liquid AI 合作開發的。雖然 10.2 倍的效能提升是一項重大的技術成就,但該系統基於的 CXL 2.0 標準目前正被更迭。
CXL 聯盟此後已敲定了 3.2 版規範。三星表示計劃在 2026 年前發布基於新標準的「Pangea v3」系統。競爭對手 SK 海力士公司的進展也十分迅速,已在 2025 年完成了相容 CXL 2.0 的 96GB CMM-DDR5 記憶體的客戶認證,並計劃推出支援 CXL 3.0 的第二代產品。美光科技公司(Micron Technology Inc.)於 2024 年加入角逐,鞏固了三大記憶體生產商之間的競爭格局。
CXL 廣泛採用的主要障礙不在於技術,而在於協作。為了使該系統正常運行,數據中心中的每個組件——從 CPU 和 GPU 到記憶體模組和網路設備——都必須支持相同的標準。
「要讓 CXL 發揮作用,你需要 CPU、GPU、記憶體和軟體全部相容,」伯恩斯坦研究公司(Bernstein Research)半導體分析師 Mark Li 表示,「極少有公司能夠控制所有這些產品並推動協同變革。NVIDIA 是其中之一,Google 是另一個。」
歷史證明了這種轉型的難度。AMD 在 2022 年、Intel 在 2023 年都曾推出支援 CXL 的伺服器晶片,但商業採用非常有限。即使有 Google 目前的部署,行業工程師仍暗示該技術尚未完全滿足大型雲端服務提供商的所有要求。NVIDIA 今年晚些時候推出的 Vera CPU,現在被視為衡量 CXL 能否最終從利基實驗走向可靠行業標準的關鍵現實測試。
本文僅供參考,不構成投資建議。