Penguin 於 3 月 16 日推出首款生產 CXL 伺服器
Penguin Solutions 於 2026 年 3 月 16 日宣布推出其 MemoryAI KV 快取伺服器,標誌著業界首款基於 Compute Express Link (CXL) 記憶體技術的生產就緒型伺服器。該產品專為透過在處理單元和記憶體之間建立更高效的路徑來加速人工智慧工作負載而設計。此次發布使 Penguin 成為旨在解決隨著 AI 模型複雜性和規模增長而出現的效能瓶頸的關鍵創新者。
透過將基於 CXL 的伺服器商業化,Penguin 正直接進軍高增長的 AI 基礎設施市場。該技術使 CPU 和專用加速器能夠以高頻寬、低延遲共享記憶體資源。這種方法與傳統伺服器架構不同,旨在提高大規模資料處理的效能和效率,特別是對於主導現代資料中心的推薦引擎和生成式 AI 應用程式。
AI 資料中心面臨 5.2 兆美元的基礎設施挑戰
AI 需求正在為資料中心帶來不可持續的功耗和頻寬要求。麥肯錫公司的預測估計,到 2030 年,滿足這一需求將需要 5.2 兆美元的新資料中心投資。問題的核心在於能耗和資料傳輸速度,一些單獨的 AI 晶片功耗高達 35 千瓦。這些限制正在迫使產業從傳統的銅基互連轉向更先進的解決方案。
CXL 和共封裝光學 (CPO) 等技術正成為應對這場架構危機的重要解決方案。它們透過將記憶體和連接資源更靠近處理核心來解決 I/O 瓶頸,從而顯著降低每位元能耗和延遲。正如產業專家所指出的,I/O 功耗可能佔系統總功耗的 50% 或更高。透過解決這種低效率問題,Penguin 等公司推出的 CXL 伺服器等新架構為超大規模資料中心提供商提供了一條途徑,使其能夠在不受功耗和冷卻成本完全限制的情況下擴展其 AI 能力。
CXL 採用使 Penguin 處於硬體轉變的最前沿
Penguin 的此次發布在 CXL 啟用硬體的新興市場中確立了重要的先行者優勢。隨著超大規模資料中心提供商和企業資料中心尋求替代成本高昂且功耗大的傳統系統,Penguin 的生產就緒型伺服器提供了一個切實的解決方案。此舉可以加速整個產業對 CXL 標準的更廣泛採用,從而對競爭對手開發和發布類似產品構成壓力。
定制和專用晶片的戰略重要性是一個清晰的產業趨勢,Meta 等主要參與者正在開發自己的晶片家族以最佳化特定工作負載。Penguin 基於 CXL 等開放產業標準建構的策略提供了一條不同的市場路徑,提供了一種可整合到不同資料中心環境的專業化、高性能解決方案。這不僅將公司定位為硬體供應商,更是下一波 AI 基礎設施的關鍵推動者。