Penguin 于 3 月 16 日推出首款生产 CXL 服务器
Penguin Solutions 于 2026 年 3 月 16 日宣布推出其 MemoryAI KV 缓存服务器,标志着业界首款基于 Compute Express Link (CXL) 内存技术的生产就绪型服务器。该产品专为通过在处理单元和内存之间创建更高效的路径来加速人工智能工作负载而设计。此次发布使 Penguin 成为旨在解决随着 AI 模型复杂性和规模增长而出现的性能瓶颈的关键创新者。
通过将基于 CXL 的服务器商业化,Penguin 正直接进军高增长的 AI 基础设施市场。该技术使 CPU 和专用加速器能够以高带宽、低延迟共享内存资源。这种方法与传统服务器架构不同,旨在提高大规模数据处理的性能和效率,特别是对于主导现代数据中心的推荐引擎和生成式 AI 应用程序。
AI 数据中心面临 5.2 万亿美元的基础设施挑战
AI 需求正在为数据中心带来不可持续的功耗和带宽要求。麦肯锡公司的预测估计,到 2030 年,满足这一需求将需要 5.2 万亿美元的新数据中心投资。问题的核心在于能耗和数据传输速度,一些单独的 AI 芯片功耗高达 35 千瓦。这些限制正在迫使行业从传统的铜基互连转向更先进的解决方案。
CXL 和共封装光学 (CPO) 等技术正成为应对这场架构危机的重要解决方案。它们通过将内存和连接资源更靠近处理核心来解决 I/O 瓶颈,从而显著降低每比特能耗和延迟。正如行业专家所指出的,I/O 功耗可能占系统总功耗的 50% 或更高。通过解决这种低效率问题,Penguin 等公司推出的 CXL 服务器等新架构为超大规模数据中心提供商提供了一条途径,使其能够在不受功耗和冷却成本完全限制的情况下扩展其 AI 能力。
CXL 采用使 Penguin 处于硬件转变的最前沿
Penguin 的此次发布在 CXL 启用硬件的新兴市场中确立了重要的先行者优势。随着超大规模数据中心提供商和企业数据中心寻求替代成本高昂且功耗大的传统系统,Penguin 的生产就绪型服务器提供了一个切实的解决方案。此举可以加速整个行业对 CXL 标准的更广泛采用,从而对竞争对手开发和发布类似产品构成压力。
定制和专用芯片的战略重要性是一个清晰的行业趋势,Meta 等主要参与者正在开发自己的芯片家族以优化特定工作负载。Penguin 基于 CXL 等开放行业标准构建的策略提供了一条不同的市场路径,提供了一种可集成到不同数据中心环境的专业化、高性能解决方案。这不仅将公司定位为硬件供应商,更是下一波 AI 基础设施的关键推动者。