AI 数据中心连接需求的爆发正引发重大的利润再分配,价值链正从传统组件制造商转向设计和封装下一代芯片的半导体巨头。
返回
AI 数据中心连接需求的爆发正引发重大的利润再分配,价值链正从传统组件制造商转向设计和封装下一代芯片的半导体巨头。

AI 基础设施需求的激增正在重塑数据中心连接市场,这不仅是铜缆与光纤之间的竞争,更是关于谁能攫取支撑人工智能硬件利润的角逐。伯恩斯坦(Bernstein)的一份新报告描绘了一个未来:共封装光学(CPO)技术将从根本上改变价值链,使英伟达(Nvidia)和博通(Broadcom)等芯片设计商获益,而牺牲传统光模块制造商的利益,尽管该技术的广泛应用仍需数年时间。
“CPO 转型改写了行业的价值分配,”伯恩斯坦分析师在最近的白皮书中指出。报告估计,虽然 CPO 光引擎和激光组合的平均售价比同类 1.6T 可插拔模块高出约 10%,但利润中心已果断从模块组装商转向控制芯片设计、先进封装和晶圆代工的企业。
AI 基础设施的扩张正沿着两条截然不同的路径展开:向上扩展(scale-up),即在单个服务器机架内增加计算资源;向外扩展(scale-out),即通过连接大量机架形成大规模集群。由于成本低且技术成熟,铜缆互连在至少未来三年内将继续主导短程向上扩展系统,如英伟达的 GB200 NVL72 架构。然而,对于向外扩展设计中远距离连接机架而言,光互连必不可少。LightCounting 的数据显示,以太网光收发器市场预计在 2024 年至 2026 年间将以 59% 的复合年增长率增长,到 2030 年增长率将稳定在 15% 左右。
这种分化意味着未来并不是光纤简单地取代铜缆,而是两者并存。真正的奖杯在于这些系统的构建方式。据博通称,将光引擎直接集成在与交换机或处理器芯片相同基板上的 CPO 技术,有望将每比特成本降低 40%。然而,这种集成带来了巨大的制造、测试和维护挑战,将推迟其主流部署。
尽管具有性能优势,但根据伯恩斯坦和 LightCounting 的预测,CPO 预计要到 2028 年以后才能实现大规模部署。主要障碍是制造复杂性和维护疑虑。由于光学组件被封装在交换机内部,一旦发生故障可能需要更换整个单元,与几分钟内更换可插拔模块相比,这是一个昂贵且耗时的过程。
英伟达计划在 2026 年下半年与 CoreWeave 和 Lambda 等早期 AI 云提供商合作,进行小规模 CPO 交换机部署,以在真实环境下测试该技术。在 CPO 成为主流之前,业界预计将依赖线性可插拔光学(LPO)作为过渡方案。LPO 模块去除了高能耗的 DSP 芯片,在保留可插拔设计可维护性的同时,可将功耗降低三分之二。伯恩斯坦预测,在 2030 年之前,LPO 的出货量可能会超过 CPO。
这一转型发生在全球 AI 支出激增的背景下。到 2026 年,全球 AI 支出预计将达到 2.5 万亿美元,但这一增长受限于现实世界的约束。仅北美地区的数据中心可能就需要 92 吉瓦的新电力容量,而该行业可能消耗全球高达 70% 的存储芯片产量。一家光组件供应商在近期报告中指出,其数通业务营收增长受到了激光器、存储器和 ASIC 短缺的限制。
这些瓶颈造成了高风险的平衡博弈。正如一位行业高管指出,供需之间仅 5% 的错位就可能转化为数十亿美元的闲置资本或收入损失。在这种环境下,台积电等公司以及委外封测(OSAT)厂商的先进封装和代工能力变得尤为重要,他们与芯片设计商英伟达和博通一起,成为了 CPO 转型的主要受益者。对于投资者而言,关键信息是:AI 热潮的价值正集中在少数能够掌控硅级集成复杂性的公司手中。
本文仅供参考,不构成投资建议。