OpenAI 与英伟达各自达成的 200 亿美元交易引爆了 AI 计算未来的争夺战,战场正从模型训练转向规模更为庞大的推理市场。
返回
OpenAI 与英伟达各自达成的 200 亿美元交易引爆了 AI 计算未来的争夺战,战场正从模型训练转向规模更为庞大的推理市场。

一场针对人工智能下一阶段的战略博弈正在升级。OpenAI 与英伟达共计投入超过 400 亿美元,旨在确保其在 AI 推理领域的霸权——即使用训练好的模型生成响应的过程。这些举措威胁到此前由英伟达近乎独家控制的市场,并标志着半导体行业的一次重大架构变革。
这场冲突的首个信号出现在 2025 年 12 月,英伟达低调完成了对专攻高速推理芯片的初创公司 Groq 价值 200 亿美元的收购。随后,反击在 2026 年 4 月 17 日到来,据报道 OpenAI 将斥资超过 200 亿美元向竞争对手 Cerebras Systems 采购芯片,并获得该公司最高 10% 的股权。同日,Cerebras 提交了估值达 350 亿美元的 IPO 申请。
这两笔交易凸显了 AI 行业的一次根本性再平衡。虽然训练 GPT-4 等大型模型计算成本高昂,但这是一次性投入。而每当用户提问时发生的“推理”,则是持续性的且最终规模更大的支出。根据 CES 2026 的市场研究,到 2026 年,推理预计将占所有 AI 计算支出的三分之二,一些高管认为这一比例甚至可能达到 80%。
“AI 行业的重心正迅速从单次的训练任务转移到每天数十亿次的推理请求,”一位科技分析师指出,“这不仅仅是一个更大的市场;它是一个技术逻辑完全不同的市场,英伟达在这里的主导地位不再稳如泰山。”
### 架构分歧显现
冲突的核心在于芯片设计。英伟达的 GPU(如 H100)针对训练所需的并行大规模计算进行了优化。然而,其对外部高带宽内存(HBM)的依赖在推理场景下形成了瓶颈,因为在推理过程中,从内存中检索模型权重的速度是主要的限制因素。
Cerebras 和 Groq 采取了不同的路径。它们的芯片——分别是晶圆级引擎(WSE)和语言处理单元(LPU)——直接在硅片上集成了大量超高速 SRAM 存储,紧邻处理核心。这种设计大幅降低了内存延迟,据称在执行某些任务时,推理速度比英伟达现有的产品快 15 到 20 倍。
英伟达斥资 200 亿美元收购 Groq,是对这种架构弱点的某种默认。该公司并没有仅仅依靠自身的产品路线图(如提升推理性能的新型 Blackwell B200),而是支付了高昂溢价来收购竞争技术。对于全球最大的 AI 芯片销售商而言,这是一次防御性举措,旨在弥补其产品组合中的潜在缺口。
### OpenAI 的攻势
相比之下,OpenAI 的交易是一项明确的进攻战略。这家全球最大的 AI 模型提供商不仅仅是在分散供应商;它正在积极扶持英伟达的挑战者。协议内容包括超过 200 亿美元的芯片采购、获得 Cerebras 最高 10% 股份的认股权证,以及用于建设配套数据中心的 10 亿美元投资。
这一举措效仿了苹果的历史战略:深度整合并最终控制其芯片供应链。通过锁定一个专属的高性能推理供应商,OpenAI 减少了对英伟达的依赖,并在大规模运行模型的成本控制上获得了筹码。据报道,该公司还在与合作伙伴博通(Broadcom)开发自研定制 ASIC 芯片,标志着其正在多管齐下追求计算独立。
对于投资者而言,Cerebras 的 IPO 呈现出一幅复杂的图景。该公司(交易代码为“CBRS”)目前的估值目标为 350 亿美元,远高于 2026 年 2 月的 230 亿美元和 2025 年 9 月的 81 亿美元。这是该公司的第二次 IPO 尝试,此前其在 2024 年的申请因涉及当时最大客户(阿联酋 G42 基金)的国家安全问题而撤回。
虽然将 G42 替换为 OpenAI 作为核心客户提升了收入质量,但并未解决客户集中度的底层问题。参与此次 IPO 的投资者在押注 OpenAI 的需求将持续增长,且 Cerebras 能在 OpenAI 的自研芯片成为可行替代方案之前成功实现客户多元化。这 350 亿美元的疑问在于,这种乐观情绪是否已被市场过度消化。
本文仅供参考,不构成投资建议。