TL;DR CoreWeave 在使用 Nvidia 最新 Blackwell 架构的 MLPerf® Inference v6.0 基准测试中取得了领先结果。
- 该公司利用了 Nvidia 的 GB200 NVL72 和 GB300 NVL72 系统,突显了其在 AI 推理任务中的卓越性能。
- 此次结果使 CoreWeave 成为 AI 基础设施市场的强有力竞争者,重点专注于生产级 AI 和智能体工作负载。
- CoreWeave 的表现证明了专业云提供商能够提供与传统云巨头相媲美的顶级性能。
TL;DR CoreWeave 在使用 Nvidia 最新 Blackwell 架构的 MLPerf® Inference v6.0 基准测试中取得了领先结果。

“这些结果验证了我们致力于为生产级 AI 提供最高效能和最高效率基础设施的专注,”CoreWeave 发言人表示,“随着行业从训练转向推理,以低延迟大规模运行大型模型的能力至关重要。我们在 MLPerf 中的表现表明,我们在这场 AI 普及的新阶段中处于领先地位。”
MLPerf Inference v6.0 套件是衡量机器学习工作负载性能的权威行业标准。CoreWeave 在数据中心封闭细分市场的提交结果展示了 Nvidia Blackwell GPU 的能力,该 GPU 拥有第二代 Transformer 引擎和第五代 NVLink 互联技术。GB200 NVL72 结合了 Grace CPU 和 Blackwell GPU,专为大规模推理和大型语言模型 (LLM) 任务而设计。
对于投资者而言,CoreWeave 的结果标志着云市场出现了新的竞争动态。虽然亚马逊 (AWS)、微软 Azure 和谷歌云仍在整体云服务中占据主导地位,但像 CoreWeave 这样的专业化玩家正在高性能 AI 领域开辟出一个利润丰厚的细分市场。这可能会迫使现有的行业巨头加速其 AI 基础设施建设,并可能对利润率产生影响。CoreWeave 的股票 (CRWV) 在过去一年大幅上涨,如果该公司能将这些基准测试的胜利转化为持续的企业客户增长,其股价可能会进一步走高。此次公告也强化了 Nvidia (NVDA) 在 AI 加速器市场的持续领先地位,其 Blackwell 平台树立了新的性能标准,AMD 和英特尔等竞争对手将难以企及。总之,AI 基础设施竞赛远未结束,CoreWeave 已将自己定位为值得关注的关键参与者。
本文仅供参考,不构成投资建议。