TL;DR CoreWeave 在使用 Nvidia 最新 Blackwell 架構的 MLPerf® Inference v6.0 基準測試中取得了領先結果。
- 該公司利用了 Nvidia 的 GB200 NVL72 和 GB300 NVL72 系統,突顯了其在 AI 推理任務中的卓越性能。
- 此次結果使 CoreWeave 成為 AI 基礎設施市場的強有力競爭者,重點專注於生產級 AI 和智能體工作負載。
- CoreWeave 的表現證明了專業雲提供商能夠提供與傳統雲巨頭相媲美的頂級性能。
TL;DR CoreWeave 在使用 Nvidia 最新 Blackwell 架構的 MLPerf® Inference v6.0 基準測試中取得了領先結果。

「這些結果驗證了我們致力於為生產級 AI 提供最高效能和最高效率基礎設施的專注,」CoreWeave 發言人表示,「隨著行業從訓練轉向推理,以低延遲大規模運行大型模型的能力至關重要。我們在 MLPerf 中的表現表明,我們在這場 AI 普及的新階段中處於領先地位。」
MLPerf Inference v6.0 套件是衡量機器學習工作負載性能的權威行業標準。CoreWeave 在數據中心封閉細分市場的提交結果展示了 Nvidia Blackwell GPU 的能力,該 GPU 擁有第二代 Transformer 引擎和第五代 NVLink 互聯技術。GB200 NVL72 結合了 Grace CPU 和 Blackwell GPU,專為大規模推理和大型語言模型 (LLM) 任務而設計。
對於投資者而言,CoreWeave 的結果標誌著雲市場出現了新的競爭動態。雖然亞馬遜 (AWS)、微軟 Azure 和谷歌雲仍在整體雲服務中佔據主導地位,但像 CoreWeave 這樣的專業化玩家正在高性能 AI 領域開闢出一個利潤豐厚的細分市場。這可能會迫使現有的行業巨頭加速其 AI 基礎設施建設,並可能對利潤率產生影響。CoreWeave 的股票 (CRWV) 在過去一年大幅上漲,如果該公司能將這些基準測試的勝利轉化為持續的企業客戶增長,其股價可能會進一步走高。此次公告也強化了 Nvidia (NVDA) 在 AI 加速器市場的持續領先地位,其 Blackwell 平台樹立了新的性能標準,AMD 和英特爾等競爭對手將難以企及。總之,AI 基礎設施競賽遠未結束,CoreWeave 已將自己定位為值得關注的關鍵參與者。
本文僅供參考,不構成投資建議。