AI特化型クラウドプロバイダーのCoreWeaveは、Google Cloudとのパートナーシップを締結し、同ハイパースケーラーを顧客リストに加えるとともに、計算集約型のワークロード向けにクラウド環境間の壁を取り払う3つの新機能を発表しました。この提携により、CoreWeaveのAIネイティブなインフラとGoogleのグローバルネットワークを直接結ぶ専用光ファイバーネットワーク「CoreWeave Interconnect」が導入され、開発者によるクロスクラウドでのAIトレーニングと推論の簡素化を目指します。
CoreWeaveの製品・エンジニアリング担当エグゼクティブ・バイスプレジデントであるチェン・ゴールドバーグ氏は、「Google Cloudとの連携により、Googleのグローバルネットワークを通じてCoreWeaveのAIネイティブプラットフォームのリーチが拡大します。クロスクラウドの摩擦を排除することで、企業がどこでもワークロードを実行できるよう、よりシンプルかつ迅速にしています」と述べています。Googleのクラウドネットワーキング担当VP兼GMであるロブ・エンズ氏は、この提携が顧客に対し「複雑なクロスクラウド・ワークロードを簡素化し、AIの成果を加速させるために必要な、安全で低遅延な接続性」を提供すると付け加えました。
Google Cloudの「Partner Cross-Cloud Interconnect」を活用するCoreWeave Interconnectは、一部のリージョンでプライベートプレビューとして提供され、クラウド間を橋渡しするためにサードパーティプロバイダーを利用する複雑さを解消するように設計されています。インターコネクトと並行して、CoreWeaveは統一トレーニングシステムをGoogle Cloud、AWS、Azureなどの他のGPU環境に拡張する「SUNK Anywhere」と、異なるクラウドインフラ間で一貫した高スループットのデータキャッシングを提供する「LOTA Cross-Cloud」をリリースしました。
今回の提携は、最近のAnthropicとの大型契約を含め、現在AIモデル開発者の上位10社のうち9社にサービスを提供しているCoreWeaveの、AI業界における重要なインフラプレーヤーとしての地位を固めるものです。投資家にとっては、独自の巨大データセンターを持つハイパースケーラーでさえ、特化型GPUクラウドに価値を見出しているという拡大するトレンドを示しています。この動きは、CoreWeaveが大規模なGPU構築の資金を調達するために、最近の20億ドルを超える負債および株式による資金調達を含む多額の資本を確保している中で行われており、このような顧客の獲得は同社の高レバレッジ戦略を正当化するために極めて重要です。
マルチクラウドの必然性
CoreWeaveとGoogleの提携は、ベンダーロックインを回避しワークロードを最適化しようとするAI企業によって推進されている、マルチクラウドの柔軟性への業界全体のシフトを反映しています。この傾向は、最近のOpenAIとMicrosoftの提携内容の変更によっても浮き彫りになりました。これにより、OpenAIは競合するAmazonやGoogleを含むあらゆるクラウドプロバイダーを通じて製品を提供できるようになりました。同様に、AmazonもAI開発者との関係を深めており、Anthropicに最大500億ドルを投資することに合意し、OpenAIとのクラウド契約を拡大しました。CoreWeaveの新ツールはこうした需要を取り込むべく構築されており、開発者がハイパースケーラーの幅広いサービスと統合しながら、CoreWeaveの特化型NVIDIA GPUクラスターにアクセスすることを可能にします。
投資家への示唆
MetaやJane Streetといった顧客から約60億ドルのコミットメントを確保したと報じられているCoreWeaveにとって、Googleとの提携は著名な顧客ベースの多様化に寄与します。同社の積極的な拡大は、9.750%のシニアノートを含む高コストの資本によって賄われており、高い稼働率と価格決定力を維持することの重要性が高まっています。主要なAIプレーヤーとの長期契約はある程度の収益の見通しを提供しますが、ビジネスは依然として極めて資本集約的であり、現在提携しているハイパースケーラーそのものからの競争にも直面しています。アナリストは、これらの提携がどのように収益として計上されるか、そしてCoreWeaveのデータセンター容量への巨額投資を支えられるかどうかを注視することになるでしょう。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。