AIの学習・推論ワークロードがマルチクラウドに広がる中、複数クラウド間の接続コストと複雑さが開発の足かせになっている。CoreWeaveはGoogle Cloud Next 2026で、この問題を正面から解決する3つの新機能を発表した。
この記事でわかること:
- CoreWeave InterconnectでGoogle Cloudとファイバー直結できるようになった背景
- SUNK AnywhereによるクロスクラウドGPU訓練の統合方法
- LOTA Cross-Cloudでデータを移動せずに高スループットを得る仕組み
クロスクラウド接続が「月単位の工事」から解放される
https://wf.coreweave.com/blog/coreweave-announces-new-capabilities-to-simplify-cross-cloud-ai
これまでクラウド間を接続するには、第三者プロバイダーを経由した回線調達が必要だった。サーキットのプロビジョニング、ルーティングポリシーの設定、セキュリティ検証、パフォーマンステスト—これらを3つの環境にまたがって管理する必要があり、完了まで数か月かかるのが常だった。レイテンシの増加と新たな障害点の追加も避けられなかった。
CoreWeaveはGoogleと共同でCoreWeave Interconnectを発表した。これは専用ファイバーを使ってCoreWeaveクラウドとGoogle Cloudを直接つなぐネットワーク接続で、第三者プロバイダーの介在が不要になる。接続にはGoogleのPartner Cross-Cloud Interconnectを使用し、回線レートでのMACsec暗号化によるセキュリティを内包する。
CoreWeaveは44か所のデータセンターを保有し、400GbpsからテラビットクラスのバックボーンをMACsecで保護した地上・海底の光ファイバーで運用している。CoreWeave Interconnectはこの基盤をGoogle Cloudまで延伸する形になる。現在はプライベートプレビューの申し込みを受け付けており、提供リージョンと帯域幅の選択肢は順次拡大予定だ。
SUNK AnywhereでSlurm+Kubernetesがどのクラウドでも動く
訓練ジョブを複数クラウドで動かす際の問題は、接続だけではない。各クラウドごとにスケジューラーや設定を管理し直す作業が、研究チームの運用負荷を押し上げている。
CoreWeaveのSUNKは、SlurmとKubernetesを組み合わせた訓練管理システムだ。SlurmがHPCジョブを制御し、KubernetesがコンテナとObservabilityを担当することで、大規模分散訓練を安定して動かせる。SUNK AnywhereはこのSUNKをCoreWeave外のクラウドに展開できるように拡張したもので、Google Cloud・AWS・Azure・オンプレミスのGPUクラスターで同じワークフローを使えるようになる。
Periodic LabsのMember of Technical StaffであるXander Dunn氏は「CoreWeaveクラウドと他プロバイダーのクラスターで数千GPUの大規模分散ジョブを動かしており、非CoreWeaveクラスターへのSUNK展開はわずかな設定変更で済む」と述べている。
典型的なユースケースは3つある。大規模モデル訓練の複数リージョンへのバースト、オンプレミスとクラウドGPUにまたがるハイブリッドワークフロー、厳密な優先度制御が必要なマルチテナント環境だ。研究者がジョブを素早くスピンアップ・一時停止・スケールする反復実験にも対応している。
LOTA Cross-Cloudで7GB/sのスループットをどこでも得る
訓練ジョブの速度はデータアクセス速度に依存する。CoreWeaveのAI Object Storageは独自のLOTA(Local Object Transport Accelerator)技術を使い、データをGPUノードに直接配置することでGPUあたり最大7GB/sの近ローカルスループットを実現している。
LOTA Cross-Cloudはこの技術を他クラウド上のワークロードに開放する。データはCoreWeaveのストレージに置いたまま、Google Cloudなど他クラウドで動く計算ジョブが高スループットでアクセスできる。トランザクション料金やエグレス料金も不要だ。
Cohereの内部インフラ担当ディレクターCecile Robert-Michon氏は「LOTAによってマルチクラウド環境を横断するワークロードで近ローカルのスループットを得られ、データ複製とエグレス費用をなくしながらコンピュートリソースを常にフル活用できる」と語っている。
現在Google Cloudのワークロードを対象にした限定提供が始まっており、SUNKとLOTAはまもなくGoogle Cloud Marketplaceでも提供される予定だ。既存クラウドからCoreWeaveへのデータ移行には、CoreWeaveがエグレス費用を負担するZero Egress Migration([0]EM)プログラムを用意している。
Weights & BiasesがGemini CLIとMCP統合された
CoreWeaveが買収したWeights & Biasesについても、Google Cloud関連の新機能が発表された。W&BのMCP拡張機能を通じてGemini CLIとネイティブ統合され、開発者はCLIを離れることなくW&BのRun・評価結果・本番トレースをコード変更の根拠として参照しながら、分析レポートを自動生成できるようになった。
また、W&B InferenceでGemma 4 31B-intが利用可能になった。W&B Inference はW&B APIキーだけでリーディングOSSモデルを従量課金で呼び出せるサービスで、Gemma 4は高度な推論・コード生成・ビジョン・長いコンテキストのエージェントワークロードに対応する。
Google Cloud TPUのメトリクス追跡も強化された。従来はHBM使用率と稼働率のみだったが、W&B SDKがlibtpu ランタイムSDKのFFI経由で直接メトリクスを収集するようになり、Tensor Core利用率・HLO実行タイミング・集合通信レイテンシなどTPUパフォーマンスの全体像を把握できるようになった。Tensor Core利用率はTPUワークロードがコンピュートバウンドかどうかを判断する上で最重要指標であり、Googleの標準gRPCモニタリングサービスでは取得できなかったデータだ。
クロスクラウドAIが「構成の話」から「実装の話」になった
今回の発表でCoreWeaveが整備したのは、接続(Interconnect)・計算(SUNK Anywhere)・データ(LOTA Cross-Cloud)という3層のクロスクラウド基盤だ。それぞれが独立して使えると同時に、組み合わせることでマルチクラウドAI訓練の主要なボトルネックをまとめて解消する設計になっている。
直接接続でレイテンシを下げ、統一スケジューラーでワークフローを維持し、ストレージはその場に置いたまま高スループットでアクセスする。この3点が揃ったことで、クロスクラウドAIは「どう構成するか」の議論から「どう実装するか」の段階に移った。