NVIDIAのGrace Blackwellはデータセンター向けチップとして知られてきた。Dell Pro Max with GB10はそのスーパーチップを1.2kgのデスクトップ筐体に収め、AI開発者が自席でデータセンター級の演算能力を使えるようにした製品だ。

この記事でわかること:

  • NVIDIA GB10(Grace Blackwell)が解決する課題
  • 主要スペックとソフトウェア環境
  • 2台連結時の拡張仕様
  • 価格と対象ユーザー

https://www.dell.com/ja-jp/shop/desktop-computers/scr/desktops/appref=nvidia-gb10-blackwell-video

既存ワークステーションが抱える限界

AIエンジニアが直面している課題はシンプルだ。GPUのVRAMが足りない。現行のハイエンドワークステーションは、GPU VRAMが最大96GBでも扱えるモデル規模は30〜45億パラメーターが上限になる。それ以上を動かすには、クラウドに移行するか、モデルを量子化して精度を落とすかの2択だった。

クラウドは月額500〜2,000ドルのコストがかかる。さらに医療・金融・官公庁では、機密データをオフプレミスに転送すること自体が規制上できないケースが多い。

NVIDIA GB10が持ち込む変化

NVIDIA GB10 Grace Blackwell Superchipは、ARMベースのCPUコア(Cortex-X925×10+Cortex-A725×10)と第5世代TensorコアのBlackwell GPUを一体化したチップだ。

最大の特徴は128GBの統合LPDDR5Xメモリで、帯域幅は273 GB/s。FP4精度での演算性能は最大1ペタFLOPS(1,000 TOPS)に達する。この容量により、200億パラメーター規模のLLMをメモリに丸ごと展開したまま推論・ファインチューニングを動かせる。VRAMと主記憶を分けた従来アーキテクチャでは不可能だった運用だ。

スペックと同梱ソフトウェア

本体サイズは150mm×150mm×50.5mmで重量は約1.2kg。ガンメタリック仕上げのL6シャーシはデスクに置いても圧迫感がない。ストレージはM.2 2230/2242スロット(PCIe Gen 4)で、QSFPポートを2基搭載して200Gbitのネットワーク接続に対応する。

OSはNVIDIA DGX OS(Ubuntuベース)がプリインストールされている。CUDA・JupyterLab・Docker・AI Workbenchが最初から使える状態で届くため、開封後すぐに学習ジョブを実行できる。NVIDIAのNGCカタログからモデルやSDKを追加することも可能だ。

注意点として、WindowsとmacOSには対応しない。AIエンジニアリング専用のLinux環境であり、GUIベースの作業に慣れたチームはコンテナ中心のワークフローへの移行が前提になる。

2台連結で400億パラメーターまで拡張

QSFPケーブル1本で2台を接続すると、単一ノードとして動作し、扱えるパラメーター規模が最大400億に広がる。Dell AI Factory with NVIDIAのエコシステムと互換性があるため、GB10上で開発したモデルをクラウドや複数ノード環境にスケールアウトする際も互換性の問題が生じない。

価格と対象ユーザー

米国での価格は1TB構成で4,061.34ドル(約60万円)。日本の基本構成価格は1,037,174円からで、NTTPCなど国内販売代理店経由でも購入できる。

Dellが想定する主なターゲットは以下のとおりだ。LLMや視覚モデルを研究するAIエンジニア、医療・金融・官公庁のようにデータをオンプレミスで保持しなければならない組織、クラウドコストを抑えたいスタートアップ、そして独立した開発者やクリエイターが挙げられる。

汎用PCではなくAI専用機という選択

Dell Pro Max with GB10は、データセンター専用だったNVIDIA Grace Blackwellを初めてデスクトップに持ち込んだ製品だ。128GBの統合メモリと1ペタFLOPSの演算能力は、既存ワークステーションのVRAM上限という問題を正面から解消する。

価格は100万円超と安くはないが、月数千ドルのクラウドコスト削減や、機密データのオフプレミス転送リスク回避を考えると、特定の用途では費用対効果が成立しうる。Linuxとコンテナ操作に慣れたチームが最初の対象になることは変わらない。