NvidiaのAIチップは、GPUだけでは動かない。

2026年3月のGTC 2026でNvidiaが発表した次世代プラットフォーム「Vera Rubin」は、前世代のBlackwellを大きく超える性能を掲げています。ただし、その性能を実現するには「HBM4」という特殊なメモリが不可欠です。そしていま、このHBM4の供給を1社が約70%握っているという現実があります。

この記事でわかること:

  • Vera Rubinがどういう構成のプラットフォームか
  • HBM4がなぜ必須で、なぜ供給が難しいのか
  • SK HynixがNvidiaのサプライチェーンを押さえるに至った経緯
  • MicronとSamsungの現状
  • この構造がAI産業全体に与える影響

https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/

Vera Rubinとは何か

Vera Rubinは、Nvidiaが開発した次世代のAIインフラ向けプラットフォームです。GPUだけでなく、CPU・ネットワークチップ・セキュリティプロセッサを含む6種類のチップを1つのラックスケールシステムとして統合設計しています。

6チップの構成はこのようになっています。Vera CPU(88コアのカスタムOlympusコア)、Rubin GPU(HBM4搭載)、NVLink 6スイッチ(GPU間帯域3.6 TB/s)、ConnectX-9、BlueField-4 DPU、Spectrum-6 Ethernetスイッチです。

旗艦構成の「Vera Rubin NVL72」は72基のRubin GPUと36基のVera CPUを1ラックに収め、HBM4の総容量は20.7 TB、バンドワイズは1.6 PB/sに達します。Nvidiaは前世代Blackwellと比較して推論スループットを10倍、トークンあたりコストを10分の1にすると説明しています。

HBM4が必須な理由

HBM(High Bandwidth Memory)は、GPU内部に積層して実装するメモリ規格です。通常のDDRメモリと違い、GPUダイに極めて近い場所で大量のデータを高速に授受できる点が特徴です。

Rubin GPUは1基あたり288GBのHBM4を搭載し、帯域幅は22 TB/sを実現します。前世代BlackwellのHBM3eが8 TB/sだったのと比べると、約2.75倍の帯域幅です。この性能を引き出すには、HBM4が10 Gb/sを超えるピン速度で動作することが条件になります。

問題はここにあります。HBM4はHBM3eより設計・製造難度が大幅に上がるため、量産できるメーカーが現状ほぼいないことです。供給が整わなければ、Vera Rubinはどれだけ設計が優れていても出荷できません。

SK Hynixが初期供給の70%を握る構造

HBM4の主要サプライヤーはSK Hynix、Samsung、Micronの3社ですが、業界情報によるとSK HynixがNvidia向け初期HBM4の約70%を確保しています。

その背景にあるのが、韓国・清州(チョンジュ)に建設中のメガファブ「P&T7」です。総投資額は約128億5,000万ドル(約1兆9,000億円)。単なる工場ではなく、同社のM15Xファブに隣接させることで、HBMスタックの製造から論理チップへの実装(先端パッケージング)までを一拠点で完結できる設計になっています。

さらに重要なのは、HBM4のベースダイ製造にTSMCの先端ロジックプロセスを採用している点です。Nvidiaの主要製造ラインと同じTSMCエコシステムに入り込むことで、GPU・論理チップ・メモリのサプライチェーンが一体化しています。

SK Hynixが2026年第1四半期に記録した営業利益率は72%です。これはNvidiaやTSMCをも上回る水準であり、HBM事業がすでに「戦略的インフラ」として機能していることを示しています。

MicronとSamsungの現状

Micronは36GB 12層HBM4の量産出荷を2026年第1四半期に開始しており、ピン速度は11 Gb/s超、バンドワイズは2.8 TB/s以上を実現しています。ただし業界レポートによると、初期供給量ではSK Hynixに及んでいません(参考)。

SamsungはNvidiaの認定(クオリフィケーション)を通過しているものの、歩留まりや認定プロセスの遅れから、現時点では初期供給の役割は限定的と伝えられています。

結果として、代替サプライヤーは存在するものの、Vera Rubinの量産スケールで即座に代替できる規模には達していません。「選択肢があるが、量がない」という状態です。

AI産業全体への影響

NvidiaはVera Rubinで推論コストを前世代比10分の1にすると公言しています。これが実現すればAIサービスのコスト構造が根本から変わり、より複雑な推論タスクを経済的に運用できるようになります。

その前提は、HBM4が予定通り供給されることです。SK HynixのP&T7が計画通りに稼働し、歩留まりが確保されなければ、Vera Rubinの出荷が遅延し、AIインフラの整備スケジュール全体が後ろ倒しになります。

AIモデルの性能競争は「どのモデルが賢いか」から「どこがGPUを確保できるか」へとシフトしており、その裏では「誰がHBM4を押さえているか」が問われています。Vera Rubinは、半導体のサプライチェーンがAI産業の速度を決定するという現実を、改めて可視化しています。