AIを動かすサーバーの「首」になっているのは、GPUでもCPUでもなく、メモリかもしれない。
IntelとSoftBankの子会社SAIMEMORYが共同開発する「ZAM(Z-Angle Memory)」は、現行のHBM4を帯域幅で2倍以上上回ることを目標とする次世代AIメモリ標準だ。2026年6月のVLSIシンポジウムで初の技術詳細が公開される予定で、商用化が実現すれば、AIアクセラレータのアーキテクチャを根底から変える可能性がある。
この記事でわかること
- なぜHBMがAIの拡張を制限しているのか
- ZAMの構造がHBMと何が違うのか
- HBM4との帯域・容量・消費電力の比較
- 商用化のスケジュールと課題
なぜ今、HBMの代替が必要なのか
大規模言語モデル(LLM)の学習・推論では、モデルパラメータとKVキャッシュを高速に読み書きする必要がある。NVIDIAのH100やH200といったAIアクセラレータはこの要求に応えるためHBM(High Bandwidth Memory)を採用しており、演算性能がどれだけ高くても、HBMの帯域幅がボトルネックになる。
問題は、HBMそのものが限界に近づきつつあることだ。チップを積み重ねるほど発熱が増え、サーバーの冷却コストが跳ね上がる。HBM4では1スタックあたり最大48GBの容量と約2TB/sの帯域を実現しているが、次世代AIワークロードはさらに大きな帯域と容量を要求している。HBM4の後継となるHBM4Eも開発中だが、根本的な熱設計の問題は解消されない。
ZAMの設計:垂直構造で熱問題を解く
https://wccftech.com/intel-zam-memory-threatens-hbms-ai-throne-with-2x-the-bandwidth-of-hbm4/
ZAMの正式名称はZ-Angle Memoryで、SAIMEMORYがHB3DM(High-Bandwidth 3D Memory)という製品名で具体化を進めている。HBMとの根本的な違いは積層の方向にある。
HBMはDRAMチップを水平に積み重ね、TSV(Through-Silicon Via)で接続する縦積み構造だ。この設計では熱がスタック内部に閉じ込められやすく、層数が増えるほど熱管理が難しくなる。
ZAMはこの問題を独自の構造で解決する。DRAMをZ方向(斜め方向)にスタックし、磁界結合型のワイヤレスI/Oを採用することで、基板との物理的な直接ボンディングを不要にした。垂直方向に積み上げる設計のため、熱が自然に上方へ逃げる構造になっており、熱管理がHBMより大幅に容易になる。
第1世代のHB3DM仕様は以下の通りだ。
- 9層スタック(ロジック層1枚 + DRAM層8枚)
- 1層あたり1.125GB → 1モジュールで10GB
- ダイサイズ171mm²
- 各層に約13,700本のTSV(ハイブリッドボンディング方式)
- 帯域密度:0.25Tb/s/mm² → モジュールあたり5.3TB/s
帯域幅の5.3TB/sは、HBM4の約2TB/sの2倍超に相当する。TrendForceの報告によると、これは現時点で計画中のHBM4Eと比較しても十分に競合できる水準だという(参考)。
HBM4との数値比較
| 仕様 | HBM4 | ZAM(HB3DM第1世代) |
|---|---|---|
| 帯域幅/スタック | 約2TB/s | 約5.3TB/s |
| 容量/スタック | 最大48GB | 10GB |
| 消費電力 | 基準 | 約40%削減 |
| 熱設計 | 水平積層・熱蓄積あり | 垂直構造・熱逃げやすい |
帯域幅ではZAMが圧倒的に有利だが、容量では現行HBM4の5分の1以下にとどまる。大規模モデルの全パラメータをメモリに展開するユースケースでは、この容量差が実用上の制約になる。推論特化の用途や、複数スタックを並列に使う設計であれば、帯域幅の優位性が活きる場面は多い。
商用化のスケジュールと体制
SAIMEMORYは2026年6月のVLSIシンポジウムでHB3DM技術の詳細論文を発表する予定だ。プロトタイプは2027年度、商用化は2029年度を目標としている(TrendForce報告)。
開発体制には日本政府の支援も含まれる。経済産業省(METI)は初期開発向けに最大38億円の補助を決定し、SoftBank・富士通・日本政策投資銀行・理化学研究所(RIKEN)が計40億円規模の共同投資を検討中だ。製造面では台湾のPSMCがZAMイニシアチブに参加し、量産の担い手候補として名乗りを上げている。
ただし、ZAMに使用するDRAMの製造をどのメーカーが担うかは未確定だ。IntelがZAMの製造を自社ファブで手がける可能性も一部で指摘されているが、現時点では確認されていない。
ZAMが切り開く可能性と残る課題
ZAMの商用化には技術的・産業的なハードルがいくつか残っている。容量の少なさは第1世代製品の明確な弱点で、次世代に向けた改善が必要になる。磁界結合ワイヤレスI/Oは新しいアプローチであり、実際のシステムへの統合コストと信頼性の実証もこれからだ。
対してHBM陣営のSK Hynix・Samsung・Micronはすでに大規模な量産体制を持っており、ZAMが市場シェアを獲得するには品質と供給安定性での競争が求められる。
AIの推論需要がGPUの演算性能を上回るスピードで拡大している現在、次世代メモリ技術が商用化されるタイミングはAIインフラ全体の競争構造を動かす節目になる。ZAMがHBM代替として実用化されるかどうかは、2028〜2029年にかけての業界動向を見ていく必要がある。