AMDが2026年5月、企業向けAI推論アクセラレーター「AMD Instinct MI350P」を正式発表した。CDNA 4アーキテクチャをPCIeカード形式で提供する製品で、データセンターの大幅な改修なしに既存サーバーへ高性能AI計算を追加できる点が特徴だ。Instinctシリーズとしては約4年ぶりのPCIeフォームファクター製品となる。

この記事でわかること:

  • AMD Instinct MI350PがどんなAIアクセラレーターか
  • PCIeフォームファクター採用の背景と利点
  • 主なスペックと性能(MXFP4で最大4,600 TFLOPS)
  • NVIDIAのH200 NVLとの理論性能比較
  • 対応ソフトウェアとパートナーサーバー

https://www.amd.com/en/blogs/2026/amd-instinct-mi350p-pcie-gpus-run-enterprise-ai-on-your.html

データセンターを改修せずにAI推論を追加できる

企業がAIを本格導入するうえで障壁になりやすいのが、既存インフラとの整合性だ。クラウドはコストの変動とデータプライバシーの懸念がある。専用のGPUアクセラレータープラットフォームは高い性能を持つが、専用の電力・冷却・ラック設計が前提になることが多い。

AMD Instinct MI350Pは、この問題を「標準的な空冷サーバーにそのまま差し込めるPCIeカード」という形で解決する。デュアルスロット、10.5インチFHHL(Full Height Half Length)フォームファクターを採用しており、8枚のFHHLカードを収容できる汎用サーバーであれば追加のインフラ投資なしに導入できる。AMDのOAMベース主力製品であるMI350X/MI355Xのような専用プラットフォームを必要としない。AMDはこの製品を「エンタープライズのAI導入曲線に対応する選択肢の一つ」と位置付けており、CPU以上のAI算術能力が必要だが専用GPUプラットフォームへの移行はまだ早いという企業を主なターゲットにしている。

CDNA 4アーキテクチャによる主なスペック

MI350PはTSMCの3nmおよび6nm FinFETプロセスで製造されるCDNA 4(Compute DNA 4)アーキテクチャを採用する。CDNA 4はAMDの最新データセンター向けGPUアーキテクチャで、OAMベースのMI350XシリーズとMI355Xシリーズにも搭載されている。MI350Pはその演算資源をほぼ半分に抑えることでPCIeの電力制約に収めた設計だ。

主なスペックは次のとおりだ(AMD公式資料より、2026年4月時点の速報値)。

  • Compute Units:128(MI350Xの半分)
  • Stream Processors:8,192
  • Matrix Cores:512
  • ピーク動作クロック:2.2 GHz
  • メモリ:HBM3E 144GB(4,096ビットインターフェース、最大4TB/s)
  • ラストレベルキャッシュ:128MB(全チップECC対応)
  • 演算性能(MXFP4):最大4,600 TFLOPS
  • 演算性能(MXFP8):推定2,299 TFLOPS
  • FP64:36 TFLOPS
  • TBP:600W(450Wモードも利用可能)
  • インターフェース:PCIe 5.0 x16(128GB/s)

電源コネクターには12V-2×6を採用しており、Instinctシリーズとして初の仕様となる。600WはPCIe CEM仕様の上限値に相当する。熱管理に余裕がないサーバーでは450Wモードを選択でき、その場合は性能がやや低下する。

OAMモデルのMI350XにあるAMD Infinity Fabric Scale-upリンクは持たない。そのため複数カード間の集合通信はすべてPCIeホストインターフェース経由となり、大規模な分散トレーニングより推論やRAG(Retrieval Augmented Generation)パイプラインのようなシングルノード完結型ワークロードに適した設計だ。

1台のサーバーに8枚搭載した場合、合計1,152GBのHBM3Eと32TB/sのメモリ帯域を一つの空冷2Uシャーシに収められる。AMDによれば、1兆パラメータ規模のモデルをMXFP4精度で1シャーシ内に収容できる計算になるという。

NVIDIAのH200 NVLとの理論性能比較

AMDはMI350Pの理論演算性能が、競合製品であるNVIDIAのH200 NVL(141GB HBM3E搭載、Hopperアーキテクチャ)に対してFP16とFP8の理論値でおよそ40%高いと主張している。H200 NVLもPCIeフォームファクターで提供されている製品で、現在エンタープライズ市場で広く流通している。

AMD提供の理論値ベースの比較であるため、実ワークロードでのスループットや遅延の差異はベンチマーク環境や利用するフレームワークによって異なる。The FPS Reviewの分析でも「AMDが提供する理論比較には通常の留保が必要」と記されている(参考)。

AMDはROCm(Radeon Open Compute)オープンソースソフトウェアと、開発スタックへの無償アクセスをNVIDIAのより独自エコシステムに対する差別化ポイントとして挙げている。

オープンエコシステムと対応ソフトウェア

MI350Pのソフトウェア環境は、オープンスタンダードを基盤にしている。AMD Enterprise AI Reference Stackはパートナーへライセンスコストなしで提供され、PyTorchのネイティブサポート、Kubernetes GPUオペレーターによるフルライフサイクル管理、AMD Inference Microservicesが含まれる。

AMDによれば、既存のAIパイプラインからの移行時にコードの大幅な書き直しは不要とされており、ハイブリッドクラウド環境でのワークロード移行も想定した設計になっている。精度フォーマットはMXFP4、MXFP6、MXFP8、FP8、INT8、BF16に対応しており、スパーシティ(疎行列)アクセラレーションによってINT8とBF16での効率的な処理も実現する。

対応サーバーとパートナー

発表と同時に複数のサーバーメーカーがMI350P対応を表明している。Dell PowerEdge XE7740とHPE ProLiant DL380a Gen12は600W PCIeカードを前提に設計されたモデルで、MI350Pに対応する具体的なシステムとして名前が挙がっている。ほかにCisco、Lenovo、Supermicro、Gigabyteも対応を進めている。

ソフトウェアパートナーとしてはRed Hat、Akamai、Broadcom(VMware Cloud Foundation)、Nutanix、Kamiwazaなどが名を連ねており、Kubernetes上での推論運用やハイブリッドクラウド環境での統合が想定されている。

まとめ

AMD Instinct MI350Pは、CDNA 4アーキテクチャによる高性能AI推論を「既存の空冷PCIeサーバーで動かす」ことに特化した製品だ。144GB HBM3Eと最大4,600 TFLOPSの演算性能を、電源・冷却設備の大規模改修なしに現行インフラへ追加できる。OAMプラットフォームへの移行前のステップ、またはオンプレミスAI推論の主力として位置付けられる製品だ。

価格はAMDから公式発表されていないが、パートナーネットワーク経由で現在から入手可能とされている。詳細はAMD Instinctシリーズのウェブページや各OEMパートナーへ問い合わせること。