AIエージェントの普及が、データセンターの設計を変えはじめています。Metaが2026年4月24日、AWSと数十億ドル規模の多年間契約を締結しました。AWSの自社製CPU「Graviton5」を数千万コア規模で採用し、AIエージェントのワークロードを処理するインフラとして活用します。
この記事でわかること:
- AWSとMetaの契約の規模と目的
- Graviton5の主要スペックと前世代からの改善点
- AIエージェントにCPUが大量に必要な理由
- MetaのAIインフラ全体像と今後の方向性
AIエージェントにGPUだけでは足りない
AIモデルの学習段階では、GPUが計算処理の大部分を担います。しかし、実際のエージェントが動く推論・実行フェーズでは、CPUが処理する作業が大幅に増加します。
リアルタイムの推論判断、コード生成、外部検索、複数ツールの呼び出し、タスク調整——これらの処理はいずれもCPU側で実行されることが多く、エージェントが同時並行で大規模に動くほど、CPU需要も比例して増えます。
Metaのインフラ責任者Santosh Janardhan氏は「Gravitonへの拡張で、AIエージェントの裏側にあるCPU集約型ワークロードを、自社規模に応じたパフォーマンスと効率で処理できる」と述べています。
Graviton5のスペック
Graviton5は2025年12月にAWSが発表した第5世代の自社製CPUです。Armの「Neoverse V3」コアを192基搭載し、製造プロセスは3nmを採用しています。
前世代のGraviton4と比べた主な改善点を挙げると、コンピュートパフォーマンスが最大25%向上し、L3キャッシュは5倍に拡大(1コアあたり2.6倍)されました。コア間通信の遅延は最大33%低下し、ネットワーク帯域幅は最大15%、EBSストレージ帯域幅は最大20%それぞれ増加しています。
L3キャッシュの大幅な拡大が特に重要です。キャッシュはCPUコアのすぐ近くに置かれたデータ保持領域で、データがコアに届くまでの距離を縮めます。エージェントが多数のデータを参照しながら処理を進めるワークロードでは、このキャッシュ効率が応答速度に直結します。
Nitro Systemとセキュリティ設計
Graviton5はAWSのNitro Systemと組み合わせて動作します。Nitro Systemは、仮想化・ストレージ・ネットワーク管理を専用のハードウェアアクセラレータにオフロードする仕組みで、CPUの計算能力をユーザーのアプリケーションに集中させます。
今世代から追加された「Nitro Isolation Engine」は、形式検証(Formal Verification)という数学的証明の手法を使い、異なるユーザーのワークロードが確実に分離されていることを保証します。通常の実装テストが「動作確認」にとどまるのに対し、形式検証は数学的に証明可能なレベルの確実性を提供します。パブリッククラウドで複数企業のAIワークロードが共存する環境において、セキュリティ設計の信頼性を高めるアプローチです。
MetaのAIインフラ投資の全体像
今回のGraviton5採用は、Metaが2026年に入って進めるAIインフラ投資の最新事例です。数週間前にはAIクラウドプロバイダーであるCoreWeaveおよびNebius向けに計480億ドルの投資コミットメントを発表しています。さらに同月、Armが新たに発表した136コアのAGI CPUを採用することと、将来世代の設計への協力も公表しました。
今回のGraviton5契約はこれらに続く大型CPU関連発表で、GPU中心だった構成から脱却し、ワークロードの種類に応じてインフラを使い分ける方針が明確になっています。
AIインフラの設計思想が変わりつつある
今回の契約が示すのは、AIエージェントの拡大によってCPU需要が新しい段階に入ったという事実です。AIインフラの議論はGPU調達に集中しがちでしたが、推論・調整・リアルタイム処理を担うCPUの選択が、システム全体のパフォーマンスとコストに影響を与えるようになっています。
Metaが数千万コア規模でGraviton5を展開することは、AIサービス事業者やクラウドユーザーがAIインフラ設計を見直す上での一つの指標になります。
