エージェント型Aの台頭が、AIデータセンターの根本的な設計を書き換えようとしている。GPU:CPU比率は従来の8:1から1:1へと縮小しつつあり、それに伴いCPU搭載DRAMは現行比最大4倍の400GBへ膨張する計画が進んでいる。既に逼迫しているDRAM市場は、この需要増によってスーパーサイクルの到来が2027年以降に押し延ばされる見通しだ。なぜCPUがここまで大容量メモリを必要とするのか、その構造を解説する。
CPUが「オーケストレーター」になるとき、メモリが足りなくなる
単一のLLM(大規模言語モデル)が1つの質問に答えるだけなら、推論はGPU上で完結する。しかしエージェント型AI(複数のAIエージェントが連携して長時間タスクをこなす仕組み)では、複数のエージェントが並行して動き、それぞれの途中結果を共有しながら長時間にわたるタスクを進める。
オーケストレーターは複数エージェントの動作を統括する中枢的な機能だ。「どのエージェントが現在どの段階にあるか」「これまでのやり取りから何が引き継がれているか」「次のエージェントには何のデータを渡すか」といった調整作業をリアルタイムで行わなければならない。このオーケストレーターはCPU上で動作し、各エージェントのコンテキスト(会話履歴・状態・途中結果)を常にメモリに保持しながらワークフロー全体を管理する。
エージェントの数が増えるほど、保持すべきコンテキストのサイズは線形以上に膨らむ。現行のサーバー向けCPUに搭載されるDRAMは96〜256GBが標準だが、このアーキテクチャでは容量が律速要因になる。Intel XeonおよびAMD EPYCの次世代AI向けCPUでは300〜400GB DDR5の搭載が計画されており、現行比で最大4倍という数字はこの要件から導かれている。
MRDIMM(マルチランクDIMM:高密度実装で容量と帯域を同時拡張する次世代DRAM規格)やHBF/ZAMと呼ばれる次世代メモリ規格もCPUのメモリ帯域幅向上を目的として開発中だが、製品化の時期はまだ定まっていない。容量の拡大と帯域幅の改善を並行して進めなければ、オーケストレーターのボトルネックは解消されない。
GPU:CPU比率が8:1から1:1へ——データセンター設計の前提が変わる
GPUは並列処理に最適化された設計であり、コンテキストを跨いだ逐次的な制御や意思決定は本来的に不得意だ。エージェント型AIのワークフローには対応できない部分がある。これがデータセンター設計の前提変化の根拠になっている。
Intelが業績発表で示した数字は具体的だ。従来のAI学習・推論ワークロードではGPU:CPU比率が8:1前後で安定していた。AIが推論フェーズへシフトし始めると4:1程度まで下がり、完全なエージェント型AI環境では1:1に近づいているという。GPU1台に対してCPU1台という比率は、データセンター設計の常識からすると劇的な変化だ。CPUの調達コスト・ラック当たりの電力・冷却設計がすべて見直しを迫られる。
TrendForceの分析でも同様の構造変化が指摘されている。AIエージェントが企業の基幹業務に組み込まれるにつれ、オーケストレーション負荷は増大し続ける。CPUの役割がサポート役から推論フローの司令塔へと変わる以上、搭載メモリの増強は避けられない投資だ。
AMDも公式ブログで「エージェント型AIがAIデータセンターにおけるCPUの位置づけに新たな注目を集めている」と明示しており、CPU側の需要増が実際のロードマップに反映されている。
NVIDIA・AMD・GoogleがHBMを積み増す——CPU向けDDR5と製造基盤を奪い合う構図
GPU側でのメモリ競争が、CPU向けDRAMの供給を絞っている。現時点で発表・確認されている主要チップの搭載メモリは以下の通りだ。
- NVIDIA Vera Rubin: HBM4(高帯域メモリ第4世代)を1GPU当たり288GB、帯域幅22 TB/s、演算性能50 PFLOPS(FP4精度: 4ビット浮動小数点演算)
- AMD Instinct MI400: HBM4を432GB、帯域幅19.6 TB/s、CDNA 5アーキテクチャ採用。2026年内の発売が予定されている
- Google TPU 8i: HBMを288GB、帯域幅8.6 TB/s、演算性能10.1 PFLOPS(FP4精度)。2026年4月のGoogle Cloud Nextで発表された
HBMの製造には通常のDDR5比で約3倍のウェーハ面積が必要だ。Samsung・SK Hynix・MicronはHBMへ生産リソースを集中させており、その分だけ汎用DRAMの供給が絞られる。GPU向けHBM需要の増大と、CPU向けDDR5需要の増大が、同じDRAM製造基盤を奪い合う構図になっている。
CPU側でもIntel XeonやAMD EPYCが400GB DDR5を搭載する計画があり、GPU・CPUの双方がメモリ容量を積み増す方向で開発が進んでいる。DDR5市場では需給逼迫が価格にすでに表れ始めており、韓国の証券会社・키움증권(Kiwoom Securities)のデータによれば、2026年4月のDDR5(16GB)現物価格は前月比+2.8%上昇した。一方、旧世代のDDR4(16GB)は同期間に-16%下落しており、需要が次世代規格に集中していることが数字に出ている。
DRAMスーパーサイクルが2027年まで延びる理由
2026年はDRAMスーパーサイクルの到来年として業界が期待していた。しかしSamsungとSK Hynixの幹部らは相次いで警告を発しており、スーパーサイクルは2027年以降に延長される見通しだ。
背景にあるのは単純な需給計算だ。AIは2026年にDRAM総生産量の20%を消費すると予測されている。HBM生産に向かうウェーハが増えるほど汎用DRAMの生産枠は減り、DDR5の供給増加ペースが需要の伸びに追いつかない。業界関係者によると、現時点でDRAM市場は需要に対し約10ポイントの供給不足状態にあるという。
Samsungのメモリ部門責任者は「2027年はDRAM業界にとって2026年より厳しくなる」と述べている。その言葉通り、Samsungは既にLPDDR4/LPDDR4Xの新規受注を終了し、2027年Q1にはLPDDR5生産ラインへの転換を完了する計画を進めている。旧世代の生産終了によって製造キャパシティを最新規格に集約する一方、AIチップ向けHBMの増産も続けなければならない。事実上、Samsungはエージェント型に向かうAI需要に全ベットしている形だ。
CPUメモリが400GBになることの市場への影響は、単なる容量増加の話ではない。現行比4倍のDDR5が各データセンターのCPU群に搭載されれば、DDR5の総消費量は掛け算で膨らむ。GPU:CPU比率が1:1に近づくほどCPUの数も増え、GPU向けHBMと、CPU向けDDR5と、スマートフォン・PC向けLPDDR5が同じ製造設備を奪い合う状況は2027年以降も続く。「2027年はより厳しくなる」という予測は、エージェント型AIのアーキテクチャが引き起こした需要構造の変化を正確に反映している。