AMDはサンノゼで開催された「Advancing AI」イベントで、同社の未来を賭けた次世代製品群のベールを剥いだ。発表の核心は、2026年に登場するラックスケールAIプラットフォーム「Helios」、それを構成する最大256コアの次世代CPU「EPYC “Venice”」、そして怪物的な性能を秘めたGPU「Instinct MI400」である。
これまでNVIDIAの後塵を拝してきたラックスケールシステムにおいて、AMDが初めて自社設計で市場に投入する「Helios」は、演算性能だけでなく「メモリ帯域」という新たな戦場で勝負を挑む。この戦略は、AIの進化が直面するボトルネックを的確に突いた一手となるのか。データセンターのパワーバランスは、ここから変わり始めるのかもしれない。
NVIDIAの牙城に挑むAMDの切り札「Helios」
今回の発表で最も注目すべきは、AMDが初めて自社で設計・統合するラックスケールAIプラットフォーム「Helios」だ。これは、NVIDIAが「DGX SuperPOD」や「GB200 NVL72」といった統合システムで市場を席巻してきたことへの、AMDからの明確な回答である。
72基のMI400を束ねる「巨大な単一GPU」という思想
Heliosは、2026年に登場予定の次世代GPU「Instinct MI400」を72基も搭載する、まさに巨大なコンピューティング・モンスターだ。しかし、その本質は単なる数の暴力ではない。Heliosの設計思想の核心は、これら72基のGPUをNVIDIAのNVLinkに対抗する高速インターコネクト「Ultra Accelerator Link (UALink)」で接続し、あたかも一つの巨大なGPUであるかのように振る舞わせることにある。
これにより、膨大なメモリ空間とコンピューティングリソースがプールされ、フロンティアモデルと呼ばれる超巨大AIモデルの学習や推論を、よりシームレスかつ効率的に実行可能になる。システム全体では、FP4(4ビット浮動小数点)で最大2.9エクサフロップス(スパース性考慮時)、FP8で最大1.4エクサフロップスの圧倒的な演算性能を実現するとAMDは主張している。
UALink:NVIDIAのNVLinkに対抗するオープンな選択肢
この「巨大な単一GPU」構想を実現する鍵が、UALinkである。これはAMD、Broadcom、Cisco、Google、HPE、Intel、Meta、Microsoftといった業界の巨人が結集して策定したオープンスタンダードなインターコネクト技術だ。NVIDIAがNVLinkとNVSwitchで自社のエコシステムを垂直統合し、強力な性能と引き換えに顧客を囲い込んでいるのに対し、AMDは「オープン」という旗印を掲げて対抗軸を打ち出した格好だ。
Heliosに搭載されるUALinkスイッチの供給元は明かされていないが、規格策定の中心にいたBroadcomが有力候補と見られている。このオープンなアプローチが、NVIDIAの独占的な地位を切り崩すための強力な武器となる可能性は十分に考えられる。
スペックで見るHeliosの圧倒的なメモリ性能
HeliosがNVIDIAに対して明確な優位性を打ち出しているのが、メモリ容量と帯域だ。
- GPU: 72基 x Instinct MI400
- メモリ: 72基 x 432GB HBM4 = 合計 31.1TB
- システムメモリ帯域: 1.4 PB/s
- 演算性能(FP4): 2.9 EFLOPS
- 演算性能(FP8): 1.4 EFLOPS
Heliosが直接の競合と見据えるNVIDIAの「Vera Rubin NVL144」(2026年予定)と比較すると、演算性能ではNVIDIAが上回る(3.6 EFLOPS FP4)ものの、Heliosはメモリ容量と帯域で約50%も優位に立つ。これは、巨大化の一途をたどるAIモデルが、演算能力以上にメモリ容量とデータ転送速度にボトルネックを抱え始めている現状を的確に捉えた戦略と言えるだろう。
Heliosの頭脳と心臓:EPYC “Venice”とInstinct MI400
この巨大なプラットフォームを支えるのが、次世代のCPUとGPUだ。AMDはCPUとGPUの両方を自社開発する強みを活かし、最適化されたコンポーネントをHeliosに注ぎ込む。
EPYC “Venice”:Zen 6アーキテクチャで256コアの衝撃
Heliosの頭脳となるのが、2026年に市場投入される第6世代EPYCプロセッサ、コードネーム「Venice」である。
- アーキテクチャ: Zen 6
- 製造プロセス: TSMC 2nm
- 最大コア数: 256コア(高密度版Zen 6c)
- 性能向上: 現行のEPYC “Turin”(Zen 5)比で最大70%向上
- メモリ帯域: 1.6 TB/s(ソケットあたり)
- I/O: PCIe 6.0対応を示唆
特筆すべきは、最大256コアという驚異的なコア数だ。これは現行のTurin(最大192コア)から33%増であり、データセンターにおける並列処理性能を新たな次元へと引き上げる。さらに、メモリ帯域を現行の2倍以上に引き上げることで、256個ものコアが飢えることなくデータを供給し続けられる設計となっている。このCPU-GPU間の帯域も倍増されるとしており、PCIe 6.0の採用が濃厚だ。
Lisa Su CEOが「ラボに戻ってきたVeniceは素晴らしい出来だ」と語るように、AMDの自信が伺える。この強力なCPUが、Helios全体のデータ処理と制御を司る。
Instinct MI400:HBM4メモリ搭載、性能はMI300Xの10倍
Heliosの心臓部、AI演算の主役を担うのが次世代GPU「Instinct MI400」シリーズだ。
- アーキテクチャ: CDNA Next
- メモリ: 432GB HBM4
- メモリ帯域: 19.6 TB/s
- 演算性能(FP4): 40 PFLOPS(パッケージあたり)
- 性能向上: MI300X比で最大10倍(フロンティアモデルにおいて)
MI400は、次世代メモリ規格であるHBM4を搭載し、メモリ容量をMI350Xの288GBから432GBへ、帯域を8TB/sから19.6TB/sへと大幅に引き上げる。これは、前述のHeliosの戦略、すなわち「メモリ性能」でNVIDIAに差をつけるという思想を体現するコンポーネントだ。AMDの発表によれば、MI400を搭載するHeliosは、MI300X世代のシステムと比較して最大10倍のAI性能を発揮するという。この飛躍的な性能向上が、AMDのAI市場における地位を大きく押し上げる原動力となることは間違いない。
宿命の対決:AMD Helios vs NVIDIA Vera Rubin/Kyber
AMDのロードマップは、明確にNVIDIAをライバルとして捉えている。HeliosとVera Rubin NVL144の直接対決は、今後のAIインフラの方向性を占う上で極めて重要だ。
演算性能のNVIDIA、メモリ帯域のAMDという構図
両社のフラッグシップシステムを比較すると、興味深い戦略の違いが浮かび上がる。
AMD Helios (2026) | NVIDIA VR-NVL144 (2026) | |
---|---|---|
GPU | 72 x MI400 | 72 x Rubin (Dual-GPU) |
FP4性能 | 2.9 EFLOPS | 3.6 EFLOPS |
FP8性能 | 1.4 EFLOPS | 1.2 EFLOPS |
総メモリ容量 | 31.1 TB | 20.7 TB |
総メモリ帯域 | 1.4 PB/s | 936 TB/s |
単純なFP4演算性能(TFLOPS)ではNVIDIAに軍配が上がる。しかし、AMDはFP8性能で上回り、さらにメモリ容量と帯域ではNVIDIAを圧倒している。これは、AIモデルが巨大化・複雑化する中で、計算だけでなく「いかに巨大なデータを効率よく動かすか」が性能の鍵を握るというAMDの読みの現れだろう。どちらの戦略が市場に受け入れられるか、非常に興味深い対決となる。
見過ごせない「電力効率」というXファクター
記事では触れられているものの、現時点で不明なのが「消費電力」だ。Heliosは物理的に大きなダブルワイド・ラックシステムであり、その電力消費と冷却要件は未知数である。AIの爆発的な普及により、データセンターは深刻な電力不足に直面している。いくら高性能でも、電力効率、すなわち「ワットあたりの性能」が悪ければ、大規模な導入には二の足を踏む顧客も出てくるだろう。この点が、今後の両社の競争における重要なXファクターとなる可能性がある。
2027年以降を見据えたロードマップ:Zen 7 “Verano” とMI500
AMDの野心は2026年に留まらない。同社は2027年に向けて、さらに次世代のCPU「EPYC “Verano”」(Zen 7アーキテクチャか)とGPU「Instinct MI500」を投入する計画も明らかにした。これは、NVIDIAが打ち出した「1年ごとの製品投入サイクル」に真っ向から対抗する姿勢を示すものだ。
この開発ケイデンスの加速は、AI分野の競争がいかに激しく、技術革新のスピードが速いかを物語っている。AMDはもはやNVIDIAの追随者ではなく、互いに未来を定義し合う対等の競争相手として、市場に存在感を示そうとしている。
AMDの挑戦が意味するもの
今回のAMDの発表は、単なる新製品のお披露目ではない。それは、NVIDIA一強体制が続くAIインフラ市場に、AMDが本格的な「選択肢」を提示するという強い意志表示である。
「演算性能のNVIDIA」に対し、「メモリ性能とオープンエコシステムのAMD」という明確な対立軸を打ち出したことは、市場の健全な競争を促し、最終的にはユーザーに利益をもたらすだろう。
しかし、AMDにとって最大の課題は、CUDAという強固な城壁で守られたNVIDIAのソフトウェアエコシステムを切り崩せるかという点にある。AMDのROCmは着実に進化を遂げているものの、CUDAが長年築き上げてきた開発者コミュニティとエコシステムの牙城は高い。
ハードウェアのスペック競争は、新たな次元に突入した。AMDの挑戦が真に成功するか否かは、この魅力的なハードウェアの性能を最大限に引き出すソフトウェアと、開発者が容易に移行できるエコシステムを、今後いかに成熟させていけるかにかかっている。AI時代の覇権争いは、間違いなく新たな、そしてよりエキサイティングな局面へと突入したと言えるだろう。
Sources