NVIDIAが、2025年に「SOCAMM (Small Outline Compression Attached Memory Module)」と呼ばれる新しいメモリモジュールを60万〜80万ユニットという規模で導入する計画を明らかにした。
この動きは、現在のAIサーバー市場で絶対的な地位を築くHBM(高帯域幅メモリ)とは異なるアプローチで、性能とコスト、消費電力のバランスを再定義しようとする野心的な試みだ。AIコンピューティングがデータセンターからAI PCへと拡大する中、NVIDIAが投じたこの一石は、メモリ業界の勢力図を塗り替え、関連するサプライチェーン全体を揺るがす「序曲」となる可能性がある。
「SOCAMM」とは何か?HBMやDDR5との決定的違い
まず、この新たな主役候補「SOCAMM」の正体を理解する必要がある。一部では「次世代HBM」「第2のHBM」とも呼ばれるが、その実態はHBMとは似て非なる、極めて戦略的な製品だ。
SOCAMMの最大の特徴は、その成り立ちにある。従来のサーバー向けメモリモジュール(RDIMMなど)がDDR5 DRAMチップを使用するのに対し、SOCAMMは主にスマートフォンなどのモバイル機器で使われてきたLPDDR(Low Power DDR)DRAMチップをベースにしている。
LPDDR採用がもたらす「三方良し」
- 圧倒的な電力効率: LPDDRはその名の通り、低消費電力が最大の武器だ。SOCAMMはAIの演算処理を効率的にサポートしつつ、エネルギー消費を大幅に削減する。AIの普及に伴う消費電力の増大が世界的な課題となる中、この特徴は極めて重要となる。
- モジュール化による拡張性: HBMがGPUパッケージに直接はんだ付けされ、後からの増設や交換が不可能なのに対し、SOCAMMは交換・アップグレードが可能なモジュール形式を採用している。これは、ユーザーが将来のニーズに合わせてメモリを柔軟に拡張できることを意味し、特にワークステーションやAI PC市場において大きな利点となるだろう。
- 高い帯域幅とコンパクトさ: LPDDRチップを垂直に積層し、高密度に実装することで、省電力性とコンパクトさを維持しながら高いデータ転送速度を実現する。先行して量産承認を得たMicronの発表によれば、同社のSOCAMMは従来のサーバー用RDIMMと比較して、帯域幅は2.5倍以上に達する一方で、サイズと消費電力は3分の1に抑えられているという。
要するにSOCAMMは、「サーバー級の性能」と「モバイル級の省電力性」、そして「PCのような拡張性」を融合させようとする、ハイブリッドな思想のメモリソリューションなのである。これは、HBMが持つ「最高の性能」と、従来のDDRメモリが持つ「コストと汎用性」の間の、広大な市場を狙うための最適解と言えるかもしれない。
なぜ今、SOCAMMなのか
今回のNVIDIAの動きは、もちろん戦略的意図に基づいていると考えるのが当然だろう。
HBM一強体制への牽制と「適材適所」戦略
現在のAIトレーニング市場は、HBMなくしては成り立たない。しかし、HBMは製造が複雑でコストが非常に高く、供給も限られている。NVIDIAとしては、自社のAIプラットフォームの成長が、特定のメモリ技術や少数のサプライヤーに過度に依存する状況は避けたいはずだ。
SOCAMMの導入は、HBMがオーバースペックとなる推論サーバーやAI PCといった領域に、よりコスト効率の良い高性能メモリを提供する「適材適所」戦略の一環だ。これにより、NVIDIAはメモリ調達における選択肢を増やし、価格交渉力を高めると同時に、AIの裾野を広げることができる。
AIサーバーからAI PCへ、市場拡大の切り札
NVIDIAがSOCAMMの搭載先として挙げているのが、次期フラッグシップである「GB300 “Blackwell”」プラットフォームと、GTC 2025で披露されたAI PC「Digits」であることは象徴的だ。
- GB300 “Blackwell”: すべてのBlackwell製品がSOCAMMを採用するわけではないだろうが、特定の構成でSOCAMMをオプションとして提供することで、顧客はワークロードに応じて最適なメモリ構成を選択できるようになる。
- AI PC “Digits”: こちらが本命かもしれない。サーバーで培った技術をコンシューマー市場に降ろすことで、NVIDIAは本格的な「AI PC」時代の主導権を握ろうとしている。アップグレード可能で省電力なSOCAMMは、高性能なAI PCを実現するための理想的なピースとなりうる。また、最近発表された、サードパーティーによるGB 300搭載のデスクトップコンピュータでの導入ももちろん計画されていることだろう。
独自のメモリ規格で築く「NVIDIA経済圏」
最も重要な点は、NVIDIAがSOCAMMという「独自規格」を推進していることだ。これは、単にメモリを買うのではなく、メモリの仕様そのものを定義し、業界標準を自ら創り出そうという強い意志の表れである。
この規格を主導することで、NVIDIAはメモリメーカー(Micron、Samsung、SK hynix)や基板メーカーを自社の製品ロードマップに深く組み込むことができる。結果として、NVIDIAを中心とした強固な技術エコシステム、いわば「NVIDIA経済圏」がさらに強固になる。これは、かつてIntelがPC市場で、Appleがモバイル市場で用いてきた戦略と通じるものがある。
メモリ三国志、新たな戦場へ:Micron先行、Samsung・SK hynixが猛追
NVIDIAのこの動きは、世界のメモリ市場を支配する3大メーカー、Samsung Electronics、SK hynix、そしてMicronの競争力学に大きな影響を与える。
Micronが得た「先行者利益」の価値
今回、NVIDIAとの共同開発において、Micronがいち早く量産承認を獲得したことは特筆すべきだ。HBM市場ではSamsungとSK hynixに先行を許していたMicronにとって、SOCAMMはまさに乾坤一擲の反撃の機会となる。NVIDIAという最大顧客との強固なパートナーシップをテコに、新たな成長市場で主導権を握る絶好のポジションを得たと言える。
HBMの覇者、SamsungとSK Hynixの次の一手
一方、HBMで市場を席巻するSamsungとSK hynixも、この新たな潮流を座視するわけにはいかない。両社ともNVIDIAと供給に関する協議を進めていると報じられており、Micronの独走を許すまいと猛追をかける構えだ。これまでHBMの積層技術や生産能力で競ってきた両社にとって、LPDDRベースのモジュール化技術という新たな競争軸が加わることになる。
静かに始まる地殻変動:基板(PCB)業界への波及効果
この変化はメモリ業界だけに留まらない。ETNewsが指摘するように、SOCAMMは専用のプリント基板(PCB)を必要とするため、基板メーカーにとって全く新しい需要が生まれる。
2025年の初期ロットは60万〜80万ユニットと、HBMの推定900万ユニットに比べればまだ小さい。しかし、業界関係者は2026年以降に登場するであろう「SOCAMM 2」から需要が本格化すると見ており、水面下ではすでに熾烈な受注競争が始まっている可能性が高い。これは、日本のイビデンや新光電気工業といった高度な基板技術を持つ企業にとっても、大きなビジネスチャンスとなりうるだろう。
SOCAMMはAIコンピューティングのゲームチェンジャーとなりうるか
NVIDIAによるSOCAMMの採用は、AIコンピューティングの未来に向けた、極めて戦略的な布石である。
「次世代HBM」という言葉は、技術的な後継者を意味するものではない。むしろ、HBMがAIトレーニング市場で果たしたように、SOCAMMがAI推論やAI PCという新たな巨大市場の成長を牽引する「ゲームチェンジャー」になるという期待感を込めた比喩と捉えるべきだ。
もちろん、この挑戦には課題も残る。新しい規格がどこまで広く受け入れられるか、コストメリットを本当に実現できるか、そして競合するAMDやIntelがどのような対抗策を打ち出してくるか。
しかし、確かなことは、NVIDIAが仕掛けるこの一手によって、メモリ市場の競争は新たな次元に突入したということだ。SOCAMMがAIの力をデータセンターの奥深くから私たちの手元にあるPCにまで届け、「AIの民主化」を加速させるのか。半導体業界の次なる覇権争いは、すでに始まっている。
Sources