AIの進化が止まらない。その心臓部であるGPUの性能向上は凄まじいが、巨大化するAIモデルは常に「データの飢餓」に苦しんでいる。この根本的な課題に対し、NVIDIAと日本の半導体大手キオクシアが投じる一石が、業界全体を揺るがそうとしている。それは、従来のストレージの概念を根底から覆す「GPU直結型AI専用SSD」の開発だ。2027年の製品化を目指すこの新技術は、データ読み出し性能を現行比で100倍近くに高める1億IOPSという驚異的なスペックを掲げるものだ。

AD

AI時代が直面する巨大な課題「メモリの壁」

まず現代のAIが直面している根本的な課題、「メモリの壁」について簡単に触れておこう。

なぜHBMだけでは足りないのか? – 容量・コスト・供給の三重苦

現在の生成AIモデル、特に大規模言語モデル(LLM)は、数十億から数兆にも及ぶ「パラメータ」と呼ばれる数値の集合体で構成されている。AIが賢い応答を生成するためには、この膨大なパラメータ群をGPUのすぐ近くに置き、瞬時にアクセスできなければならない。

この役割を担っているのが、GPUに直接積層される超高速メモリ「HBM(High Bandwidth Memory)」だ。HBMは、DRAMチップを垂直に積み重ねることで、圧倒的なデータ転送速度(帯域幅)を実現する。NVIDIAの最新GPUが驚異的なAI性能を発揮できるのは、このHBMの存在ればこそである。

しかし、AIの進化はHBMにさえ限界を突きつけている。

  1. 容量の限界: HBMは非常に高度な製造技術を要するため、搭載できる容量には物理的な制約がある。NVIDIAの「H200」で141GB、「B200」でも192GBと、テラバイト級が当たり前になったストレージと比べると遥かに小さい。一方で、AIモデルのパラメータ数は指数関数的に増加しており、HBMの容量増加を遥かに上回るペースで巨大化している。
  2. 高すぎるコスト: HBMは半導体メモリの最高級品であり、その価格はGPU全体のコストを押し上げる主要因となっている。AIサーバーの価格を抑え、AIをより広く普及させる上での大きな障壁だ。
  3. 不安定な供給: HBMを製造できるのは、SK hynix、Samsung、Micronの3社に限られる。AI需要の爆発的な増加に対し、供給が追いつかず、常に品薄状態にある。これはNVIDIAのようなGPUメーカーにとって、大きな事業リスクとなる。

この容量、コスト、供給という三重苦が、AIのさらなる進化を阻む「メモリの壁」として立ちはだかっているのである。

キオクシアの新SSDが持つ「3つの革命的要素」

キオクシアとNVIDIAが開発する新しいSSDは、この「メモリの壁」を破壊するために設計された、まさに革命的なデバイスだ。その核心は、3つの技術的ブレークスルーにある。

革命1:1億IOPSという異次元のランダムアクセス性能

今回の発表で最も衝撃的なのが、1億IOPS(Input Output Per Second)という目標性能だ。

IOPSとは、1秒間にデータの読み書き(I/O)を何回行えるかを示す指標である。特に、ストレージ内のバラバラの位置にある小さなデータにどれだけ速くアクセスできるか、という「ランダムアクセス性能」で重要となる。

なぜAIにとってランダムアクセスが重要なのか?AIモデルの特に推論プロセスでは、入力された質問に応じて、巨大なパラメータ群のあちこちに散らばった情報をランダムに参照する必要があるからだ。この「あちこちに飛ぶ」アクセスが遅いと、GPUがいくら高速でもデータ待ちの状態(ボトルネック)となり、性能が頭打ちになってしまう。

現在、データセンターで使われる高性能なエンタープライズSSDのIOPSは、数十万から数百万の範囲に留まる。それに対し「1億IOPS」というのは、文字通り桁が2つ違う、100倍近い性能向上を意味する。日経クロステックの報道によれば、NVIDIAは最終的に2億IOPSを要求しており、キオクシアはこれを2台のSSDで実現する計画だという。これは、もはや「ストレージ」というより「メモリの延長」と呼ぶべき性能領域だ。

革命2:「CPUバイパス」を実現するGPUダイレクト接続

この異次元の性能を最大限に活かすための鍵が、GPUへのダイレクト接続だ。

従来のコンピュータアーキテクチャでは、SSDは必ずCPU(中央演算処理装置)を介してメインメモリにデータを送り、そこからGPUにデータが転送されていた。これは、言わば「倉庫(SSD)から現場(GPU)へ荷物を運ぶのに、必ず本社(CPU)の許可を得なければならない」ようなものだ。この回り道は、わずかな遅延(レイテンシー)を生み、AIのような超高速処理が求められる場面では無視できないボトルネックとなっていた。

キオクシアとNVIDIAが開発する新SSDは、この”中間管理職”であるCPUをバイパスし、GPUが直接SSD内のデータにアクセスできる経路を確立する。これにより、データ転送の遅延を極限まで削減し、1億IOPSというポテンシャルを余すことなく引き出すことが可能になる。これは、AIコンピューティングのデータフローを根底から変える、アーキテクチャレベルの革新と言える。

革命3:次々世代インターフェース「PCIe 7.0」の採用

1億回ものデータアクセスを捌くには、データが通る「道」そのものも圧倒的に広くなければならない。その役割を担うのが、次々世代の高速インターフェース規格である「PCIe 7.0」だ。

PCIe(PCI Express)は、PCやサーバー内部で各部品を接続するためのデータハイウェイだ。世代が上がるごとに帯域幅(一度に運べるデータ量)が倍増する特徴があり、現在主流のPCIe 5.0から、次世代のPCIe 6.0、そして次々世代のPCIe 7.0へと進化することで、帯域幅は4倍に拡大する。

1億IOPSという膨大なトランザクション(取引)と、そこから生じる巨大なデータフローを遅滞なくGPUに送り届けるには、PCIe 7.0の広大な帯域幅が不可欠となる。キオクシアが2027年という未来を見据え、PCIe 7.0の採用を想定しているのは、このプロジェクトが単なる既存技術の延長ではなく、未来のコンピューティング基盤を根本から再定義しようとする野心的な試みであることの証左だ。

AD

NVIDIAとキオクシア、それぞれの戦略的思惑

この歴史的な協業は、両社にとってどのような意味を持つのか。その裏には、それぞれの緻密な戦略的計算が透けて見える。

NVIDIAが描く「ポストHBM時代」のAIプラットフォーム

AIの覇者であるNVIDIAにとって、この一手は自らのプラットフォームをさらに強固にするための戦略の一環だ。

NVIDIAの狙いは、HBMを頂点とし、その下にキオクシアの超高速SSDを配置する、新たな「メモリ階層」を構築することにある。頻繁にアクセスされる最重要データ(ホットデータ)は容量が小さく高価なHBMに置き、そこまで頻繁ではないが高速アクセスが必要なデータ(ウォームデータ)を、大容量でHBMより安価な新SSDに置く。

この階層構造により、NVIDIAは以下のメリットを得る。

  • 超巨大AIモデルへの対応: HBMの容量限界を超え、数兆、数十兆パラメータといった、現時点では想像もできないような次世代AIモデルを現実的に扱えるようになる。
  • コスト効率の改善: AIサーバー全体のコストに占める高価なHBMの割合を減らし、よりコストパフォーマンスの高いシステムを提供できる。
  • 供給リスクの分散: 特定のHBMメーカーへの依存度を下げ、NANDフラッシュというより汎用的なメモリを活用することで、サプライチェーンを安定させることができる。

これは、自社のGPUエコシステムを、ハードウェアアーキテクチャのレベルから再定義し、競合他社に対する優位性を不動のものにしようという、NVIDIAの強い意志の表れと言えるだろう。

キオクシアにとっての「乾坤一擲」 – NANDの価値を再定義する戦い

一方、NANDフラッシュメモリ市場の主要プレイヤーであるキオクシアにとって、このプロジェクトはまさに社運を賭けた「乾坤一擲(けんこんいってき)」の挑戦だ。

これまでSSDは、あくまでデータを「保存」するストレージという位置づけだった。しかし、この新SSDは、GPUの演算処理に直接関与する「メモリ」の領域へと踏み込む。これは、キオクシアが自社のコア技術であるNANDフラッシュの価値を再定義し、成長著しいAI市場のど真ん中に食い込むための、またとない機会である。

HBM市場ではSK hynixやSamsungに後れを取っているキオクシアだが、NAND技術で培ったノウハウを活かし、NVIDIAと直接手を組むことで、ゲームのルールそのものを変えようとしている。キオクシアは2029年までにNAND需要の約半分がAI関連になると予測しており、この巨大な波を捉えるための最重要戦略が、今回のNVIDIAとの協業なのである。

HBMは終わるのか?メモリ市場の未来を占う

では、この超高速SSDの登場によって、HBMの時代は終わるのだろうか?答えは「否」である。むしろ、メモリ市場は新たな「協調と競争」の時代へと突入すると筆者は考えている。

SK hynixは、奇しくもキオクシアの発表とほぼ同時期に、次世代の「HBM4」の開発完了と量産準備を発表した。その性能は、帯域幅をさらに倍増させ、電力効率も40%以上向上させるという驚異的なものだ。HBM自身もまた、凄まじいスピードで進化を続けているのである。

未来のAIサーバーの姿は、HBMかSSDか、という二者択一にはならないだろう。
それは、「超高速・小容量のHBM」「高性能・大容量の新SSD」がそれぞれの得意分野を活かし、シームレスに連携する、より洗練されたメモリ階層システムへと進化していく。

  • L1キャッシュとしてのHBM: GPUに最も近い場所で、今まさに計算に必要なデータを超高速で供給する。
  • L2キャッシュとしての新SSD: HBMに収まりきらない、次に必要となる可能性の高いデータを待機させておく。

この新しいアーキテクチャが実現すれば、データセンターはより少ない電力で、より巨大なAIモデルを効率的に運用できるようになる。それは、AIの民主化を加速させ、私たちの社会にAIが浸透するスピードを一段と速める可能性を秘めている。

2027年、キオクシアのAI専用SSDが市場に登場する時、AIコンピューティングは新たな次元の扉を開けることになるだろう。


Sources