NVIDIAの2025年GTCカンファレンスで、CEOのJensen Huang氏が放った一言が、AIインフラ市場に静かな、しかし深刻な衝撃を与えた。「Blackwellが大量に出荷され始めれば、Hopperなど誰も見向きもしなくなるだろう」。この発言は、4兆ドル企業のトップが持つ自社製品への絶対的な自信の表れであると同時に、AI革命を支える「ネオクラウド」と呼ばれる新興クラウドプロバイダーたちが直面する、過酷な経済的現実を浮き彫りにした。AIモデル開発の需要爆発を追い風に、巨額の資金を投じてNVIDIA製GPUを数千、数万単位で確保してきた彼らにとって、投資した資産の価値が技術革新の波によって急速に失われるリスクは、事業の根幹を揺るがしかねない問題だからだ。
加速する「価値の崖」:1年で8割減価するGPUの現実
Jensen Huang氏の発言は、単なるジョークではなかった。AI業界、特にGPUインフラを提供するビジネスにおいて、資産価値の減価償却は、他のどの業界よりも速く、そして残酷に進む。
GPUオーケストレーションプラットフォームを提供するhosted.AIのCEO、Ditlev Bredahl氏は、この現実を具体的な数値で示している。「1年ほど前、H100(Hopper世代)の利用料は1時間あたり5ドルから6ドルだった。今では75セント、あるいはそれ以下だ」。ハードウェアの資産価値は3年から5年で償却されるのが一般的だが、AI用GPUの世界では、わずか1年でそのプロセスが完了してしまうとBredahl氏は指摘する。これは、固定のリース契約でGPUを調達しているプロバイダーにとって悪夢に外ならない。「リース費用が3年、あるいは5年で固定されているにもかかわらず、収益がわずか12ヶ月で80%も侵食されれば、それは深刻な問題だ」。
この価格下落圧力は、巨大な資本力を持つハイパースケーラーでさえ無縁ではない。Amazon Web Services (AWS)は2025年6月、NVIDIA H100やA100などを搭載したインスタンスの価格を最大45%引き下げることを発表。AWSはこの価格改定を「規模の経済によって得られた効率性を顧客に還元する標準的な方法」と説明しているが、その背景には急速な技術世代交代への対応という側面があることは間違いない。
事実、AWSのCFOであるBrian Olsavsky氏は2024年第4四半期の決算説明会で、AIと機械学習分野における技術開発のペースが加速していることを認め、サーバーとネットワーク機器の耐用年数を6年から5年に短縮することを発表した。この会計方針の変更は、2025年の営業利益を約7億ドル押し下げる見込みだ。さらに、一部機器の早期廃棄により約9億2000万ドルの費用が発生し、これもまた2025年の営業利益を約6億ドル減少させると予測されている。
しかし、欧州のネオクラウド、ScalewayのCEOであるDamien Lucas氏は、この5年という耐用年数でさえ楽観的すぎると指摘する。同社は、GPUの償却期間を3年という、より厳しい前提で事業計画を立てている。Lucas氏によれば、新しい世代の登場は約18ヶ月ごとであり、GPUが経済的に価値を持つのは実質的に2世代分、つまり約3年間だという。彼は衝撃的な事例を挙げる。「1年ほど前、ある顧客から旧世代のV100 GPUを数千個、無償で提供するという申し出があった。しかし計算してみると、消費電力や設置スペースのコストを考慮すれば、新たにH100を購入した方が安上がりだった」。V100は当時、H100の2世代前の製品にすぎなかった。この事実は、技術的陳腐化がいかに急速に経済的価値を破壊するかを物語っている。Lucas氏はさらに、「2026年の初めには、A100(H100の1世代前)は何の価値も持たなくなると予測している」と断言する。
ネオクラウドの資金調達:高金利の負債と高まるリスク
ネオクラウドのビジネスモデルは、本質的に資本集約型である。事業を開始するためには、まず巨額の初期投資(Capex)で大量のGPUを確保する必要がある。その資金調達方法は、企業の存続を左右する重要な要素となる。
Voltage ParkのCEO、Ozan Kaya氏は、その内情をこう語る。「もし我々が100個のGPUを購入して会社を始めようと思えば、友人や家族から投資を募るか、プライベートクレジットを利用する必要がある。後者の金利は通常13%から17%にもなる」。このような高金利の負債を抱えながら、価格変動の激しい市場で収益を確保し続けるのは至難の業だ。
より有利な選択肢として、HPEやDellといったOEM(相手先ブランドによる生産)ベンダーが提供するファイナンスがある。自社製品の販売を促進したいというインセンティブが働くため、金利は7%から13%程度と、比較的資本効率が良い。
そして、多くのネオクラウドが目指すのが株式公開(IPO)である。Kaya氏が「第二の聖杯」と呼ぶこの手段は、投資銀行との関係を通じて5%から8%といった、さらに低コストの資金調達への道を開く。最終的な理想形は、資産を証券化して投資家に販売する「証券化ファイナンス」だが、GPUの残存価値が不安定な現状では、まだ時期尚早だと考えられている。
この資金調達の現実を最も象徴しているのが、ネオクラウドの筆頭格であるCoreWeaveだ。同社は2025年3月にIPOを果たし、その後も巨額の資金調達を続けている。2025年5月時点での同社の調達額は210億ドル以上に達し、その結果として巨額の負債を抱えることになった。2025年第1四半期だけで、同社が支払った利息は約2億6400万ドルに上る。さらに、既存の負債を借り換えるため、利率9.25%の無担保社債で新たに20億ドルを調達している。
この莫大な負債は、CoreWeaveのアキレス腱であると同時に、同社のビジネスモデルの核心でもある。巨額の資金で最新鋭のGPUを誰よりも早く、そして大量に確保し、OpenAIやMicrosoftといった巨大顧客との間で数十億ドル規模の長期契約を締結する。これにより、将来の収益を確定させ、投資家の信頼を繋ぎ止め、さらなる資金調達を可能にするというサイクルを回しているのだ。
しかし、このモデルは綱渡りのようにも見える。もし将来、顧客との契約が更新されなかったり、GPUの減価償却が想定以上に速く進んだりすれば、この巨大な負債は一気に経営を圧迫するだろう。
Blackwellという名のパラドックス:300万ドルの投資と3年契約の必要性
市場に投入されるNVIDIAの次世代プラットフォーム、Blackwellは、ネオクラウドにとって希望であると同時に、新たな悩みの種でもある。その性能が既存のモデルを凌駕し、AI開発の新たな地平を切り拓くことは間違いない。しかし、その導入コストは桁違いだ。
GB200 Superchipの推定コストは6万ドルから7万ドル。そして、これを72基搭載したGB200 NVL72ラック1台の価格は、実に300万ドルに達すると考えられている。この莫大な初期投資を回収するためには、ビジネスモデルの根本的な見直しが不可欠となる。
Voltage ParkのKaya氏は、Blackwell世代のGPUで投資収益を得るためには、顧客との契約期間を従来の短期契約から、少なくとも3年程度の長期契約にシフトする必要があると予測する。「もしGPUのレンタル料が急速に下落し続けるなら、すべてのネオクラウドは最終的に長期契約を必要とするようになるだろう。1年で資産価値が暴落するリスクを抱えたまま、何億ドルもの資金を調達することはできないからだ」。3年契約を結ぶことで、少なくとも投資の損益分岐点を超えることができ、その後のキャッシュフローが利益となる。
この戦略を最も大規模に実行しているのが、前述のCoreWeaveである。同社はOpenAIと総額160億ドル近い契約を結び、Microsoftとは10年で少なくとも100億ドルを費やす契約を締結している。これらの巨大な長期契約が、同社の巨額の設備投資と負債を支える生命線となっているのだ。Scalewayも同様に、保有GPUの約70%を長期契約に割り当て、残りの30%で市場価格の変動に対応するというリスク管理戦略をとっている。
Blackwellへの投資は、ネオクラウドにとって一種の「踏み絵」となりつつある。巨額の投資を行い、それを回収できるだけの長期的な顧客基盤を確保できる企業だけが、次世代のAIインフラ市場で生き残ることができる。それは、資金力と顧客獲得力の両面で、ネオクラウド間の格差を一層拡大させる要因となるだろう。
旧世代GPUの「第二の人生」:推論市場という活路
最新鋭のGPUが急速に陳腐化していく一方で、旧世代のGPUにも活路はある。それが「推論(Inference)」市場だ。AIのワークロードは、巨大なデータセットを使ってモデルを一から構築する「トレーニング(Training)」と、その訓練済みモデルを使って具体的な予測や分析を行う「推論」の2つに大別される。
CoreWeaveの国際部門ゼネラルマネージャーであるMike Mattacola氏は、同社の戦略を「非常にシンプルなモデル」だと説明する。「最新技術でトレーニングを行い、前の世代の技術で推論を実行する。これで完璧に機能する」。同様に、FirmusのCTO、Daniel Kearney氏も、最新のハードウェアは大規模言語モデル(LLM)開発の最先端で使われる一方、多くの企業はまだ「デジタルジャーニー」の途上にあると指摘する。「Hopper世代のGPUは推論において大きな価値を持つ。世界最大級の企業でさえ、A100のような旧世代の技術を推論に使い続けている」。
Cirrascale Cloud ServicesのCEO兼CTOであるDave Driggers氏も、この「ハードウェアの再利用」こそがネオクラウド経済学の根幹だと語る。トレーニング用に導入されたGPUは、12〜18ヶ月ごとに更新される可能性があるが、償却を終えた後の「第二の人生」で推論ワークロードを担うことで、コスト面での優位性を発揮するという。
しかし、この「トレーニングは最新世代、推論は旧世代」というモデルが万能なわけではない。ScalewayのLucas氏は懐疑的な見方を示す。第一に、メモリ容量の制約だ。「A100はメモリが少ないため、巨大なモデルには使えない。非常に大規模なモデルの推論には、依然として最新のGPUが必要になるだろう」。今後のAI業界が、汎用的な巨大モデルを目指すのか、それとも特定のタスクに特化した小型モデルへと向かうのか。その方向性によって、旧世代GPUの価値は大きく左右される。
第二に、NVIDIA以外のベンダーから、より安価なチップが登場していることだ。AMDやIntel、さらにはハイパースケーラー自身が開発するカスタムシリコン(内製チップ)が市場に浸透すれば、NVIDIAの旧世代GPUを推論に使うという選択肢の魅力は相対的に低下する可能性がある。「旧世代のNVIDIA技術を推論に使えることは間違いないが、そのすべてを再利用できるだろうか?」というLucas氏の問いは、ネオクラウドが直面する不確実性を示唆している。
生存への道筋:プラットフォーム化と付加価値の追求
GPUのレンタル価格が下落し、ハードウェアの陳腐化が加速する中で、ネオクラウドが生き残るためには、単なる「GPUの時間貸し」ビジネスから脱却する必要がある。その鍵は、ストレージ、データベース、ソフトウェアといったサービスを統合し、顧客にとって「なくてはならない」プラットフォームへと進化することだ。
Vast Dataの共同設立者であるJeff Denworth氏は、多くのネオクラウドがデータセンターやIT分野の出身ではないという課題を指摘する。「すべてのクラウドは野心と多額の資本で始まるが、堅牢なコンピューティング環境を構築するには、スケーラビリティ、セキュリティ、AIパイプラインの専門家になる必要がある」。
Vast Dataは、Lambda、Crusoe、Scalewayといった多くのネオクラウドと提携し、彼らがストレージやデータベースの機能をサービスに組み込む手助けをしている。これにより、プロバイダーはより高い利益率を確保できるだけでなく、顧客を自社のエコシステムに深く取り込む「スティッキネス(粘着性)」を高めることができる。
一方で、NVIDIA自身が立ち上げたAIマーケットプレイス「Nvidia DGX Cloud Lepton」のようなプラットフォームは、ネオクラウドにとって諸刃の剣となりうる。Scalewayもこのプラットフォームに参加しており、Lucas氏は「GPUからの収益を最大化する機会」と評価する一方で、すべてのプロバイダーが同じ土俵で価格競争を繰り広げるため、価格の下落は避けられないと認める。「H100を1時間50セントで売るのは非常に簡単だが、2ドルで売るのは少し難しい」。
結局のところ、今後のネオクラウドの競争優位性は、どれだけ安くGPUを提供できるかではなく、AI開発と運用に必要な周辺サービスをどれだけシームレスに、そして付加価値の高い形で提供できるかにかかってくる。単なるインフラプロバイダーから、フルスタックのAIプラットフォームプロバイダーへと変貌を遂げられるかどうかが、淘汰の時代を生き抜くための試金石となるだろう。
淘汰の時代へ —— 問われるネオクラウドの真価
Jensen Huang氏のGTCでの発言は、AIインフラ市場が新たなフェーズに突入したことを告げる号砲だった。それは、NVIDIAの圧倒的な技術革新が、市場を支えるパートナーであるはずのネオクラウドのビジネスモデルそのものを根底から揺るがすという、皮肉な現実を突きつけている。
GPU資産の価値がわずか1、2年で消失する可能性、次世代機への投資に300万ドルという巨費と3年以上の長期契約が求められる現実。これは、AIという名のゴールドラッシュに沸いた市場が、持続可能性を問われる「淘汰の時代」に入ったことを意味する。
CoreWeaveのように、超巨大顧客との長期契約によって未来の収益を固め、莫大な負債をテコに成長を続けるモデルは、一つの成功例かもしれない。しかし、すべてのネオクラウドがその方程式を再現できるわけではない。
これからの市場で生き残るネオクラウドは、おそらく次のような特徴を持つだろう。
- 強固な顧客基盤と長期契約の確保: 安定したキャッシュフローを生み出すための必須条件。
- 賢明な財務戦略: 資金調達コストを抑え、資産の減価償却リスクを管理する能力。
- 柔軟なハードウェア戦略: トレーニングと推論のワークロードを最適に配分し、旧世代GPUの価値を最大化する知見。
- 付加価値サービスの提供: 単なるGPUレンタル業から脱却し、ソフトウェアやストレージを含む統合AIプラットフォームを構築するビジョン。
楽観論も悲観論も存在するが、確かなことは、市場が極めて予測困難な状況にあるということだ。ScalewayのLucas氏が「H100の価値を帳簿から消し去るとき、多くの企業が倒産するだろう」と予測するように、厳しい未来が待ち受けている可能性は否定できない。AI革命の熱狂の裏で、そのインフラを支える者たちの静かな、しかし熾烈なサバイバルレースは、すでに始まっているのである。
Sources
- Data Center Dynamics: Chipping away at the economics of neoclouds
- Silicon Angle: Neocloud strategies reshape the future of compute efficiency