2022年11月、ChatGPTの登場はテクノロジー業界に地殻変動をもたらした。以来、「AIインフラへの投資」は、Amazon (AWS)、Microsoft (Azure)、Google (GCP)、Metaといった巨大テック企業(ハイパースケーラー)にとって、生存をかけた絶対的な命令となっている。

2025年には総額3000億ドル(約45兆円)を超えると予測されるこの巨額の資本支出(CapEx)の裏側で、静かだが極めて重要な「会計上の綱引き」が行われているのをご存知だろうか。それは、AIの頭脳であるGPUの「耐用年数(Useful Life)」を巡る議論だ。

NVIDIAが毎年新たな高性能チップを市場に投入し、技術の陳腐化が加速しているにもかかわらず、ハイパースケーラーたちは逆にサーバーの会計上の寿命を延ばし続けている。これは単なる「利益の演出」なのか、それともAIファクトリーの新たな経済的実態を反映したものなのだろうか。

AD

「6年」の魔法:利益を嵩上げする会計テクニックの正体

まず、我々が直面している現状を整理しよう。ハイパースケーラー各社は、過去数年間でサーバーやネットワーク機器の減価償却期間を徐々に延長してきた。

かつて業界標準は3年程度であったが、Amazonは2020年にサーバーの耐用年数を3年から4年に延長し、その後5年、さらにはネットワーク機器を6年へと伸ばした。MicrosoftとGoogle、Metaもこの動きに追随し、現在では主要なハイパースケーラーがサーバー資産に対して「6年」という耐用年数を適用するに至っている。

なぜこれが重要なのか?(The Impact)

会計上、耐用年数を延ばすことは「魔法」のように機能する。数千億ドル規模の設備投資をより長い期間にわたって費用配分(減価償却)できるため、単年度の減価償却費が減少し、見かけ上の「営業利益」が即座に押し上げられるからだ。

Oscar Mackereth氏の分析によれば、サーバー資産の耐用年数を3年から6年に延長することで、2024年の減価償却費は推計で390億ドルから210億ドルへと劇的に圧縮された可能性があるという。これは、技術的な実態とは無関係に、企業の収益性を数字上で守る強力な防波堤となっている。

しかし、ここで強烈な矛盾が生じる。「会計上の寿命が延びているのに、技術の進化は加速している」という点だ。

技術的陳腐化の加速:NVIDIAの法則とショートセラーの懸念

著名な投資家であり、映画『マネー・ショート』のモデルとしても知られるMichael Burry氏は、ハイパースケーラーのこの会計方針に対して懐疑的な見方を示している。彼は、AIサーバーの実際の有用な寿命は「2〜3年」程度であり、企業は利益を過大に見せていると指摘する。

この懸念には、技術的な根拠がある。

ムーアの法則を超越するNVIDIA

NvidiaのCEO、Jensen Huang氏は、同社のAIチップが「ムーアの法則」を上回る速度で進化していると公言している。かつて2年サイクルだった製品投入は、Hopper(H100)からBlackwell、そしてRubinへと、事実上の1年サイクル(アニュアル・リリース)に短縮された。

  • 性能の爆発的向上: スタンフォード大学の報告によれば、GPUの性能は2003年以来7,000倍に向上し、価格対性能比も5,600倍改善している。
  • 電力効率の壁: 新しいアーキテクチャへの移行は、単なる計算速度だけでなく、電力効率(トークンあたりの消費エネルギー)を劇的に改善する。推論コストを下げるためには、最新のチップを使うことが経済合理性となる。

Huang氏は「Blackwellが量産されれば、Hopper(前世代)はタダでも配れないほどになるだろう」と冗談めかして語ったことがある。もしこれが真実なら、6年という償却期間はあまりにも楽観的すぎる設定と言わざるを得ない。

AD

「価値の滝(Value Cascade)」理論:なぜ古いGPUは死なないのか

では、ハイパースケーラーは投資家を欺いているのだろうか? 複数の詳細な分析を統合すると、そう単純な話ではないことが見えてくる。

ここでの鍵となる概念が、「価値の滝(Value Cascade)」だ。GPUの寿命は、最先端の「学習(Training)」に使えなくなった瞬間に尽きるわけではない。

段階的なユースケースの移行

GPUのライフサイクルは、以下のような3つのフェーズで構成されていると分析される。

  1. プライム期(1〜2年目):大規模学習(Training)
    • 最も計算能力を必要とするLLM(大規模言語モデル)の学習に使用される。ここでは最新のBlackwellやH100が必須となる。
  2. セカンダリ期(3〜4年目):推論(Inference)
    • 学習済みのモデルを動かす「推論」フェーズでは、必ずしも最高峰のスペックは求められない。ChatGPTのような対話型AIの応答生成には、一世代前のチップでも十分なコストパフォーマンスを発揮する。
  3. ターシャリ期(5〜6年目):バッチ処理・内部ワークロード
    • リアルタイム性が求められないデータのバッチ処理、画像認識、あるいは社内の研究開発用リソースとして、古いGPUは依然として価値を持ち続ける。

二次市場が証明する「残存価値」

この理論を裏付けるデータがある。中古市場におけるNVIDIAの旧世代チップ(T4やV100、A100)の価格推移だ。
Applied Conjecturesの調査によれば、A100などの旧世代チップは、発売から数年が経過しても無価値になるどころか、特定の需要(エッジコンピューティングや、最新チップを入手できない中小企業・研究機関からの需要)によって、安定した再販価格を維持している。

また、GPUのレンタル市場(GPUaaS)においても、旧世代のT4やV100は、低コストな選択肢として依然として高い稼働率を誇っている。つまり、「最先端でなくなること」と「経済価値がなくなること」はイコールではないのだ。

Amazonの「逆回転」が示唆する不都合な真実

しかし、楽観論だけで終わらせるわけにはいかない。業界のリーダーであるAmazonが、最近見せたある「微調整」が、この議論に新たな波紋を広げている。

Amazonは2024年、サーバー資産の一部の耐用年数を「6年から5年」へと短縮したのだ。

同社はこの理由について、「AIおよび機械学習の分野における技術開発ペースの加速」を挙げている。これは、ハイパースケーラー自身が「6年という期間は、AI時代においては長すぎるかもしれない」と認め始めた最初の兆候と読み取れる。

物理的寿命 vs 経済的寿命

ここには、従来のクラウド(CPU中心)とAIクラウド(GPU中心)の決定的な違いがある。
汎用的なCPUサーバーは、多少古くなってもWebホスティングなどの用途で長く使える。しかし、AI GPUは電力消費が激しく、稼働率も極限まで高められるため、物理的な摩耗(Wear and tear)が激しい。さらに、電力効率の悪化はデータセンターの運営コスト(OPEX)を直撃する。

Amazonの動きは、AIハードウェアの「経済的陳腐化」が予想以上に早いことを示唆しており、今後MicrosoftやGoogleが追随して耐用年数を短縮(つまり減価償却費の増加=利益の減少)させるリスクをはらんでいる。

AD

ネオクラウドとの対比で見える「5年」の均衡点

CoreWeaveやLambda Labsといった、AIに特化した新興クラウド事業者(ネオクラウド)の動向も興味深い。彼らの減価償却ポリシーは、ハイパースケーラーよりも保守的である傾向がある。

  • ハイパースケーラー: 6年(多種多様なワークロードで使い回す前提)
  • ネオクラウド: 4〜5年(AI特化のため、陳腐化リスクをシビアに見積もる)

ただし、CoreWeaveのように、アグレッシブに6年を採用している例もある。CoreWeaveのCEO、Michael Intrator氏は「データに基づけばインフラは価値を維持している」と主張し、NVIDIA A100の予約が依然として埋まっている現状を根拠に挙げている。

こうした流れから、今後は業界全体の標準が、現在の「6年」から、より現実的な「5年」へと収束していくと考えられる。これは、技術革新のスピードと、推論需要による延命効果のバランスを取った均衡点だ。

PL(損益計算書)を捨て、CF(キャッシュフロー)を見よ

この複雑な会計パズルから、投資家や業界ウォッチャーは何を学ぶべきか?

最大の教訓は、「純利益(Net Income)」という指標の信頼性が低下しているという点だ。減価償却ポリシーの変更ひとつで、数十億ドルの利益が消えたり現れたりする現状では、PER(株価収益率)などの従来の指標はミスリードを招く恐れがある。

真の指標は「営業キャッシュフロー(OCF)」

AIファクトリーの真の健全性を測るには、減価償却費の影響を受けない営業キャッシュフロー(Operating Cash Flow)に注目すべきだろう。
もし、企業が「利益は出ている(減価償却費が少ないため)」が、「キャッシュフローが悪化している(常に最新GPUを買い続けなければならないため)」のであれば、それは危険信号だ。逆に、キャッシュフローが潤沢であれば、減価償却期間がどうあれ、そのビジネスは実際に現金を稼ぎ出していることになる。

AIインフラは「消費財」か「資産」か

ハイパースケーラーによるGPUの6年償却は、一見すると利益操作のように見えるかもしれない。しかし、詳細に分析すれば、それはAIワークロードが「学習」から「推論」へと多様化し、ハードウェアが段階的に再利用されるエコシステムが確立されつつあることの証明でもある。

一方で、NVIDIAによる年次アップデートの圧力は、この「6年」という前提を常に脅かしている。Amazonの耐用年数短縮は、その最初の亀裂かもしれない。

我々は今、人類史上最大規模のインフラ投資を目撃している。その成否を判断するためには、表面的なニュースの見出しだけでなく、財務諸表の注記(Footnotes)に隠された「減価償却」という小さな数字の変化にこそ、目を凝らす必要があるだろう。


Sources