長年にわたり、米国企業NVIDIAは現代の人工知能の基盤を形作ってきた。同社のグラフィックス処理ユニット(GPU)は、もともとグラフィックスやアニメーションの処理要求を扱うために設計された特殊なコンピュータチップである。しかし、これらはAIシステムが必要とする反復的な計算にも優れている。
したがって、これらのチップは大規模言語モデル――AIチャットボットの背後にある技術――の急速な台頭を支え、ほぼすべての主要なAIブレークスルーの背後にある馴染み深いエンジンとなった。
このハードウェアは、アルゴリズムとデータに注目が集まる中、静かに背景に存在していた。Googleが独自チップであるテンソル処理ユニット(TPU)でGeminiを訓練するという決定は、その状況を一変させる。それは業界に対し、モデルの背後にある機械を直接見つめ、長らく固定されているように見えた前提を再考するよう促すものだ。
この瞬間が重要なのは、AIモデルの規模が汎用チップの限界を露呈し始めているからである。モデルが成長するにつれて、処理システムにかかる要求は、隠れた非効率性を無視できないレベルにまで増大する。
GoogleのTPU依存は、ハードウェアの選択が単なる技術的な好みではなく、AI開発の次の波を誰がリードできるかを決定する戦略的なコミットメントであることを業界が理解し始めていることを明らかにしている。
GoogleのGeminiは、AIモデルの大規模な訓練(改善)中にデバイスを調整するという困難なタスクを簡素化するクラウドシステムに依存している。
これらの異なるチップの設計は、根本的な意図の違いを反映している。NVIDIAのGPUは汎用性が高く、幅広いタスクを実行できる柔軟性を備えている。一方、TPUはAIモデルの核となる、特定の数学的演算に特化した設計となっている。
独立した比較では、TPU v5pポッドがGoogleのソフトウェアエコシステムに調整されたワークロードにおいて、ハイエンドNVIDIAシステムを上回ることができると強調している。チップアーキテクチャ、モデル構造、ソフトウェアスタックがこれほど密接に連携すると、速度と効率性の向上は強制されることなく、自然なものとなる。
これらのパフォーマンス特性は、チームが実験をどれだけ迅速に行えるかという点にも影響を与える。ハードウェアが訓練するように設計されたモデルと協調して機能すると、反復がより速く、よりスケーラブルになる。これが重要なのは、アイデアを迅速にテストする能力がしばしばどの組織が最初に革新するかを決定するからだ。
これら技術的進歩は、全体像の一部に過ぎない。最先端のAIシステムの訓練は高価で、膨大なコンピューティングリソースを必要とする。GPUのみに依存する組織は、高コストと供給をめぐる競争の激化に直面している。独自のハードウェアを開発し、それに依存することで、Googleは価格設定、入手可能性、長期戦略についてより多くのコントロールを得ることが出来るのだ。

アナリストたちは、この内部アプローチがGoogleをチップの外部サプライヤーへの依存を減らしながら運用コストを削減できると指摘している。特に注目すべき展開は、MetaがTPU容量を使用するための数十億ドル規模の契約を検討したことから生じた。
GPUの最大消費者の1つがカスタムアクセラレーターへの移行を評価するとき、それは単なる好奇心以上のものを示している。それは、単一のサプライヤーへの依存が、ハードウェアの入手可能性が競争力を形作る業界において、もはや最も安全または最も効率的な戦略ではないかもしれないという認識が高まっていることを示唆している。
これらの動きは、クラウドプロバイダーが自らをどのように位置づけるかについても疑問を提起する。TPUがGoogleのクラウドサービスを通じてより広く利用可能になれば、市場の残りの部分は、かつては独自のものと考えられていたハードウェアへのアクセスを得る可能性がある。その波及効果は、Googleの社内研究をはるかに超えて、AIトレーニングの経済性を根本から変える可能性がある。
これがNVIDIAにとって意味すること
金融市場はこのニュースに素早く反応した。クラウドプロバイダーがハードウェアニーズを複数のサプライヤーに分散させる可能性を投資家が懸念したため、NVIDIAの株価は下落した。TPUがGPUを完全に置き換えることはないとしても、その存在は競争を生み、価格や開発スケジュールに影響を与える可能性がある。
信頼できる代替製品の存在は、NVIDIAに迅速な対応と製品の改良を迫り、複数の実行可能な進路を見出す顧客への訴求力を強めている。しかし、NVIDIAは依然として強固な地位を維持している。多くの組織はCUDA(NVIDIAが開発したコンピューティングプラットフォームおよびプログラミングモデル)とその周辺に構築されたツールとワークフローの大規模なエコシステムに大きく依存している。
その環境から離れるには重大なエンジニアリング努力が必要であり、多くのチームにとって実行可能ではないかもしれない。GPUは多様なワークロードに対して比類のない柔軟性を提供し続け、多くの文脈で不可欠であり続けるだろう。
しかし、ハードウェアをめぐる議論は変化し始めている。最先端のAIモデルを構築する企業は、自社のニーズにぴったり合うように調整された専用チップへの関心を高めている。モデルがより大規模で複雑になるにつれて、組織はそれらをサポートするシステムに対するより高度な制御を望んでいる。1つのチップファミリーがすべての要件を満たすことができるという考えは、ますます正当化されにくくなっている。
GoogleのGeminiに対するTPUへのコミットメントは、この変化を明確に示している。それはカスタムチップが世界クラスのAIモデルを訓練できること、そしてAI専用に設計されたハードウェアが将来の進歩の中心になりつつあることを示している。
それはまた、AIインフラの多様化が進んでいることも明らかにしている。NVIDIAは依然として優位に立っているが、AI開発の方向性を決定づける能力をますます高めている他の企業と競合するようになっているのだ。
AIの基盤はより多様で、より競争的になりつつある。パフォーマンスの向上は、新しいモデルアーキテクチャだけでなく、それらをサポートするために設計されたハードウェアからももたらされる。
GoogleのTPU戦略は、前進する道がより幅広い範囲のチップと、かつて業界を結びつけていた前提を再考する意欲のある組織によって定義される新しい段階の始まりを示している。