生成AIサービス「Claud」を展開するスタートアップ、Anthropicが、Googleとの間で数百億ドル規模に上る歴史的なクラウド契約を締結した。この契約により、Anthropicは最大100万基のGoogle製AI専用チップ「Tensor Processing Unit(TPU)」へのアクセス権を獲得し、2026年までに1ギガワットを大幅に超える計算能力を確保する。この新たな動きは、NVIDIA一強とされるAIチップ市場におけるGoogleの逆襲の狼煙であり、Microsoft、Amazon、Googleの3大クラウド巨人がAIスタートアップを介して繰り広げる覇権争い、「クラウド三国志」の新たな局面を告げる、極めて戦略的な一手と言えるだろう。
AI開発の新次元へ:100万TPU、1GW超という「規格外」の契約
2025年10月24日(米国時間)、AnthropicとGoogleは、両社のパートナーシップを劇的に拡大することを共同で発表した。契約の核心は、AnthropicがGoogle Cloudのインフラ、特にAIのトレーニングと推論に最適化されたカスタムチップであるTPUの利用を大幅に拡大するという点にある。
発表された契約内容は、現在のAI業界のスケール感を象徴している。
- 最大100万基のTPU利用: Anthropicは、Googleが設計・開発する最新世代を含む最大100万基のTPUにアクセス可能になる。
- 1ギガワット超の計算能力: これにより、2026年までにオンラインになる計算能力は「1ギガワットを大幅に超える」とされている。米国エネルギー情報局(EIA)によれば、1ギガワットは米国の約35万世帯の電力を賄うのに相当する規模であり、AIモデルを動かすためにいかに膨大なエネルギーが必要かを示唆している。
- 数十億ドル規模の投資: 契約の正確な金額は明らかにされていないが、両社はこれが「数百億ドル」規模に及ぶことを認めている。
AnthropicのCFOであるKrishna Rao氏は、「この拡張されたキャパシティは、指数関数的に増大する我々の需要に応え、同時に我々のモデルを業界の最先端に保つことを保証してくれます」と述べ、急成長する顧客基盤(現在30万社以上、年間10万ドル以上を支払う大口顧客は過去1年で約7倍増)に対応する必要性を強調した。
なぜGoogle TPUが選ばれたのか?NVIDIA GPUとの違いと戦略的価値
現在のAIチップ市場は、NVIDIAのGPU(Graphics Processing Unit)が圧倒的なシェアを握っている。ではなぜAnthropicは、GoogleのTPU利用をこれほど大規模に拡大する決断を下したのだろうか。
TPUは、Googleが自社の検索エンジンや翻訳、写真といったサービスでAI処理を効率化するために開発した特定用途向け集積回路(ASIC)である。GPUが画像処理をはじめ多様な並列計算に対応できる汎用性を持つのに対し、TPUはAIモデルが多用する「テンソル計算」という行列演算に特化している。この特化により、特定のAIワークロードにおいては、GPUを上回る電力効率と価格性能比を実現できるとされる。
Anthropicは今回の決定について、数年にわたるTPUの利用経験から「強力な価格性能比と効率性」を実感したためだと説明している。Google CloudのCEO、Thomas Kurian氏もこの点を強調し、「今回の決定は、我々のTPUが持つ強みを反映したものです」と自信を見せた。
この契約は、Googleにとって単なる大型案件の獲得以上の意味を持つ。これは、NVIDIAの牙城を崩そうとするGoogleのAIインフラ戦略における「強力なバリデーション(妥当性の証明)」に他ならない。Anthropicという、OpenAIと並び世界で最も先進的なAIモデルを開発する企業が、自社の将来を賭けるインフラとしてTPUを大規模に採用したという事実は、他のAI開発企業に対してTPUの性能と信頼性をアピールする上でこの上ない広告塔となるだろう。
「マルチクラウド」戦略の深層:AWS、NVIDIAとの関係性とAnthropicの生存戦略
しかし、このニュースを「AnthropicがGoogleに乗り換えた」と単純に解釈するのは早計である。Anthropicは公式声明の中で、今回の契約が同社の「マルチクラウド、マルチチップ戦略」の一環であることを明確にしている。
Anthropicは現在、主要なAIチッププラットフォームを戦略的に使い分けている。
- Amazon Web Services (AWS): AmazonはGoogleと並ぶAnthropicの主要な投資家(最大80億ドルを投資)であり、AnthropicはAWSを「主要なトレーニングパートナーであり、クラウドプロバイダー」と位置づけている。AWSのカスタムAIチップ「Trainium」を利用し、「Project Rainier」と呼ばれる巨大なスーパーコンピュータを共同で構築中だ。
- NVIDIA: 業界標準であるNVIDIAのGPUも、モデル開発のために利用している。
- Google Cloud: そして今回の契約で、TPUの利用を劇的に拡大する。
このマルチプラットフォーム戦略は、今日のAI開発競争における極めて賢明な生存戦略であると筆者は分析する。その理由は主に3つある。
- リスク分散と耐障害性: 特定のクラウドプロバイダーやチップメーカーに依存することは、供給不足や価格変動、システム障害といったリスクを一身に背負うことを意味する。事実、SiliconANGLEが指摘するように、最近AWSで大規模なクラウド障害が発生した際、多くのサービスが停止する中でAnthropicのClaudeはオンラインを維持し続けた。これはマルチクラウド戦略がもたらす耐障害性の高さを如実に示す事例である。
- ワークロードの最適化: AIモデルの開発には、トレーニング、ファインチューニング、推論といった様々なフェーズがあり、それぞれで最適な計算資源は異なる。複数のプラットフォームを使い分けることで、タスクごとに最も価格性能比の高いチップを選択し、コストを最適化することが可能になる。
- 交渉力の維持: 複数の巨大サプライヤーを天秤にかけることで、Anthropicは価格交渉やサービスレベルの要求において、より有利な立場を確保できる。
一部のアナリストは、Anthropicの重心がAWSからGoogleに移る可能性を指摘しているが、同社自身はAWSとの強固なパートナーシップを繰り返し強調している。現時点では、特定のプラットフォームへの「乗り換え」ではなく、最適なポートフォリオを構築するための「戦略的追加」と見るのが妥当だろう。
巨大ITの代理戦争:生成AIの覇権を巡るクラウド巨人たちの思惑
この契約の背景には、生成AIの覇権を巡るクラウド巨人たちの壮大な競争構造が存在する。
- Microsoft陣営: OpenAIに巨額の出資を行い、自社のクラウドプラットフォーム「Azure」上で独占的にそのAIモデルを提供。NVIDIAのGPUを大量に確保し、AIインフラの優位性を築いている。
- Amazon陣営: Anthropicに最大80億ドルを投資し、AWSのインフラと自社製チップTrainiumを提供。AWSの広範な顧客基盤を武器に、AIプラットフォームとしての地位を固めようとしている。
- Google陣営: Anthropicにこれまで30億ドル以上を投資。自社開発のTPUを武器に、Google CloudのAIインフラとしての魅力を高め、Microsoft AzureとAWSを猛追する。
興味深いのは、AnthropicがAmazonとGoogleという競合する2つの巨人から同時に支援を受け、両社のインフラを活用している点だ。これは、Anthropicが持つ技術力の高さと、そのAIモデル「Claude」が持つ戦略的重要性を物語っている。クラウドプロバイダーにとって、Anthropicのような先進的なAI企業を自社のプラットフォームに引き込むことは、自社の技術力を証明し、他の企業顧客を呼び込むための最高のショーケースとなる。この契約は、顧客とベンダーという単純な関係を超え、資本とインフラが複雑に絡み合った、まさに「代理戦争」の様相を呈しているのである。
1ギガワットが示す未来:AIがエネルギー問題と直面する現実
最後に、「1ギガワット超」という数字が持つもう一つの側面にも触れておきたい。これは、AIの進化がもたらす計算能力の飛躍を示すと同時に、それが引き起こす爆発的なエネルギー消費という課題を浮き彫りにする。
AIモデルが大規模化・高性能化するにつれて、そのトレーニングと運用に必要な電力は増大の一途をたどっている。世界中で「AIデータセンター」の建設ラッシュが続く中、電力インフラへの負荷や環境への影響は、無視できない経営課題となりつつある。
この文脈において、TPUのような特定用途に特化し、電力効率を追求したチップの重要性は今後さらに増していくだろう。AI開発競争は、単にモデルの性能を競うだけでなく、いかに効率的に、そしてサステナブルに計算資源を確保し、運用するかという「エネルギー効率競争」の側面も帯び始めている。
AIインフラ競争は新たな時代へ
AnthropicとGoogleの歴史的契約は、生成AI開発競争が、モデルそのものの性能競争から、それを支える計算インフラ(チップ、クラウド、そしてエネルギー)の確保を巡る総力戦へと完全に移行したことを象徴する出来事である。
Anthropicが示したマルチクラウド・マルチチップ戦略は、特定の巨大ITに依存するリスクを回避し、技術的・商業的な主導権を維持するための新たな標準モデルとなるかもしれない。一方でGoogleは、この契約をテコにAIチップ市場におけるNVIDIAへの挑戦者としての地位を確立し、クラウド市場での勢力図を塗り替えようとしている。
AIの進化は止まらない。しかしその進化を支えるインフラは有限であり、戦略的な確保が不可欠だ。この巨大なディールは、AIの未来が、コードを書く研究者やエンジニアだけでなく、データセンターを建設し、チップを設計し、電力を供給するプレイヤーたちの掌の上で形作られていくという現実を、我々に強く突きつけている。
Sources