テクノロジーと科学の最新の話題を毎日配信中!!

Apple、AI強化へNVIDIAに巨額投資か? 10億ドル規模のサーバー導入報道

Y Kobayashi

2025年3月26日

AppleがAI(人工知能)能力強化のため、NVIDIA製のAIサーバーに約10億ドルという巨額の投資を行う準備を進めているとのアナリスト予測が浮上した。これは同社が「Apple Intelligence」で推進する自社製チップ「Appleシリコン」を中心とした戦略との関連で注目される動きであり、その真意と影響について様々な憶測を呼んでいる。

スポンサーリンク

10億ドル規模のNVIDIAサーバー導入計画:アナリストレポートの詳細

今回の報道の発端となったのは、金融サービス企業Loop Capitalのアナリスト、Ananda Baruah氏が顧客向けに発表したレポートである。米メディアInvestor's Business Dailyなどが報じた内容によると、Baruah氏はAppleが約10億ドル相当のNVIDIA製サーバーシステムを発注するプロセスにあると指摘している。

具体的に購入対象として挙げられているのは、NVIDIAが発表した最新のサーバープラットフォーム「GB300 NVL72システム」(または単にNVL72サーバー)である。Baruah氏の分析では、1台あたりの価格が370万ドルから400万ドルと推定されるこの高価なシステムを、Appleは約250台規模で導入する計算になるという。

さらに、この大規模なサーバークラスター(複数のサーバーを連携させたシステム)構築において、Appleはサーバー製造大手のDell TechnologiesとSuper Micro Computer(SMCI)を主要なパートナーとしている、とBaruah氏は述べている。同氏はレポートの中で次のように記している。

“AAPL is officially in the large server cluster Gen AI game … and SMCI & DELL are the key server partners,”
(訳:Appleは公式に大規模サーバークラスターによる生成AIゲームに参加した…そしてSMCIとDELLが主要なサーバーパートナーである)

続けて、その用途について次のように推測している。

“While we are still gathering fuller context, this appears to have the potential to be a Gen AI LLM (large language model) cluster.”
(訳:我々はまだ完全な文脈を収集中だが、これは生成AIの大規模言語モデル(LLM)クラスターとなる可能性を秘めているように見える)

大規模言語モデル(LLM)とは、大量のテキストデータでトレーニングされ、人間のような自然な文章を生成したり、質問に答えたりできるAIモデルのことである。ChatGPTなどがその代表例であり、その開発や運用には膨大な計算能力を持つサーバーが不可欠となる。

今回導入が噂されるNVIDIA NVL72サーバーは、まさにこうした要求に応えるために設計された最新鋭機だ。NVIDIAによると、このサーバーは同社のGrace CPUを36基、そして最新アーキテクチャであるBlackwellを採用したGPUを72基搭載している。ただし、NVIDIAの発表では、このNVL72サーバーはまだ市場に出荷されていない製品である。Apple は先行予約の形で発注していると考えられ、これは同社のAI開発に対する緊急性と優先度の高さを示唆している。

Appleシリコン戦略との関係性:矛盾か、それとも補完か?

今回のNVIDIAサーバーへの大型投資の報道は、Appleがこれまで強調してきたAI戦略、特に自社開発のAppleシリコンチップをデータセンターで活用するという方針との関係で、多くの疑問を投げかけている。

Appleは2024年6月のWWDC(世界開発者会議)で、iOS、iPadOS、macOSに統合される新たなAI機能群「Apple Intelligence」を発表した。その際、同社のソフトウェアエンジニアリング担当上級副社長であるCraig Federighi氏は、これらのAI処理の一部、特に高度な処理を担うクラウド基盤(Private Cloud Compute)のサーバーには、特別に設計されたAppleシリコンチップが使用されることを強調した。

Federighi氏は、Appleシリコンサーバーを用いることが、ユーザーのプライバシーを保護し、信頼性を確保する上で「極めて重要(totally critical)」であると述べていた。同氏の発言には、次のようなものがある:

「データセンターに以前はなかった Appleシリコンサーバーを構築し、データセンター用のカスタムOSを構築することは大きな取り組みだった」

さらに Federighi 氏は、「サーバーが実行しているソフトウェアの署名が透明性ログに公開されない限り、デバイスがサーバーにリクエストを発行することを拒否する信頼モデルの構築」が「ソリューションの最もユニークな要素の一つであり、信頼モデルにとって完全に不可欠」だと強調していた。

この発言は、Appleがプライバシーを最優先事項として、AI処理基盤を自社技術でコントロールしようとしている姿勢を明確に示すものだった。それだけに、今回伝えられたNVIDIA製サーバーへの大規模投資は、一見するとこの方針と矛盾するように映る。

しかし、いくつかの可能性が考えられる。

  1. 役割分担の可能性: Appleシリコンサーバーは、Federighi氏が強調したように、ユーザーデータに直接関わる「Apple Intelligence」の推論処理(AIモデルを使って答えを導き出す処理)を担当し、プライバシー保護を徹底する。一方、今回導入が噂されるNVIDIAサーバーは、より計算負荷の高い、大規模言語モデルなどのAIモデル自体の開発、トレーニング(学習)、あるいは研究用途に特化して使用されるのではないか。AIモデルの開発には、現時点で業界標準ともいえるNVIDIA GPUの強力な並列計算能力が依然として有利であり、Appleもその現実的な選択をした可能性がある。
  2. 自社チップ開発との関連: Appleが自社製のサーバー向けチップを開発しているという過去の報道もあるが、今回のNVIDIAサーバー購入は、その自社チップ開発が予想より遅れている、あるいは現行のApple Siliconでは次世代AIの開発に必要な性能を満たせないための「補完的な措置」である可能性。
  3. ハイブリッド戦略: 上記1、2を組み合わせた、より現実的なシナリオとして、AppleがApple SiliconとNVIDIA製チップの両方を、それぞれの強みが生かせる領域で使い分ける「ハイブリッド戦略」を採用する可能性も考えられる。Federighi氏の発言は、あくまでユーザーデータのプライバシーが関わる部分に焦点を当てたものであり、AI開発のバックエンドインフラ全てをApple Siliconで賄うと明言したわけではない、とも解釈できる。

現時点では、これらのいずれが真実かは不明である。アナリストのBaruah氏自身も「まだ完全な文脈を収集中」と述べており、Appleからの公式な発表もないため、憶測の域を出ない。しかし、AppleがAI分野への投資を加速させていることは、今回の報道からも改めてうかがえる。これが開発目的の投資なのか、将来的に一般ユーザー向けのサービス提供に使われるものなのかは、今後の動向を注視する必要があるだろう。

テクノロジー業界全体を見渡せば、Microsoft、Google、Metaといった巨大企業が、AI開発競争を勝ち抜くためにNVIDIA製GPUを含むAIインフラへ巨額の投資を続けている。Appleの今回の動きが事実であれば、同社もこの競争に本格的に参入し、AI分野における覇権争いがさらに激化することを示唆していると言えるかもしれない。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする