テクノロジーと科学の最新の話題を毎日配信中!!

TensorWave、1億ドル調達でAMD製AI GPU 8000基超の巨大液冷クラスター構築へ

Y Kobayashi

2025年5月15日

AI(人工知能)向けGPUクラウドプラットフォームを手掛けるTensorWaveが、シリーズA資金調達ラウンドで1億ドル(約145億円)を確保したことを発表した。この資金調達は、Magnetarと半導体大手AMDのベンチャー部門であるAMD Venturesが共同で主導し、既存投資家のMaverick Silicon、Nexus Venture Partnersに加え、新たにProsperity7も参加した。

この巨額の資金は、AMDの最新鋭AI向けGPU「Instinct MI325X」を8,192基搭載した大規模AIトレーニングクラスターの構築と運用、そしてそれに伴うチームの拡大に充てられる。 TensorWaveは、この動きを通じて、NVIDIAが依然として優位に立つAIインフラ市場において、AMD製GPUを軸とした強力な選択肢を提供する構えだ。

スポンサーリンク

なぜAMDなのか?CEOが語る「ソフトウェア進化」と「コスト効率」

TensorWaveのCEOである Darrick Horton 氏は、AMD製GPUへの大規模投資の背景について、特にソフトウェアスタックの成熟を挙げる。Darrick Horton 氏はThe Registerのインタビューに対し、「最初の世代の製品では確かにいくつかの困難があった」「2024年時点でのAMDのトレーニング性能は理想的ではなかったことは公然の事実だ」と率直に語っている。

しかし、同氏によれば、この1年から1年半の間にAMDのソフトウェア、特にAIモデルのトレーニングに必要なソフトウェアスタックが劇的に改善されたという。 「トレーニングスタックを作成する難易度は、推論スタックを作成するよりも桁違いに大きい」と Darrick Horton 氏は述べ、AMDのハードウェア自体は当初から優れていたものの、ソフトウェアが追いついていなかったと指摘する。 このソフトウェア面の進化が、TensorWaveが推論処理中心の提供から、大規模AIトレーニングへと舵を切る大きな要因となったようだ。

実際に、2023年末に発表されたAMDのMI300Xは、NVIDIAのH100と比較して30%高いパフォーマンス、2倍以上のメモリ容量、60%高い帯域幅を謳っていた。 特に192GBという大容量HBM3メモリは、より大きなAIモデルをより少ないGPUで実行できる推論処理において明確な利点を示した。 そして、その後継となるMI325Xでは、メモリが256GBのHBM3eへとアップグレードされ、帯域幅は6TB/sに達する。

TensorWaveの共同創業者兼プレジデントである Piotr Tomasik 氏もSiliconANGLEの取材に対し、「依然として非常に独占的な市場だ」とNVIDIA優勢の現状に言及しつつ、「コスト削減だけでなく、AMDが輝くユースケースがある」と語り、動画・画像生成モデルや新しいMoE(Mixture-of-Experts)といったAIアーキテクチャにおいて、AMDチップセットがメモリヘッドルームとパフォーマンスの信頼性で優位性を持つと説明している。

Darrick Horton CEOはまた、NVIDIAのハイエンドシステムであるNVL72を求める顧客層も存在することを認めつつ、「ほとんどの顧客はそれに特化したニーズを持っているわけではない。そしてコストを考慮すると、AMDは依然としてTCO(総所有コスト)で勝利している」と述べており、コスト効率の高さもAMD採用の重要な理由であることを示唆している。

8,192基のMI325Xが集う!世界最大級の「液冷」AMD AIクラスター計画

今回の資金調達で構築されるAIクラスターの主役は、AMDの最新フラッグシップGPU「Instinct MI325X」だ。8,192基という膨大な数のGPUを搭載し、その演算能力はスパースFP8(8ビット浮動小数点演算の一種で、AI計算の効率化に用いられる)で約42エクサフロップス(1秒間に4200京回の浮動小数点演算)に達するとされる。

特筆すべきは、この巨大クラスターが「直接液冷(Direct Liquid Cooling)」方式を採用している点だ。 高性能なGPUは発熱も大きく、その性能を最大限に引き出すためには効率的な冷却が不可欠となる。Darrick Horton CEOは、「この世代では技術的には空冷も可能だが、賢明ではなく近視眼的だ」と断言し、「次世代機で空冷を選択すれば性能を犠牲にすることになり、その次の世代ではおそらく選択肢にすらならないだろう」と、液冷の重要性を強調している。 直接液冷はインフラを高密度かつ高スループットで運用し、サーマルスロットリング(熱による性能低下)なしに持続的なパフォーマンスを実現する鍵となるのだ。

この新しいAIクラスターは、アリゾナ州ツーソンにあるデータセンターキャンパスに設置される予定だ。TensorWaveは、このインフラを通じて、数十億パラメータを持つ大規模モデルのトレーニングやファインチューニング、長文コンテキストの推論タスクに取り組む開発者を支援する。 また、AMDのオープンなソフトウェアプラットフォームであるROCm(Radeon Open Compute platform)ベースのツールを完全にサポートし、特定のベンダーにロックインされない開発環境を提供するとしている。

スポンサーリンク

AIトレーニング市場は終わらない:TensorWaveが見据える「基礎的転換」

AIのトレンドがトレーニングから推論へとシフトしているとの見方もある中で、Darrick Horton CEOはトレーニング市場の重要性が今後も続くと考えている。「AIのアーキテクチャをどのように構築するかに根本的な変化が起きるたびに、時計はリセットされる。今後数年で、そうした基礎的な転換がさらに数回起こると予想している」と述べ、新しい手法や基盤モデルの登場に伴い、トレーニングの需要は継続すると予測している。

TensorWaveの今回の動きは、AIインフラ市場におけるAMDエコシステムの拡大を象徴するものと言えるだろう。AMDのCSO(最高戦略責任者)兼SVPである Mathew Hein 氏は、「TensorWaveは成長するAMD AIエコシステムにおける重要なプレイヤーだ」と期待を寄せている。

TensorWaveは、今回の資金調達を元に、MI325Xクラスターの展開を加速させるとともに、液冷インフラのさらなる開発、エンジニアリングおよびサポートチームの拡充を進める。 現在約40人の従業員数は、年末までに100人を超える見込みだ。 TechCrunchの報道によれば、同社は年末までに年間ランレート収益1億ドル以上を目指しており、これは前年比20倍の成長となる。

Darrick Horton CEOは、NVIDIAのNVL72のようなラック規模の統合システムに対して、AMDも同様の製品を市場に投入することで競争条件が対等になることを期待しており、TensorWaveも将来的にAMDの次世代アクセラレータ「MI355X」(来月デビュー予定とされる)を導入する可能性を示唆している。

「我々は別のクラウドを提供するためにここにいるのではない。AIが実際に必要とするクラウドを構築するためにここにいるのだ」という Darrick Horton CEOの言葉は、TensorWaveの強い決意を表している。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

「TensorWave、1億ドル調達でAMD製AI GPU 8000基超の巨大液冷クラスター構築へ」への1件のフィードバック

コメントする