テクノロジーと科学の最新の話題を毎日配信中!!

NVIDIA次世代AIチップ「Rubin」、開発が異例の加速:2025年9月にもサンプル出荷か

Y Kobayashi

2025年6月10日

NVIDIAがComputexで最新のロードマップを公開してからわずか数週間、業界は早くも次の一手に関する情報に揺れている。現在最強のAIチップ「Blackwell」の後継と目される次世代アーキテクチャ「Rubin」の開発が、大方の予想を遥かに上回るスピードで進行していることが、台湾のサプライチェーンからの情報で明らかになった。

複数の報道によると、Rubin GPUおよびVera CPUは今月(2025年6月)にも設計を完了(テープアウト)し、早ければ9月には最初の顧客向けサンプルが出荷される可能性があるという。この前代未聞の開発速度は、AI覇権を巡る競争が新たな次元に突入したことを物語っており、NVIDIAの絶対的な地位をさらに盤石なものにするかもしれない。

スポンサーリンク

異例のスピードで進む開発:テープアウトからサンプル出荷へ

今回の情報の震源地は、半導体製造の最前線である台湾の経済紙「工商時報」だ。同紙がサプライチェーン関係者から得た情報として報じた内容は、具体的かつ驚きのものだ。

  • 2025年6月: Rubin GPUと、それと対になるVera CPUの設計が完了し、製造プロセスに入る「テープアウト」が行われる。
  • 2025年9月: 最速で顧客向けサンプルの提供が開始される見込み。
  • 2026年初頭: 量産開始を予定。

「テープアウト」とは、半導体の複雑な回路設計が完了し、その設計データを製造工場(この場合はTSMC)に引き渡す最終段階を指す。これが完了したということは、チップの基本設計が固まったことを意味し、開発が極めて順調に進んでいることの何よりの証左だ。

注目すべきは、このタイムラインの「異常な」速さである。NVIDIAはつい最近、Blackwellアーキテクチャの提供を開始し、さらにその高性能版である「Blackwell Ultra」の投入も予告しているばかりだ。そのBlackwell世代が市場に本格的に浸透しきる前に、次世代であるRubinの具体的なサンプル出荷時期までが報じられるのは極めて異例と言える。

この動きは、NVIDIAが自ら公言した「1年周期」の製品開発サイクルすら、もはや過去のものにしようとしているかのようだ。これが事実ならば、Blackwell UltraとRubinの登場間隔はわずか6ヶ月になることになるが、NVIDIAがAI市場での圧倒的なリードを維持するため、意図的に開発ペースを加速させている可能性もありそうだ。

Rubinを支える最先端技術の結晶

この驚異的な開発速度と性能向上を支えるのは、世界最先端の半導体技術だ。Rubinは、単なる性能向上版ではなく、複数の革新的な技術を統合した、まさに次世代の名にふさわしいチップとなる。

1. TSMCの3nmプロセス「N3P」と初の「チップレット」設計

Rubin GPUの製造には、TSMCの最新鋭3nmプロセスノードの改良版である「N3P」が採用される。N3Pは、従来のN3Eに比べて性能と電力効率をさらに高めたプロセスであり、AIチップに求められる膨大な計算能力とエネルギー効率の両立に大きく貢献するだろう。

さらに重要なのは、RubinがNVIDIAのデータセンター向けGPUとして初めて「チップレット(Chiplet)」設計を採用する点だ。これまでHopperやBlackwellで採用されてきた、巨大な一枚のシリコンに全機能を詰め込む「モノリシック」設計から、複数の小さなチップ(チップレット)を組み合わせて一つのパッケージを構成する方式へと転換する。

この転換は、以下のような複数の利点をもたらす。

  • 歩留まりの向上: 巨大なチップは製造上の欠陥が発生しやすく、歩留まり(良品率)の低下が課題だった。チップレット化により、個々の小さなチップの歩留まりを管理しやすくなり、結果としてコスト効率が改善する。
  • 設計の柔軟性: 機能ごとに最適なプロセスノードを使い分けることが可能になる。実際にRubinでは、演算を担当するGPUダイは最先端のN3Pで、外部との通信を担うI/OダイはTSMCのN5B(5nmプロセスの改良版)で製造されると報じられている。
  • スケーラビリティ: より大規模で複雑なチップの実現が容易になる。

2. 巨大化するパッケージと「CoWoS-L」

チップレット化に伴い、それらを高密度に接続・実装するパッケージング技術の重要性が増している。Rubinでは、TSMCの先進パッケージング技術「CoWoS-L」が採用される。

特筆すべきは、そのパッケージサイズだ。Blackwellのパッケージが光マスクの最大サイズ(レティクルサイズ)の3.3倍だったのに対し、Rubinではさらに巨大な4倍に達すると報じられている。これは、より多くのチップレットやHBMメモリを搭載し、チップ全体の性能を極限まで引き上げるための必然的な進化と言える。この巨大パッケージの実現には、CoWoS-L技術が不可欠なのだ。

3. 次世代メモリ「HBM4」の採用

膨大なデータを扱うAIチップにとって、メモリ帯域幅は性能を左右する生命線だ。Rubinは、次世代の高帯域幅メモリである「HBM4」をいち早く採用すると見られている。TweakTownなどの報道によれば、SK hynixはすでに世界初となる12層スタックのHBM4メモリのサンプル出荷を開始しており、Rubinの登場に合わせて供給体制が整う可能性が高い。HBM4は、現行のHBM3Eを大幅に上回る帯域幅を実現し、AIモデルの学習・推論性能を飛躍的に向上させると期待されている。

スポンサーリンク

加速するロードマップが示唆する未来と潜むリスク

NVIDIAのこの猛烈な開発ペースは、AI業界の競争環境を根底から変えようとしている。AMDのInstinct MIシリーズや、Google、Amazon、Microsoftといった巨大テック企業による内製AIチップ開発が猛追する中、NVIDIAは圧倒的な開発力とエコシステムを武器に、追随を許さない構えだ。

しかし、この加速にはリスクも伴う。あまりに短い製品サイクルは、サーバーメーカーやデータセンター事業者といったサプライチェーン全体に大きな負荷をかける可能性がある。また、性急な開発は初期ロットの品質問題を引き起こす懸念も拭えない。

一方で、この動きはTSMCを中心とする台湾の半導体エコシステムの重要性を改めて浮き彫りにした。NVIDIAの野心的なロードマップは、TSMCの最先端プロセスと先進パッケージング技術なくしては実現不可能だ。NVIDIAやAWSといった巨大企業が相次いで台湾に大規模な研究開発拠点やデータセンターの設置計画を発表しているのも、この盤石なエコシステムとの連携を最重要視しているからに他ならない。

2026年のCESやGTC(GPU Technology Conference)では、このRubinアーキテクチャの全貌が明らかにされるだろう。576基ものRubin GPUと、12,000コアを超えるVera CPUを搭載するという、天文学的なスペックを持つAIサーバー「Vera Rubin NVL576」の構想も報じられており、我々の想像を絶するコンピューティングパワーが現実のものとなろうとしている。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする