中国のAI企業DeepSeekから、次世代AIモデル「DeepSeek R2」に関する驚くべき噂が浮上している。報じられている内容が事実であれば、この新モデルはHuawei製のAIチップを活用し、OpenAIのGPT-4と比較して97%以上ものコスト削減を実現しつつ、極めて高い性能を持つ可能性があり、世界のAI市場に再び大きな衝撃を与えるかもしれない。
1.2兆パラメータ? DeepSeek R2の驚異的なスペック予測
DeepSeek社が以前リリースした「R1」モデルは、中国がハイエンドAIモデル開発において決して遅れをとっていないことを西側世界に示し、米国の株式市場に衝撃を与えた。そして今、その後継モデル「DeepSeek R2」に関する情報が、中国のメディアやAIインサイダーを通じてリークされ始めている。
これらの情報源によると、DeepSeek R2は「ハイブリッドMoE(Mixture of Experts、専門家混合型)」と呼ばれるアーキテクチャを採用する可能性があるという。 MoEは、特定のタスクに特化した複数の「エキスパート」モデルを組み合わせ、入力に応じて最適なエキスパートを動的に選択する技術だ。R2では、これをさらに高度化させ、より効率的なゲートメカニズムや、MoEと高密度レイヤーを組み合わせることで、高負荷なワークロードを最適化すると推測されている。
さらに驚くべきは、その規模だ。DeepSeek R2は、R1の2倍にあたる1.2兆個のパラメータを持つと噂されている。 このパラメータ数は、AIモデルの能力や複雑さを示す指標の一つであり、1.2兆という数字は、OpenAIのGPT-4やGoogleのGemini 2.0 Proといった現行の最先端モデルに匹敵するレベルを示唆している。
しかし、DeepSeek R2の潜在的なインパクトは性能だけにとどまらない。伝えられるところによると、トークンあたりの単価(API利用料の計算単位)が、GPT-4と比較して97.4%(ソースによっては97.3%ともあり、概ねこのあたりと見られる)も低い可能性があるというのだ。 具体的には、入力トークン100万あたり0.07ドル、出力トークン100万あたり0.27ドルという驚異的な低価格が噂されている。これが実現すれば、DeepSeek R2は市場で最もコスト効率の高い大規模言語モデルとなり、企業ユーザーにとって極めて魅力的な選択肢となるだろう。AIを取り巻く経済性に、決定的な変化をもたらす可能性を秘めている。
Huawei Ascendチップ全面採用か? 中国製AIインフラへの移行
DeepSeek R2に関するもう一つの注目点は、その開発基盤だ。このモデルは、Huawei製のAIアクセラレータ「Ascend 910B」のチップクラスター(おそらくHuawei Atlas 900スーパーコンピューターシステムの一部)を全面的に活用して訓練されていると報じられている。
リーク情報によれば、DeepSeekはこれらのHuawei製チップを82%という非常に高い利用率で稼働させ、FP16(半精度浮動小数点演算)で512 PetaFLOPS(ペタフロップス)という計算能力を引き出しているとされる。 PetaFLOPSは計算速度の単位で、512 PetaFLOPSは1秒間に512千兆回の浮動小数点演算を実行できる能力を示す。これは、Huawei自身のラボデータによれば、NVIDIAの旧世代高性能チップA100クラスターが提供する性能の約91%に相当するという。
DeepSeekが自国製のチップ、特に米国の輸出規制下にあるHuaweiの技術を全面的に採用して次世代モデルを開発しているという事実は、いくつかの重要な意味合いを持つ。第一に、中国が独自の技術エコシステムだけで世界レベルのAI開発が可能であることを示している。第二に、DeepSeekがハードウェア(チップ)からソフトウェア(モデル)に至るまで、AIサプライチェーンを「垂直統合」しようとしている可能性を示唆している。
この開発は、DeepSeek単独の力だけではなく、Ascend関連の主要OEMであるTuowei Information、最大40kWのユニットを扱える液体冷却サーバーラックを提供するSugon、従来のソリューションと比較して消費電力を35%削減するシリコンフォトニクス・トランシーバーを提供するInnolightといった、中国国内のパートナー企業との緊密な連携によって支えられているようだ。
さらに、地理的にも分散された大規模な計算インフラが活用されている模様だ。年間50億元を超える契約で華南スーパーコンピューティングセンターを運営するRunjian Shares、ピーク時の需要に対応するため北西部に1,500 PetaFLOPSの予備能力を持つZhongbei Communications、そして華北ノードでさらに3,000 PetaFLOPSを提供するHongbo Shares傘下のYingbo Digitalなどが関与していると報じられている。
ソフトウェア面では、DeepSeek R2はすでにプライベート環境での展開やファインチューニング(特定タスクへの追加学習)に対応しており、Yun Sai Zhilianプラットフォームを通じて15省でスマートシティ構想を推進しているという。
また、将来的な計算能力不足に備え、Huaweiは「CloudMatrix 384」と呼ばれるシステムを準備しているとの情報もある。これは、NVIDIAの最新フラッグシップであるGB200 NVL72システムに対抗する中国国内製の代替システムと位置付けられており、384個のAscend 910Cアクセラレータを搭載。総ペタフロップス性能でNVL72の1.7倍、総HBM(広帯域メモリ)容量で3.6倍を実現するとされるが、チップ単体の性能では依然として遅れをとっており、消費電力は約4倍に達するという。
再び市場を揺るがすか? 未確認情報ながら高まる期待
DeepSeek R1が発表された際、その高性能ぶりは西側AI企業にとって大きな驚きとなった。今回噂されているDeepSeek R2が、もし伝えられている通りの性能とコスト効率で登場すれば、再びAI業界、特に大手企業に衝撃を与えることは間違いないだろう。
ただし、現時点でこれらの情報はすべて未確認の噂やリーク情報に基づいていることを改めて強調しておく必要がある。 DeepSeek社からの公式発表はなく、最終的にリリースされるモデルの仕様や性能、価格は異なる可能性がある。
とはいえ、中国メディアやインサイダーから伝えられる断片的な情報をつなぎ合わせると、DeepSeek R2がAI開発のコスト構造や性能競争に大きな一石を投じる可能性を秘めていることは確かだ。公式発表と、その後の独立したベンチマーク結果が待たれるところである。
Sources