中国のAI企業DeepSeekは、大規模言語モデル「DeepSeek-V3」の改良版を、商用利用が自由なMITライセンスの下でHugging Faceに静かにリリースした。公式発表なしで公開された「DeepSeek-V3-0324」は、性能向上に加え、高性能デスクトップでも動作可能な効率性を実現している。
公式発表なしの静かなリリースと性能向上
DeepSeekは「DeepSeek-V3-0324」と名付けられた641GBの新モデルを、ホワイトペーパーやブログ記事などの公式発表を伴わずHugging Faceリポジトリに公開した。ソフトウェア開発者のSimon Willison氏が最初にこのリリースを報告。現在もモデルのReadmeファイルは空のままで、同社の「静かな」リリース方針が継続している。
AI研究者Xeophonは、「新しいDeepSeek V3を内部ベンチマークでテストしたところ、すべての指標で大幅な向上が見られた。現在、非推論モデルとしては最高で、Sonnet 3.5を凌駕している」とXで発言している。この評価が広く検証されれば、DeepSeekの新モデルはAnthropicの商用AIシステムであるClaude Sonnet 3.5を上回る可能性がある。
プログラミング能力の面では、PythonとBashコード生成のベンチマークテストで約60%のスコアを達成しており、これは元のDeepSeek-V3より数パーセントポイント高い。ただし、DeepSeek-R1やQwen-32Bなどの推論に最適化されたモデルよりは低いスコアにとどまっている。
革新的なアーキテクチャとハードウェア効率
DeepSeek-V3-0324の最も注目すべき特徴は、従来のLLMとは一線を画す効率性だ。このモデルはMixture-of-Experts(MoE)アーキテクチャを採用しており、6850億パラメータのうち特定のタスク実行時に活性化するのは約370億のみ。この選択的活性化により、計算要求を劇的に削減しながら高性能を実現している。
さらに、「Multi-Head Latent Attention(MLA)」と「Multi-Token Prediction(MTP)」という二つの革新的技術も採用。MLAは長文のコンテキスト維持能力を向上させ、MTPは一度に複数トークンを生成することで、出力速度を約80%向上させている。
Appleの研究者Awni Hannun氏は、Mac Studio M3 Ultra 512GB RAM構成でこのモデルの実行に成功。4ビット量子化による最適化を施すことで、約20トークン/秒の出力生成速度を達成した。4ビット量子化版のストレージ占有量は352GBまで削減され、高性能デスクトップでの運用が可能になっている。
これは従来のAIインフラが消費する数KW(キロワット)に対し、Mac Studioが推論時に200W未満の電力しか使用しないことを意味する。この効率性の差は、AIの業界がトップレベルのモデル性能に必要なインフラ要件の前提を再考する契機となりそうだ。
DeepSeek V3-0324 の体験方法
DeepSeek-V3-0324を試してみたい場合、Hugging Faceから完全なモデルの重みを入手可能ではあるが、サイズが641GBと巨大であり、また駆動させるためのマシンスペックも必要となり、ある程度敷居が高い。
クラウドベースの選択肢が現実的だが、現時点で判明しているのはOpenRouterでDeepSeek-V3-0324が選択できるようになっていることから、ここで実験するのが最も手っ取り早いかも知れない。
また、DeepSeekの公式サイトでも一部ユーザーの報告ではDeepSeek-V3-0324に切り替わっているのか、反応のスペック向上が確認出来るとのことだが、公式にはこれは明らかにされていない。
オープンソース戦略とMITライセンスの意義
DeepSeekの新リリースでは、これまでのカスタムライセンスから広く使用されているMITライセンスに移行した。これにより、開発者は実質的に制限なくモデルを商用プロジェクトで使用したり改変したりすることが可能になる。
この戦略はOpenAIやAnthropicなどの西洋AI企業の「クローズドガーデン」モデルと対照的だ。米国の主要企業がモデルを有料壁の裏に置き続ける一方、中国のAI企業は寛容なオープンソースライセンスを採用する傾向を強めている。
オープンソース戦略は中国のAIエコシステムを急速に変革している。最先端モデルのオープンな利用可能性により、スタートアップ、研究者、開発者が大規模な資本支出なしに洗練されたAI技術を構築できるようになり、中国のAI能力の加速を促進している。
この背景には中国市場の競争環境がある。複数の資金豊富な競合企業が存在し、類似の能力を無料で提供する環境では、独占的アプローチの維持が困難になる。オープンソース化は、エコシステムリーダーシップの確立やAPI提供などの代替的な価値創出経路を可能にしている。
次世代モデルR2への布石:変わるAI開発競争の地図
業界観測筋によれば、今回のDeepSeek V3-0324は、4月にリリースが噂される次世代推論モデル「DeepSeek-R2」の基盤技術と見られている。昨年12月にDeepSeek-V3を公開し、数週間後に画期的な推論能力を持つR1をリリースした同社の戦略パターンと一致するからだ。
DeepSeek-R1は、数学や複雑なコーディングなど高度な推論能力を持つモデルとして注目を集めた。NVIDIA CEOのJensen Huang氏によれば、こうした推論モデルは「通常のAIの100倍の計算能力を必要とする」という。この発言は、限られた計算資源でも競争力ある性能を実現するDeepSeekの技術力の高さを浮き彫りにしている。
もしDeepSeek-R2が予想通り登場すれば、OpenAIが今後リリース予定のGPT-5と直接競合することになる。しかし、R2がDeepSeekのオープンソース哲学を継承するなら、この競争は単なる技術力の対決ではなく、「AIの民主化」vs「AIの集中管理」という価値観の対立にもなる。
これは開発者やユーザーにとって、AIの未来の方向性を左右する重要な岐路となるだろう。誰もが最先端AI技術を自由に利用・改良できる世界が訪れるのか、それとも一部の大企業がAI能力を独占的に提供する世界に向かうのか—DeepSeekの静かな挑戦は、その答えを探る一歩となっている。
Sources