テクノロジーと科学の最新の話題を毎日配信中!!

Multiverse Computing、驚異の技術でLLMを95%圧縮:2億ドル超調達の衝撃

Y Kobayashi

2025年6月13日

巨大な図書館の全蔵書を、その知識を一切損なうことなく、一冊の文庫本に凝縮する――。イメージとしてはそんな魔法のような技術が、AIの世界で今、現実のものとなり、業界に激震を走らせている。

スペインのスタートアップ、Multiverse Computing社が開発した「CompactifAI」。この技術は、大規模言語モデル(LLM)を最大95%も圧縮しながら、その性能(賢さ)を維持するという、これまでの常識を覆すブレークスルーだ。この計り知れない潜在能力に、世界中の投資家が殺到。同社はシリーズBラウンドで2億1500万ドル(約330億円)という巨額の資金調達に成功した。

なぜ、この技術は「必然」だったのか。そして、それは私たちの未来をどう変えるのだろう。

スポンサーリンク

AIが抱える「成長の痛み」――巨大化するコストという壁

まず、この技術が登場した背景を理解する必要がある。近年のAI、特にLLMの進化は凄まじいが、それは大きな代償の上に成り立っている。AIは賢くなればなるほど、より多くのデータを学習し、脳にあたるニューラルネットワークの構造が複雑化する。その結果、モデルのサイズは天文学的に増大し、まるで「知識のメタボリックシンドローム」とでも言うべき状態に陥っているのだ。

この「巨大化」は、致命的な問題を2つ引き起こす。

  1. 莫大な運用コスト: 巨大なLLMを動かす(推論する)には、NVIDIA製の高価なGPUを何千個も並べた巨大なサーバークラスターが必要になる。その設備投資と維持費、そして膨大な電力消費は、企業の財政を圧迫する。AIをスケールさせようとすれば、コストはあっという間に数億円、数十億円に膨れ上がるのが現実だ。
  2. 利用場所の制限: 巨大なサーバーを必要とするため、AIの利用はデータセンターの中に限定される。スマートフォンや自動車、工場のロボットといった「エッジデバイス」で、高性能なAIを直接動かすことは極めて困難だった。

これまでも、AIを圧縮する試みは存在した。「プルーニング(剪定)」や「量子化」といった技術だ。しかし、これらは言うなれば、木の枝葉を無造作に刈り込むようなもの。軽量化はできても、木全体の生命力、つまりAIの性能や精度が著しく損なわれるという大きな欠点を抱えていた。軽量化と性能は、トレードオフの関係にあるというのが業界の常識だったのだ。

量子の知恵「テンソルネットワーク」という魔法のノミ

Multiverse Computingは、このトレードオフの関係を打ち破った。彼らの秘密兵器は「テンソルネットワーク」と呼ばれる、量子物理学の世界から着想を得た数学的なツールである。

例えるならば、彼らの技術は、AIという巨大な大理石の塊を扱う、ミケランジェロのような「凄腕の彫刻家」のようなものだ。

未熟な彫刻家は、ただやみくもに石を削り、小さくすることしか考えない。結果、出来上がるのは小さくはなったが、何の価値もない石ころだ。これが従来の圧縮技術(剪定や量子化)に近い。

しかし、ミケランジェロのような巨匠は違う。彼は大理石の塊の中に、すでに存在する「ダビデ像」という本質を見抜いている。そして、その本質を傷つけないように、不要な部分だけを丁寧かつ大胆に削り取っていく。

Multiverse Computingが開発したCompactifAIが行っているのは、まさにこれだ。

AIの脳内をスキャンし、「偽りの関係」を断ち切る

LLMは学習の過程で、無数の「相関関係」を構築する。例えば、「空は青い」「火は熱い」といった本質的な関係もあれば、「犬の写真には、たまたま芝生が写っていることが多い」といった「偽りの相関関係(spurious correlations)」も、何十億となく学習してしまう。これがAIの「ぜい肉」だ。

テンソルネットワークという「魔法のノミ」は、LLMのニューラルネットワークの内部構造を深く、深くプロファイリングする。そして、どのつながりが知識の本質(ダビデ像)で、どのつながりが偶然の産物(不要な大理石)なのかを正確に見極める。

同社の共同創業者兼CSO(最高科学責任者)であり、テンソルネットワーク研究の第一人者であるRomán Orús氏は、「我々はニューラルネットワークの内部の働きをプロファイリングし、何十億もの偽りの相関関係を排除できる」と語る。

つまり、彼らはAIの思考から「ノイズ」や「思い込み」だけを綺麗に取り除き、純粋な知識の骨格だけを抽出しているのだ。だからこそ、サイズを95%も劇的に削減しても、賢さ(性能)はほとんど落ちないのである。

スポンサーリンク

ただのダイエットではない。4倍から12倍速くなる驚異の効率化

この「彫刻」の効果は、軽量化だけにとどまらない。ぜい肉がなくなった身体が軽やかに動けるように、圧縮されたAIモデルは処理速度が劇的に向上する。

Multiverse Computingによると、同社の圧縮モデルは、元々のモデルと比較して4倍から12倍も高速に動作する。これは、AIへの問いかけ(プロンプト)に対する応答が格段に速くなることを意味し、ユーザー体験を飛躍的に向上させる。

そして、この高速化と軽量化は、最終的に最も重要な指標である「コスト」に直結する。同社は、AIの運用コスト(推論コスト)を50%から80%も削減できると主張している。これは、これまでAIのコストに喘いでいた多くの企業にとって、まさに福音と言えるだろう。

手のひらに巨大AIを。スマホや自動車で動く未来が始まる

この技術がもたらす最大のインパクトは、おそらく「エッジAIの真の実現」だろう。

超圧縮されたLLMは、もはや巨大なデータセンターを必要としない。パソコンやスマートフォン、自動車、ドローン、さらにはDIY愛好家に人気の小型コンピュータ「Raspberry Pi」の上でさえ、直接動作させることが可能になる。

これは、世界を根底から変える可能性を秘めている。

  • プライバシーの向上: 個人データを外部のクラウドに送ることなく、手元のデバイス内でAIが処理を完結できる。
  • オフラインでの利用: インターネット接続がない場所でも、高度なAI機能が利用可能になる。
  • リアルタイム応答: 通信の遅延がなくなるため、自動運転車や工場のロボットなどが、より瞬時に、より賢い判断を下せるようになる。

今回の資金調達に参加したHPE(Hewlett Packard Enterprise)のテクノロジー・イノベーション担当プレジデント、Tuan Tran氏も、「Multiverseの革新的なアプローチは、あらゆる規模の企業にパフォーマンス、パーソナライゼーション、プライバシー、コスト効率の向上といったAIのメリットをもたらす可能性がある」と、エッジAIへの期待を語っている。

スポンサーリンク

2億1500万ドルが語るもの:世界が認めた「必然の技術」

今回の巨額の資金調達は、AI業界が直面する「コスト」と「サイズ」という根源的な課題に対し、Multiverse Computingが極めてエレガントで、かつ効果的な解決策を提示したことへの、市場からの力強い信任投票だ。

同社の共同創業者兼CEOであるEnrique Lizaso Olmos氏は、この技術の革新性を次のように語っている。「LLMを縮小するにはコストがかかる、というのがこれまでの通説でした。Multiverseはそれを変えようとしています。モデル圧縮におけるブレークスルーとして始まったものが、瞬く間に変革をもたらすことが証明されたのです」。

この言葉は、彼らの自信とビジョンを明確に示している。

主導したBullhound Capitalの共同創業者、Per Roman氏も「AIにおける効率化への世界的なニーズがある」と述べ、この技術がAIの未来において不可欠なピースであることを示唆している。

AIの進化が、一部の巨大テック企業による「軍拡競争」の様相を呈する中、Multiverse Computingの技術は、その流れを変えるかもしれない。誰もが、どこでも、低コストで高度なAIを使えるようにする「AIの民主化」。彼らの挑戦は、そのための最も重要な鍵を、私たちの目の前に提示している。

大理石の中からダビデ像を掘り出したルネサンスの巨匠のように、彼らはデジタル情報の中から「知性の本質」を掘り起こした。この錬金術が、これからどのような驚きを世界にもたらすのか、目が離せない。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする