テクノロジーと科学の最新の話題を毎日配信中!!

GPUもストレージも搭載しないスパコン「SpiNNaker2」がサンディア国立研究所で稼働開始:「脳に着想を得た」その驚異の設計思想とは

Y Kobayashi

2025年6月7日

AIの進化が加速する一方、その心臓部であるデータセンターの莫大な電力消費は、地球規模の課題として重くのしかかる。この「電力の壁」に、米国の国家安全保障を担う研究機関、サンディア国立研究所に新たに導入されたマシンが挑もうとしている。ドイツのSpiNNcloud Systems社が開発した「SpiNNaker2」と呼ばれるマシンは、なんとGPUもSSDも搭載しないのだ。人間の脳の仕組みにヒントを得た、これまでの常識を覆すその設計思想は、AIコンピューティングの未来を根底から変える可能性を秘めている。

スポンサーリンク

脳を模倣した「SpiNNaker2」サンディア国立研究所に設置

2025年6月、米エネルギー省傘下のサンディア国立研究所は、ドイツのSpiNNcloud Systems社が開発したニューロモーフィック・コンピューティング・システム「SpiNNaker2」の導入と稼働開始を正式に発表した。このプロジェクトの源流には、コンピュータ史に燦然と輝く「Armアーキテクチャ」の設計者の一人、Steve Furber教授がいる。彼が長年率いてきた研究が、ついに商用システムとして結実し、国家の中枢研究機関に採用されたのだ。

サンディア国立研究所に導入されたSpiNNaker2は、約1億5000万から1億8000万個のニューロン(神経細胞)の活動をリアルタイムで模倣する能力を持つ。これにより、同システムは稼働開始と同時に、世界でトップ5にランクインする最大級の「脳型コンピュータ」の一つとなった。

サンディア国立研究所の研究科学者であるCraig M. Vineyard博士は、「GPUベースのシステムは確かにスーパーコンピュータの効率を高めるが、SpiNNaker2のような脳にヒントを得たシステムは、実に魅力的な代替案を提示してくれる」と語る。性能と効率、この二律背反しがちなテーマを同時に達成するこのマシンは、核抑止力の研究といった国家安全保障の最重要課題や、最先端のAI研究に新たな地平を切り拓くことが期待されている。

なぜGPUもストレージも不要なのか?常識を覆すアーキテクチャ

現代のAI計算において、GPUは「必須の筋肉」であり、データやモデルを保存するSSD/HDDは「記憶を司る倉庫」として不可欠な存在だった。しかし、SpiNNaker2は、その両方を大胆にも排除した。なぜ、そのようなことが可能なのだろうか。その秘密は、脳の構造から着想を得た、徹底的に分散化された超並列アーキテクチャにある。

大量のARMコアとメモリが織りなす「超並列」の世界

SpiNNaker2の基本単位は、152個の低消費電力ARMベースコアと専用アクセラレータを内蔵したカスタムチップだ。そして、1枚のサーバーボードにはこのチップが48個も搭載されている。サンディア国立研究所が導入したシステムは、このボードを24枚組み合わせた構成だ。

計算してみよう。
152コア/チップ × 48チップ/ボード × 24ボード = 175,104コア

実に17万5000個以上のARMコアが、一つのシステム内で協調して動作する。これは、NVIDIAのB200のような巨大なGPUが持つ数千のコアとは比較にならない、圧倒的な「数」による並列処理だ。力任せの brute force(ブルートフォース)で性能を追求するのではなく、無数の小さな脳(コア)が連携することで、極めて高い計算効率を実現しようという思想がここにはある。

「データはメモリに常駐」という新発想

SpiNNaker2が外部ストレージを必要としない理由は、その潤沢なメモリ階層にある。各チップは20MBのSRAM(Static RAM)を内蔵し、各ボードはさらに96GBのLPDDR4メモリを搭載する。サンディアのシステム全体では、以下のようになる。

  • オンチップSRAM: 23GB以上
  • LPDDR4メモリ: 2.3TB(テラバイト)

この設計により、計算に必要なモデルやデータはすべて、高速なSRAMとDRAMの中に留まる。従来のコンピュータのように、ストレージからメモリへ、メモリからCPU/GPUへとデータを延々と移動させる必要がないのだ。データ移動は時間とエネルギーの大きなロスを生む元凶であり、SpiNNaker2はこの「データ移動のボトルネック」をアーキテクチャレベルで解消したのである。

スポンサーリンク

GPU比「18倍」のエネルギー効率。AIの電力問題を解決する救世主か

SpiNNaker2が最も注目される理由、それは驚異的なエネルギー効率だ。一部の報告によれば、その効率は従来のGPUベースのシステムと比較して18倍にも達するという。この圧倒的な省電力性能は、どこから生まれるのだろうか。

イベント駆動と「ダイナミック・スパース性」の秘密

人間の脳は、常にすべてのニューロンが活動しているわけではない。何かを見たり、考えたりするとき、関連する特定のニューロンだけが発火(スパイク)し、情報を伝達する。SpiNNaker2はこの仕組みを模倣した「イベント駆動型」の計算を行う。

つまり、17.5万個のコアが常にフル稼働するのではなく、入力されたデータに応じて、本当に必要なコア(ニューロン)のサブセットだけが選択的に活性化されるのだ。この「ダイナミック・スパース性(Dynamic Sparsity)」と呼ばれる特性こそが、無駄な電力消費を極限まで抑える鍵となっている。

従来のAIモデル、特に大規模言語モデル(LLM)などは、全てのニューラル経路を活性化させる「密な(Dense)」モデルが主流だ。これに対しSpiNNaker2のアプローチは、AIの計算原理そのものに一石を投じるものであり、巨大化・複雑化する一方のAIモデルが抱えるエネルギー問題に対する、根本的な解決策となる可能性を秘めている。

国家安全保障から次世代生成AIまで広がる応用

SpiNNcloud社のHector A. Gonzalez CEOは、「我々のビジョンは、次世代の防衛、そしてその先にある未来のために、脳にヒントを得たスーパーコンピュータ技術でAIの未来を切り拓くことだ」と述べる。その言葉通り、SpiNNaker2の応用範囲は、サンディア国立研究所が担う国家安全保障のような極めて要求の厳しい分野から、より一般的なAIワークロードまで広がる。

特に期待されるのが、次世代の生成AIアルゴリズムへの応用だ。ダイナミック・スパース性を活用することで、より効率的な機械学習モデルの構築が可能になり、大規模モデルのトレーニングや推論に伴う爆発的なエネルギー需要を抑制する道筋が見えてくるかもしれない。

偉大なる前身からの飛躍、そして未来へ

SpiNNaker2は、その前身である「SpiNNaker1」から大きな飛躍を遂げた。コア数は10倍に増え、製造プロセスも22nm FD-SOIへと微細化。チップ間のインターコネクトも高速化され、システム全体としての完成度を劇的に高めている。

そして、このアーキテクチャの真価はそのスケーラビリティにある。ドイツのドレスデン工科大学で計画されているマシンは、最終的に720枚以上のボードを接続し、総コア数は520万を超えるという。まさに生物の脳がニューロンを増やして進化するように、SpiNNaker2もまた成長していくのだ。

SpiNNcloud社はすでに、さらにエネルギー効率を追求した次世代チップ「SpiNNext」の開発にも着手しており、その効率はGPU比で78倍にも達すると見込んでいる。

もちろん、この新しいアーキテクチャがAIコンピューティングの主流となるには、ソフトウェアエコシステムの構築など、乗り越えるべき課題も多いだろう。しかし、AIの持続可能性が問われる今、SpiNNaker2が示した「脳から学ぶ」という道筋は、無視できない力強い光を放っている。GPU一強時代に風穴を開け、AIの未来をよりスマートで、より持続可能なものへと導く挑戦が、今まさに始まろうとしている。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする