物質の根源的な性質を解き明かす鍵、量子コンピュータがまた一つ、重い扉を開いた。ダッカ大学とカンザス大学に籍を置くTalal Ahmed Chowdhury氏を中心とする研究チームが、IBMの最新鋭超伝導量子コンピュータを用いて、100量子ビットを超える規模での「フェルミ・ハバード模型」の量子シミュレーションに成功したと発表したのだ。これは、従来のスーパーコンピュータでは事実上不可能とされてきた領域への、決定的とも言える一歩である。最適化されたアルゴリズムと進化したハードウェアの協奏が、ついに「量子の有用性(Quantum Utility)」を大規模システムで実証し、物質科学の未来を大きく塗り替えようとしている。

AD

なぜフェルミ・ハバード模型が重要なのか?

今回の成果の重要性を理解するには、まず「フェルミ・ハバード模型」が物理学の世界でどのような位置を占めているかを知る必要がある。この模型は、一見すると単純な数式で表現される。しかしその内実には、電子同士が互いに強く影響を及ぼし合う「強相関電子系」と呼ばれる、極めて複雑で深遠な物理現象のエッセンスが凝縮されているのだ。

我々の身の回りにある物質の性質、例えば金属が電気を通すのか、あるいは絶縁体になるのか、さらには高温超伝導のような謎に満ちた現象は、すべて物質内の無数の電子の振る舞いによって決まる。電子たちは、互いに反発し合い(クーロン力)、量子力学特有の奇妙なルール(パウリの排他原理)に従いながら、原子が作る格子の中を飛び回っている。

この電子たちの複雑なダンスを記述するのが、フェルミ・ハバード模型である。この模型を正確に解くことができれば、なぜ特定の物質が高温で超伝導を示すのか、あるいは新しい機能を持つ材料を理論的に設計できるのではないかと、世界中の物理学者が期待を寄せてきた。まさに、物質科学における「聖杯」の一つと言えるだろう。

しかし、この「聖杯」はあまりにも手ごわかった。電子の数が増えるにつれて、その相互作用の組み合わせは指数関数的に爆発する。これは、チェス盤の最初のマスに米粒を1粒、次のマスに2粒、その次には4粒と置いていくと、あっという間に天文学的な数になるのと同じ理屈だ。世界最速のスーパーコンピュータをもってしても、せいぜい数十個の電子の振る舞いを正確に追跡するのが限界だった。100個以上の電子が織りなす複雑な量子状態をシミュレーションすることは、古典コンピュータの原理的な限界の前に、長らく夢物語とされてきたのである。

論文解剖:100量子ビット超シミュレーションを成功させた「スケーラブルな設計図」

Chowdhury氏らの研究チームは、この古典コンピュータの分厚い壁を、量子コンピュータを用いて真正面から突破した。彼らがarXivで公開した論文「Quantum Utility in Simulating the Real-time Dynamics of the Fermi-Hubbard Model using Superconducting Quantum Computers」には、その成功を支えた緻密な戦略が詳述されている。

トロッター分解:量子世界の「コマ送り動画」

研究チームが採用した中核技術は「トロッター分解(Trotterization)」と呼ばれる手法だ。これは、連続的に変化する複雑な量子の時間発展を、ごく短い時間ステップの「コマ送り」に分割して近似するテクニックである。映画が静止画の連続であるように、量子状態の変化を、量子コンピュータが実行可能な単純なゲート操作の連続に置き換えるのだ。

彼らは、このトロッター分解をフェルミ・ハバード模型に適用するために、1次の手法に加え、より精度の高い2次の手法を独自に最適化した。これにより、シミュレーションの正確性を担保しつつ、現実の量子デバイスで実行可能な回路を設計した。

鍵は「回路深度の抑制」:100量子ビットでも破綻しない秘訣

今回の研究における最大のブレークスルーは、このトロッター分解を「スケーラブル」にした点にある。スケーラブルとは、問題の規模(この場合は量子ビット数)が大きくなっても、計算の複雑さが爆発的に増大しないことを意味する。

通常、シミュレーションする電子の数が増えれば、必要な量子ビット数も増え、実行すべき量子ゲートの数(回路の長さや深さ、いわゆる「回路深度」)も長くなっていく。しかし、現在の量子コンピュータはノイズに弱く、回路が深くなればなるほど計算結果にエラーが蓄積し、意味のある答えを得られなくなってしまう。

Chowdhury氏らのチームは、量子ビットの配置とゲート操作の順序を巧みに設計することで、シミュレーションするサイト数(電子の居場所)が10から52に増えても、1ステップあたりの回路深度がほぼ一定に保たれる回路構築法を確立した。これは、オーケストラの人数が倍になっても、指揮者が振るタクトの回数は変わらないようなものだ。このスケーラブルな設計こそが、100量子ビットを超える大規模シミュレーションへの扉を開いたのである。

避けられぬ敵「ノイズ」との壮絶な戦い

どれほど優れた設計図があっても、現在の量子コンピュータは「ノイズ」という避けられぬ敵に常に晒されている。外部の環境との僅かな相互作用で、量子ビットが保持する繊細な量子状態は簡単に壊れてしまうのだ。

この問題に対処するため、研究チームは単一の手法に頼るのではなく、複数の量子エラー緩和(QEM: Quantum Error Mitigation)技術を組み合わせる「カクテル療法」を導入した。

  • Twirled Readout Error Extinction (TREX): 測定時のエラーを均一化し、補正しやすくする。
  • Dynamical Decoupling (DD): 量子ビットが何もしない待機時間中に、特殊なパルスを加えてノイズの影響を平均化し打ち消す。
  • Pauli Twirling (PT): 特定のゲート操作に付随する系統的なエラーを、ランダムなノイズに変換して扱いやすくする。
  • Zero-Noise Extrapolation (ZNE): 意図的にノイズを増幅させた計算を複数回行い、その結果から「もしノイズがゼロだったら」という理想的な値を推定する。

これらの技術を総動員することで、ノイズまみれの生データから、物理的に意味のある正確な信号を抽出し、シミュレーションの信頼性を劇的に向上させることに成功したのである。

AD

実験結果が示す「量子の有用性」:古典計算の限界を超えて

入念な準備の末、研究チームはIBMの超伝導量子プロセッサ「ibm_kingston」と「ibm_marrakesh」を用いて、実証実験に臨んだ。これらのプロセッサは、IBMが最新のHeron R2アーキテクチャに基づいて開発した156量子ビットのデバイスだ。

20量子ビットでの精密検証:古典計算との完全一致

まずチームは、比較的小規模な10サイト(20量子ビット)の系でシミュレーションを行った。この規模であれば、古典コンピュータによる厳密な計算が可能であり、量子コンピュータの結果が正しいかどうかを検証できる。

実験結果は驚くほど正確だった。量子エラー緩和を施したIBM量子コンピュータの計算結果は、古典コンピュータによる厳密解とほぼ完璧に一致したのだ。これは、彼らが開発したトロッター分解の回路とエラー緩和手法が、正しく機能していることの揺るぎない証拠となった。

104量子ビットでの挑戦:古典近似計算の限界を凌駕

次なる舞台は、52サイト(104量子ビット)の大規模系。この領域は、もはや古典コンピュータによる厳密計算が不可能な未知の領域である。比較対象となるのは、行列積状態(MPS)といった手法を用いた古典「近似」計算だ。

実験の結果、シミュレーション開始後の短い時間領域では、量子コンピュータの結果と古典近似計算の結果は良好な一致を見せた。しかし、時間が経過し、系全体の量子的なもつれ(エンタングルメント)が複雑に増大するにつれて、両者の間に僅かながら乖離が見られ始めた。

これは極めて重要な示唆を含んでいる。古典近似計算は、エンタングルメントが大きくなると計算コストが爆発的に増加し、どこかで計算を打ち切る(近似する)必要に迫られる。一方、量子コンピュータは本質的に量子的なもつれを扱うのが得意であり、原理的にはそのまま計算を続けられる。長時間シミュレーションにおいて量子コンピュータが古典近似計算を凌駕する可能性を示したこの結果は、まさしく「量子の有用性」—すなわち、特定の重要な問題において、量子コンピュータが古典コンピュータよりも優れた能力を発揮する状態—の確かな証拠と言えるだろう。

舞台裏の主役:進化を続けるIBMの量子技術

Chowdhury氏らの画期的な研究は、彼らのアルゴリズム開発能力だけでなく、その実行基盤となったIBMの量子技術の飛躍的な進化なくしては成し得なかった。

「100×100チャレンジ」達成とHeron R2プロセッサ

IBMは2022年に、「100量子ビット、100ゲート深度」の回路を正確に実行するという野心的な「100×100チャレンジ」を掲げた。そして2024年のIBM Quantum Developer Conferenceで、最新のHeron R2プロセッサが、これを大幅に上回る最大5,000ゲートもの深さの回路を実行可能になったと発表した。

この性能向上は、単に量子ビットの数を増やしただけではない。量子ビット間の不要な干渉(クロストーク)を抑制する「チューナブルカプラ」アーキテクチャの導入や、ノイズ源となる「二準位系」の影響を低減する新技術など、ハードウェアの質的な改善の賜物だ。Chowdhury氏らが大規模かつ深い回路を安定して実行できた背景には、こうしたハードウェアの着実な進化が存在する。

ソフトウェアスタックの進化が研究を加速する

優れたハードウェアも、それを使いこなすためのソフトウェアがなければ宝の持ち腐れとなる。IBMはオープンソースの量子ソフトウェア開発キット「Qiskit」を中心に、開発エコシステムの充実に力を注いできた。

AIを活用して量子回路を最適化する「Qiskit Transpiler Service」や、生成AIを用いて量子コードの記述を支援する「Qiskit Code Assistant」など、研究者がより効率的に、そして高度なアルゴリズムを開発できる環境が整備されつつある。このようなソフトウェアスタックの成熟が、大学の研究者による最先端の研究を力強く後押ししていることは間違いない。

AD

物質科学の未来は、ここから始まる

Chowdhury氏らの研究チームによる100量子ビット超のフェルミ・ハバード模型シミュレーションは、単なる一つの実験成功報告ではない。それは、量子コンピュータが「おもちゃ」の段階を卒業し、古典コンピュータでは解けない科学の根源的な問いに挑むための、本格的な「科学の道具」へと進化を遂げたことを高らかに宣言する号砲である。

もちろん、実用的な新材料の発見や、高温超伝導の完全な解明といったゴールまでの道のりは、まだ長く険しい。ノイズの問題は依然として最大の障壁であり、本格的な誤り訂正機能を備えた「耐故障性量子コンピュータ」の実現には、さらなる技術革新が必要だ。

しかし、今回の成果は、その長い道のりの上に確かな一里塚を打ち立てた。これまで理論と小規模な実験の範囲に留まっていた強相関電子系の研究が、100量子ビットを超える規模の「数値実験」という新たな武器を手に入れたのだ。これにより、理論モデルの検証が加速し、これまで見過ごされてきた新しい物理現象が発見されるかもしれない。

将来的には、より高効率な太陽電池の材料設計、エネルギー損失のない送電網を実現する超伝導材料の開発、さらには生命現象の根幹をなす化学反応の解明など、我々の社会が直面する重要課題の解決に繋がる可能性を秘めている。

計算不能とされた壁の向こう側で、電子たちが繰り広げる複雑な量子世界のダンス。我々は今、IBMの量子コンピュータという新しい劇場で、その神秘的な舞を初めて垣間見ることを許されたのだ。物質科学の、そして人類の知の探求の歴史において、2025年は「量子の有用性が始まった年」として記憶されることになるかもしれない。


論文