こちらの記事にあるように、Scienceの論文を読んでみました。正直反論となるテンソルネットワークの手法自体もいろいろなのがあり面白そうです。
D-Waveが示した「量子超越」──最適化から量子シミュレーションへ
これまでD-Waveの量子アニーリングといえば、組合せ最適化問題を高速に解くための量子アルゴリズムとして知られてきました。スケジューリングや巡回セールスマン問題など、古典的に難しいとされる問題に対して、量子アニーリングで近似解を出すというアプローチが主流でした。
しかし、今回D-Waveが発表した論文では、これまでの「最適化」ではなく「量子シミュレーション」による新たな量子超越の実証が報告されました。ここでいう量子シミュレーションとは、量子系の物理的な挙動(たとえば量子スピングラスの動的な進化)を、量子プロセッサ自体を使って再現・解析するというものです。
最適化から「時間発展」のシミュレーションへ
D-Waveが用いたのは、横磁場イジングモデル(TFIM)のクエンチ(急速なパラメータ変化)による時間発展をシミュレートする手法。これは、量子相転移を経る際のダイナミクスを観測するというとっても重要な問題です。
ここでの注目ポイントは、「どのぐらい正確に量子現象を再現できるか」という観点で、D-Waveの量子アニーラーの性能を評価している点です。
比較対象は「古典的な最適化手法」ではない
重要なのは、今回の研究ではもはや古典的な組合せ最適化アルゴリズム(例:焼きなまし、分岐限定法など)は比較対象ではないということです。
代わりに用いられたのは、テンソルネットワーク(行列積状態 MPS や PEPS)やニューラル量子状態(NQS)といった量子多体系の時間発展を近似的に計算する古典的な量子シミュレーション手法です。これらは非常に強力な数値手法であり、現在古典コンピュータで量子現象を再現するための最先端手法とされています。量子ゲートではお馴染みですが、量子アニーリングの方も、量子シミュレーションという文脈に絞って実用化を実装しようとするのはとてもいい流れかと思いました。
結果と「量子超越」の根拠
- D-WaveのQPUは、5000量子ビット以上を用いたスピングラスの量子クエンチにおいて、量子臨界現象のスケーリングを理論通りに再現。
- 同様の精度を古典コンピュータ(例えばスーパーコンピュータFrontier)で再現しようとすると、数百万年、ペタバイト級のメモリ、地球規模の電力が必要と試算。
- 特に**エンタングルメント(量子もつれ)に基づく「面積則スケーリング」**により、ボンド次元が指数的に増加し、古典手法では追いつけない領域が出現。
まとめ
これまでのD-Waveは「最適化問題を解く量子マシン」でした。しかし今回の成果は、それを超えて、**「量子現象そのものを模倣できる装置=量子シミュレーター」**としての有効性を示した重要な一歩です。
結局初期のQuEraみたいな量子シミュレーションとしてアニーラを利用するという手堅い手法で実際の物理モデルの大規模シミュレーションを行うというのはとても筋が良いものに見えました。量子ゲートも量子アニーリングもこの文脈での開発が進むのであれば、ちょっと状況が変わりそうな気がします。
以上です。