こんにちは、量子コンピュータの開発は課題解決型となっており、マシンの違いは前の世代のマシンの課題を解決するような形で進んでいます。市場への投入順序は、
1.超伝導
2.イオントラップ
3.冷却原子(今年登場予定)
4.シリコン(2024年くらい?)
では、今市場に出ている、これから出てくるマシンの違いは何でしょうか?それをソフトウェア側の視点から追ってみたいと思います。
1.エラー
一番課題なのがエラーです。エラーが多いので現在の量子コンピュータでは計算があまりできません。実効的に計算ができるのは量子ビットが増えても1桁台かと思います。複数量子ビットの数が増えるとエラーが蓄積、解がほとんどでません。エラーを回避するのがソフトウェアの仕事になるとまともに計算をする時間が減ってしまい、現状ではほとんど実機を使う機会は減ってしまっています。エラーを改善するために超伝導から数桁改善されたイオントラップが利用されています。特にハネウェルマシンはエラーが少ないと話題です。シリコンなどはまだエラー率を改善している途中で、超伝導やイオントラップには届いていません。
2.接続
量子ビット同士の接続です。超伝導やシリコンの弱点は素子が平面配置のため問題を解く際に近接の量子ビット同士でしか計算ができない点です。これはswapゲートを使って量子ビットの値を入れ替えても計算ができますが、今度はswapゲートは実行コストが高いので結果としてエラーが蓄積してしまうため実質的には利用できません。量子ビット同士の接続が少ないと機械学習やグラフ問題では解ける問題の実行サイズが小さくなってしまい、だいぶ価値が低くなってしまいます。イオントラップではフォノン状態を利用して全結合を実現したり、コヒーレンス時間の長いのを利用して実質的にIonQやHoneywellは量子ビット同士は全結合を実現しています。この点は超伝導やシリコンはswapでしか実質的には処理ができないので、どちらにしろエラーを減らすのが重要になります。冷却原子はかなり特殊です。冷却原子は原子を空中に止めて計算します。その際に捕捉できる原子の数は500-1000程度といわれています。さらにそれらを動的光ピンセットで動かすのですが、原子そのものを動かしながら接続を変えることができ、近接よりは少し有利な形で原子を動かして計算ができます。これに関しては2022年にマシンが出てきますので、さらなる追加検証が可能と思います。
3.量子ビット数
IonQやHoneywellの弱点は量子ビット数です。結局10量子ビット前後のマシンしか出ていないので、スケーリングに関してはほかの戦略となりそうです。超伝導は計算できないとはいえ80-127量子ビットまできていますので、ビット数単体で見るとかなり増やせていると思います。冷却原子は500-600を実現しており、1000を2024に告知していますので、この点はイオントラップの弱手を克服する形となっていて期待感が高まります。シリコンはまだ技術的に一桁前半しか実現できていませんので少し時間がかかりそうです。
4.誤り訂正
これはイオントラップ先行です。IonQやHoneywellはカラーコードと呼ばれる誤り訂正符号を利用して2021年に論理量子ビットの作成に成功しエラー率を下げることに成功しています。超伝導は中国での実行が報告されていますが、イオントラップ優勢と思われます。これは量子ビットが自然由来でイオン単体で計算するので製造ばらつきがなく、原理的にエラー率が低いからと思われます。エラー率が低いため誤り訂正の閾値を満たすことができ、実際に誤り訂正が実行されました。その他の方式に関しても少しずつ実行され始めています。
ソフトウェアで重要なこと。これは量子ビット数と接続ですね。AIとかだと特に接続が重要です。ただ、現在はシミュレータで実行できる域をでていないので、実質的には何も実現されていないのと同じだと思いますので、何をやっても無意味な状態になってきました。将来的なエラーを減らして本当にコンピュータを超えるような計算ができないと今の業界ではいけないと思うので、みんな必死に次世代型の開発にシフトしています。以上です。