top of page

コラム:エラーフリーへの道を切り開く

量子コンピュータで期待されるアプリケーションは、量子ビットに対して数兆回以上の演算を必要とします。しかし、どんなにエラー軽減戦略とエンジニアリングを重ねても、コンピュータの量子的な「良さ」が失われる前に、1000回程度の操作しかできません。この難問に対する唯一の解決策は、いくつかの量子ビットを犠牲にしてでも、量子情報をより保護するために、協力する1つのクラスタを形成することです。この集合体のことを論理量子ビットと呼んでいます。


優れた論理量子ビットの作成と制御は簡単なことではありません。制御が不十分な量子ビットは、相互に保護するのではなく、逆に作用することもあります。さらに、潜在的なエラーを特定しそれを修正するには、いくつかの量子ビットを繰り返し測定しながら、他の量子ビットを生かしておく必要があるのです。


Honeywell Quantum Solutions と Cambridge Quantum の合併によって生まれた Quantinuum は、すでに今日までエラー修正に取り組んできました。彼らの量子プロセッサーは、十分な大きさと精度を備えており、こうした技術のいくつかを有意義に試すことができるようになったのです。昨年、彼らはリアルタイムでエラーを追跡する機能を備えた単一の論理量子ビットを作りました。そして今回、この論理量子ビットの2個をもつれさせることに成功しました。


この進歩の正確な価値を理解するためには、誤り訂正の課題を理解する必要があります。Quantinuum はブログで、この調査の主な成果を以下のように説明しています。


  • リアルタイムの誤り訂正を使用して、完全にフォールトトレラントな方法で行われた2つの論理量子ビット間のもつれゲートの初実証

  • 対応する物理回路よりも、高い忠実度を持つ論理もつれ回路を初実証


まだ課題が多いことは同意してくれるでしょう。キーワードは「フォールトトレラント(耐障害性)」です。量子誤り訂正は、エラーを完全に取り除くのではなく、エラーが発生する確率を下げるだけです。「コード」 と呼ばれる誤り訂正の仕組みは、エラー率をユーザーが望むだけ小さくすることができる場合と、できない場合があります。より多くの量子ビットを犠牲にすることで、系統的に誤り率を下げることができるコード、それがフォールトトレラントです。


Quantinuum による最初の成果は、2つの物理キュービット (または論理キュービット) のグループ間のもつれを行うことでした。そしてこのグループを大きくし、論理量子ビットを保護規則に従いながら、それを実現したのです。


重要な点は、個々の物理量子ビットに対する演算が、グループ全体の協調的なダイナミクスによって、個々の量子ビットよりも良好な性能を示したことで、誤り訂正の鍵となる要素、すなわち論理量子ビットに量子情報を冗長に符号化して誤りを抑制することが確認されたことです。


同社はさらに、20量子ビットの「H1-1」と、12量子ビットの「H1-2」という2種類の量子プロセッサーを使い、誤り訂正をテストするところまでいきました。そのコードは、「five-qubit code(5量子ビットコード)」と「color code(カラーコード)」です。5量子ビットコード(必要な物理量子ビットの数で最も経済的なコードの一つ)よりも、カラーコードのほうが優れていました。これは、カラーコードが誤り訂正のサイクルあたりの操作を少なくするため、エラーバジェットが改善され、最終的にはノイズの多い量子ビットに対する競争力が向上するためです。


これは氷山の一角です。H1シリーズのプロセッサは、CMOSチップの電極でできた再構成可能なトラップ上にイオンを浮かべることで、量子ビットをシャッフルすることができます。この特徴を利用して、量子ビットの接続を変更し、より高度なコードをテストすることができます。さらに、リアルタイムでの量子ビットの計測と決定が可能なため、近い将来、興味深いフィードフォワードの応用が可能になるはずです。


この結果は、量子プロセッサの並外れた品質だけでなく、量子演算をサポートする古典的コンピューティングの著しい進歩にも基づいています。量子プロセッサと古典的なプロセッサとの緊密な統合と、高速でH1プロセッサの特性に最適化されたソフトウェアの開発は、誤り訂正の科学における大きな進歩を可能にするでしょう。



次の課題は?


誤り訂正が直面する主な課題の1つは、量子的な側面ではなく、それに付随する古典的な処理にあります。Quantinuum は、量子ビットのリアルタイム測定を可能にする再構成可能なトラップ、緊密に統合された古典的な処理に基づく迅速な意思決定、および数サイクルにわたる積極的なエラー修正によって、この方向に優れた進歩を遂げました。しかし、これらの要素がすべて一緒になったとき、個々の量子ビットに対する集合論理量子ビットの優位性は妨げられることになります。それは、エラーが発生した場所を解釈し、それを修正するためには、数ミリ秒の時間が必要となり、これは量子ビットがそのコヒーレンスを失うのに十分な時間だからです。


もう1つの重要な課題。それは、大規模な量子計算に十分な数の量子ビットを増やしながら、量子ビット間の柔軟な接続性を維持することです。これが単なる工学的な問題に過ぎないのか、あるいは量子ビットをシャッフルする能力に根本的な限界があるのかは不明です。その時点でプロセッサはいくつかの量子ビットを持つセルに分解され、隣接するセルと相互作用する必要があり、量子ビット接続の範囲が事実上制限されることになるのです。


この研究についての詳細は、Quantinuum のブログ記事 、および arXiv に掲載された技術論文のプレプリント をご覧ください。



著者紹介:

Saraiva博士は、シリコンスピン量子計算やその他の量子技術の問題に対する理論的解決策を提供するために10年以上にわたって働いてきた。彼は現在、CMOS量子ドットに基づくスケーラブルな量子プロセッサを開発しているオーストラリアのスタートアップ Diraq の固体理論の責任者である。

bottom of page