世界の量子コンピュータの開発進捗は日本にいて感じ取るよりもずっと早いです。
今年から量子コンピュータの計算の技術は飛躍的に伸びます。理由はIBMの400量子ビット量子コンピュータの登場や、米国とフランスで登場する100量子ビット超の新型中性原子量子コンピュータの市場への初投入などです。IBMは先日2025年に4000量子ビット超えの量子ゲートマシンの投入を発表しました。
そのようなマシンはどのように評価し、アプリケーションを作るのでしょうか?
実は2018年にGoogleが提唱した量子超越は、3年たった今では再度古典コンピュータに抜き返されています。これを支える技術がテンソルネットワークです。
物理学の謎を解き明かすために量子計算をテンソルと呼ばれるノードの形に落とし込み、計算します。
これまで量子コンピュータ業界では常識だと思われていた状態ベクトルシミュレーターと呼ばれる厳密なシミュレーターは総当たり的な計算に近く、不要な情報を多く含みます。必要な情報に限定して、量子コンピュータアプリを作ることでより高速にシミュレーションでき、アプリが作れるようになりました。
これにより、これまで40数量子ビットがせいぜいと言われていた量子コンピュータの計算が、数百から数万量子ビットの量子ゲート計算ができるようになりました。
そして、このテンソルネットワーク技術を支えるのが、深層学習技術です。
量子コンピュータにおけるこの大きなブレイクスルーは、最新のAI技術に支えられております、テンソルと呼ばれる計算を通じて共通化できることがわかってきました。
Google社が出している機械学習のフレームワークはtensorflowという名前ですよね。このテンソル計算は深層学習の肝となっており、この巨大な機械学習への投資と技術をそのまま量子コンピュータに取り込むことができるようになりました。
量子コンピュータの量子計算では実際にjax pytorch tensorflow cupy などの並列化処理が大きくアプリ開発で成果を出すようになってきました。
NVIDIA社が新しく出したcuQuantumでは、それまでの量子コンピュータシミュレーションの世界記録を大幅に更新する1688量子ビットでの量子ゲート量子計算が達成され、量子ゲートマシンでの1000量子ビットを超える組み合わせ最適化が実行されるように。
また、実機では今年登場予定の冷却原子型量子コンピュータの実機で289量子ビットでのQAOAが実行され、テンソルネットワークでの評価がされるなど、実機とシミュレータなどとの統合が進みます。
当然ですが、これらの新技術を支えるのはハードウェアであり、GPUが牽引してきた深層学習のノウハウと計算量が量子コンピュータ業界に流れ込むことになり、大幅や発展が期待されます。