NVIDIA社製のGPU対応の高性能量子コンピュータシミュレータのcuQuantumについてご紹介させていただきます。
弊社はしばらくNVIDIA AI Technology Centerで開発されていた量子コンピュータシミュレータのQGateを採用してまいりました。先日QGateはその後cuQuantumに統合される形でNVIDIA社の正式なプロダクトとなったということで、お世話になったNVIDIAの森野さんも米国のチームに参画という形で苦労が報われる形になったかと思います。
今回はcuQuantumについてご紹介します。
https://developer.nvidia.com/cuquantum-sdk
cuQuantumはNVIDIA社製のGPUを利用して量子コンピュータのシミュレーションを行うための開発キットで、ディープラーニング向けの計算ユニットであるDGX向けに開発がされています。
シミュレータは大きく分けて「状態ベクトルシミュレータ」と「テンソルネットワークシミュレータ」があります。
状態ベクトルシミュレータは、現在36量子ビットのシミュレーションが可能で、パフォーマンスは怪物クラスで、AMDのDualCPUで計算すると8分かかるGoogleの量子プロセッサのシミュレーションが7秒で終わるというものです。
テンソルネットワークシミュレータは、さらに量子回路を特殊な方法で計算することにより量子回路の特性や問題特性に応じてより高速に、より量子ビット数を増やして計算できるもので、NVIDIAでは、1,688量子ビットの組合せ最適化計算のシミュレーションに成功するなど、こちらも怪物クラスのパフォーマンスを発揮しています。
量子コンピュータのシミュレータはあくまでシミュレーションですので実機ではないですが、両方を合わせて使うことで様々なことを実現できます。すでに世界中で利用されており、国内でもスパコンや企業などでも採用が始まっていてすでに高速でのシミュレーションを実現しています。
ぜひ手元にディープラーニング用のGPUがある方はcuQuantumをご利用ください。弊社でもGPUへの導入をサポートさせていただきます。以上です。