common.title

Overview
Service overview
Terms of service

Privacy policy

Contact

Sign in
Sign up
common.title

量子機械学習・量子深層学習論文アブストラクトまとめ

Yuichiro Minato

2021/02/07 04:59

#量子ゲート

はじめに

"quantum machine learning"とgoogle検索して上から順番にいくつかやってみたいと思います。

正直アブストラクトだけまとめてもなんかよくわからないものも多かったですが、優先順位をつけて読んでみたいと思うものもあり、ざっくり内容を把握するのには助かりました。

1. Quantum Machine Learning

https://arxiv.org/abs/1611.09347

Jacob Biamonte, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe, Seth Lloyd (Submitted on 28 Nov 2016 (v1), last revised 10 May 2018 (this version, v2))

Fuelled by increasing computer power and algorithmic advances, machine learning techniques have become powerful tools for finding patterns in data. Since quantum systems produce counter-intuitive patterns believed not to be efficiently produced by classical systems, it is reasonable to postulate that quantum computers may outperform classical computers on machine learning tasks. The field of quantum machine learning explores how to devise and implement concrete quantum software that offers such advantages. Recent work has made clear that the hardware and software challenges are still considerable but has also opened paths towards solutions.

コンピュータの能力とアルゴリズムの進歩により、機械学習技術はデータ内のパターンを見つけるための強力なツールとなりました。量子システムは古典的システムでは効率的に生成されないと信じられている直感に反するパターンを生成するので、量子コンピュータは機械学習タスクにおいて古典的コンピュータより性能が優れていると仮定するのが合理的です。量子機械学習の分野では、そのような利点を提供する具体的な量子ソフトウェアを考案し実装する方法を探ります。最近の研究は、ハードウェアとソフトウェアの課題がまだかなりあることを明らかにしましたが、解決策への道も開いています。

2. Topographic Representation for Quantum Machine Learning

https://arxiv.org/abs/1810.06992

Bruce MacLennan (Submitted on 13 Oct 2018 (v1), last revised 17 Jan 2019 (this version, v2))

This paper proposes a brain-inspired approach to quantum machine learning with the goal of circumventing many of the complications of other approaches. The fact that quantum processes are unitary presents both opportunities and challenges. A principal opportunity is that a large number of computations can be carried out in parallel in linear superposition, that is, quantum parallelism. The challenge is that the process is linear, and most approaches to machine learning depend significantly on nonlinear processes. Fortunately, the situation is not hopeless, for we know that nonlinear processes can be embedded in unitary processes, as is familiar from the circuit model of quantum computation. This paper explores an approach to the quantum implementation of machine learning involving nonlinear functions operating on information represented topographically (by computational maps), as common in neural cortex.

この論文は、他のアプローチの複雑さの多くを回避することを目的とした、量子機械学習へのブレイン・インスピレーションを得たアプローチを提案します。量子過程がユニタリであるという事実は、チャンスと課題の両方を提示します。主なチャンスは、線形重ね合わせで多数の計算を並列に実行できること、すなわち量子並列処理ができることです。課題は、量子計算のプロセスが線形であり、機械学習へのアプローチのほとんどが非線形プロセスに大きく依存していることです。幸いなことに、量子計算の回路モデルからよく知られているように、非線形過程をユニタリ過程に埋め込むことができることを私たちは知っているので、状況は絶望的ではありません。本稿では、神経回路でよく見られるような非線形関数を含む機械学習の量子実装へのアプローチを探ります。

3. Variational quantum generators: Generative adversarial quantum machine learning for continuous distributions

https://arxiv.org/abs/1901.00848

Jonathan Romero, Alan Aspuru-Guzik (Submitted on 3 Jan 2019)

We propose a hybrid quantum-classical approach to model continuous classical probability distributions using a variational quantum circuit. The architecture of the variational circuit consists of two parts: a quantum circuit employed to encode a classical random variable into a quantum state, called the quantum encoder, and a variational circuit whose parameters are optimized to mimic a target probability distribution. Samples are generated by measuring the expectation values of a set of operators chosen at the beginning of the calculation. Our quantum generator can be complemented with a classical function, such as a neural network, as part of the classical post-processing. We demonstrate the application of the quantum variational generator using a generative adversarial learning approach, where the quantum generator is trained via its interaction with a discriminator model that compares the generated samples with those coming from the real data distribution. We show that our quantum generator is able to learn target probability distributions using either a classical neural network or a variational quantum circuit as the discriminator. Our implementation takes advantage of automatic differentiation tools to perform the optimization of the variational circuits employed. The framework presented here for the design and implementation of variational quantum generators can serve as a blueprint for designing hybrid quantum-classical architectures for other machine learning tasks on near-term quantum devices.

私たちは変分量子回路を用いて連続的な古典的確率分布をモデル化するためのハイブリッドな量子古典的アプローチを提案します。変分回路のアーキテクチャは、2つの部分から構成されます。量子符号器と呼ばれる古典的な確率変数を量子状態に符号化するために使用される量子回路と、ターゲット確率分布を模倣するようにパラメータが最適化される変分回路です。サンプルは、計算開始時に選択された一連の演算子の期待値を測定することによって生成されます。私たちの量子生成器は、古典的後処理の一部として、ニューラルネットワークのような古典的関数で補完することができます。生成されたサンプルを実際のデータ分布からのものと比較する判別器モデルとの相互作用を介して訓練される、敵対的生成学習アプローチを使用して、量子変分生成器の適用を実証します。私たちの量子生成器が、判別器として古典的ニューラルネットワークまたは量子変分回路のいずれかを使用して目標確率分布を学習することができることを示します。私たちの実装は採用された変分回路の最適化を実行するために自動微分ツールを利用します。量子変分ジェネレータの設計と実装のためにここに提示されたフレームワークは、近い将来の量子デバイスに関する他の機械学習タスクのための量子古典ハイブリッドアーキテクチャを設計するための青写真として役立つことができます。

4. q-means: A quantum algorithm for unsupervised machine learning

https://arxiv.org/abs/1812.03584

Iordanis Kerenidis, Jonas Landman, Alessandro Luongo, Anupam Prakash (Submitted on 10 Dec 2018 (v1), last revised 11 Dec 2018 (this version, v2))

Quantum machine learning is one of the most promising applications of a full-scale quantum computer. Over the past few years, many quantum machine learning algorithms have been proposed that can potentially offer considerable speedups over the corresponding classical algorithms. In this paper, we introduce q-means, a new quantum algorithm for clustering which is a canonical problem in unsupervised machine learning. The qq-means algorithm has convergence and precision guarantees similar to kk-means, and it outputs with high probability a good approximation of the kk cluster centroids like the classical algorithm. Given a dataset of NN dd-dimensional vectors viv_i (seen as a matrix VRN×d)V \in \mathbb{R}^{N \times d}) stored in QRAM, the running time of q-means is O~(kdηδ2κ(V)(μ(V)+kηδ)+k2η1.5δ2κ(V)μ(V))\widetilde{O}\left( k d \frac{\eta}{\delta^2}\kappa(V)(\mu(V) + k \frac{\eta}{\delta}) + k^2 \frac{\eta^{1.5}}{\delta^2} \kappa(V)\mu(V) \right) per iteration, where κ(V)\kappa(V) is the condition number, μ(V)\mu(V) is a parameter that appears in quantum linear algebra procedures and η=maxivi2\eta = \max_{i} ||v_{i}||^{2}. For a natural notion of well-clusterable datasets, the running time becomes O~(k2dη2.5δ3+k2.5η2δ3)\widetilde{O}\left( k^2 d \frac{\eta^{2.5}}{\delta^3} + k^{2.5} \frac{\eta^2}{\delta^3} \right) per iteration, which is linear in the number of features dd, and polynomial in the rank kk, the maximum square norm η\eta and the error parameter δ\delta. Both running times are only polylogarithmic in the number of datapoints NN. Our algorithm provides substantial savings compared to the classical kk-means algorithm that runs in time O(kdN)O(kdN) per iteration, particularly for the case of large datasets.

量子機械学習は汎用量子コンピュータにおける多くの有用なアプリケーションのうちの1つです。ここ数年多くの量子機械学習アルゴリズムが古典アルゴリズムと比較してかなりの量子加速をする可能性を秘めているとして提案されてきました。本稿では、q-meansというアルゴリズムを紹介します。このアルゴリズムは、教師なし機械学習の規範問題であるクラスタリングのための量子アルゴリズムです。q-meansアルゴリズムはk-meansと似たような収束と精度を保証します。そして、古典アルゴリズムのように、k個のクラスタの重心のいい近似を高い確率で出力します。

5. Quantum machine learning for data scientists

https://arxiv.org/abs/1804.10068

Dawid Kopczyk (Submitted on 25 Apr 2018)

This text aims to present and explain quantum machine learning algorithms to a data scientist in an accessible and consistent way. The algorithms and equations presented are not written in rigorous mathematical fashion, instead, the pressure is put on examples and step by step explanation of difficult topics. This contribution gives an overview of selected quantum machine learning algorithms, however there is also a method of scores extraction for quantum PCA algorithm proposed as well as a new cost function in feed-forward quantum neural networks is introduced. The text is divided into four parts: the first part explains the basic quantum theory, then quantum computation and quantum computer architecture are explained in section two. The third part presents quantum algorithms which will be used as subroutines in quantum machine learning algorithms. Finally, the fourth section describes quantum machine learning algorithms with the use of knowledge accumulated in previous parts.

本稿は、量子機械学習アルゴリズムをデータサイエンティストに対して平易に、一貫した方法で説明することを目的としている。アルゴリズムは難しい数学を使わず、その代わり一歩一歩難しい問題に対して丁寧に説明をする。今回、選ばれた量子機械学習のアルゴリズムに対しての概況を伝えるが、提案された量子PCAアルゴリズムのスコア抽出もあり、フィードフォワード量子ニューラルネットワークの新しいコスト関数も紹介される。テキストは4つの部分に分かれ、最初は基本的な量子理論を紹介、第二章では量子計算と量子コンピュータのアーキテクチャの紹介をします。第3章ではサブルーチンで利用される量子機械学習のアルゴリズムを紹介します。最後に前章での知識を利用した量子アルゴリズムの解説をします。

6. The fundamentals of quantum machine learning

https://arxiv.org/abs/1807.04259

Bing Huang, Nadine O. Symonds, O. Anatole von Lilienfeld (Submitted on 11 Jul 2018 (v1), last revised 16 Jul 2018 (this version, v2))

Within the past few years, we have witnessed the rising of quantum machine learning (QML) models which infer electronic properties of molecules and materials, rather than solving approximations to the electronic Schrodinger equation. The increasing availability of large quantum mechanics reference data sets have enabled these developments. We review the basic theories and key ingredients of popular QML models such as choice of regressor, data of varying trustworthiness, the role of the representation, and the effect of training set selection. Throughout we emphasize the indispensable role of learning curves when it comes to the comparative assessment of different QML models.

ここ数年私たちは、シュレディンガー方程式の近似式を解くのではなくて、分子や材料の電子状態を推論することによって実行される量子機械学習モデルが立ち上がるのを目の当たりにしてきました。量子力学的な参照データセットが入手できるようになってきて、これらが発展してきました。私たちは基礎的な理論と、ポピュラーな量子機械学習モデルの主成分などを見返します。全体を通して、異なるQMLモデルの比較評価に関しては、学習曲線の不可欠な役割を強調しています。

7. Efficient Learning for Deep Quantum Neural Networks

https://arxiv.org/abs/1902.10445

Kerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J. Osborne, Robert Salzmann, Ramona Wolf (Submitted on 27 Feb 2019)

Neural networks enjoy widespread success in both research and industry and, with the imminent advent of quantum technology, it is now a crucial challenge to design quantum neural networks for fully quantum learning tasks. Here we propose the use of quantum neurons as a building block for quantum feed-forward neural networks capable of universal quantum computation. We describe the efficient training of these networks using the fidelity as a cost function and provide both classical and efficient quantum implementations. Our method allows for fast optimisation with reduced memory requirements: the number of qudits required scales with only the width, allowing the optimisation of deep networks.

We benchmark our proposal for the quantum task of learning an unknown unitary and find remarkable generalisation behaviour and a striking robustness to noisy training data.

ニューラルネットワークは研究と産業の両方で成功をおさめており、量子技術の差し迫った出現によって量子学習によって実現される量子ニューラルネットワークの構築をすることは極めて重要です。私たちはここで、汎用量子計算向けの量子フィードフォワードニューラルネットワークのビルディングブロックとしての量子ニューロンの使い方を提案します。私たちはこれらのネットワークの効率的な学習方法をフィデリティをコスト関数として使い、古典的な方法と効率的な量子実装を提案します。私たちの方法は高速な最適化と少ないメモリ容量で実現され、量子ビット数のスケールは量子ビット数でのみ規定され、深層ネットワークの最適化を可能にします。量子計算のタスクに対して、未知の単位を学習し、ノイズの多い訓練データセットに対する一般化された動作と著しいロバスト性を見つけました。

8. Advances in Quantum Reinforcement Learning

https://arxiv.org/abs/1811.08676

Vedran Dunjko, Jacob M. Taylor, Hans J. Briegel (Submitted on 21 Nov 2018)

In recent times, there has been much interest in quantum enhancements of machine learning, specifically in the context of data mining and analysis. Reinforcement learning, an interactive form of learning, is, in turn, vital in artificial intelligence-type applications. Also in this case, quantum mechanics was shown to be useful, in certain instances. Here, we elucidate these results, and show that quantum enhancements can be achieved in a new setting: the setting of learning models which learn how to improve themselves -- that is, those that meta-learn. While not all learning models meta-learn, all non-trivial models have the potential of being "lifted", enhanced, to meta-learning models. Our results show that also such models can be quantum-enhanced to make even better learners. In parallel, we address one of the bottlenecks of current quantum reinforcement learning approaches: the need for so-called oracularized variants of task environments. Here we elaborate on a method which realizes these variants, with minimal changes in the setting, and with no corruption of the operative specification of the environments. This result may be important in near-term experimental demonstrations of quantum reinforcement learning.

最近、量子によって強化された機械学習に、特にデータマイニングと分析の観点で注目が集まっている。インタラクティブな形の学習として強化学習があり、人工知能アプリケーションの分野では活気がある。そして、この場合量子力学はいくつかの実例において有用であると示されている。ここでは、私たちはこれらの結果を解明し、量子による強化は新しい設定において有用であることを示します。それは、メタ学習として知られる、どのようにそれ自身を改善していくかという学習モデルに関する設定である。全ての学習モデルが有用であるわけではないが、私たちの結果では、それらのようなモデルも、量子による強化により、より良い学習をする可能性がある。並行して、私たちは現在の量子強化学習のアプローチにおけるボトルネックも扱っている。オラクル化されたタスクの変種(?)に対する需要である。私たちは仕様を変えずに、最低限の設定の変更だけを扱い、それらの変種(?)を実現するような方法を作り上げました。これらの結果は近年の量子機械学習に対する実験的なデモンストレーションにとって重要であると思われます。

9. Bayesian Deep Learning on a Quantum Computer

https://arxiv.org/abs/1806.11463

Zhikuan Zhao, Alejandro Pozas-Kerstjens, Patrick Rebentrost, Peter Wittek (Submitted on 29 Jun 2018 (v1), last revised 9 Jul 2018 (this version, v2))

Bayesian methods in machine learning, such as Gaussian processes, have great advantages compared to other techniques. In particular, they provide estimates of the uncertainty associated with a prediction. Extending the Bayesian approach to deep architectures has remained a major challenge. Recent results connected deep feedforward neural networks with Gaussian processes, allowing training without backpropagation. This connection enables us to leverage a quantum algorithm designed for Gaussian processes and develop a new algorithm for Bayesian deep learning on quantum computers. The properties of the kernel matrix in the Gaussian process ensure the efficient execution of the core component of the protocol, quantum matrix inversion, providing an at least polynomial speedup over the classical algorithm. Furthermore, we demonstrate the execution of the algorithm on contemporary quantum computers and analyze its robustness with respect to realistic noise models.

ガウス過程などの機械学習におけるベイズ法は、他の手法と比較して大きな利点があります。特に、それらは予測に関連する不確実性の推定値を提供します。ベイジアンアプローチをディープアーキテクチャに拡張することは、依然として大きな課題です。最近の結果は、ディープフィードフォワードニューラルネットワークをガウス過程と結びつけ、逆伝播なしで訓練を可能にしました。この接続により、ガウス過程用に設計された量子アルゴリズムを活用し、量子コンピュータ上でのベイジアン深層学習用の新しいアルゴリズムを開発することができます。ガウス過程における核行列の特性は、プロトコルのコア構成要素の効率的な実行、量子行列反転を確実にし、古典的なアルゴリズムに対して少なくとも多項式のスピードアップを提供します。さらに、現代の量子コンピュータ上でのアルゴリズムの実行を実証し、現実的な雑音モデルに関してそのロバスト性を分析する。

© 2024, blueqat Inc. All rights reserved