量子機械学習は、ノイズを含む中規模量子(Noisy Intermediate-Scale Quantum, NISQ)デバイスの重要な潜在的応用の一つであり、近年、この分野において多くの関心を集めている。まだ多くの未解決の課題がある比較的新しい分野であるが、量子ゲートの持つ並列性や量子状態空間の高次元性により、特定の状況下では古典的な機械学習に比べて高速な学習やより優れた表現能力を示す可能性がある。また、古典的な入力・出力データを処理できるだけでなく、古典的なコンピュータでは処理不可能な量子データの処理も可能である。近年、パラメータ化された回路のような柔軟な構造が登場し、古典的なニューラルネットワークと同様に、効率的な訓練が可能となっている。
しかし、古典的な機械学習と同様に、量子機械学習モデルもセキュリティの脆弱性を抱えている。例えば、量子回路に基づく分類器は、入力状態にノイズが加わることによって誤った分類結果を引き起こす「敵対的サンプル攻撃」を受ける可能性がある。最近の研究では、この種の攻撃とその対策を検討したものや[1]、量子モデルの理論的な高次元性が攻撃の脆弱性を生む可能性を指摘したもの[2]がある。我々は今後の研究方向として、量子および古典的な入力に対する量子機械学習モデル(分類に限らない)のセキュリティ、そして攻撃に対する対策(または、対策が存在しない、すなわち根本的な脆弱性があるかどうか)を探求していくことに関心を持っている。
[1] L Sirui, LM Duan, DL Deng. "Quantum adversarial machine learning." Physical Review Research 2.3 (2020): 033212.
[2] N Liu, P Wittek. "Vulnerability of quantum classification to adversarial perturbations." Physical Review A 101.6 (2020): 062331.