はじめに
量子機械学習(QML)において、モデルの性能を決定づける最も重要なステップの一つが「データエンコーディング」です。私たちは普段、画像や数値を「0」と「1」のデジタルデータとして扱っていますが、量子コンピュータはこれを「量子状態」として受け取る必要があります。
この「古典から量子への翻訳」がどう行われ、2025年現在どのような手法が主流なのかを解説します。
基底エンコーディング:直感的なビット変換
「基底エンコーディング(Basis Encoding)」は、最もシンプルで直感的な手法です。
-
仕組み: 古典的なバイナリデータ(例:
101)を、そのまま量子ビットの状態()に対応させます。 - メリット: データの読み書きが直感的で分かりやすい点にあります。
- デメリット: ビットのデータを表現するために個の量子ビットが必要です。2025年現在の 100 ビット級のデバイスでも、大規模なデータセットを扱うにはリソースが不足しがちです。
角度エンコーディング
現在の「NISQ(ノイズあり中規模量子デバイス)」で最も広く使われているのが「角度エンコーディング(Angle Encoding)」です。
- 仕組み: 特徴量の数値を、量子ゲート(RX や RY など)の「回転角度」として埋め込みます。
- メリット: 1つの量子ビットに1つの特徴量を乗せられるため、回路を非常に浅く保つことができ、ノイズの影響を最小限に抑えられます。
- 進化: 現在の研究では、複数の回転ゲートを組み合わせることで、1量子ビットにより多くの情報を詰め込む「高密度角度エンコーディング」の手法も提案されています。
振幅エンコーディング
データ効率を極限まで高める手法が「振幅エンコーディング(Amplitude Encoding)」です。
- 仕組み: データのベクトルを、量子状態の「確率振幅」に埋め込みます。
- 圧倒的な圧縮率: 個のデータを、わずか 個の量子ビットで表現可能です。例えば、約 1000 次元のデータもわずか 10 ビットに凝縮できます。
- 2025年の課題: 非常に強力ですが、初期状態を作るための計算コスト(State Preparation)が高いという課題があります。最近の研究では、このプロセスを簡略化するための近似アルゴリズムの開発が活発に行われています。
特徴量マップと量子特徴空間
エンコーディングは単なるデータ変換ではなく、データを「量子特徴空間」という超高次元な空間へ写像する作業です。
これを「量子特徴量マップ」と呼びます。
- カーネル法との類似: 古典的な機械学習における「カーネル法」のように、低次元では分離不可能なデータを、量子空間に飛ばすことで線形分離しやすくします。
- 2025年の到達点: 特定のデータ構造に対して、古典コンピュータでは計算不可能なほど複雑な「量子カーネル」を構成できることが実証され始めています。
まとめ
どのエンコーディング手法を選択するかは、利用可能な量子リソースと、解きたい問題のデータの性質に依存します。2025年、私たちは単にデータを量子ビットに乗せるだけでなく、いかに効率的に「量子特有の表現力」を引き出すかという、より高度な設計フェーズへと移行しています。