LoginSignup
1
1

More than 1 year has passed since last update.

PennyLaneでIrisデータセットの量子分類器

Last updated at Posted at 2021-06-15

量子分類器

量子回路にパラメータを埋めておいて、機械学習として最適化することで望む非線形モデルを構築できます。
今回は分類器を作ってみます。
データセットはirisを使い、SDKとしては量子部分はPennyLane、古典部分はTensorflow(及びKeras)を用います。

コード

import

使わないものもありますが、

from keras.models import Sequential
from keras.layers.core import Dense, Activation
import pennylane as qml
from pennylane import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline

import pandas as pd
from sklearn import datasets
from keras import initializers
from keras import optimizers
from keras.callbacks import EarlyStopping

データ準備

# Irisデータセットの読み込み

iris = datasets.load_iris()

# 扱いやすいよう、pandasのDataFrame形式に変換
df = pd.DataFrame(iris.data, columns=iris.feature_names)
df['target'] = iris.target
df['target_names'] = iris.target_names[iris.target]
df.head()

image.png

## 教師データ作成
# ここではpetal length, petal widthの2種類のデータを用いる。より高次元への拡張は容易である。
x_train = df.loc[:,['petal length (cm)', 'petal width (cm)']].to_numpy() # shape:(150, 2)
y_train = np.eye(3)[iris.target] # one-hot 表現 shape:(150, 3)
# データ点のプロット
plt.figure(figsize=(8, 5))

for t in range(3):
    x = x_train[iris.target==t][:,0]
    y = x_train[iris.target==t][:,1]
    cm = [plt.cm.Paired([c]) for c in [0,6,11]]
    plt.scatter(x, y, c=cm[t], edgecolors='k', label=iris.target_names[t])

# label
plt.title('Iris dataset')
plt.xlabel('petal length (cm)')
plt.ylabel('petal width (cm)')
plt.legend()
plt.show()

image.png

学習

古典 Neural Network

まずは古典NNをやってみます。

param = {'num_hidden_layers': 2, 'num_nodes': 20, 'num_epochs':128, 'activation': 'relu'}

# multilayer perceptron
model = Sequential()
for _ in range(param['num_hidden_layers']): 
    model.add(Dense(param['num_nodes'], input_dim=2,use_bias='False'))
    model.add(Activation(param['activation']))
model.add(Dense(3))
model.add(Activation('softmax'))

Adamopt = optimizers.Adam(lr=0.01)
model.compile(loss='categorical_crossentropy', optimizer=Adamopt)
early_stopping = EarlyStopping(patience=10, verbose=0) 

hist = model.fit(x_train, y_train, validation_split=0.1, epochs=param['num_epochs'], verbose=0, shuffle='True', batch_size=30, callbacks=[early_stopping])

loss = hist.history['loss']
val_loss = hist.history['val_loss']

# lossのグラフ
plt.plot(range(len(loss)), 10*np.log10(loss), marker='.', label='loss')
plt.plot(range(len(val_loss)), 10*np.log10(val_loss), marker='.', label='val_loss')
plt.legend(loc='best', fontsize=10)
plt.grid()
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

数秒で終わります。

Epoch 1/128
5/5 [==============================] - 1s 49ms/step - loss: 1.0702 - val_loss: 0.9317
Epoch 2/128
5/5 [==============================] - 0s 14ms/step - loss: 0.9300 - val_loss: 0.6034
Epoch 3/128
5/5 [==============================] - 0s 12ms/step - loss: 0.8668 - val_loss: 0.7717

1epochは0.1秒以下で終わっているようです。

image.png

予測してみます。(予測といいつつ、教師データを使いまわしています。動作確認だけなのでご容赦)

Pred = model.predict_classes(x_train)

import matplotlib.cm as cm 
colors = cm.rainbow(np.linspace(0, 1, 3))

# 描画サイズ 
plt.figure(figsize=(8, 6))

# 説明変数の散布図
for i in range(3):
    plt.scatter(x_train[Pred==i, 0], x_train[Pred==i, 1], color=colors[i], edgecolor='white', s=70)

# ラベルとタイトル
plt.xlabel('data1')
plt.ylabel('data2')

# 描画
plt.show()

image.png

分類できていますね。

量子Neural Network

量子分類器をやってみます。
古典NNと量子NNのハイブリッドになっています。

import tensorflow as tf
import keras_metrics

n_qubits = 2
layers = 4
data_dimension = 3 # output
param = {'num_epochs': 128}


dev = qml.device("default.qubit", wires=n_qubits)


@qml.qnode(dev, diff_method='adjoint')
def qnode(inputs, weights):
    qml.templates.AngleEmbedding(inputs, wires=range(n_qubits))
    qml.templates.StronglyEntanglingLayers(weights, wires=range(n_qubits))
    return [qml.expval(qml.PauliZ(i)) for i in range(n_qubits)]


weight_shapes = {"weights": (layers, n_qubits,3)}

qlayer = qml.qnn.KerasLayer(qnode, weight_shapes, output_dim=n_qubits)
clayer1 = tf.keras.layers.Dense(n_qubits, activation='relu')
clayer2 = tf.keras.layers.Dense(3, activation="softmax")
model = tf.keras.models.Sequential([clayer1,qlayer,clayer2])

opt = tf.keras.optimizers.Adam(learning_rate=0.05)
model.compile(opt, loss='categorical_crossentropy')

hist = model.fit(x_train, y_train, validation_split=0.1, epochs=param['num_epochs'], verbose=1, shuffle='True', batch_size=30, callbacks=[early_stopping])

loss = hist.history['loss']
val_loss = hist.history['val_loss']

# lossのグラフ
plt.plot(range(len(loss)), 10*np.log10(loss), marker='.', label='loss')
plt.plot(range(len(val_loss)), 10*np.log10(val_loss), marker='.', label='val_loss')
plt.legend(loc='best', fontsize=10)
plt.grid()
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

Epoch 1/128
5/5 [==============================] - 3s 603ms/step - loss: 1.1991 - val_loss: 0.9448
Epoch 2/128
5/5 [==============================] - 3s 581ms/step - loss: 0.8379 - val_loss: 0.8937
Epoch 3/128
5/5 [==============================] - 3s 605ms/step - loss: 0.6726 - val_loss: 1.0398

1 epochは50データしか無いのですが、それに3秒もかかっています。。
古典NNの数十倍も遅いです。

image.png

結果を可視化してみます。

image.png

はい、量子でも分類できていますね。
色々遊んでみるとよいかと思います。
例えば、初段の古典NNのactivationを線形(linear)にしても、量子層の非線形性がちゃんと分類をやってくれます。

勾配計算手法と計算時間

量子機械学習の場合、勾配計算のやり方によって計算時間は随分違います。
上の例では diff_method = "adjoint" というものを使っています。
もう少し愚直な "parameter-shift" を使ってみると、

Epoch 1/128
5/5 [==============================] - 12s 2s/step - loss: 1.1966 - val_loss: 1.5186

このように、adjointの3倍程度遅くなります。
かつ、この方法はパラメータ数に比例した計算時間がかかっていきます。1

他に、backpropagationを使うことも出来ます。仕組みは古典NNのものと同じです。
引数として backprop を指定すればいい・・・のですが、加えてインターフェースとしてtensorflow(tf)を明示する必要があります。

dev = qml.device("default.qubit.tf", wires=n_qubits)
@qml.qnode(dev, diff_method='backprop', interface="tf")

Epoch 1/128
5/5 [==============================] - 9s 2s/step - loss: 0.8118 - val_loss: 0.9497

parameter-shiftより若干早い程度です。
backpropの原理的には、もっと速いと思うのですが、、謎です。

というわけで、今の実装ですとadjointが良さそうです。
それでも、古典NNより遥かに計算が遅いです。

まとめ

量子機械学習は計算時間にご注意を。


  1. paramet-shiftの利点として、実機でも使えます。backprop,adjoint等はシミュレーター専用アルゴリズムです。これらのアルゴリズムでは、量子回路の途中の状態ベクトルを観測する必要があります。実機でそれをやると、観測した段階で状態が破壊されてしまいます。 

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1