ラビットチャレンジのE資格講座、ディープラーニングのDay4(最後)です。
日本ディープラーニング協会 E資格 JDLA認定プログラム受講記録(その1)
日本ディープラーニング協会 E資格 JDLA認定プログラム受講記録(その2)
日本ディープラーニング協会 E資格 JDLA認定プログラム受講記録(その3)
日本ディープラーニング協会 E資格 JDLA認定プログラム受講記録(その4)
日本ディープラーニング協会 E資格 JDLA認定プログラム受講記録(その5)
セクションの構成は以下の通り。
Section 1) TensorFlowの実装演習
Section 2) 強化学習
2-1 強化学習とは
2-2 強化学習の応用例
2-3 探索と利用のトレードオフ
2-4 強化学習のイメージ
2-5 強化学習の差分
2-6 行動価値関数
2-7 方策関数
2-8 方策勾配法
#Section 1. TensorFlowの実装演習
####Tensor Flow
Tensor FlowはGoogleが開発した機<械学習に用いられるライブラリ。
<基礎>
- 定数の設定
a = tf.constant(0) - セッションを実行しないと変数の値は設定されない。
sess = tf.Session()
sess.run(X) - プレイスホルダーは後で値を設定する変数の入れもの
x = tf.placeholder() - 変数
x =tf.Variable(1)
<線形回帰>
データを作成する$noise$と基準となる直線の式$d$を変更して結果を確認する。
<非線形回帰>
データを作成する$noise$と基準となる曲線の式$d$を変更して結果を確認する。
[try]
- 次の式をモデルとして回帰を行おう
$y=30x^{2}+0.5x+0.2$ - 誤差が収束するようiters_numやlearning_rateを調整しよう
<分類1層(mnist)>
[try] x:入力値, d:教師データ, W:重み, b:バイアス をそれぞれ定義しよう
正解は以下の通り。
import tensorflow as tf
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
iters_num = 100
batch_size = 100
plot_interval = 1
# -------------- ここを補填 ------------------------
x = tf.placeholder(tf.float32, [None, 784])
d = tf.placeholder(tf.float32, [None, 10])
W = tf.Variable(tf.random_normal([784, 10], stddev=0.01))
b = tf.Variable(tf.zeros([10]))
# ------------------------------------------------------
y = tf.nn.softmax(tf.matmul(x, W) + b)
入力の数は画像のドット数 28×28=784 個、出力は0~9の10分類なので、それぞれ該当の箇所に入れれば良い。Wは各入力値から出力値に対して値があるので[784, 10]となる。バイアスの初期値は0が一般的で、各入力値に対しては共通で、出力値の数[10]だけ設定すれば世。
<分類3層(mnist)>
ノード数が増えるほど精度は高くなるが計算時間は長くなる。むしろ中間層が少なくても試行回数を増やした方が早く正解率が上がっていく。
ノード数100-100で30000回の場合は95%以上、30-20でも50000回行えば91%以上になる。
Optimizerを変更した結果。
適切なパラメータがわからなかったので正解を参照しました。この中ではRMSPropが最も良い結果となりました。
<分類CNN(mnist)>
構成は以下のようになっています。
conv - relu - pool - conv - relu - pool - affin - relu - dropout - affin - softmax
GPUなしで実行すると時間が掛かったのですが、Google ColabでGPUありで実行したらすぐに終わったので学習回数を300から1000に増やして実行してみました。
[try] ドロップアウト率を0に変更しよう
0だけでなく、drop out = 0、0.25、0.5、0.75、学習回数=300、3000で比べてみました。結果は以下のようになりましたがはっきりした違いはわかりませんでした。
####Keras
- Tensor Flowのラッパー。
- 簡易にコードが書ける。初心者向き。
- 柔軟性はなく細かいことはTensor Flowなどで補う。
# モデルを作成
model = Sequential()
model.add(Dense(input_dim=1, output_dim=1))
# モデルを表示
model.summary()
# モデルのコンパイル
model.compile(loss='mse', optimizer='sgd')
# 学習
for ...:
loss = model.train_on_batch(x, d)
こんな感じでさっと書けてしまう。
<線形回帰>
<単純パーセプトロン(OR回路)>
[try]
- np.random.seed(0)をnp.random.seed(1)に変更
- エポック数を100に変更
- AND回路, XOR回路に変更
- OR回路にしてバッチサイズを10に変更
- エポック数を300に変更しよう
以下は実行結果です。上から順に前の設定を引き継ぎながら行いました。
XOR回路は線形回帰では解けない問題です。
これは以下の図でどの直線を引いても、同じ側に違う色が混ざってしまうことと同じです。
<分類(iris)>
ビデオでは取り扱いがなかったのですがやってみました。
[try]
- 中間層の活性関数をsigmoidに変更しよう
- SGDをimportしoptimizerをSGD(lr=0.1)に変更しよう
となっています。デフォルトではReLU、SGD(lr=0.01)となっています。
またtrain_test_splitのモジュールが変わっているので修正しました。
# from sklearn.cross_validation import train_test_split
from sklearn.model_selection import train_test_split
rl=0.1の方が少し良いようです。
<分類(mnist)>
このソース教材ではdata\mnist.pyをインポートしているのですが、私はGPUを使いたいので、Google Colab上でやっている関係で少し準備が要りました。
- dataフォルダを自分のGoogleドライブのJupyter Notebookファイルが置いてある場所にアップロードする。
- 以下のコードを追加。
from google.colab import drive
drive.mount('/content/gdrive')
import sys
sys.path.append('dgrive/My Drive/Colab Notebooks')
これで data\mnist.py からインポートできるようになりました。
実行したらURLが指定されるのでそこを開いて認証用のキーを取得し、元の画面に戻ってキーを入力し完了。
[try]
- load_mnistのone_hot_labelをFalseに変更しよう (error)
- 誤差関数をsparse_categorical_crossentropyに変更しよう
- Adamの引数の値を変更しよう
誤差関数をsparse_categorical_crossentropyにしたら、以下のように動作しました。
Adamの学習率を変えて実行した結果は以下の通り。一番小さい0.0001が良いようです。
<CNN分類(mnist)>
kerasではCNNも簡単に実装できる。
Conv2D, MaxPooling2D, Dropout, Flatten, Denseなどを並べていくだけで出来てしまう。
演習用ソースのモデルは以下の通り。
入力は、28×28×1チャネルの画像。Conv2dでサイズが28→26→24と減っているのはkernel_size=(3,3)でパディングなしのため。チャネルは1→32→64と増えている。最後は10分類してSoftmax関数を掛けている。実行結果は以下の通り。
Conv2d関数にpadding='same'を指定するとサイズが減らないようにパディングしてくれる。以下はその結果。
その他、講義ビデオではVGG16で実装しなおす方法も説明していました。keras.applicationsにモデルがあるのでそれを使えば簡単にできるとのこと。ただし入力サイズが48以上でなければならないので、48×48×3にリサイズしていました。チャネルは1チャネルを3つ繰り返し。他にもResNet50など色々ある。
<cifar10>
http://www.cs.toronto.edu/~kriz/cifar.html
データセット cifar10
32x32ピクセルのカラー画像データ
10種のラベル「飛行機、自動車、鳥、猫、鹿、犬、蛙、馬、船、トラック」
トレーニングデータ数:50000, テストデータ数:10000
このデータセットでCNN。model.summary()は以下の通り。
kerasではBatch Normalizationも簡単に実装できる。
from keras.layers.normalization import BatchNormalization
として、Conv2dの後ろに、
model.add(BatchNormalization())
とすればよい。
cifar10のCNNにBatchNormalizationを追加したmodel.summary()と実行結果は以下の通り。
実行結果
<RNN>
Kerasには、シンプルRNN、GRU、LSTM、LSTM2Dなど色々と用意されている。
Keras RNNのドキュメント https://keras.io/ja/layers/recurrent/#simplernn
演習用ソースは、2進数足し算の予測。
桁から桁へと繰り上がりの情報が伝わっていくためRNNとしている。
[try]
- RNNの出力ノード数を128に変更・・・(1)
- RNNの出力活性化関数を sigmoid に変更・・・(2)
- RNNの出力活性化関数を tanh に変更・・・(3)
- 最適化方法をadamに変更・・・(4)
- RNNの入力 Dropout を0.5に設定・・・(5)
- RNNの再帰 Dropout を0.3に設定・・・(6)
- RNNのunrollをTrueに設定・・・(7)
実行結果は以下の通り。
- (2)やはり精度が落ちました。
- ベースの設定値と(1)、(3)、(4)は精度が高く10000回目には100%になってしまい違いが判りませんでした。10000回以下で比べる必要がありそうです。
- (5)は汎化性能を高めるはずが下がってしまいました。なお(5)からランタイムのタイプをGPUからTPUに変更しました。そうしたところ約3分の1の時間短縮になりました。
- (6)は結果が更に悪くなってしまいました。
- (7)のunrollを指定すると、kerasのネットワークを展開しメモリは消費するが速度が向上するというのも。これを指定したら70%程度の時間で済みました。
SimpleRNN以外のモデルも簡単に構築出来て、GRUであれば、
$model.add(SimpleRNN(...))$
の部分を、
$model.add(GRU(...))$
とするだけ。
最終結果は良いですが2万回目位まではベースの設定より学習が遅いです。
今回は思ったような結果になっていないものが多く調整が必要だと思います。またベースの設定で精度が良すぎるので、精度の低いものをベースにした方が比較できて良かったと思います。もう少し色々と試してみたいと思います。
#強化学習
##2-1. 強化学習とは
- 教師あり学習、教師なし学習とも異なる機械学習の一分野
- 長期的に報酬を最大化出来るよう、環境の中で行動を選択できるエージェントを作成するのが目標
- 行動の結果として与えられる報酬をもとに行動を改善
##2-2. 強化学習の応用例
エージェント:プロフィールと購入履歴に基づいてキャンペンメールを送る顧客を決めるソフトウエア。
行動:顧客毎に送信、非送信を選ぶ。
報酬:コスト(負の報酬)と売り上げの推測(正の報酬)
##2-3. 探索と利用のトレードオフ
####探索が足りない
過去データのベストだけ選択⇒他により良い行動があっても見つけられない
####利用が足りない
未知の行動のみ選択⇒過去データの経験が生かせない
※探索と利用はトレードオフ
##2-4. 強化学習のイメージ
① 方策関数に基づいて選択した方策により行動すると、
② 状態がSになったことが観測され、
③ 行動価値関数で決まる報酬が受け取れる。
この報酬を最大化するよう学習しながら①~③を繰り返す。
##2-5. 強化学習の差分
教師なし学習/教師あり学習:データに含まれるパターンを見つけ、そのデータから予測することが目標
強化学習:優れた方策を見つけることが目標
フィードバックという観点から以下のように違いを書いてあるサイトもありました。
教師なし学習:フィードバックがない
教師あり学習:すぐにフィードバックがある
強化学習:遅れてフィードバック(報酬)がある
##2-6. 行動価値関数
テキストでは以下のように書かれていましたが良く理解できませんでした。
行動価値関数とは
・価値を表す関数としては、状態価値関数と行動価値関数の2 種類がある
ある状態の価値に注目する場合は、状態価値関数
状態と価値を組み合わせた価値に注目する場合は、行動価値関数
こう解釈しましたがどうでしょう?
価値関数
- 状態価値関数と行動価値関数がある
- 状態価値関数:ある状態の価値に注目する場合
- 行動価値関数:状態と行動を組み合わせた価値に注目する場合
##2-7. 方策関数
ある状態でどのような行動を採るかの確率を与える関数。
確率にしているのは、状態が決まったら行動が一意に決まるようにしてしまうと、探索しなくなってしまうからだと思います。
##2-8. 方策勾配法
方策反復法:方策をモデル化して最適化する方法。その中でも有用な方法として方策勾配法がある。
方策勾配法では以下のように方策を更新していく。
\theta^{(t+1)}=\theta^{(t)}+\epsilon\nabla J(\theta)
$\theta$:モデルをパラメータと表したもの
$J$:モデルに対する期待収益関数
$\epsilon$:学習率
期待収益関数の定義
- 平均報酬:報酬全ての平均
- 割引報酬和:過去になるほど報酬を割り引いて加算したもの
がある。
方策勾配定理
\nabla_{\theta}J(\theta)={\mathbb E}_{\pi_{\theta}}[(\nabla_{\theta}log \pi_{\theta}(a|s) Q^{\pi}(s,a))]
$Q(s,a)$:行動価値関数
以下の2式から導出される
- 状態価値関数 $v(s) = \sum_{a}(\pi(a|s)Q(s,a))$
- ベルマン方程式 $Q(s,a) = \sum_{s'}(P(s'|s,a)[r(s,a,s') + \gamma V(s')])$
#確認テスト
#####Q1. 強化学習羽州に応用できそうな事例を考え、環境・エージェント・行動・報酬を具体的に挙げよ。
#####A1. 最近やっていないですが、趣味にしていたので将棋を挙げておきます。
事例:将棋
環境:局面
エージェント:プレーヤー
行動:次の手を決める
報酬:指し手の評価、あるいは、その手を指した時の局面の評価