3
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

keras による fashion MNIST の3層ニューラルネットワークとCNN(畳み込みニューラルネットワーク)解析

Posted at

はじめに

本記事は Udemy の 【4日で体験しよう!】 TensorFlow, Keras, Python 3 で学ぶディープラーニング体験講座 の内容を参考に同様の内容をAmazon SageMakerで実行する記事となります。

環境準備 : SageMaker での環境構築と keras による MNIST の3層ニューラルネットワーク解析
分析実行 : keras による fashion MNIST の3層ニューラルネットワークとCNN(畳み込みニューラルネットワーク)解析 ←(本稿)

fashion MNIST

衣料品画像60,000枚と、テスト画像10,000枚を集めた、画像データセットです。
衣料品ラベルは整数の配列で、0から9です。これらは画像が表わす衣料品のクラスに対応します。
01.png

3層のニューラルネットワーク解析

新しくノートブックを作成して、コードを書きます。
その1の手順と同じように new から conda_tensorflow_p36 を選択して、名前を付けましょう。
私はfusion_MNIST_3layersと名前を付けました。

処理内容は MNIST とほとんど変わらないので、簡単に記述します。

モジュールのインポートと設定

from tensorflow import keras
import matplotlib.pyplot as plt
%matplotlib inline

fashion MNISTデータのダウンロード

(x_train,y_train),(x_test,y_test) = keras.datasets.fashion_mnist.load_data()

データの確認

  • fashion MNISTの画像も28x28の二次元配列になっています。
  • 各要素は0~255の値を取っていて、色が黒に近いほうが数が大きくなります。
x_train[0]

実行結果

array([[  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   1,
          0,   0,  13,  73,   0,   0,   1,   4,   0,   0,   0,   0,   1,
          1,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   3,
          0,  36, 136, 127,  62,  54,   0,   0,   0,   1,   3,   4,   0,
          0,   3],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   6,
          0, 102, 204, 176, 134, 144, 123,  23,   0,   0,   0,   0,  12,
         10,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0, 155, 236, 207, 178, 107, 156, 161, 109,  64,  23,  77, 130,
         72,  15],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   1,   0,
         69, 207, 223, 218, 216, 216, 163, 127, 121, 122, 146, 141,  88,
        172,  66],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   1,   1,   1,   0,
        200, 232, 232, 233, 229, 223, 223, 215, 213, 164, 127, 123, 196,
        229,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
        183, 225, 216, 223, 228, 235, 227, 224, 222, 224, 221, 223, 245,
        173,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
        193, 228, 218, 213, 198, 180, 212, 210, 211, 213, 223, 220, 243,
        202,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   1,   3,   0,  12,
        219, 220, 212, 218, 192, 169, 227, 208, 218, 224, 212, 226, 197,
        209,  52],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   6,   0,  99,
        244, 222, 220, 218, 203, 198, 221, 215, 213, 222, 220, 245, 119,
        167,  56],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   4,   0,   0,  55,
        236, 228, 230, 228, 240, 232, 213, 218, 223, 234, 217, 217, 209,
         92,   0],
       [  0,   0,   1,   4,   6,   7,   2,   0,   0,   0,   0,   0, 237,
        226, 217, 223, 222, 219, 222, 221, 216, 223, 229, 215, 218, 255,
         77,   0],
       [  0,   3,   0,   0,   0,   0,   0,   0,   0,  62, 145, 204, 228,
        207, 213, 221, 218, 208, 211, 218, 224, 223, 219, 215, 224, 244,
        159,   0],
       [  0,   0,   0,   0,  18,  44,  82, 107, 189, 228, 220, 222, 217,
        226, 200, 205, 211, 230, 224, 234, 176, 188, 250, 248, 233, 238,
        215,   0],
       [  0,  57, 187, 208, 224, 221, 224, 208, 204, 214, 208, 209, 200,
        159, 245, 193, 206, 223, 255, 255, 221, 234, 221, 211, 220, 232,
        246,   0],
       [  3, 202, 228, 224, 221, 211, 211, 214, 205, 205, 205, 220, 240,
         80, 150, 255, 229, 221, 188, 154, 191, 210, 204, 209, 222, 228,
        225,   0],
       [ 98, 233, 198, 210, 222, 229, 229, 234, 249, 220, 194, 215, 217,
        241,  65,  73, 106, 117, 168, 219, 221, 215, 217, 223, 223, 224,
        229,  29],
       [ 75, 204, 212, 204, 193, 205, 211, 225, 216, 185, 197, 206, 198,
        213, 240, 195, 227, 245, 239, 223, 218, 212, 209, 222, 220, 221,
        230,  67],
       [ 48, 203, 183, 194, 213, 197, 185, 190, 194, 192, 202, 214, 219,
        221, 220, 236, 225, 216, 199, 206, 186, 181, 177, 172, 181, 205,
        206, 115],
       [  0, 122, 219, 193, 179, 171, 183, 196, 204, 210, 213, 207, 211,
        210, 200, 196, 194, 191, 195, 191, 198, 192, 176, 156, 167, 177,
        210,  92],
       [  0,   0,  74, 189, 212, 191, 175, 172, 175, 181, 185, 188, 189,
        188, 193, 198, 204, 209, 210, 210, 211, 188, 188, 194, 192, 216,
        170,   0],
       [  2,   0,   0,   0,  66, 200, 222, 237, 239, 242, 246, 243, 244,
        221, 220, 193, 191, 179, 182, 182, 181, 176, 166, 168,  99,  58,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,  40,  61,  44,  72,  41,  35,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0],
       [  0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,   0,
          0,   0]], dtype=uint8)
  • x_train に60000個の画像データがあることを確認します。
x_train.shape

実行結果

(60000, 28, 28)
  • 試しに画像を10個表示します。
for i in range(10):
    plt.subplot(2,5,i+1)
    plt.title("Label :"+ str(y_train[i]))
    plt.imshow(x_train[i].reshape(28,28))

実行結果
02.png

データの加工

  • 0~255の数を訓練向けに0~1の値に変換するために、各要素を255で割ります。
x_train, x_test = x_train/255.0, x_test/255.0

ニューラルネットワークの層を定義

model = keras.models.Sequential([
    keras.layers.Flatten(),
    keras.layers.Dense(512,activation = "relu"),
    keras.layers.Dropout(0.2),
    keras.layers.Dense(10,activation = "softmax")    
])

ニューラルネットワークの訓練課程の設定

model.compile(optimizer="adam",loss="sparse_categorical_crossentropy",metrics=["accracy"])

モデルの作成

  • train データを使用して、モデルの作成を行います。
model.fit(x_train,y_train,epochs = 10)

実行経過

Epoch 1/10
60000/60000 [==============================] - 11s 185us/sample - loss: 0.4997 - acc: 0.8197
Epoch 2/10
60000/60000 [==============================] - 11s 180us/sample - loss: 0.3826 - acc: 0.8606
Epoch 3/10
60000/60000 [==============================] - 11s 183us/sample - loss: 0.3524 - acc: 0.8716
Epoch 4/10
60000/60000 [==============================] - 11s 184us/sample - loss: 0.3277 - acc: 0.8788
Epoch 5/10
60000/60000 [==============================] - 11s 184us/sample - loss: 0.3137 - acc: 0.8837
Epoch 6/10
60000/60000 [==============================] - 11s 180us/sample - loss: 0.3007 - acc: 0.8876
Epoch 7/10
60000/60000 [==============================] - 11s 187us/sample - loss: 0.2906 - acc: 0.8914
Epoch 8/10
60000/60000 [==============================] - 11s 186us/sample - loss: 0.2787 - acc: 0.8963
Epoch 9/10
60000/60000 [==============================] - 11s 183us/sample - loss: 0.2689 - acc: 0.8988
Epoch 10/10
60000/60000 [==============================] - 11s 186us/sample - loss: 0.2635 - acc: 0.9008

精度の確認

  • test データを使用して、モデルの精度を確認します。
model.evaluate(x_test,y_test)

実行結果

10000/10000 [==============================] - 1s 54us/sample - loss: 0.3342 - acc: 0.8829

[0.33415236022472383, 0.8829]
  • MNIST では98.1%という精度でしたが、fashion MNIST では88.3%に留まりました。
  • 精度を上げるために、CNN(畳み込みニューラルネットワーク) という手法を試してみます。

CNN(畳み込みニューラルネットワーク)

新しくノートブックを作成して、コードを書きます。
その1の手順と同じように new から conda_tensorflow_p36 を選択して、名前を付けましょう。
私はfusion_MNIST_CNNと名前を付けました。

モジュールのインポートと設定

import tensorflow
from tensorflow import keras
import matplotlib.pyplot as plt
%matplotlib inline

データのダウンロード

(x_train,y_train),(x_test,y_test) = keras.datasets.fashion_mnist.load_data()

データの変換

  • 変換のためにデータのカラーチャネルの位置を取得します。
keras.backend.image_data_format()

実行結果

'channels_last'
  • カラーチャネルの情報は最後にあることがわかったので、それに合わせてデータを変換します。
x_train = x_train.reshape(x_train.shape[0],28,28,1)
x_test= x_test.reshape(x_test.shape[0],28,28,1)
  • データを0~255の値から、学習用に0~1の値に変換する。
x_train, x_test = x_train/255.0, x_test/255.0

CNN の層を定義

  • 33のフィルタを32種使用して、28281の入力データを2626*32にします。活性化関数には relu を使用します。
  • 33のフィルタを64種使用して、262632の入力データを2424*64にします。活性化関数には relu を使用します。
  • 242464の入力データを121264にします。
  • 入力を25%Dropout(無視)します。
  • 2次元の入力データを1次元にします。
  • 128個のノードに全結合します。活性化関数には relu を使用します。
  • 入力を50%Dropout(無視)します。
  • 10個のノードに全結合します。活性化関数には softmax を使用します。
model = keras.models.Sequential([
  keras.layers.Conv2D(32,kernel_size = (3,3),
                        activation = "relu",
                        input_shape = (28,28,1)),
  keras.layers.Conv2D(64,(3,3),activation = "relu"),
  keras.layers.MaxPooling2D(pool_size=(2,2)),
  keras.layers.Dropout(0.25),
  keras.layers.Flatten(),
  keras.layers.Dense(128,activation="relu"),
  keras.layers.Dropout(0.5),
  keras.layers.Dense(10,activation = "softmax")
])

CNN の訓練課程の設定

  • 最適化手法は Adam を使用。
  • 損失関数は sparse_categorical_crossentropy を使用。
  • metrics に accuracy を設定することで、評価を記録するようにします。
model.compile(optimizer="adam",loss="sparse_categorical_crossentropy",metrics=["accracy"])

モデルの作成

  • train データを使用して、モデルの作成を行います。
  • epoch は訓練データを繰り返し学習する回数を指定します。
  • バッチサイズは未設定で32となります。
model.fit(x_train,y_train,epochs = 10)

備考

  • メモリが32GB以上のインスタンスサイズに変更しないと処理が完了しません。
  • インスタンスタイプを今まで使用していたml.t2.mediumからml.t2.2xlargeにアップデートすることで処理を完了できます。
  • またml.t2.2xlargeからGPUインスタンスのml.p2.xlargeを使用することで処理速度が向上します。
  • ml.t2.meidum を利用した場合は以下のエラーが表示されます。
  • 03.png

モデル作成の実行結果

Epoch 1/10
60000/60000 [==============================] - 37s 617us/sample - loss: 0.4796 - acc: 0.8298
Epoch 2/10
60000/60000 [==============================] - 14s 235us/sample - loss: 0.3222 - acc: 0.8842
Epoch 3/10
60000/60000 [==============================] - 14s 233us/sample - loss: 0.2750 - acc: 0.9001
Epoch 4/10
60000/60000 [==============================] - 14s 234us/sample - loss: 0.2448 - acc: 0.9106
Epoch 5/10
60000/60000 [==============================] - 14s 234us/sample - loss: 0.2215 - acc: 0.9178
Epoch 6/10
60000/60000 [==============================] - 14s 234us/sample - loss: 0.2005 - acc: 0.9261
Epoch 7/10
60000/60000 [==============================] - 14s 234us/sample - loss: 0.1887 - acc: 0.9304
Epoch 8/10
60000/60000 [==============================] - 14s 233us/sample - loss: 0.1763 - acc: 0.9346
Epoch 9/10
60000/60000 [==============================] - 14s 234us/sample - loss: 0.1620 - acc: 0.9388
Epoch 10/10
60000/60000 [==============================] - 14s 235us/sample - loss: 0.1549 - acc: 0.9424

精度の確認

  • test データを使用して、モデルの精度を確認します。
model.evaluate(x_test,y_test)

実行結果

  • 今回、精度は92.5%ほどでした。
  • 先ほどの3層ニューラルネットワークでは、精度が88.3%ほどだったので、うまく精度を上げることができました。
10000/10000 [==============================] - 1s 101us/sample - loss: 0.2280 - acc: 0.9258

[0.22800267367660998, 0.9258]

おわりに

今回は、kerasを使って、fashion MNIST データを2つの手法で解析しました。

この記事はここまでとさせていただきます。
今後も、引き続き学習ログなど上げていきますので、よろしくお願いいたします。

3
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?