19
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

KerasでFashion-MNISTを分類してみた #IBMCloud 編

Posted at

※この記事は、IBM Cloud Advent Calendar 2017 の22日目の記事です。

#機械学習/Deep Learningインフラの選択肢
最近は、機械学習/Deep Learningのインフラとしてオンプレからクラウドまで様々な製品・サービスが提供されています。例えば、IBMの場合は以下のような選択肢があります。

image.png

各製品・サービスの特徴をまとめると以下の表となりますが、ざっくり言うと、とにかくパフォーマンス重視でサーバー・ルームやデータセンターを持っていればオンプレミスのPOWER。固定資産は持ちたくないけれど最新のGPUが利用したい場合はベアメタルGPUが利用可能なIBM Cloud IaaS (旧SoftLayer)。手軽さ重視でパフォーマンスはそこそこでOKであれば、IBM Cloud PaaS(旧Bluemix)で提供されるData Science Experienceがおすすめです。また、インフラではありませんが、機械学習/Deep Learningを内部的に使った画像認識、音声認識、自然言語認識ソリューションをSaaSのように利用したい場合は、Watson Developer Cloudといった感じでしょうか。

提供形態 サービス名 特徴 URL
オンプレミス PowerAI ハードウェアは、IBM Power System S822LC for HPC(Minsky) IBM Power Systems AC922(IBM POWER9) 。POWERプロセッサおよびGPUに最適化されたコンパイル済みの主要なDeep Learningフレームワーク (Caffe、TensorFlow、Chainer)をパッケージ化して提供。 https://www.ibm.com/jp-ja/marketplace/deep-learning-platform
IaaS IBM Cloud Infrastructure(旧SoftLayer) 国内含む世界39データセンターで利用可能。NVIDIA Tesla P100、NVIDIA Tesla K80といった主要なGPUを月額・時間課金のベアメタル・サーバーに搭載して提供。2018年には、最大Tesla P100ベースの仮想GPUサービスを提供予定(最大32vGPU)。 https://www.ibm.com/cloud-computing/bluemix/ja/gpu-computing
PaaS Data Science Experience Jupyter Notebook上のScala/Python、R Studio上のR、Spark Cluster、Brunel(Visualization)/Apache Toree (SparkとJupyterの統合)といったデータ・サイエンス系分析の開発・実行環境をPaaS (SaaS)として提供。CPU駆動のみでGPUは利用できない。 https://datascience.ibm.com/
SaaS Watson Developer Cloud コグニティブ・アプリケーションを開発するために、機械学習/Deep Learningを活用して画像認識、自然言語認識、音声認識系のサービスをAPIとして提供。学習モデルはブラックボックス化されている。 https://www.ibm.com/jp-ja/marketplace/cognitive-application-development

本記事では、クレジットカードなしで無料利用できるIBM Cloud PaaSのライトアカウントを使って、Data Science Experience (DSX)によるDeep Learningの手順をご紹介します。いま自分のPCで機械学習/Deep Learningをやられている方はぜひこの機会にDSXをお試しください。

#Data Science Experience (DSX)概要
DSXは、複数ユーザが共同でデータ分析を行うための統合分析プラットフォームです。ブラウザさえあれば、いつでもどこでも分析を進めることができます。機械学習ライブラリを標準サポートしており、分析ツールとしてJupyter Notebookを利用できます。Python/Scalaを利用して、オープンソース・ツールを利用したデータ分析が可能となります。また、Spark環境への接続が可能なため、PySparkなどを利用してサーバリソースを有効活用することができます。DSXで開発したコードはGitHubを利用して管理することができる上、共同作業環境としても大変利便性が高い作りになっております。DSXについてさらに詳しく知りたい方はこちらの記事を参考にしてください。

Jupyter Notebookがクラウドで利用できる環境は各社各様ですが、DSXの特長は以下のとおりです。

  • IBM Watson Data Platformの中核サービスの1つ
  • IBM Cloud ライトアカウントが利用可能
  • SPSSのスコアリング機能も提供
  • プロジェクト単位でのノートブックの管理
  • Python2.7/Python3.5/R/Scalaが使用可能
  • Apache Sparkのバージョンも指定可能
  • リンク共有やGitHub/Gistでの共有可能
  • numpy/pandas/matplotlib/scikit-learn/tensorflowインストール済み

参考:Google・Microsoft・AWS・IBMが提供するJupyter Notebook サービスのまとめ

#DSXを使った画像認識の流れ

ライトアカウントを作成後、カタログからData Science Experienceを選択して作成ボタンをクリックすればすぐに利用できます。

image.png

DSXの場合、ライトアカウントで利用できる範囲は以下のとおりです。2つのSpark実行環境、5GBまでのオブジェクト・ストレージまで無料です。30日間放置すると削除されますので、1ヶ月に1回は動かすようにしてください。

image.png

起動後の画面イメージは以下のような感じです。

image.png

[New project]より新規プロジェクトを作成します。適当にプロジェクト名をつけてください。[Choose project options]より[Restrict who can be a collaborator]を選択すれば、コラボレーターを制限することができます。データを保存するストレージとしては、旧SoftLayerのObject Storage (Swift API)と、S3ベースのIBM Cloud Object Storageが選択可能です。Select Spark ServiceよりSpark実行環境を作成することができます。

image.png

[Create]をクリックすれば、Jupyoter Notebookの作成が可能です。

image.png

#Keras (TensorFlow)による画像分類

##Kerasとは
Kerasは、Pythonで書かれたオープンソースニューラルネットワークライブラリです。MXNet(英語版)、Deeplearning4j、TensorFlow、CNTK、Theano(英語版)の上部で動作することができます。ディープニューラルネットワークを用いた迅速な実験を可能にするよう設計され、最小限、モジュール式、拡張可能であることに重点が置かれています。プロジェクトONEIROS (Open-ended Neuro-Electronic Intelligent Robot Operating System) の研究の一部として開発されました。中心的な開発者、メンテナはGoogleのエンジニアのFrançois Cholletです。最近、Kerasの作成者本人であるFrançois Cholletが、Deep Learning with Pythonという本を出しています。PythonとKerasライブラリを使用したDeep Learningについて分かりやすく解説しているので、興味のある方は御覧ください。O'ReillyのSafari Books Onlineでも配信されています。
![代替テキスト](image.png
画像のURL "画像タイトル")

Keras

##データセット
ここでは、データセットとして、Fashion-MNISTを用います。画像ソースは、Zalandoというファッション記事のデータベースから取得されています。60,000枚の28x28、10個のファッションカテゴリの白黒画像と10,000枚のテスト用画像データセットからなります。このデータセットは、MNISTの完全な互換品として使えます。Fashion-MNISTはgithub上に公開されており、日本語解説はこちらにあります。

image.png

クラスラベルは次の通りです。

ラベル 説明
0 Tシャツ/トップス
1 ズボン
2 プルオーバー
3 ドレス
4 コート
5 サンダル
6 シャツ
7 スニーカー
8 バッグ
9 アンクルブーツ

使い方

from keras.datasets import fashion_mnist
(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()

戻り値:

  • 2つのタプル:
    • x_train, x_test: shape (num_samples, 28, 28) の白黒画像データのuint8配列
    • y_train, y_test: shape (num_samples,) のラベル(0-9のinteger)のuint8配列

#Jupyter Notebookでプログラミング
早速、DSXのJupyter Notebookを起動しプログラミングしていきます。Jupyter Notebookをこちらに公開していますので、本記事では重要な箇所のみ解説します。

##DSX環境確認


#OSディストリビューションの確認
!cat /etc/redhat-release 

#CPUスペックの確認
!lscpu

#メモリサイズの確認
!free -g

#ライブラリ・バージョンの確認
!python --version
import keras; print('Keras ' + keras.__version__)
import tensorflow as tf; print('TensorFlow ' + tf.__version__)

DSXでは、CPUとしては、Intel(R) Xeon(R) CPU E5-2690 v3 @ 2.60GHz(48コア)が使われていました。OSは、CentOS Linux release 7.4、そしてPython 3.5.2、Keras 2.1.2、TensorFlow 1.2.1でした。

##ライブラリのインポート

from __future__ import print_function
import numpy as np

#Kerasが提供するSequentialモデルをインポート
from keras.models import Sequential

from keras.layers.core import Dense, Dropout, Activation
from keras.optimizers import SGD, Adam, RMSprop
from keras.utils import np_utils

##データセットのインポート

from keras.datasets import fashion_mnist

##データのロード

#学習データとテストデータをKerasが用意しているFashion-MNISTデータ・セットから読み込む
(X_train, y_train), (X_test, y_test) = fashion_mnist.load_data()

##データセットの一部を視覚化する



#matplotlibのグラフをJupyter Notebookのインラインで表示 
%matplotlib inline

#NumPyのためのグラフ描画ライブラリmatplotlibをインポートする
import matplotlib.pyplot as plt

# 400枚の画像を20×20の行列としてプロットする
n_cols = 20
n_rows = 20

#サブプロットで複数の画像を16ピクセル×16ピクセルとして表示させる。
fig, axs = plt.subplots(n_rows, n_cols, figsize=(16,16))

for ax, pixels in zip(axs.flat, X_train):
    ax.imshow(pixels, cmap="gray")
    ax.set_xticks([])
    ax.set_yticks([])
    
plt.show()

image.png

##データのリシェープ

#学習データを784列の2次元配列としてリシェープする
X_train = X_train.reshape(60000, 784)  # Training set
X_test = X_test.reshape(10000, 784)    # Same for the test set

##データの正規化

#各画像は、グレースケールとしてエンコーディング(255: 白、0: 黒)に対応する8ビットの符号なし整数を使って符号化されているため、データを正規化し、値を[0,1]間隔にリスケールし、浮動小数点数に変換する。
X_train = X_train.astype('float32')
X_test = X_test.astype('float32')
X_train = X_train / 255
X_test = X_test / 255

##ラベルをOne-Hotでエンコード

#One-Hotエンコーディングを適用する
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)

##ニューラルネットの学習

# np.random.seedの引数を指定して毎回同じ乱数を生成させる(再現性のため)
np.random.seed(1234)

#batch_size - ANNトレーニングで使用されたミニバッチのサイズ
batch_size = 128

#nr_classes - ターゲットクラスの数。可能な10桁の数字(0〜9)
nr_classes = 101

#nr_iterations - ANNトレーニングの期間(エポック)
nr_iterations = 1000

#Kerasが用意するSequentialモデルを使用する
model = Sequential()

#入力層に784個のニューロン(28×28ピクセル)を追加する
model.add(Dense(200, input_shape=(784,)))

#入力層の活性化関数を設定し、そのニューロンを整流された線形単位に変換する
model.add(Activation('relu'))

#過学習を防ぐため学習時間中に各更新時にランダムに入力単位の割合を0に設定するドロップアウトレイヤーを追加する
model.add(Dropout(0.5))

#10個のニューロン(10個の可能なクラス)で構成される出力層を追加し、値はsoftmax関数に渡す。
model.add(Dense(10))
model.add(Activation('softmax'))

# モデルの概要を表示させる
model.summary()

Layer (type)                 Output Shape              Param #   
=================================================================
dense_1 (Dense)              (None, 200)               157000    
_________________________________________________________________
activation_1 (Activation)    (None, 200)               0         
_________________________________________________________________
dropout_1 (Dropout)          (None, 200)               0         
_________________________________________________________________
dense_2 (Dense)              (None, 10)                2010      
_________________________________________________________________
activation_2 (Activation)    (None, 10)                0         
=================================================================
Total params: 159,010
Trainable params: 159,010
Non-trainable params: 0
_________________________________________________________________

Sequentialモデルを使用して下図のような順伝播型ニューラルネットワークを定義しています。

image.png
#コンパイルしてニューラルネットワークを学習する
model.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy'])
#経過を表示させながら学習を実行させる
history = model.fit(X_train, Y_train,
                    batch_size = batch_size, epochs = nr_iterations,
                    verbose = 1, validation_data = (X_test, Y_test))

score = model.evaluate(X_test, Y_test, verbose = 0)

Train on 60000 samples, validate on 10000 samples
Epoch 1/1000
60000/60000 [==============================] - 2s 40us/step - loss: 0.6379 - acc: 0.7763 - val_loss: 0.4682 - val_acc: 0.8319
Epoch 2/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.4590 - acc: 0.8368 - val_loss: 0.4136 - val_acc: 0.8511
Epoch 3/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.4205 - acc: 0.8490 - val_loss: 0.3964 - val_acc: 0.8589
Epoch 4/1000
60000/60000 [==============================] - 2s 35us/step - loss: 0.3983 - acc: 0.8558 - val_loss: 0.3867 - val_acc: 0.8622
Epoch 5/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.3834 - acc: 0.8611 - val_loss: 0.3693 - val_acc: 0.8680
省略
Epoch 996/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.0849 - acc: 0.9651 - val_loss: 0.6909 - val_acc: 0.8909
Epoch 997/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.0864 - acc: 0.9642 - val_loss: 0.6994 - val_acc: 0.8926
Epoch 998/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.0847 - acc: 0.9650 - val_loss: 0.7164 - val_acc: 0.8919
Epoch 999/1000
60000/60000 [==============================] - 2s 37us/step - loss: 0.0882 - acc: 0.9638 - val_loss: 0.6794 - val_acc: 0.8911
Epoch 1000/1000
60000/60000 [==============================] - 2s 36us/step - loss: 0.0842 - acc: 0.9643 - val_loss: 0.7088 - val_acc: 0.8954

##損失関数のグラフ化

#結果を表示させる
print('Test loss:', score[0])
print('Test accuracy:', score[1])
image.png

#まとめ
今回はIBM Cloud PaaSのDSX上で、Kerasが提供するSequentialモデルを用いて、Fashion-MNISTを分類してみました。結果として、5 epochsで損失は0.3834、精度は86.11%を超えました。35 epochsで損失0.2607、精度は90.26%と90%を超えました。365 epochsで損失0.1230となり、精度は95.08 %となりました。上図は1,000 epochs までの訓練損失のグラフです。1,000 epochsで損失0.0842、精度 96.43%という結果なのでまず良好な結果と言えます。1,000 epochsとなるとDSXでも数十分は学習時間にかかるためGPUが欲しくなるところですが、自分のPCで実行するよりかなり高速でした。ぜひ一度お試しください。

IBMが提供するCognitiveClass.aiでは、12月31日が〆切となりますが、6ヶ月間でIBM Cloudを$1,200使い放題のプロモーションもやっているようなので、この機会にぜひ登録ください!

image.png
19
12
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
19
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?