LoginSignup
5
5

More than 3 years have passed since last update.

脱NVIDIAを夢見て ~ PlaidML ~

Last updated at Posted at 2019-12-22

脱NVIDIAを夢見て ~ PlaidML ~

※ 追記あり

PlaidMLとは?

GitHubのページによると、

PlaidML is an advanced and portable tensor compiler for enabling deep learning on laptops, embedded devices, or other devices where the available computing hardware is not well supported or the available software stack contains unpalatable license restrictions.

と書かれていますが、短く言うと「いろいろな環境でGPUを使ってディープラーニングできるようにするためのコンパイラ」です。本記事ではPlaidMLを使ってディープラーニングをしてみました。

実験をした動機

機械学習で必ずと言っていいほど必要なデバイスといえば、GPUです。データが少ない場合やモデルが単純な場合などでは、CPUでも処理することが現実的に可能ですが、データの量が多くなると、CPUだけではモデルを訓練するのに時間がかかりすぎるため、GPUを使用します。

機械学習に用いるGPUはNVIDIAのものが主流です。理由としては、GPU上で計算する環境: CUDAが使えるのはNVIDIAのGPUだけだからです。機械学習で遊ぶ環境としてGoogleのColabがあり、GPUを使用することができますが、Jupyter notebookからしか使えないので、取り回しが悪いです。

手元のマシンで機械学習で遊べたらいいなと思い、調べてみたところPlaidMLというフレームワークを見つけました。PlaidMLは、NVIDIAではないGPUがある環境でもKerasなどの機械学習の訓練・予測をGPU上で動かすことができるというフレームワークです。

このフレームワークを使うにあたり、気になっている点は3つありましたのでそれぞれ調べてみました。

  1. まともに動作するのか?
  2. 学習は早く終わるか?
  3. 推論は早く終わるか?

実験環境

  • OS: macOS Catalina
  • Hardware: MacBook Pro(13-inch, Late2016)
  • CPU: Intel Core i5 2.9GHz
  • RAM: 16GB
  • GPU: Intel Iris Graphics 550 1536MB

実験に使用したコード

結果

さきに結論を書きます。
PlaidMLはまともに動きませんでした。さらに、CPUと比べて遅いという結果になりました。
気になっていた点のまとめは下記です。

  1. まともに動作するのか?
    • → 学習が正常に進まない(batch_sizeが1024など、$2^n$のとき)
    • ※追記 batch_sizeが1025の時学習は正常に進みました。
  2. 学習は早く終わるか?
    • → CPUの方が早い
      • CPU: 110sec程度(1エポックあたり)
      • GPU: 250sec程度(1エポックあたり)500sec程度(1エポックあたり)
  3. 推論は早く終わるか?
    • → CPUの方が早い
      • CPU: 7.7sec程度
      • GPU: 8.4sec程度

機械学習環境としては、しょぼい環境なので、推論くらいは早く終わったらいいなと思っていました。

私のコードが間違っている可能性もありますので原因が分かり次第追記します。

実験の詳細

学習が正常に進まない

実験に使用したのはCifar10のデータであり、モデルは下記のものでした。

Kerasのサンプルコードを改変したものです。
ソースコードは下記です。(Functional API使ってます。かっこつけですw)

def generate_model():
    inputs = Input(shape=(32, 32, 3))
    x = Conv2D(32, (3, 3), padding="same", activation="relu")(inputs)
    x = Conv2D(32, (3, 3), padding="same", activation="relu")(x)
    x = MaxPooling2D(pool_size=(2, 2))(x)
    x = Dropout(0.25)(x)
    x = Conv2D(64, kernel_size=(3, 3), padding="same", activation="relu")(x)
    x = Conv2D(64, kernel_size=(3, 3), padding="same", activation="relu")(x)
    x = MaxPooling2D(pool_size=(2, 2))(x)
    x = Dropout(0.25)(x)
    x = Flatten()(x)
    x = Dense(512, activation="relu")(x)
    x = Dropout(0.5)(x)
    predictions = Dense(10, activation="softmax")(x)
    model = Model(inputs=inputs, outputs=predictions)
    model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=["accuracy"])
    return model

モデルの表示

_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_1 (InputLayer)         (None, 32, 32, 3)         0         
_________________________________________________________________
conv2d_1 (Conv2D)            (None, 32, 32, 32)        896       
_________________________________________________________________
conv2d_2 (Conv2D)            (None, 32, 32, 32)        9248      
_________________________________________________________________
max_pooling2d_1 (MaxPooling2 (None, 16, 16, 32)        0         
_________________________________________________________________
dropout_1 (Dropout)          (None, 16, 16, 32)        0         
_________________________________________________________________
conv2d_3 (Conv2D)            (None, 16, 16, 64)        18496     
_________________________________________________________________
conv2d_4 (Conv2D)            (None, 16, 16, 64)        36928     
_________________________________________________________________
max_pooling2d_2 (MaxPooling2 (None, 8, 8, 64)          0         
_________________________________________________________________
dropout_2 (Dropout)          (None, 8, 8, 64)          0         
_________________________________________________________________
flatten_1 (Flatten)          (None, 4096)              0         
_________________________________________________________________
dense_1 (Dense)              (None, 512)               2097664   
_________________________________________________________________
dropout_3 (Dropout)          (None, 512)               0         
_________________________________________________________________
dense_2 (Dense)              (None, 10)                5130      
=================================================================
Total params: 2,168,362
Trainable params: 2,168,362
Non-trainable params: 0

学習の進捗(Tensorflow(CPU))

CPUで訓練を行ったものは、下記のとおりになりました。
accuracyがまだ高くなりそうであり、未学習であると言えるが、学習は正しく進んでいるようです。

Train on 45000 samples, validate on 5000 samples
Epoch 1/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.9332 - accuracy: 0.2931 - val_loss: 1.6271 - val_accuracy: 0.4202
Epoch 2/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.5688 - accuracy: 0.4300 - val_loss: 1.3978 - val_accuracy: 0.4976
Epoch 3/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.3954 - accuracy: 0.4969 - val_loss: 1.2657 - val_accuracy: 0.5520
Epoch 4/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.3010 - accuracy: 0.5349 - val_loss: 1.1652 - val_accuracy: 0.5912
Epoch 5/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.2169 - accuracy: 0.5626 - val_loss: 1.1315 - val_accuracy: 0.6046
Epoch 6/10
45000/45000 [====================] - 114s 3ms/sample - loss: 1.1471 - accuracy: 0.5925 - val_loss: 1.0516 - val_accuracy: 0.6394
Epoch 7/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.0798 - accuracy: 0.6155 - val_loss: 0.9873 - val_accuracy: 0.6566
Epoch 8/10
45000/45000 [====================] - 107s 2ms/sample - loss: 1.0291 - accuracy: 0.6348 - val_loss: 0.9542 - val_accuracy: 0.6672
Epoch 9/10
45000/45000 [====================] - 107s 2ms/sample - loss: 0.9881 - accuracy: 0.6524 - val_loss: 0.8987 - val_accuracy: 0.6926
Epoch 10/10
45000/45000 [====================] - 107s 2ms/sample - loss: 0.9430 - accuracy: 0.6693 - val_loss: 0.8599 - val_accuracy: 0.7030

学習の進捗(PlaidML)

PlaidMLでも同じモデルで実験しました。

下記のように学習が全く進まず、0.1程度(学習せず、ランダムに予測した場合と同等)となりました。

Lossの値が返ってこないのも不思議です。

また、1エポックあたり、2.5倍の時間がかかっているのは不思議です。

GPUとCPUの間で通信が発生しすぎたとしても時間がかかりすぎに思えます。

※下記の結果はbatch_sizeが1024の時のものです

Epoch 1/10

45000/45000 [==============================] - 259s 6ms/step - loss: nan - acc: 0.0996 - val_loss: nan - val_acc: 0.0986
Epoch 2/10

45000/45000 [==============================] - 259s 6ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 3/10

45000/45000 [==============================] - 244s 5ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 4/10

45000/45000 [==============================] - 250s 6ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 5/10

45000/45000 [==============================] - 250s 6ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 6/10

45000/45000 [==============================] - 250s 6ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 7/10

45000/45000 [==============================] - 248s 6ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 8/10

45000/45000 [==============================] - 243s 5ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 9/10

45000/45000 [==============================] - 245s 5ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986
Epoch 10/10

45000/45000 [==============================] - 245s 5ms/step - loss: nan - acc: 0.1002 - val_loss: nan - val_acc: 0.0986

学習だけではなく、推論も遅い

そもそも、推論結果がよくないのに推論速度を試すのはナンセンスかもしれませんが、一応比べます。
5回推論をし、その平均を計算しました。

CPU

Evaluate: elasped time is 7.676613092422485
predict_elapsed time:  [7.69336987 7.54927683 7.86849618 7.75214696 7.67661309]
average:  7.707980585098267
std:  0.10401942095874825

GPU

Evaluate: elasped time is 8.435039043426514
predict_elapsed time:  [8.66443014 8.38799095 8.35081911 8.405128   8.43503904]
average:  8.448681449890136
std:  0.11125726040192159

うまく動かない原因の心当たり

PlaidMLとTensorflow用の違いはインポートする関数とKerasのバックエンドを指定する環境変数だけです。

cnn.pyはPlaidML用のスクリプト、cnn-tensorflow.pyはTensorflow(CPU版)のスクリプトです。

% diff cnn.py cnn-tensorflow.py 
9,11c9,11
< from keras.datasets import cifar10
< from keras.layers import Input, Dense, Conv2D, Flatten, MaxPooling2D, Dropout
< from keras.models import Model, Sequential
---
> from tensorflow.keras.datasets import cifar10
> from tensorflow.keras.layers import Input, Dense, Conv2D, Flatten, MaxPooling2D, Dropout
> from tensorflow.keras.models import Model, Sequential

Tensorflow(CPU)版のコードの中でkerasからレイヤーを呼ばないのは、エラーを避けるためです。
Tensorflowが2.x系になったことがPlaidMLが正しく動かない原因として考えられそうです。


PlaidML側に原因があるようです。詳しくは追記参照

感想

久しぶりの機械学習だったので動かすまで少し苦労しました。
Tensorflowがいつの間にか2.x系になり、驚きました。
PlaidMLはまだ、バージョン0.6.4(201912現在)なのでもう少し様子をみた方が良いかもしれません。

追記

似たような事象のissueを見つけました
https://github.com/plaidml/plaidml/issues/168
PlaidML(PlaidML-keras?)のバグかもしれません...!

上記のissueに書かれたコメントによると、MNISTでは、batch_sizeが129または257の場合にはLossがNanにならず、128や256の場合にはLossがNanになるとのことです。

???

ひょっとして、batch_sizeが$2^n+1$の時には正しく動く?
ということで試してみました。

batch_sizeが1025の時には正しく動く?!

poch 1/10

45000/45000 [==============================] - 561s 12ms/step - loss: 1.9836 - acc: 0.2775 - val_loss: nan - val_acc: 0.3512
Epoch 2/10

45000/45000 [==============================] - 608s 14ms/step - loss: 1.5982 - acc: 0.4194 - val_loss: nan - val_acc: 0.4110
Epoch 3/10

45000/45000 [==============================] - 482s 11ms/step - loss: 1.4369 - acc: 0.4801 - val_loss: nan - val_acc: 0.4804
Epoch 4/10

45000/45000 [==============================] - 492s 11ms/step - loss: 1.3119 - acc: 0.5269 - val_loss: nan - val_acc: 0.5228
Epoch 5/10

45000/45000 [==============================] - 503s 11ms/step - loss: 1.2038 - acc: 0.5708 - val_loss: nan - val_acc: 0.5452
Epoch 6/10

45000/45000 [==============================] - 511s 11ms/step - loss: 1.1130 - acc: 0.6041 - val_loss: nan - val_acc: 0.5808
Epoch 7/10

45000/45000 [==============================] - 501s 11ms/step - loss: 1.0458 - acc: 0.6303 - val_loss: nan - val_acc: 0.6080
Epoch 8/10

45000/45000 [==============================] - 498s 11ms/step - loss: 1.0044 - acc: 0.6469 - val_loss: nan - val_acc: 0.6144
Epoch 9/10

45000/45000 [==============================] - 513s 11ms/step - loss: 0.9439 - acc: 0.6682 - val_loss: nan - val_acc: 0.6348
Epoch 10/10

45000/45000 [==============================] - 492s 11ms/step - loss: 0.8958 - acc: 0.6893 - val_loss: nan - val_acc: 0.6410
Training: elasped time is 5161.0006711483

10000/10000 [==============================] - 9s 864us/step
score:  [-0.45371783492565154, 0.3232]
Evaluate: elasped time is 8.63597321510315

やはり、CPUよりは遅いですが、lossがnanにならず、accuracy(acc)が徐々に良くなってきていることから、学習が進んでいるようです。

なんででしょう?

5
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
5