概要
今回はABEJA Platformで新しくなったローカル学習 (train-local) を紹介します。
ABEJA Platformのローカル学習のメリットって?
ABEJA Platformは、機械学習における作業パイプラインをサポートしているサービスです。例えば、開発をABEJA Platform のJupyter Notebook・学習・デプロイをABEJA Platform上で行うことも可能です。今回は、すでに機械学習環境(GPUマシンなど)を保有しているユーザが、既存のオンプレミス環境を活用し、効率よくパイプラインを実施するための利用方法を紹介します。
- メリット
- 既存のリソース(GPUマシンなど)を有効活用できる
- ローカル環境での学習だと、トライアンドエラーが効率よく実施できる
- 学習履歴やログ・モデルなどの管理・API提供などはABEJA Platformで実施可能
公式ドキュメント
新しいローカル学習でできるようになったこと
- チームでの学習状況の確認や、モデルのやり取りがしやすくなりました
- ローカルでの学習の進捗がコンソールで確認可能に
- ローカル学習のログがコンソールで確認可能に
- 学習結果が ABEJA Platform 上に保存されるため、簡単にmodel 提供も可能に
実施すること
サンプルコード (KerasでVGG16を利用した画像分類判別) を利用し、モデル作成をローカルで実施していきましょう。
早速やってみる
前準備
ローカル学習(train-local)では、ABEJA Platform CLIを利用します。
ABEJA Platform CLIの導入については、こちらをご参考ください。
※注意
- ABEJA Platform CLIはPython3.5以降が対応しています。
- Windowsには一部対応しているのですが、動作保証対象外となっていますので、ご注意ください。
- ローカル学習にはDockerが必要になりますので、事前にDockerを起動しておきます。
ローカル学習(train-local)の実施
training.yamlの作成
ABEJA Platformのローカル学習では、まずは学習をするための設定ファイル「traning.yaml」を用意します。
以下のコマンドで「trainig.yaml」を作成します。
$ abeja training init trainig-local-demo #学習ジョブ名を入力
コマンドを実行後、ディレクトリ上に training.yaml が作成されます。training.yamlの記載方法はこちらを参考に設定します。
name: train-local-demo # 学習ジョブ名
handler: train:handler # 学習コードのHandler指定
image: abeja-inc/all-cpu:18.10 # 学習イメージ指定
params: # 環境変数
NUM_EPOCHS: '5'
学習ジョブ定義バージョンの作成
学習ジョブのバージョンを以下のコマンドで指定します。 ( training.yaml
が必須です)
$ abeja training create-version
実行後、以下のような出力が出れば、バージョンの作成が完了です。
{
"archived": null,
"created_at": "2019-07-19T14:49:40.609351Z",
"datasets": {},
"description": null,
"handler": "train:handler",
"image": "abeja-inc/all-cpu:18.10",
"job_definition_id": "1234567890123",
"job_definition_version": 1,
"modified_at": "2019-07-19T14:49:40.712602Z",
"user_parameters": {}
}
ローカル学習 (train-local)の実行
ローカル学習実行までの準備が整いましたので、ついにローカル学習( train-local )を実行してみましょう。
コマンドのリファレンスはこちら
####コマンド例
$ abeja training train-local
※コマンド実行するディレクトリにtraining.yamlが存在する場合、 training.yaml に定義されている値が優先されて使用されます。
■サンプル① (ABEJA Platform上のデータセットを利用する場合)
サンプル : 「環境変数(epochs)を5に指定、ABEJA Platformデータセット(dataset_1)を利用する場合)
$ abeja training train-local \
--version 1 \
--environment epochs:5 \
--datasets dataset_1:1000000000
-
--organization_id
:ABEJA Platform組織ID。組織IDの確認方法はこちら -
--version
:学習ジョブ定義のバージョン -
--enviroment
環境変数の指定 (ハイパーパラメータなどの設定などに使用) -
--datasets
:使用するデータセットを次のフォーマットにて指定。{dataset_name}:{dataset_id}
( 例えば、ABEJA Platform上にあるデータセットdemo-dataset
(データセット名:demo-dataset、データセットID:1000000000) を上記のmain.pyを使って呼び出す場合、データセット名dataset_name
、データセットID1000000000
を指定
■サンプル② (ローカル上のデータセットを利用する場合)
サンプル : 「環境変数(epochs)を5に指定、ローカルデータセット (/同一フォルダ内/data) を利用する場合)
$ abeja training train-local \
--version 1 \
--environment epochs:5 \
--volume `pwd`:/data
-
--version
:学習ジョブ定義のバージョン -
--enviroment
環境変数の指定 (ハイパーパラメータなどの設定などに使用) -
--volume
:ローカル内のデータセットが格納されているパスを指定
他に以下のようなオプションも選択可能です。
-
--runtime
:docker run コマンドの --runtime オプションに相当。例えば、「nvidia-docker」など。 -
--config
:training.yaml以外の学習設定ファイルの指定。デフォルトはtrainig.yaml
実行
今回はタイトルの通りKerasでVGG16を利用し、画像分類判定を実施します。
サンプルコードはこちらです。
ローカルで学習を実施したい端末にコードを配置します。
今回はtrain.py
のhandlerを呼び出し、ローカルで学習させます。
すでにPlatform上で作成したデータセットも利用します。
コードを配置したフォルダ上で、以下のコマンドを実行します。
$ abeja training train-local \
--version 1 \
--environment epochs:5 \
--datasets train:XXXXXXXXXXXXXX # データセットIDを入力してください
すると、以下のような実行状況(infoログ)が出力されてきます。 ( --quit
で出力を抑制することも可能です。)
[info] preparing ...
Pulling from abeja/all-cpu
Pulling fs layer
Extracting [=========================================> ] 669.6MB/806.4MB
Extracting [=========================================> ] 670.1MB/806.4MB
Extracting [=========================================> ] 671.8MB/806.4MB
Extracting [=========================================> ] 673.5MB/806.4MB
Extracting [=========================================> ] 674.6MB/806.4MB
Pull complete
Digest: sha256:11e379115705056cd4b1d6f08ab7be96e7471ac5c00ba6119848b2c4bb7d05f8
Status: Downloaded newer image for abeja/all-cpu:18.10
[info] start training job
{"log_id": "2b224d22-2f3d-457e-ae0e-88db226e5ad2", "log_level": "INFO", "timestamp": "2019-07-19T15:46:03.500551+00:00", "source": "model:run.download_training_source_code.80", "requester_id": "-", "message": "downloading training source code", "exc_info": null}
{"log_id": "89456823-2f19-4655-8c9a-b84820592122", "log_level": "INFO", "timestamp": "2019-07-19T15:46:03.762592+00:00", "source": "model:run.download_training_source_code.89", "requester_id": "-", "message": "successfully downloaded training source code", "exc_info": null}
INFO: start installing packages from requirements.txt
学習が開始されたので、管理画面上にその状況が反映されているか見てみましょう。
ABEJA Platformの管理画面上のモデル定義より「ジョブ」を見てみると、PENDING
の状態で学習ジョブが作成されていることがわかります。
少し待つと、RUNNNING
に変わり、学習が開始されました。管理画面上でも学習が実施されていることがわかります。
例えば、この状態で学習の停止やエラーで学習が止まった場合もステータスが管理画面上でも見えるようになります。
少し待つと、ローカル側の学習が完了したので、管理画面上でも結果を確認してみましょう。
2816/2959 [===========================>..] - ETA: 5s - loss: 0.6505 - acc: 0.6257
2848/2959 [===========================>..] - ETA: 4s - loss: 0.6497 - acc: 0.6264
2880/2959 [============================>.] - ETA: 3s - loss: 0.6493 - acc: 0.6264
2912/2959 [============================>.] - ETA: 1s - loss: 0.6485 - acc: 0.6253
2944/2959 [============================>.] - ETA: 0s - loss: 0.6486 - acc: 0.6250
2959/2959 [==============================] - 141s 48ms/step - loss: 0.6496 - acc: 0.6249 - val_loss: 0.8135 - val_acc: 0.5067
Test loss: 0.8134503923973011
Test accuracy: 0.50669818783107
無事、 SUCCESS
と表示されており、学習が完了していることがわかります。
今回は、結果としてAccuracy(学習) 62.5%とAccuracy(バリデーション) 50.7%とあまり良くない結果でしたが、、このローカル学習を利用すれば、すぐに修正して学習を開始できるため、作業効率があがるのと、自動的に進捗と結果が管理画面でも参照できるので、よりチーム内の作業も効率化されるのではないかなと思います!
モデルのダウンロード
今回の学習で生成されたモデルは学習を実行したローカル環境でも生成されているかと思いますが、ABEJA Platform上の管理画面からも参照可能です!そして、学習したモデルは管理画面上からダウンロードできるので、学習ジョブにおけるモデル管理も便利になりますね!モデルのダウンロードはこちらから実施できます。
このモデルファイルを利用し、ABEJA Platform上でデプロイを実施することで、HTTPサービスや、トリガーに利用することも可能ですので、ぜひ、お試しください。
まとめ
今回はローカル学習(train-local)を利用し、ローカル環境で学習・モデルファイルを作成、管理画面での確認までを実施してみました。オンプレミス環境などですでにあるマシンを有効活用するだけでなく、ABEJA Platformでは並行して学習管理することができるので、学習をより高速化して、再現性の担保やチーム内でのコラボレーションが捗りそうですね!この機能はぜひ、試してみてください!
最後に
ABEJA Platformは、トライアルも提供しています。気になられた方は、是非、お気軽にお問い合わせください!また、フォーラムもありますので、是非、ご活用ください。
ABEJA Platformに関するお問い合わせ
https://abejainc.com/platform/ja/contact/
ABEJA Platform Forums
https://forums.abeja.io/