概要
ABEJA Platformにモデルをデプロイをしてエンドポイントを利用できるようにします。
デプロイについて
ABEJA Platformでは、Platform上でモデルを作成することも可能ですし、外部で作成したモデルを利用してサービス提供をするエンドポイントを用意することも可能です。
今回は、以前、紹介したローカル学習 (train-local) で作成したモデルを参考に、デプロイする手順をご紹介します。
デプロイ前の準備
デプロイ前に作成したモデルをABEJA Platformで管理するために、「モデル」作成を行います。
ローカル学習 (train-local) で作成したモデルでは、ローカルにモデルファイル[model.h5]があるため、以下のコマンドを入力し、zipに圧縮します。 ※ モデルファイルがある階層でコマンド実施してください。
$ zip -r main.zip ./*
すると、model.h5(モデルファイル)
やpredict.py
などのファイルを圧縮し、main.zip(圧縮ファイル)
が生成されますので、こちらをダウンロードしておきます。
Platform上でモデルの作成
- ABEJA Platform管理画面にログイン
今回は、まずモデル作成をするため、 「モデル作成」を選択
-
モデル作成に必要な情報を入力します。
-
名前
:モデル名 -
詳細
:モデルの詳細・説明など -
バージョン
:バージョン管理を行うため、バージョン情報 -
作業後にデプロイ
:モデル作成時にデプロイも一緒に実施する場合はチェック -
デプロイ名
:デプロイを一緒にする場合、デプロイ名を指定 -
アップロード
:ローカルで作成した学習モデルなどを利用する際、アップロードを選択 -
ランタイム
:実行する際のフレームワークなどを選択 (all-cpuやall-gpuが一般的)- 詳細はこちらの「イメージ」を参考ください
-
モデルハンドラー
:モデルを呼び出すためのハンドラ。サンプルではpredict.py
のhandler
を呼び出し。
-
-
ソースコードのアップロード
-
「モデル作成」を選択
ABEJA Platform上作成されたモデルはバージョン管理され、ソースコードも管理されます。 (外部で作成したモデルでも、バージョン管理/ソースコード管理ができるのいいですね)
Platform上でのデプロイ
- モデル作成時に「作業後にデプロイ」を選択していた場合、すでにデプロイは完了しています。
- 別途、「デプロイメント」画面より「デプロイメント作成」を実施することで作成は可能です。
-
HTTPサービスは提供するサービスインフラ(スペックなど)を選択します。
「デプロイメント詳細」画面の 「エンドポイント」がHTTPサービスのサービスエンドポイントとなります。作成したモデルでのサービス提供を実施する場合は、こちらのエンドポイントをご利用ください。
HTTPサービスの内容
-
HTTPサービスには「ログ」や「メトリクス(負荷状況などのモニタ)」、簡易的な「確認」を実施できます。
最後に
今回のサンプルでは、犬(dog) or 猫(cat)というシンプルな画像分類でのモデルを利用して、HTTPサービスを作成するところまでを紹介しました。ABEJA Platform上で作成したモデルだけでなく、ローカル環境や外部で作成したモデルをABEJA Platformでバージョン管理、サービス提供をまるっと任せれるのは、便利ですね。
次回はもう少し、いろいろなモデルをユースケースを踏まえご紹介できればと思います。また、ABEJA Platformでは、トライアルも提供しています!気になられた方は、是非、お気軽にお問い合わせください。
ABEJA Platformは、ユーザとコミュニティを形成しながら、速いスピードで開発を進めていきます。
以下、フォーラムもありますので、是非、ご活用ください!