Deploy and serve models | Databricks on AWS [2021/5/26時点]の翻訳です。
MLflowによるモデルの本格運用へのデプロイ
MLflowによるモデルのデプロイに関しては、DatabricksのMLflowを用いたモデルのログ、ロード、登録、デプロイを参照ください。以下のノートブックでは、モデルを構築、管理、デプロイするためにどのようにモデルレジストリを使うのかを説明しています。
MLflowによるモデルサービング
Databricksでは、モデルのバージョンとステージに応じて自動的に更新されるRESTエンドポイントとして、モデルレジストリから機械学習モデルをホストするMLflowモデルサービングを提供しています。MLflowモデルサービングは、PythonのMLflowモデルで利用できます。
Databricksジョブの実行
スケジュール処理、即時処理としてノートブックやJARを実行するためにDatabricksのジョブを利用することもできます。