1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Unity CatalogとMLflowとDelta LakeによるMLモデルトレーニングのトラッキング

Last updated at Posted at 2024-08-26

以下の記事では、MLflowとDelta Lakeを活用した機械学習モデルトレーニングのトラッキング機能を説明しました。

ただ、2年前の記事ということもあり、現在ではDatabricksのガバナンス機能を一手に担うUnity Catalogが含まれていません。こちらを拡張してUnity Catalogの機能も活用して、より包括的なトラッキングを行えるようにします。

MLflowとは?

機械学習モデルのライフサイクル管理のためのフレームワークを提供するソフトウェアです。機械学習のトラッキング、集中管理のためのモデルレジストリといった機能を提供します。Databricksでは、マネージドサービスとしてMLflowを利用できる様になっていますので、Databricksノートブック上でトレーニングした機械学習は自動でトラッキングされます。

Delta Lakeとは?

データレイクに格納されているデータに対して高速なデータ処理、強力なデータガバナンスを提供するストレージレイヤーソフトウェアです。ACIDトランザクションやデータのバージョン管理、インデックス作成機能などを提供します。機械学習の文脈ではデータのバージョン管理が重要な意味を持つことになります。

Unity Catalogとは?

DatabricksのUnity Catalogは、Databricksデータインテリジェンスプラットフォームに組み込まれた、データと AI のための業界唯一の統一されたオープンなガバナンスソリューションです。Unity Catalog を使用することで、企業はあらゆる形式の構造化データや非構造化データ、機械学習モデル、ノートブック、ダッシュボード、ファイルを、クラウドやプラットフォームを問わずにシームレスに管理できます。

全体的な流れは以下のようになります。
delta_mlflow_uc.png

  • Delta Lakeでトレーニングデータのバージョンを管理
  • MLflowで、トレーニングデータとモデルのリネージやモデル自身、モデルのハイパーパラメーター、精度メトリクスなどを記録
  • Unity Catalogでモデルのバージョンやライフサイクル、トレーニングデータのテーブルなどを管理

過去に書いた以下の記事を参考にしています。

Unity CatalogとMLflowとDelta Lakeによる機械学習モデルトレーニングのトラッキング

ウォークスルーするノートブックはこちらです。

データチームがモデルをトレーニングし、それをプロダクションにデプロイして、しばらくの間は上手くいくと言うのはよくある話です。そして、モデルが変な予測をし始めると、モデルを調査してデバッグしなくてはなりません。

このノートブックでは、デバッグを容易にするためにモデルのトレーニングを容易に追跡、可視化、再現するために、どのようにUnity CatalogMLflowDelta Lakeを活用するのかをデモンストレーションします。

  • Delta Lake: データのバージョン管理と「タイムトラベル」機能を提供
  • MLflow: モデルやパラメーター、精度を記録
  • Unity Catalog: モデルのライフサイクルやリネージの管理

このデモでは以下のステップをカバーします。

  1. データのインポート
  2. Seabornとmatplotlibによるデータの可視化
  3. 予測精度を改善するための特徴量エンジニアリングとDeltaによるバージョン追跡
  4. 特徴量エンジニアリングの効果をMLflowで確認
  5. Unity Catalogにベストモデルを登録
  6. 登録済みモデルをSpark UDFとして別のデータセットに適用

この例では、融資のデータから「悪いローン」を予測するモデルを構築します。

要件

  • Unity Catalog対応クラスター
  • Databricks MLランタイム

問題定義: 貸し手向け「悪いローン」の分類

このノートブックでは、クレジットのスコア、クレジット履歴などその他の特徴量に基づいて、「悪いローン」(利益を産まない可能性があるローン)の特定をゴールとして、Lending Clubデータセットにおける分類問題に取り組みます。

最終的なゴールは、ローンを承認するかどうかを決定する前に、ローンの係員が使用する解釈可能なモデルを生成することです。この様なモデルは貸し手に対して、情報を提供するビューとなり、見込みのある借り手を即座に評価し、レスポンスできる様にします。

データ

使用するデータはLending Clubの公開データです。これには、2012年から2017年に融資されたローンが含まれています。それぞれのローンには、申請者によって提供された申込者情報と、現在のローンのステータス(遅延なし、遅延、完済など)、最新の支払い情報が含まれています。データに対する完全なビューはデータ辞書をご覧ください。

Loan_Data

%pip install --upgrade "mlflow-skinny[databricks]"
dbutils.library.restartPython()
import re
from pyspark.sql.types import * 

# Username を取得
username_raw = dbutils.notebook.entry_point.getDbutils().notebook().getContext().tags().apply('user')
# Username の英数字以外を除去し、全て小文字化。Username をファイルパスやデータベース名の一部で使用可能にするため。
username = re.sub('[^A-Za-z0-9]+', '', username_raw).lower()

# 事前にカタログを作成しておいてください
catalog_name = "takaakiyayoi_catalog"
schema_name = f"loan_{username}"
table_name = "loan_stats"
model_name = "loan_model"

# Unity Catalogにおける登録モデルのパス
MODEL_PATH = f"{catalog_name}.{schema_name}.{model_name}"

print(f"{catalog_name=}")
print(f"{schema_name=}")
print(f"{table_name=}")
print(f"{MODEL_PATH=}")

spark.sql(f"CREATE SCHEMA IF NOT EXISTS {catalog_name}.{schema_name}")
spark.sql(f"USE {catalog_name}.{schema_name}")
catalog_name='takaakiyayoi_catalog'
schema_name='loan_takaakiyayoidatabrickscom'
table_name='loan_stats'
MODEL_PATH='takaakiyayoi_catalog.loan_takaakiyayoidatabrickscom.loan_model'

データのインポート

このセクションでは、サンプルデータからSparkデータフレームにデータを読み込みます。

# テーブルが存在する場合には削除
spark.sql(f"DROP TABLE IF EXISTS {table_name}")

# Lending Clubデータをロード&加工し、Delta LakeフォーマットでUCに保存します
lspq_path = "/databricks-datasets/samples/lending_club/parquet/"
data = spark.read.parquet(lspq_path)
display(data)

Screenshot 2024-08-26 at 19.29.34.png

データの前処理

import pyspark.sql.functions as F

# 必要なカラムを選択し、他の前処理を適用
features = [
   "loan_amnt",
   "annual_inc",
   "dti",
   "delinq_2yrs",
   "total_acc",
   "total_pymnt",
   "issue_d",
   "earliest_cr_line",
]

raw_label = "loan_status"
loan_stats_ce = data.select(*(features + [raw_label]))
print(
    "------------------------------------------------------------------------------------------------"
)
print("悪いローンのラベルを作成、これにはチャージオフ、デフォルト、ローンの支払い遅延が含まれます...")
# ローンのステータスに基づいて悪いローンのラベルを作成
loan_stats_ce = loan_stats_ce.filter(
    loan_stats_ce.loan_status.isin(["Default", "Charged Off", "Fully Paid"])
).withColumn("bad_loan", (~(loan_stats_ce.loan_status == "Fully Paid")).cast("int"))
loan_stats_ce = loan_stats_ce.orderBy(F.rand()).limit(
    10000
)  # Community Editionでも実行できる様にロードする行を限定

print(
    "------------------------------------------------------------------------------------------------"
)
print("数値のカラムを適切な型にキャスト...")
loan_stats_ce = (
    loan_stats_ce.withColumn(
        "issue_year", F.substring(loan_stats_ce.issue_d, 5, 4).cast("double")
    )  # 文字列から年のみを取り出しdoubleに変換
    .withColumn(
        "earliest_year",
        F.substring(loan_stats_ce.earliest_cr_line, 5, 4).cast("double"),
    )  # 文字列から年のみを取り出しdoubleに変換
    .withColumn("total_pymnt", loan_stats_ce.total_pymnt.cast("double"))
)
# ローン期間を計算
loan_stats_ce = loan_stats_ce.withColumn(
    "credit_length_in_years", (loan_stats_ce.issue_year - loan_stats_ce.earliest_year)
)

print(
    "------------------------------------------------------------------------------------------------"
)

display(loan_stats_ce)

Screenshot 2024-08-26 at 19.30.09.png

データの可視化

モデルをトレーニングする前に、Seaborn、matplotlibを用いてデータを可視化します。

まず、目的変数のbad_loanの分布を確認します。

import seaborn as sns
import matplotlib.pyplot as plt

loan_stats_pdf = loan_stats_ce.toPandas()
bad_loan_count = loan_stats_pdf.groupby("bad_loan")['bad_loan'].count()

sns.set_style("whitegrid") # チャートのスタイルを設定
plt.figure(figsize=(6,6)) # 図のサイズを設定
plt.pie(bad_loan_count, labels=bad_loan_count.index, autopct='%1.1f%%') # 円グラフを作成
plt.show() # グラフを表示

download.png

特徴量と2値ラベルの間の相関を見るにはボックスプロットが有用です。

dims = (3, 4)

f, axes = plt.subplots(dims[0], dims[1], figsize=(25, 15))
axis_i, axis_j = 0, 0
for col in loan_stats_pdf.columns:
    if col in ["issue_d", "earliest_cr_line", "loan_status", "bad_loan"]:
        continue  # カテゴリ変数にボックスプロットは使用できません
    sns.boxplot(x=loan_stats_pdf.bad_loan, y=loan_stats_pdf[col], ax=axes[axis_i, axis_j])
    axis_j += 1
    if axis_j == dims[1]:
        axis_i += 1
        axis_j = 0

download (1).png

上のボックスプロットから、いくつかの変数がbad_loanに対する単変量予測子として優れていることがわかります。

  • total_pymentのボックスプロットにおいて、デフォルトになるケースでの支払い金額が少ない傾向が見て取れます。
    • total_pymnt: 融資された総額に対して当日までに支払われた金額。
  • dtiには、デフォルトになるケースとの逆の相関が認められます。
    • dti: 借り手の自己申告による月収に対し、住宅ローンとリクエストされたLCローンを除く全ての債務に対する月々の支払い総額を使用して計算される比率。

モデルのトレーニングの前に、欠損値のチェックを行います。

loan_stats_pdf.isna().any()
loan_amnt                 False
annual_inc                False
dti                       False
delinq_2yrs               False
total_acc                 False
total_pymnt               False
issue_d                   False
earliest_cr_line          False
loan_status               False
bad_loan                  False
issue_year                False
earliest_year             False
credit_length_in_years    False
dtype: bool

サンプリングされたデータに欠損値が存在する場合があります。このようなデータの欠損値や統計は、dbutils.data.summarizedisplay関数の結果からもアクセスすることができます。

dbutils.data.summarize(loan_stats_ce)

Screenshot 2024-08-26 at 19.41.13.png

機械学習モデル構築で用いるテーブルとデータバージョンのトラッキング

機械学習モデルの構築においては、トレーニングデータに対する試行錯誤が伴います。データバージョンを管理・指定できることはDelta Lakeを活用することのメリットであり、後ほどレストアできる様に以前のバージョンのデータセットを保持します。

トレーニングデータとテストデータを分割して、トレーニングデータを保存して準備は完了です。

from sklearn.model_selection import train_test_split

# 使用する変数
features = [
    "loan_amnt",
    "annual_inc",
    "dti",
    "delinq_2yrs",
    "total_acc",
    "credit_length_in_years",
    "bad_loan",
]

# 欠損値を含む行を削除
loan_stats_pdf.dropna(inplace=True)

# 説明変数を選択して、トレーニング・テストデータに分割
train, test = train_test_split(loan_stats_pdf[features], random_state=123)
X_train = train.drop(["bad_loan"], axis=1)
X_test = test.drop(["bad_loan"], axis=1)
y_train = train.bad_loan
y_test = test.bad_loan

# トレーニングデータの保存
training_df = spark.createDataFrame(X_train)
training_df.write.option("mergeSchema", "true").format("delta").mode("overwrite").saveAsTable(table_name)

Deltaテーブルの履歴を確認

Deltaテーブルでは、初期状態および、以降のデータ追加、アップデート、削除、マージ、追加を含むこのテーブルに対するすべてのトランザクションがテーブルに記録されます。テーブルの履歴にアクセスするには、DESCRIBE HISTORYを使用します。

%sql
DESCRIBE HISTORY loan_stats;

Screenshot 2024-08-26 at 19.42.13.png

ベースラインモデルの構築

出力が2値であり、複数の変数間での相互関係がある可能性があることから、このタスクにはランダムフォレスト分類器が適しているように見えます。

以下のコードでは、scikit-learnを用いてシンプルな分類器を構築します。モデルの精度を追跡するためにMLflowを用い、後ほど利用するためにモデルを保存します。

また、DeltaTableのAPIを用いてDeltaテーブルの最新バージョンを取得します。

import mlflow
import mlflow.pyfunc
import mlflow.sklearn
import numpy as np
import sklearn
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import roc_auc_score
from mlflow.models.signature import infer_signature
from mlflow.utils.environment import _mlflow_conda_env
import cloudpickle
import time
from delta.tables import DeltaTable

# UC配下のモデルとして登録
mlflow.set_registry_uri("databricks-uc")

# sklearnのRandomForestClassifierのpredictメソッドは、2値の分類結果(0、1)を返却します。
# 以下のコードでは、それぞれのクラスに属する確率を返却するpredict_probaを用いる、ラッパー関数SklearnModelWrapperを構築します。

class SklearnModelWrapper(mlflow.pyfunc.PythonModel):
  def __init__(self, model):
    self.model = model
    
  def predict(self, context, model_input):
    return self.model.predict_proba(model_input)[:,1]
# トレーニングデータセット、テストデータセットのロード、トレーニングデータセットのバージョンを受け取りトレーニング、ロギングを行う
def train_and_log_model(X_train, y_train, X_test, y_test, version_to_load):

  # mlflow.start_runは、このモデルのパフォーマンスを追跡するための新規MLflowランを生成します。
  # コンテキスト内で、使用されたパラメーターを追跡するためにmlflow.log_param、精度のようなメトリクスを追跡するためにmlflow.log_metricを呼び出します。
  with mlflow.start_run(run_name='untuned_random_forest'):
    n_estimators = 10
    model = RandomForestClassifier(n_estimators=n_estimators, random_state=np.random.RandomState(123))
    model.fit(X_train, y_train)

    # predict_probaは[prob_negative, prob_positive]を返却するので、出力を[:, 1]でスライスします。
    predictions_test = model.predict_proba(X_test)[:,1]
    auc_score = roc_auc_score(y_test, predictions_test)
    mlflow.log_param('n_estimators', n_estimators)
    # メトリックとしてROC曲線のAUCを使用します。
    mlflow.log_metric('auc', auc_score)
    wrappedModel = SklearnModelWrapper(model)
    # モデルの入出力スキーマを定義するシグネチャをモデルとともに記録します。
    # モデルがデプロイされた際に、入力を検証するためにシグネチャが用いられます。
    signature = infer_signature(X_train, wrappedModel.predict(None, X_train))

    # トレーニングデータのロギング
    dataset = mlflow.data.load_delta(table_name=f"{catalog_name}.{schema_name}.{table_name}", version=version_to_load)
    mlflow.log_input(dataset, context="training")
  
    # MLflowにはモデルをサービングする際に用いられるconda環境を作成するユーティリティが含まれています。
    # 必要な依存関係がconda.yamlに保存され、モデルとともに記録されます。
    conda_env =  _mlflow_conda_env(
        additional_conda_deps=None,
        additional_pip_deps=["cloudpickle=={}".format(cloudpickle.__version__), "scikit-learn=={}".format(sklearn.__version__)],
        additional_conda_channels=None,
    )
    mlflow.pyfunc.log_model("random_forest_model", python_model=wrappedModel, conda_env=conda_env, signature=signature, )

    return model
# Deltaテーブルの最新バージョンの取得
delta_table = DeltaTable.forName(spark, table_name)
version_to_load = delta_table.history(1).select("version").collect()[0].version
print(f"{version_to_load=}")

model = train_and_log_model(X_train, y_train, X_test, y_test, version_to_load)
version_to_load=0

データチェックとして、モデルによって出力される特徴量の重要度を確認します。

import pandas as pd

feature_importances = pd.DataFrame(model.feature_importances_, index=X_train.columns.tolist(), columns=['importance'])
feature_importances.sort_values('importance', ascending=False)

Screenshot 2024-08-26 at 19.44.41.png

先ほどボックスプロットで見たように、デフォルトを予測するのにdti、そして、ボックスプロットでは特定が難しかったannual_incなどが重要であることがわかります。

MLflowにROC曲線のAUCを記録しました。右側のフラスコマークをクリックして、エクスペリメントランのサイドバーを表示します。

Screenshot 2024-08-26 at 19.51.47.png

このモデルはAUC0.56を達成しました。ランダムな分類器のAUCは0.5となり、それよりAUCが高いほど優れていると言えます。詳細は、Receiver Operating Characteristic Curveを参照ください。

MLflow APIによるモデルの操作

モデルの記録・管理を担うMLflowではAPIが提供されているので、PythonからMLflowにアクセスしてさまざまな処理を行うことができます。

from mlflow.tracking.client import MlflowClient
client = MlflowClient()

# 登録モデルの最新バージョンを取得
def get_latest_model_version(model_name):  
  model_version_infos = client.search_model_versions("name = '%s'" % model_name)

  return max([model_version_info.version for model_version_info in model_version_infos])

# 登録モデルの初期化
try:
  client.delete_registered_model(name=MODEL_PATH)
except:
  pass

Unity Catalogモデルレジストリにモデルを登録

モデルレジストリにモデルを登録することで、Databricksのどこからでもモデルを容易に参照できるようになります。

以下のセクションでは、どのようにプログラム上から操作をするのかを説明しますが、UIを用いてモデルを登録することもできます。"Unity Catalogでモデルのライフサイクルを管理する" (AWS|Azure)を参照ください。

run_id = mlflow.search_runs(filter_string='tags.mlflow.runName = "untuned_random_forest"').iloc[0].run_id
run_id
'78bfa71bd84940c1927bc93d8d97a6bb'
# モデルレジストリにモデルを登録します
model_version = mlflow.register_model(f"runs:/{run_id}/random_forest_model", model_name)
Successfully registered model 'takaakiyayoi_catalog.loan_takaakiyayoidatabrickscom.loan_model'.
Created version '1' of model 'takaakiyayoi_catalog.loan_takaakiyayoidatabrickscom.loan_model'.

モデルページでモデルを確認できるはずです。モデルページを表示するには、左のサイドバーでモデルをクリックします。
Screenshot 2024-08-26 at 19.49.11.png

エイリアスによるモデルの管理

モデルのエイリアスを使用すると、登録済みモデルの特定のバージョンに変更可能な名前付きリファレンスを割り当てることができます。 エイリアスを使用して、モデルバージョンのデプロイステータスを示すことができます。 たとえば、現在本番運用にあるモデルバージョンに"Champion"エイリアスを割り当て、本番運用モデルを使用するワークロードでこのエイリアスをターゲットにすることができます。 その後、"Champion"エイリアスを別のモデル バージョンに再割り当てすることで、本番運用モデルを更新できます。

以下のコードで、このモデルバージョンに"Champion"エイリアスを割り当てます。これによって、エイリアスを指定したモデルのロードが可能となります。

latest_version = get_latest_model_version(MODEL_PATH)
client.set_registered_model_alias(MODEL_PATH, "Champion", latest_version)

Screenshot 2024-08-26 at 19.50.19.png

モデルバージョンの説明の追加

トレーニングしたモデルバージョンを特定し、モデルバージョンに説明文を追加するためにMLflow APIを活用することができます。

はじめに、登録モデル自身に説明文を付与します。

client.update_registered_model(
  name=MODEL_PATH,
  description="このモデルは、ローン申請者の特徴量から「悪いローン」(利益を産まない可能性があるローン)の特定を行います。"
)

モデルバージョンに説明文を付与します。

client.update_model_version(
  name=MODEL_PATH,
  version=latest_version,
  description="このモデルバージョンは、ローンごとのloan_amnt, annual_inc, dti, delinq_2yrs, total_acc, credit_length_in_yearsの特徴量を用いてscikit-learnでトレーニングされました。"
)

モデルページでは、モデルバージョンがChampionのエイリアスが付与されていると表示されます。

これで、models:/<モデルパス>@Championのパスでモデルを参照することができます。

model = mlflow.pyfunc.load_model(f"models:/{MODEL_PATH}@Champion")

# サニティチェック: この結果はMLflowで記録されたAUCと一致すべきです
print(f'AUC: {roc_auc_score(y_test, model.predict(X_test))}')
AUC: 0.5639715000000001

特徴量エンジニアリング: データスキーマを進化

上で構築した機械学習モデルは十分なパフォーマンスを示しているとは言えません。データセットの過去のバージョンを追跡するDelta Lakeを用いて、モデルパフォーマンスを改善するためにいくつかの特徴量エンジニアリングを行うことができます。ここでは、ローンごとの支払い金額とローン金額の損益の合計を捉える特徴量netを追加します。

net = total_pymnt - loan_amnt
  • total_pymnt: 融資された総額に対して当日までに支払われた金額。
  • loan_amnt: 借り手が申請したローンのリストされた金額です。ある時点で信用部門がローン額を減額した場合、その変更はこの値に反映されます。

netが0を上回っていれば健全と言えますが、マイナスの場合は負債を背負っていることになります。

print(
    "------------------------------------------------------------------------------------------------"
)
print("ローンごとの支払い、ローン金額の合計を計算...")
loan_stats_new = loan_stats_ce.withColumn(
    "net",
    F.round(loan_stats_ce.total_pymnt - loan_stats_ce.loan_amnt, 2)).select(
        (features + ["net"]
    ),
)
display(loan_stats_new)

Screenshot 2024-08-26 at 19.55.31.png

# 欠損値を含む行を削除
loan_stats_new_pdf = loan_stats_new.toPandas()
loan_stats_new_pdf.dropna(inplace=True)

# 説明変数を選択して、トレーニング・テストデータに分割
train, test = train_test_split(loan_stats_new_pdf, random_state=123)
X_train = train.drop(["bad_loan"], axis=1)
X_test = test.drop(["bad_loan"], axis=1)
y_train = train.bad_loan
y_test = test.bad_loan

# トレーニングデータの保存
training_df = spark.createDataFrame(X_train)
training_df.write.option("mergeSchema", "true").format("delta").mode("overwrite").saveAsTable(table_name)

Deltaテーブルの履歴を確認

Deltaテーブルのバージョンが上がっていることを確認できます。

%sql
DESCRIBE HISTORY loan_stats;

Screenshot 2024-08-26 at 19.56.43.png

新たなデータを用いたエクスペリメント

# Deltaテーブルの最新バージョンの取得
delta_table = DeltaTable.forName(spark, table_name)
version_to_load = delta_table.history(1).select("version").collect()[0].version
print(f"{version_to_load=}")

model = train_and_log_model(X_train, y_train, X_test, y_test, version_to_load)
version_to_load=1

Screenshot 2024-08-26 at 19.57.32.png

feature_importances = pd.DataFrame(model.feature_importances_, index=X_train.columns.tolist(), columns=['importance'])
feature_importances.sort_values('importance', ascending=False)

Screenshot 2024-08-26 at 19.57.56.png

MLflowを用いて結果を確認

MLflowエクスペリメントサイドバーを開いて、ランを参照します。メニューを表示するために、下向き矢印の隣にあるDateをクリックしaucを選択し、aucメトリックの順でランを並び替えます。aucは0.97となっています。ベースラインモデルを上回りました!

MLflowはそれぞれのランのパフォーマンスメトリクスとパラメーターをトラッキングします。MLflowエクスペリメントサイドバーの一番上にある右上向きの矢印アイコンをクリックすることで、MLflowランの一覧に移動することができます。

以下のコードでは、最も高いパフォーマンスを示したランを検索しています。

best_run = mlflow.search_runs(order_by=['metrics.auc DESC']).iloc[0]
print(f'AUC of Best Run: {best_run["metrics.auc"]}')
AUC of Best Run: 0.9799815

モデルのエイリアスを更新

はじめにloan_modelという名前でベースラインモデルをモデルレジストリに保存しました。さらに精度の高いモデルができましたので、loan_modelのエイリアスを更新します。

new_model_version = mlflow.register_model(f"runs:/{best_run.run_id}/random_forest_model", MODEL_PATH)
Registered model 'takaakiyayoi_catalog.loan_takaakiyayoidatabrickscom.loan_model' already exists. Creating a new version of this model...
Created version '2' of model 'takaakiyayoi_catalog.loan_takaakiyayoidatabrickscom.loan_model'.

左のサイドバーでモデルをクリックし、二つのバージョンのモデルが存在することを確認します。
Screenshot 2024-08-26 at 19.59.28.png

以下のコードで新バージョンをChampionに移行します。

client.set_registered_model_alias(
  name=MODEL_PATH,
  alias="Champion",
  version=new_model_version.version
)

Screenshot 2024-08-26 at 20.00.21.png

モデルバージョンに説明文を記載します。

client.update_model_version(
  name=MODEL_PATH,
  version=new_model_version.version,
  description="このモデルバージョンは、ローンごとの支払い金額とローン金額の損益の合計を捉える特徴量を追加してトレーニングされました。"
)

load_modelを呼び出すクライアントはURIを変更することなしに新たなモデルにアクセスできます。

# このコードは上の"ベースラインモデルの構築"と同じものです。新たなモデルを利用するためにクライアント側での変更は不要です!
model = mlflow.pyfunc.load_model(f"models:/{MODEL_PATH}@Champion")
print(f'AUC: {roc_auc_score(y_test, model.predict(X_test))}')
AUC: 0.9799815

バッチ推論

新たなデータのコーパスに対してモデルを評価したいというシナリオは数多く存在します。例えば、新たなデータバッチを手に入れたり、同じデータコーパスに対して二つのモデルを比較することなどが考えられます。

以下のコードでは、並列に処理を行うためにSparkを用い、Deltaテーブルに格納されたデータに対してモデルの評価を行います。

# 新たなデータコーパスをシミュレートするために、既存のX_trainデータをDeltaテーブルに保存します。
# 実際の環境では、本当に新たなデータバッチとなります。
spark_df = spark.createDataFrame(X_train)
# Deltaテーブルの保存先
table_path = f"{catalog_name}.{schema_name}.loan_inference"
# すでにコンテンツが存在する場合には削除します
spark.sql(f"DROP TABLE IF EXISTS {table_path}")
spark_df.write.format("delta").saveAsTable(table_path)

モデルをSparkのUDF(ユーザー定義関数)としてロードし、Deltaテーブルに適用できるようにします。

import mlflow.pyfunc

apply_model_udf = mlflow.pyfunc.spark_udf(spark, f"models:/{model_name}@Champion")
# 新規データをDeltaから読み込みます
new_data = spark.read.format("delta").table(table_path)
display(new_data)

Screenshot 2024-08-26 at 20.02.29.png

from pyspark.sql.functions import struct

# 新規データにモデルを適用します
udf_inputs = struct(*(X_train.columns.tolist()))

new_data = new_data.withColumn(
  "prediction",
  apply_model_udf(udf_inputs)
)
# それぞれの行には予測結果が紐づけられています。
display(new_data)

Screenshot 2024-08-26 at 20.03.05.png

カタログエクスプローラでの探索

ここまで作成してきたテーブルやモデルは全てUnity Catalogで管理されています。以下のコマンドを実行することで表示されるリンクから、Unity CatalogのGUIであるカタログエクスプローラにアクセスして以下のようなポイントをチェックしてみましょう。

  • あるモデルバージョンは、どのバージョンのDeltaテーブルを用いてトレーニングされたのか
  • モデルトレーニングの際のパラメーターや精度はどうなっているのか
  • モデルバージョン間で精度はどのように変化したのか
  • モデル本体がどのように記録されているのか
  • 現在Championのモデルはどれか
  • Deltaテーブルにはどのような操作が加えられたのか
displayHTML(f"<a href='/explore/data/{catalog_name}/{schema_name}'>カタログエクスプローラ</a>")

上述のポイントをチェックできる画面のスクリーンショットを貼っておきます。
Screenshot 2024-08-26 at 20.03.48.png
Screenshot 2024-08-26 at 20.03.39.png
Screenshot 2024-08-26 at 20.04.19.png
Screenshot 2024-08-26 at 20.04.53.png
Screenshot 2024-08-26 at 20.05.18.png
Screenshot 2024-08-26 at 20.05.41.png

はじめてのDatabricks

はじめてのDatabricks

Databricks無料トライアル

Databricks無料トライアル

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?