LoginSignup
2
1

More than 1 year has passed since last update.

Cloud Pak for Data as a Service でモデルのトラッキングやメタデータ管理にModel Inventoryを使う

Last updated at Posted at 2022-04-27

本記事の目的

本記事では、IBM Cloud上で提供される Cloud Pak for Data as a Service を対象に、
Watson Studio, Machine learning, Watson Knowledge Catalog, Watson OpenScale サービスを使用した Model Inventory 機能の利用方法をご紹介します。

1. CP4DaaS の Model Inventory 概要

Model Inventoryは、モデルのガバナンスを実現するための下記機能を提供し、Watson Knowledge Catalogのカタログへモデル・エントリーとして記録します。

  • 開発から展開まで、モデルのライフサイクルをトラッキング
  • 開発したモデルのメタデータを管理

Model Inventoryの画面

① モデルのライフサイクルをトラッキング
開発、テスト、検証、オペレーション(実働環境)の4つの段階でトラッキングします。

image.png
引用元:AI Factsheets on Cloud Pak for Data as a Service: Automate collection of model facts across the AI Lifecycle

② モデルのメタデータを管理
1つのモデルに対し、以下の内容を記録することができます。

  • モデル情報(作成日、作成者、アルゴリズムなど)
  • トレーニング情報(使用データセットの場所など)
  • トレーニング・パラメーター(モデル学習時のパラメーター)
  • トレーニング・メトリック(テストデータにおける精度など)
  • トレーニング・タグ
  • 入力スキーマ(特徴量)

<入力スキーマの記録例>image.png

Model Inventoryのアーキテクチャ
モデル開発時とモデルの評価時のメタデータをModel Inventoryに記録します。
各サービスの用途は以下となります。

  • Watson Studio モデルの開発
  • Watson Machine Learning モデルのデプロイ
  • Watson OpenScale モデルのモニター(検証)
  • Watson Knowledge Catalog モデルのトラッキング・メタデータ管理
    image.png

2. CP4DaaS の Model Inventory を試す

製品資料のData fabric tutorialsに Model Inventoryを扱う MLOps and Trustworthy AI のチュートリアル・シナリオ があります。
本記事では、MLOps and Trustworthy AI のチュートリアル・シナリオに沿って Model Inventory を試します。

チュートリアルは2つのパートに分かれています。それぞれのパートに従って進めます。

  • モデルの開発とデプロイ
  • モデルのテストと評価

開始の前に

  • もし持っていない場合、IBM Cloudアカウントを作成します。

    無料のIBM Cloudアカウントを作成
    https://www.ibm.com/jp-ja/cloud/free

  • Model Inventory で使用するサービスを作成します。
    サービス全て、無料で機能を試せるLiteプランに対応しています。
    また、Watson~ の4サービスは、ダラス(us-south)リージョンへ作成したものを使用します。

    • Watson Studio
    • Watson Machine learning
    • Watson Knowledge Catalog
    • Watson OpneScale
    • IBM Cloud Object Storage ※作成時のリージョン指定不要

2022年4月現在、Watson OpenScale は ダラス(us-south) および フランクフルト(eu-de) で提供されています。
CP4DaaSでは、リージョンごとに提供機能に制限があるため、最新の機能提供状況をご確認ください。

Regional limitations for Cloud Pak for Data as a Service
https://dataplatform.cloud.ibm.com/docs/content/wsj/getting-started/region-lims.html?locale=en

2-1.モデルの開発とデプロイ

下記リンク先の手順に沿って作業を実施します。
本記事では主要な手順を抜粋し、全体の流れを紹介します。詳細は、リンク先のチュートリアルをご確認ください。

MLOps and Trustworthy AI tutorial: Build and deploy a model

  • チュートリアル用のプロジェクトを、自分のWatson Studioへ取り込みます。
    image.png

  • 取り込んだプロジェクトの「管理」>「サービスおよび統合」より、Watson Machine Learningサービスを関連付けを行います。
    image.png
    作成済みのWatson Machine Learningサービスを選択し、関連付けます。
    image.png
    作成済みのWatson Machine Learningサービスが関連付けられた状態です。
    image.png

  • Model Inventory の記録先として使用するカタログを作成します。

    • 既存のカタログがある場合、そちらを使用することも可能です。
      image.png
      image.png
  • プログラムからIBM Cloudのサービスを操作するため、IBM CloudのプラットフォームAPIキーを作成します。

  • Model Inventory のエントリーを作成します。

    • 作成したエントリーへ、トラッキング状況やメタデータを紐づけて管理します。
      Cp4DaaSのメニューより、「カタログ」>「モデル・インベントリー」と進み、「新規モデル・エントリー」をクリックします。
      image.png
      任意のモデル・エントリー名を指定の上、保存します。
      image.png
      モデル・エントリーが、カタログ上に作成されました。
      image.png
      「資産」タブを開くと、モデル・トラッキングの状況が表示されます。この時点では空です。
      image.png
  • チュートリアル用のプロジェクトに含まれるJupyter Notebookファイル Notebook 1-model-training-with-factsheets を実行し、モデルの開発とプロジェクトへの保存を実施します。
    image.png
    もし、Read-Onlyモードで表示された場合、鉛筆アイコンをクリックして編集モードに入ります。
    image.png
    編集モードの状態で、以降はNoteobook内の指示に従って進めます。
    Notebookでは、以下の処理を実施します。

    • APIキーの設定(Set up Project Token and API Key)
    • ライブラリのインポート(Import Libraries)
    • Modelのメタデータ登録に使用するライブラリAI Factsheetsのセットアップ(Setup AI Factsheets)
    • 学習用データの読込(Load training data)
    • 特徴量と予測対象の設定(Specify User Inputs)
    • データの前処理(Build Data Pipelines)
    • モデルの構築(Build Machine Learning Models)
    • テストデータによるモデル精度の確認(View Model Results)
    • プロジェクトへモデルを資産として保存(Save the model)
      image.png
  • プロジェクト上に保存されたモデルの詳細を表示します。
    image.png
    image.png
    スクロールすると、以下の情報を確認できます。

    • モデル情報
      image.png
    • トレーニング情報
      image.png
    • トレーニング・パラメーター(長いため、一部のみ掲載)
      image.png
    • トレーニング・メトリック
      image.png
    • 入力スキーマ
      image.png
  • モデルをModel Inventoryへ登録します。
    image.png
    事前に作成済みのモデル・エントリーを選択し、追加します。
    image.png
    モデルが、Model Inventoryのエントリーへ関連付けられました。モデル・エントリー名をクリックし、Model InventoryのUIへ進みます。
    image.png
    開発段階として、WatsonStudioプロジェクトのモデルがトラッキングされています。表示されたモデル名をクリックします。
    image.png
    プロジェクトのモデル詳細と同様の情報が表示されます。モデルの開発に使用したプロジェクトへ進みます。
    image.png

  • プロジェクトのモデル詳細ページより、モデルをデプロイメント・スペースへプロモートし、デプロイメントを作成します。
    image.png
    image.png
    image.png
    image.png
    image.png
    image.png
    モデルをスコアリングに使用できるよう、デプロイメントを作成します。
    image.png
    image.png
    image.png

  • Model Inventoryよりモデルの段階を確認します。
    テスト段階として、デプロイメントスペースにプロモートしたモデルトラッキングされています。
    image.png

2-2.モデルのテストと評価

下記リンク先の手順に沿って作業を実施します。
本記事では、主要な手順のみ抜粋して紹介します。詳細は、リンク先のチュートリアルをご確認ください。

MLOps and Trustworthy AI tutorial: Test and validate the model

  • チュートリアル用のプロジェクトに含まれるJupyter Notebookファイル Notebook 2-monitor-wml-model-with-watson-openscale を実行し、Watson OpenScaleによるデプロイメント・スペース上のデプロイメントのモニタリングを設定し、モデル検証の準備を行います。
    image.png
    もし、Read-Onlyモードで表示された場合、鉛筆アイコンをクリックして編集モードに入ります。
    image.png
    編集モードの状態で、以降はNoteobook内の指示に従って進めます。
    Notebookでは、以下の処理を実施します。

    • APIキーの設定(Set up Project Token and API Key)
    • ライブラリのインポートや更新など(Setup)
    • モデルおよびデプロイメントの定義の取得(Fetch Model and Deployments)
    • Watson OpneScaleの構成(Configure OpenScale)
    • Watson OpneScaleへ機械学習プロバイダの作成およびデプロイメントを登録(Create Service Provider and Subscription)
    • 品質モニターの設定(Quality monitor)
    • 公平性モニターの設定(Fairness monitor)
    • 説明性機能の設定(Explanations)
      image.png
  • プロジェクトのデータ資産より、Watson OpenScaleによるモデルの評価で使用するデータセットGoldenBank_HoldoutData.csvをダウンロードします。

    image.png

  • Watson OpenScaleへアクセスします。
    CP4DaaSのメニューより、「サービス・インスタンス」>「Watson OpenScale」をクリックします。
    image.png
    アプリケーションを起動します。
    image.png
    Notebookで設定したモデルのモニタリング設定をクリックします。
    image.png

  • モデルの評価を実施します。
    「アクション」>「今すぐ評価」と進みます。
    image.png
    モデルの評価用にダウンロードしたCSVファイルをアップロードし、評価を実行します。
    image.png
    評価の完了まで待機します。
    image.png

  • モデルの品質モニターより、モデルの品質を検証します。
    評価が完了すると、「公平性」「品質」へ評価結果が表示されます。「品質の構成」へ進みます。
    image.png
    「品質」のしきい値として、ROC曲線下の面積(Area under the curve,AUC)が0.7に設定されていることを確認します。これは、Notebookの品質モニターの設定で登録した内容です。前の画面に戻ります。
    image.png
    次に「品質」の→をクリックし、モニター結果を確認します。
    image.png
    「品質」のメトリクスを確認します。ROC曲線下の面積(Area under the curve,AUC)は 0.9で、しきい値 0.7を超えており、モデルの精度は期待する品質を満たしています。前の画面に戻ります。
    image.png

  • モデルの公平性モニターより、モデルの公平性を検証します。
    「公平性の構成」へ進みます。
    image.png
    「公平性」の確認項目として、「好ましい結果(=モデルによる予測値のうち、Positiveなクラス。ローン審査の場合、1(申請を承認))」と「好ましくない結果(=モデルによる予測値のうち、Negativeなクラス。ローン審査の場合、0(申請を拒否))」が設定されています。
    また、監視対象とする特徴量として、Gender が設定されています。この特徴量を基準に、モデルの予測値のうち「好ましい結果」に偏りがないか監視します(チュートリアルシナリオでは、男性と女性を比較し、いずれかの性別でローン審査の承認状況に偏りがないか監視)。
    これらは、Notebookの公平性モニターの設定で登録した内容です。前の画面に戻ります。
    image.png
    次に「公平性」の→をクリックし、モニター結果を確認します。
    image.png
    「公平性」のモニター結果より、男性と女性のローン審査の承認状況に偏りがないことを確認します。男性 44%、女性 45% と両者の承認状況は同程度となっており、偏りはありません。前の画面に戻ります。
    ※見やすさのため、下記の画面のショットは複数の画面キャプチャを合成しています。
    image.png

  • モデルの説明性について確認します。
    トランザクションの検索を開き、任意の1行(=スコアリング1件に対応)の「説明」へ進みます。
    image.png
    このスコアリングにおいて、モデルの各特徴量が予測結果にどれだけ強い影響力があるか、相対的な重み付けのパーセンテージが割り当てられます。負の相対重み付けパーセンテージは、その特徴量がモデルで異なる予測結果を出すようよう影響を与えたことを示しています。
    image.png

  • Model Inventoryよりモデルの段階を確認します。
    検証段階として、Watson OpenScaleのモニターを構成したデプロイメント・スペース上のモデルおよびデプロイメントがトラッキングされています。
    image.png

  • モデル・エントリーのステータスを「ドラフト」から「実働前にプロモート」に変更します。
    image.png
    image.png
    image.png

  • Watson OpenScaleに戻ります。検証の結果、モデルは品質および公平性の基準を満たしていました。そのため、モデルを実働のために承認します。
    image.png
    image.png
    image.png

    モデルの開発から検証までのステップが完了し、このモデルは実働環境で使用可能となりました。任意の環境へこのモデルを展開し、スコアリングを実行することができます。

手順は以上です。

3. 関連資料

CP4DaaSのModel Inventoryに関連する資料です。

製品資料は英語版から更新されるため、英語版のURLを記載しています。

製品資料:Model inventory
https://dataplatform.cloud.ibm.com/docs/content/wsj/analyze-data/factsheets-model-inventory.html?locale=en

Pythonライブラリ・ドキュメント: IBM_AIGOV_FACTS_CLIENT
https://ibm-aigov-facts-client.mybluemix.net/

Pythonライブラリ・ドキュメント: Watson Machine Leaning
https://ibm-wml-api-pyclient.mybluemix.net/

Pythonライブラリ・ドキュメント: Watson OpenScale
https://ibm-watson-openscale-client.mybluemix.net/

Blog: AI Factsheets on Cloud Pak for Data as a Service: Automate collection of model facts across the AI Lifecycle
https://medium.com/@shashanksab/ai-factsheets-on-cloud-pak-for-data-as-a-service-automate-collection-of-model-facts-across-the-ai-503400414641

2
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1