0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

機械学習モデル構築における理解を整理

Posted at

機械学習モデルの解釈:BOOSTED_TREE_CLASSIFIER から explainable AI まで

1. はじめに:機械学習モデルとは?

機械学習モデルは、データからパターンを学習し、予測や分類を行うためのプログラムです。今回は、過去の購買データから「新作のデニムパンツ」を買うかどうかを予測する例を元に説明します。

2. データ分割:学習データと評価データ

機械学習モデルを構築する際、データを学習用と評価用に分割することが一般的です。ここでは、データを8:2に分割し、8を学習データ、2を評価データとして利用します。

  • 学習データ(8割):
    • モデルがパターンを学習するために使用するデータです。
    • このデータを用いて、モデルのパラメータを調整し、予測精度を高めます。
  • 評価データ(2割):
    • 学習済みのモデルの性能を評価するために使用するデータです。
    • 学習データとは独立したデータを使用することで、モデルの汎化性能(未知のデータに対する予測性能)を評価します。

3. 代表的な機械学習モデル:BOOSTED_TREE_CLASSIFIER とランダムフォレスト

機械学習モデルには様々な種類がありますが、ここでは代表的なモデルとして、BOOSTED_TREE_CLASSIFIER とランダムフォレストを紹介します。

  • BOOSTED_TREE_CLASSIFIER(勾配ブースティング決定木):
    • 複数の決定木を直列(順番)に作成し、学習データを用いて前の木の誤差を修正するように学習を進めるモデルです。
    • 高い予測精度が期待できますが、パラメータ調整が難しい場合があります。
  • ランダムフォレスト:
    • 複数の決定木を学習データを用いて並列に作成し、それぞれの結果を多数決で決定するモデルです。
    • BOOSTED_TREE_CLASSIFIER よりも計算コストが低く、過学習しにくいという特徴があります。

4. 特徴量の重要度:importance_gain、importance_weight、importance_cover

機械学習モデルが予測を行う際に、どの特徴量が重要だったのかを評価する指標として、importance_gain、importance_weight、importance_cover があります。これらの値は学習データを用いて計算されます。

  • importance_gain(重要度ゲイン):
    • 特徴量が予測精度向上にどれだけ貢献したかを評価します。
    • 例:「セットアップのデニムジャケットを購入したか」が学習データにおける「新作のデニムパンツ」の購買予測誤差をどれだけ減少させたか。
  • importance_weight(重要度重み):
    • 特徴量が学習データから作成された木構造内でどれだけのノード分割に使用されたかを評価します。
    • 例:「前作のデニムパンツを購入したか」が学習データから作成された木構造内で何回分割に使用されたか。
  • importance_cover(重要度カバー):
    • 特徴量が学習データから作成された木構造内でどれだけの学習データによってカバーされたかを評価します。
    • 例:「平均購買単価」が学習データから作成された木構造内でどれだけの顧客データを分割したか。

木構造の例:

        Root (セットアップのデニムジャケットを購入したか)
       /                                      \
      A (セットアップのデニムジャケットを購入していない)      B (セットアップのデニムジャケットを購入した)
     / \                                      / \
    C (平均購買単価)   D (購買頻度)            E (前作のデニムパンツを購入したか)  F (平均購買単価)

例を用いた各指標の説明:

  • importance_gain:
    • ノード「A」で「セットアップのデニムジャケットを購入したか」が「新作のデニムパンツ」の購買予測誤差を0.3減少させた。
    • ノード「B」で「セットアップのデニムジャケットを購入したか」が「新作のデニムパンツ」の購買予測誤差を0.5減少させた。
    • ノード「C」で「平均購買単価」が「新作のデニムパンツ」の購買予測誤差を0.2減少させた。
    • ノード「D」で「購買頻度」が「新作のデニムパンツ」の購買予測誤差を0.1減少させた。
    • ノード「E」で「前作のデニムパンツを購入したか」が「新作のデニムパンツ」の購買予測誤差を0.4減少させた。
    • ノード「F」で「平均購買単価」が「新作のデニムパンツ」の購買予測誤差を0.2減少させた。
    • この場合、「セットアップのデニムジャケットを購入したか」が「新作のデニムパンツ」の購買予測に最も貢献したと判断できます。
  • importance_weight:
    • 「セットアップのデニムジャケットを購入したか」は、ノード「A」と「B」の2つのノードで使用されています。
    • 「平均購買単価」はノードCとノードFで使用されています。
    • 「購買頻度」はノードDでのみ使用されています。
    • 「前作のデニムパンツを購入したか」はノードEでのみ使用されています。
    • したがって、「セットアップのデニムジャケットを購入したか」と「平均購買単価」のimportance_weightは2、他の特徴量のimportance_weightは1です。
  • importance_cover:
    • ノード「A」が学習データ全体の60%をカバーし、「B」が40%をカバーしている場合、「セットアップのデニムジャケットを購入したか」は60%の学習データに影響を与えています。
    • さらにノードCが20%、Dが10%、Eが5%、Fが15%をカバーしている場合、A,B,C,F,D,Eの順にcoverの数値が大きくなります。
    • つまり「セットアップのデニムジャケットを購入していない」顧客グループが、「新作のデニムパンツ」の購買予測をする上で、一番影響力があるということがわかります。

5. 予測結果の解釈:explainable AI

機械学習モデルの予測結果を解釈し、なぜそのような予測になったのかを説明する技術が explainable AI です。explainable AIは評価データを用いて、予測結果の根拠を説明します。

  • ローカルな説明:
    • 評価データにおける個々の予測結果に対して、各特徴量がどのように寄与したかを説明します。
    • 例:「セットアップのデニムジャケットを購入されているから購買確率 10% アップ」「前作のデニムパンツを購入されているから 5% アップ」「平均購買単価が平均より高いので8%アップ」「購買頻度が平均より高いので3%アップ」「基準を60%とした場合、この人がある新作のデニムパンツを買う確率は86%です。」
  • グローバルな説明:
    • 評価データにおけるモデル全体の予測傾向に対して、各特徴量がどのように寄与したかを説明します。
    • 例:「セットアップのデニムジャケットを購入した顧客は、新作のデニムパンツも購入する傾向がある」「前作のデニムパンツを購入した顧客は、新作のデニムパンツも購入する傾向がある」「平均購買単価が高い顧客は、新作のデニムパンツも購入する傾向がある」「購買頻度が高い顧客は、新作のデニムパンツも購入する傾向がある」

6. まとめ:機械学習モデルの理解と活用

機械学習モデルは、様々なタスクに活用できますが、モデルの挙動を理解し、予測結果を解釈することが重要です。importance_gain などの特徴量重要度や explainable AI を活用することで、モデルの透明性を高め、より信頼性の高い予測を実現できます。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?