これは何?
近年、機械学習に関連する研究において「反実仮想機械学習(Counterfactual Machine Learning,CFML)」や「反実仮想説明(Counterfactual Explanation,CE)」と言ったキーワードが見られるようになりました。これらはいずれも「反実仮想(Counterfactual)」というキーワードを含んでいます。反実仮想とは以下を意味します。
文法で、事実と反対のことを想定すること。「もし〜だったら…だろうに」のような言い方。
引用元:反実仮想とは - コトバンク
それゆえ、名称が似ていますが、その内容は異なります。本記事では筆者(@daikikatsuragawa)なりに理解した、反実仮想機械学習と反実仮想説明の違いについて紹介します。補足や助言などありましたら「コメント」や「編集リクエスト」をいただけると幸いです。
比較表
※おそらくレイヤーが異なるであろう2つの技術・手法についての比較であるため、いびつに感じる箇所もあるかと思います。
比較内容 | 反実仮想機械学習(Counterfactual Machine Learning,CFML) | 反実仮想説明(Counterfactual Explanation,CE) |
---|---|---|
分野 | 因果推論/効果検証 | 説明可能なAI |
概要 | 過去に収集したデータを用いて仮想的な施策を設計し、その性能を評価する技術の総称である。オフライン実験による機械学習を用いた対策の改良を可能にする。つまり、オンライン実験をせずとも、意思決定の支援や失敗の防止が期待される。 | 機械学習による予測の結果に対して、状態を覆すために必要な説明変数(または特徴、属性など)の変化量を算出し、例として提示する説明手法である。これにより、予測を受けた人は状態を覆すために必要となる具体的な目標、行動をイメージすることができ、その行動を促進する効果が期待される。 |
反実仮想の捉え方 | 過去に収集されたデータにおける観測されえたが実際は観測されなかったデータ。(例:実際はクーポンを受け取っていない人に対してクーポンを受け取っていたという場合) | 予測を受けた人の状態を覆すために必要な説明変数の変更量の例。(例:「もしこの説明変数がこれだけ変動していたら予測結果は覆っていただろう」と言える例) |
関連 | Off-Policy Evaluation(OPE)/Off-Policy Learning(OPL)/Individual Treatment Effect(ITE)/Unbiased Recommender Learning/Unbiased Learning-to-Rank | Permutation Feature Importance(PFI)/Partial Dependence(PD)/Individual Conditional Expectation(ICE)/Feature Attribution Methods/SHapley Additive exPlanations(SHAP)/Local Interpretable Model-agnostic Explanations(LIME) |
参考