LoginSignup
7
3

More than 3 years have passed since last update.

Explainable artificial intelligence(XAI)とは

Last updated at Posted at 2020-08-19

概要

@ITに説明があった。

説明可能なAI(人工知能)(Explainable AI:XAI)とは、言葉通り、予測結果や推定結果に至るプロセスが人間によって説明可能になっている機械学習のモデル(つまりAIの本体)のこと、あるいはそれに関する技術や研究分野のことを指す。ちなみに「XAI」は、米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端で、社会的に広く使われるようになった用語である。

歴史

米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端のようで、DARPAにExplainable Artificial Intelligence (XAI)の解説が記載されている。

科学技術振興機構の解説資料が詳しい。

注目の理由/背景

「AIの説明」の現状とこれからから抜粋。

「人間の意思決定補助にAIを使うには説明が必要」
 ・判断根拠がわからないと、原因の検討ができない。
 ・根拠不明と無視するなら、そもそもAI導入のメリットがない。
 ・理由を説明できないサービス事業者は信頼されない。
 ・金融サービス提供者は「顧客への説明の義務」がある。

後半2つから分かるように、本当に欲しいのは「説明」ではなく、「納得」や「安心」だと思われる。

また、AIネットワーク社会推進会議 報告書2019のAI利活用原則案に「透明性の原則」の記載がある。

AI サービスプロバイダ及びビジネス利用者は、AI システム又は AIサービスの入出力等の検証可能性及び判断結果の説明可能性に留意する。
(主な論点)
ア AI の入出力等のログの記録・保存
イ 説明可能性の確保
ウ 行政機関が利用する際の透明性の確保

XAIの種類

以下はこちらからの抜粋。

局所的な説明

  • Why Should I Trust You?: Explaining the Predictions of Any Classifier, KDD'16 [Python LIME; R LIME]
  • A Unified Approach to Interpreting Model Predictions, NIPS'17 [Python SHAP]
  • Anchors: High-Precision Model-Agnostic Explanations, AAAI'18 [Python Anchor]
  • Understanding Black-box Predictions via Influence Functions, ICML’17 [Python influence-release] 16

予測の根拠となった特長量

  • LIME
  • SHAP
  • Anchor

予測の根拠となった訓練データ

  • influence 21

改善アクション

大域的説明

  • Born Again Trees
  • Making Tree Ensembles Interpretable: A Bayesian Model Selection Approach, AISTATS'18 [Python defragTrees]

深層学習

勾配ベースの手法

勾配によるハイライトの始まり。

  • Guided Backprop
  • Integrated grad
  • DeepLIFT; DeepLIFTの解説
  • Python+Tensorflow saliency; DeepExplain
  • Striving for Simplicity: The All Convolutional Net (GuidedBackprop)
  • On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation (Epsilon-LRP)
  • Axiomatic Attribution for Deep Networks (IntegratedGrad)
  • SmoothGrad: Removing Noise by Adding Noise (SmoothGrad)
  • Learning Important Features Through Propagating Activation Differences (DeepLIFT) 18

問題点

近似的な判断根拠は、本当に正しいのか?

実装

Google, "Explainable AI"

GoogleのExplainable AIでは、Feature Attributionという値によってモデルの予測結果を評価します。Feature Attributionの計算方法には「Integrated Gradients」と「Sampled Shapley」があります。Feature AttributionはSharpley値という値を上記の手法を用いて計算したものになります。Shapley値とは、ある特徴量がどれだけモデルの予測に貢献したかを示す値になります。引用元

「AutoML Tables」と「Cloud AI Platform」で利用可能。

  • Integrated Gradients → 不連続関数なDLモデルに対してF(x)-F(x')的な量を定義。
  • Sampled Shapley → Shapleyをランダムサンプリングで近似したもの。
7
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
3