LoginSignup
1
1

More than 5 years have passed since last update.

機械学習論文読みメモ_129

Posted at

THE (UN)RELIABILITY OF SALIENCY METHODS
deep learningにおいてsaliency methodはモデルの予測結果を
可視化するための手法として一般的である。
しかしこの手法はモデル予測に寄与しない部分に関しても敏感に
反応してしまう弱点がある。
本論ではこの事実を、単純なconstant shiftをpre-processingに
行うだけで実現できることから示す。
こうした脆弱性を克服するためには入力に関するある種の
invarianceが必要になる。
本論ではその事をsaliency modelが満たすことは難しいことを示した。

Inverse Reward Design
エージェントシステムにおいて、それらエージェントは
与えられたreward functionに沿って最適化されていく。
そうしたreward functionをdesignしようとする場合、
具体的な訓練シナリオを考え、それに沿って、望ましい
行動へ導く事が可能なようなrewardを考えるのが一般的である。
しかしそのようにしてデザインされたrewardは
まさに想定されたシナリオに対してのみ有効であって、
今までになりシナリオに遭遇した場合に対応できない。
本論では、デザインされたrewardは実際に何が求められているか
を示す観測データであるとみなす。
すなわち、それら観測の住むコンテクストに沿って考える必要がある。
本論では、そうした観測としてのrewardをもとに真の目的関数を
導出する手法としてinverse reward designを定義し、MDPの文脈で
近似的に求解する手法を提案する。

convolutional normalize flow
Bayesian posterior inference一般的なアプローチの一つである。
特にvariational inferenceは事後分布の近似を与える手法である。
しかしその表現力は制限されている。
最近の研究において、deepnetを用いて高精度に事後分布を近似する手法は
提案されてきている。
この近似手法の一つとして、単純な分布から複雑な分布へ可逆的にwarpさせていく
Normalizing flowsがある。
この手法では出力される分布を解析可能である。
しかしながら、normalizing flowのflexibilityとcomputation costの間には
トレードオフがある。
本論ではこのトレードオフを解決するための手法として
ConvFlowを提案する。
ConvFlowではランダム入力に対するconvolutionに基づいた手法である。
convolutionを用いることで可逆な変換でありながらlinear scaleの計算complexity
を維持できる。

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1