Rich Component Analysis, ICML2016
同じ現象を指し示す、複数のデータ(multiview data)を学習し、共通する特徴、あるいはあるデータに特有の特徴を抽出する一般的フレームワークを提案する。
特に対象の分布に対するモデルを必要とせず、累積確率に関するmethod of moment法を適用する事で実現する。
A Kronecker-factored approximate Fisher matrix for convolution layers, ICML2016
Natural gradient descentを始めとした2次オーダーの勾配法を利用する事で計算効率を改善する事が期待される。
しかしその計算にはFisher matrixなどの損失関数の曲率に関する情報を推測する必要があり、従来その精度には限界があった。
本論ではKronecker Factors for Convolution(KFC)を提案し、これを用いればNNモデルの畳み込み層におけるFIsher matrixを
tractableな形で近似する事が可能になる。
KFCは誤差伝播法において計算する勾配の分布に関する構造を確率モデルとして利用する。
その構造としては例えば、NNモデルの各層間の重み同士には関連がない等を利用する。
推定されたfisher matrixは小さな行列同士のクロネッカー積で表現でき、逆変換が容易である。
KFCは曲率情報を保持しつつ、効率的な勾配法計算を可能にする。
Continuous Deep Q-Learning with Model-based Acceleration, ICML2016
モデルフリーな強化学習のアプローチにおいてsample complexityの大きさは問題である。
本論ではそれを減らすための手法として、Q learningを連続値に拡張したnormalized advantage function(NAF)を提案する。
NAFの利用により連続的なタスクに対してexperience replayが適用可能になり、学習効率が改善できる。
またすでに学習済みのモデルを用いる事で新たに学習するモデルフリー手法の学習効率をさらに改善できる。