Tensorizing Neural Networks, NIPS2015
deep learningモデルは高性能であるが、その分計算リソースを要求する。
特に全結合ネットワークなどはメモリ要求が高く、そのためローエンドのデバイスには適用が難しい。
本論では、全結合ネットワークをTensor Trainを用いた変換により、パラメータ量を大幅に削減する手法を提案する。
Tensor Trainではテンソルを低ランクな行列の積の連なりで表現する方法で、そのままのテンソルを保持するよりも大きくメモリを節約可能である。
本論ではこのTensor Trainフォーマットを用いてdeep learningモデルを表現し、学習まで行う事を可能にし、計算効率を高めた。
VARIATIONAL CONSENSUS MONTE CARLO, NIPS2015
データを分割しパラレルにMCMCを行う場合を扱う。
このような手法の中で特に、最初と最後のみに各処理クラスタ間で通信を行うconsensus monte carlo (CMC)を考える。
各クラスタでは、subposterior samplingによりサンプリングが行われ、最後にそれらが集められ、全体の事後分布サンプルが得られる事になる。
この場合、subposteriorを適切に求める事が出来れば、全体の事後分布サンプルを適切に求める事が可能になる。
また、各クラスタでサンプルされたものをどのような凝集するかが重要になり、それをガウス分布仮定に基づいた重み付き計算より行うのがCMCとなる。
しかしこの凝集に関してガウス分布仮定ではなくより良く事後分布を近似出来るような手法が考えられる。
また変数間の依存関係に関する制約を考慮に入れる事でさらなる改善も期待出来る。
本論ではこうした観点から、variational consensus monte carlo(VCMC)を提案する。
VCMCでは全結合分布を各独立分布の積として近似する変分ベイスの観点から、凝集を行う関数を推定する。
またデータ構造に関する情報も取り入れ可能である。
Policy Evaluation Using the \Omega-Return, NIPS2015
強化学習におけるTD-lambda学習の代替手法としてTD-Omegaを提案する。
TD-lambdaはBellman equationより求める期待累積利得の各ステップにおける変化値に基づいて価値関数を近似的に更新する手法で、パラメータlambdaが大きいほど長いステップ間の変化値に基づいて更新を行う(lambda=1の場合、単純にmonte carlo RLになる)。
lambdaが小さい、短い期間での変化値を利用する場合、分散が小さいが推定バイアスが大きく、lambdaが大きい、長い期間での変化値を利用する場合、分散が大きいが推定バイアスは小さくなる。
従来手法はこれらの分散、バイアス変化を正確に予測する事で予測性能を向上するTD-gammaがあるが、結局、各ステップ長さ間の相関関係を考慮し活用したものはない。
提案するTD-Omegaでは各長さのステップ間の変化値に関して、それらの間に相関を仮定したモデルを提案する。
このモデルはしかし正確な予測が難しいため、本論では特にその近似推論手法についても提案する。