1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

NIPS2016 参加報告

うっかりしていて遅くなってしまいました。ゴメンナサイ。

NIPS2016に行ってきましたのでその参加報告です。
ちなみに NIPS とは Neural Information Processing Systems の頭文字で
この分野の国際会議の中で規模も大きく,歴史も30年以上を有する有名な国際会議です。
今年はスペインのバルセロナで12月5日から10日までの日程で開催されました。

プログラムによりますと,参加者は

参加者
2016年 5680名
2015年 3800名
2014年 2478名
2013年 1902名
2012年 1610名
2011年 1394名
2010年 1301名

と指数関数的に増加しています。ダラダラと全部紹介しても冗長ですので一日目の内容を紹介します。初日のセッションですから今,何が注目されているのかを推し量ることができる内容になっています。

一日目のセッション

8:30 am - 10:30 am - Tutorial Sessions

  1. Variational Inference: Foundations and Modern Methods
    • David Blei, Shakir Mohamed, Rajesh Ranganath
  2. Crowdsourcing: Beyond Label Generation
    • Jennifer Wortman Vaughan
  3. Deep Reinforcement Learning Through Policy Optimization
    • Pieter Abbeel, and John Schulman

11:00 am -- 1:00 pm - Tutorial Sessions

  1. Nuts and Bolts of Building AI systems using Deep Learning
    • Andrew Y Ng
  2. Natural Language Processing for Computational Social Science
    • Cristian Danescu-Niculescu-Mizil, and Lillian J Lee
  3. Theory and Algorithms for Forecasting Non-Stationary Time Series
    • Vitaly Kuznetsov, and Mehryar Mohri

2:30 pm - 4:30 pm - Tutorial Sessions

  1. Generative Adversarial Networks
    • Ian Goodfellow
  2. ML Foundations and Methods for Precision Medicine and Healthcare
    • Suchi Saria, and Peter Schulam
  3. Large-Scale Optimization: Beyond Stochastic Gradient Descent and Convexity
    • Suvrit Sra, and Francis Bach

5:30 pm - 6:20 pm

  1. Invited Talk: Posner Lecture - Predictive Learning
    • Yann LeCun

この中で私は8:30からは Blei のセッション,11:00からは Ng のセッション,
2:30からは Goodfellow,5:30からは LeCun を聴きました。
この4名は超有名人ですから紹介するまでもないでしょうが,一応,一行で紹介してみます。

Ng さんと LeCun さんの講演は,一般向けで多くの研究を俯瞰した内容でしたが,Blei さんは変分推論 (Variational Inference) について,Goodfellow さんは GAN についてやや専門的に語っていました。
そこで,Blei さんと Goodfellow さんの講演について少しだけ説明させていただきます。

変分推論について

TL;DR

機械学習であれ,ニューラルネットワークであれ,多くの問題は所与のデータの持つ確率分布を推定することに帰結されます。近年,変分ベイズ,変分オートエンコーダなどと呼ばれるモデルが提案され注目を集めています。
ちょっとだけ釈迦に説法しますと

$w=(w_1,w_2,\ldots,w_d)$ を $d$ 次元ユークリッド空間の中のベクトルとします。 $p(w)$ を $d$ 次元ユークリッド空間の上の確率分布とします。 $p(w)$ を作りたくても高次元上の確率分布はなかなか作れないという問題があるので,全変数 $w_1, w_2,\ldots,w_d$ が独立であると仮定すると,
$$q(w) = q_{1}(w_1) q_{2}(w_2)\cdots q_{d}(w_d)$$
を考えることができて,相対エントロピー
$$D(q||p)=\int q(w)(\log q(w)- \log p(w))dw$$
を最小にする $q(w)$ を求め、$q(w)$ を $p(w)$ の近似と考えることを 平均場近似 といいます。
確率分布 $p(w)$ がある関数 $H(w)$ を用いて
$$p(w)=\frac{1}{Z}\exp(-H(w))$$
という形で与えられているときには、$D(q||p)$ を最小にする $q$ は、汎関数
$$ f(q)= \int q(w) (\log q(w) + H(w) ) dw $$
を最小にする $q$ と等しいことになります。ある $q(w)$ を用いて $q(w)=p(w)$ が成り立つときには
$$F = \min_{q} f(q) = -\log Z$$
になります。関数 $H(w)$ がハミルトニアンであるとき、$Z$ は分配関数と呼ばれます。
$F$ を自由エネルギーと呼びます。
通常 $p(w)$ は変数毎に独立であるとは限らないので $q(w)=p(w)$ が成り立つとは限りません。最小値である
$$F'=\min_{q}f(q)$$
を平均場近似による自由エネルギーといいます。定義から $F'\ge F$ であり、$F'-F$ が平均場近似の良さを表す量になります。
ベイズ推論においては,モデルから尤度関数を定義し,$p(w)$ を事後分布とするとき
$f(q)$ を最小にする $q(w)$ を変分法で求めることが行われます。これを 変分ベイズ法 などと呼びます。

GAN について

NIPS2016 では GAN についてのワークショップもありました。

GAN

画像は OpenAI の[ブログ](https://openai.com/blog/generative-models/) より

すぎゃーんさんのアイドル顔画像生成が有名でしょうか。

GANについては、理論的な整備が進んできた印象です。
強化学習のアクタークリティック学習とくっつけたりもう少し発展する予感です。

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?