Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
8
Help us understand the problem. What is going on with this article?
@To_Murakami

【論文シリーズ】DropConnectという手法について

More than 3 years have passed since last update.

原文

DropConnectを用いたニューラルネットワークの正則化(Regularization of Neural Networks using DropConnect)
Li Wan (2013)

1. 要約

  • DropConnectは、Dropoutを一般化した手法のことである。
  • Dropoutは、設定した割合に応じて、ランダムにユニットを選択し、そのユニットの重みを「ゼロ」にする。
  • DropConnectは、上記の「ゼロ」を任意の重みに設定できる。さらに言うと、中間層の線形結合の「結合」に注目し、設定した割合に応じて、ランダムに「結合」を取り上げる。そして、結合に重みをかけて、活性化関数にかける。

2. 骨子の理論

DropConnectのモデルを式に落としこむと次のようになる。;

$$r = a(({\bf M} * {\bf W})v)$$

行列${\bf M}$が、それぞれの結合に対して、指定した重みをかけるか、かけないか決める。
それで処理した線形結合を活性化関数にかけ、アウトプットベクトルrに落としこむ。
下の模式図は、CNNにおいて、特徴抽出した後に、DropConnectを適用したきの場合である。

151124202640_2.JPG

3. モデル適用例

コード例は、下記リンクよりダウンロード
http:///cs.nyu.edu/~wanli/dropc

例によって、MNISTによる画像認識精度を対照テクニックとともに比較した。
128枚をセットにした、ミニバッチ学習を施した。
モメンタムを適用し、定数は0.9。
60000枚のトレーニングから、10000枚分テストした。

151124202640_3.JPG

Dropテクニックを使わないと、汎化誤差が目立つ。
だが、テクニックを適用すると、隠れ層のユニットが増えても、過学習になりにくいことが、下図より分かる。

151124202640_4.JPG

8
Help us understand the problem. What is going on with this article?
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
To_Murakami
I'm a data scientist who worked in a Web service company (now working at a pharmaceutical company). Thanks for your attention, feel free add me to your network by following.

Comments

No comments
Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account Login
8
Help us understand the problem. What is going on with this article?