0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

BatchNormalizationとDropoutの併用について

Last updated at Posted at 2022-10-31

BatchNormalizationとDropoutの併用について

  • 下図よりBatchNormalizationとDropoutを併用することで、学習速度が低下するものの、過学習が抑制できることがわかる。
    また、過学習を抑制することができた結果として、最も低いlossを獲得できている。
  • しかし、併用する場合は順序に注意する必要がある。

図1:cifar10でのlossとaccuracy


  • 論文ではBatchNormalizationとDropoutを併用した場合の性能低下に関する考察が行われており、BatchNormalizationの前にDropoutを入れることは非推奨となっている。
    しかし、FC層の前のみにDropoutを使用することで性能が改善することを示している。

  • よって、BatchNormalizationと併用する場合は、DropoutはFCの前のみに適用するのが望ましい。



参考サイト

https://atmarkit.itmedia.co.jp/ait/articles/2003/11/news016.html

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?