1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

Do We Need Zero Training Loss After Achieving Zero Training Error?

Last updated at Posted at 2020-05-29

Takashi Ishida, Ikko Yamane, Tomoya Sakai, Gang Niu, Masashi Sugiyama

杉山先生の理研AIP。

概要

  • パラメータの数が十分大きいネットワークでは訓練データを完全に記憶し、訓練エラーが0になった後もロスが小さくなっていく。
  • テストエラーは逆に上昇する。いわゆる過学習。
  • 訓練ロスを十分小さい値(flooding level)周辺に維持するように学習すると過学習を抑制できる。
  • 具体的にはflooding levelより低くなったら gradient descent でなく ascent する。1行で実装できる。
  • 副作用として性能も向上した。

image.png

評価

合成データと、MNISTなどのベンチマークで評価。early stopping無しでも安定して性能がでている。early stoppingを行った場合よりも多くの場合性能が向上している。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?