2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

機械学習 optimizer(最適化アルゴリズム)

Posted at

optimizerについて学習したので,簡単にメモ.

optimizerとは

損失を効率よく最小化するためのアルゴリズム.Kerasではoptimizerで指定.

勾配降下法(最急降下法)

image 傾きと逆向きに降りる.

SGD(確率的勾配降下法)

訓練データからランダムに抽出し,学習する.局所解に陥りづらい.勾配降下法のランダム版.欠点は,1つの勾配の計算が終わらないと次の勾配に移れず,並列処理できないこと.

ミニバッチ学習SGD

更新で使うデータ数を1つから16個や32個などに増やし,並列に学習させる.大分改善されたが,Pathological Curvatureの問題が残る(一度の更新幅が大きすぎると収束しない.オーバーシュート.)

モーメンタム(Momentum)

image

SGDに慣性的な性質を持たせたもの.今までの変化値を考慮することで,振動のような急激な変化の影響を抑える.移動平均.

Nestrovの加速勾配法

image

先に慣性項で重みを更新させてから勾配をとって更新する.あらかじめどの方向へ向かうのか考慮する.

AdaGrad

image 1つ1つの重みの学習率を適応的に変化させる.大きく動いたパラメータの学習率は段々小さくなる(が,いずれ0になってしまい学習できなくなってしまう問題もあった).なだらかな勾配に対応す

RMSProp

image

ε:ゼロ除算を避けるための極めて小さい値

SGDの振動を抑えるために,モーメンタムでは重みを調整したが,RMSPropでは学習率を調整する.
また,AdaGradでは過去の勾配を均一に加算していたが,指数移動平均によって直近の勾配を大きく反映させる.

AdaDelta

image

AdaGrad, RMSPropの改良.学習率ηもなくなっている.より直近の勾配を優先して反映させる.

Adam

image

モーメンタムとRMSPropの良いとこどり.2014年から現在に至るまでデファクトとなっている.

2
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?