0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

勾配降下法について勉強

Posted at

勾配降下法 とは

機械学習や深層学習で利用されるパラメータの最適化の方法のひとつ。
モデル式の誤差を小さくなるような、パラメータを探したい。

図:パラメータが一つの場合

パラメータを少しずつ動かして、誤差の小さくなる場所を探していく。

  1. 適当なパラメータを設定して、誤差の式を微分 → 傾きを求める → 傾きが右下がりだったので、グラフは減少傾向にある、とわかる
  2. パラメータを少し右に動かしてみる
  3. 傾きを求める

これを繰り返して傾きが0になる点を探していくことで、誤差の最小値を探していく。

問題点

  1. データ量が多いと計算量が増え、1回の重み更新に時間がかかってしまう
  2. ローカルミニマムに陥ってしまう

ローカルミニマム

誤差が小さくなるようにパラメータを変更していくので、小さな谷を抜け出すことができない。

確率的勾配降下法

上の2つの問題の解決策が確率的勾配降下法
全データから数十件~数百件のデータセット(ミニバッチ)を作成し、計算する。
→ 計算量の問題は解決

全データで計算したときのようにまっすぐ極小値へ向かわないこともあるが、ローカルミニマムから出られない、ということはなくなる。
何度も試行することで確率的に最小の誤差に向かっていく。

参考

0
0
2

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?