1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

ざっくりと "ゼロから作るDeepLearning" を読むノート

Posted at

この記事は

Deep Learning初心者がざっくりと
"ゼロから作るDeep Learning"(オライリー・ジャパン)
を読むノートです。

第6章 学習に関するテクニック

損失関数(loss function)の値をできるだけ小さくするパラメータをみつけたい。=> 最適化問題

機械学習フレームワークには、様々な optimizer が用意されています。

SGD (Stochastic Gradient Descent) 確率的勾配降下法

  • パラメータ: Weight、Gradient、Learning-Rate
  • 勾配の方向が、本来の最小値ではない方向を指している課題がある
  • ジグザグ状に収束していくため、遠回り

Momentum

  • パラメータ: Weight, Gradient, Learning-Rate, Verocity, alpha
  • Velocity は速度、alpha はインピーダンス(摩擦、空気抵抗みたいなもの)
  • ゆれ方向に減速することで、ジグザグ状を軽減する

AdaGrad (Adaptive Gradient)

  • パラメータ: Weight, Gradient, Learning-Rate, h
  • h はこれまでに経験した勾配の値の2乗和
  • 大きく動いたLearning-Rateを次第に小さくしていく

RMSProp

  • AdaGradの改良
  • 過去の勾配を少なく、新しい勾配の影響を大きく反映されるようにする

Adam (AdaGrad + Momentum)


重みの初期値

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?