LoginSignup
11
16

More than 5 years have passed since last update.

勾配降下法をざっくりと考えてみる

Last updated at Posted at 2017-03-24

前の記事で何とか損失関数まで理解できたのですが、それだけではまだ関数を定義しただけで、ちゃんと値(損失)を収束させないと答えを求めたことにはなりません。

で、今回はその答えの求め方のお話です。

どうやって値を収束させるのか

損失関数の説明は省くとして、最終的には値を収束させなくてはいけません。
801933de-d8ba-729f-9b2c-6bbe3bd64212.jpeg
このグラフだと、損失が最小となる「m」を求めます。

いきなり答えが求まるわけではなく、少しづつ調整しながら損失を確認し、より小さくなるように調整していきます。
9170a054-e922-46c3-88bf-0365be4df036.png

この「少しづつ調整しながら」の部分がミソなのですが、偉い人たちがいろいろ考えてくれた知恵を使わせていただきます。

  • バッチ勾配降下法
  • 確率的勾配降下法
  • ミニバッチ勾配降下法

代表的な手法はこんな感じなのですが、これの実装方法で、さらにいろいろアルゴリズムがあったりします。
細かい話はしませんが、値の正確さと収束までの早さがポイントとなります。

TensorFlowの実装

TensorFlowでも、こんなにいっぱい用意してくれています。

  • tensorflow.train.Optimizer
  • tensorflow.train.GradientDescentOptimizer
  • tensorflow.train.AdadeltaOptimizer
  • tensorflow.train.AdagradOptimizer
  • tensorflow.train.AdagradDAOptimizer
  • tensorflow.train.MomentumOptimizer
  • tensorflow.train.AdamOptimizer
  • tensorflow.train.FtrlOptimizer
  • tensorflow.train.ProximalGradientDescentOptimizer
  • tensorflow.train.ProximalAdagradOptimizer
  • tensorflow.train.RMSPropOptimizer

全部理解するのはしんどいので、チュートリアルで使用している「AdamOptimizer」と「GradientDescentOptimizer」だけ知っていればとりあえずはいいかなと。
「AdamOptimizer」はAdamアルゴリズム、「GradientDescentOptimizer」は急速降下法になります。

使い方はどちらも同じで、初期値として学習率を指定し、値を最小化するため「minimize()」関数に損失関数を渡します。
コードはそれぞれ、こんな感じになります。

train_step = tensorflow.train.AdamOptimizer(1e-4).minimize(cross_entropy)
train_step = tensorflow.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)

※本当はもっといっぱい引数があるのですが、そのあたりはTensorFlowのマニュアルを見てね!

使用するアルゴリズムの取り換えは簡単ですが、学習率をいくつにすればいいのかは試行錯誤... ^^;

ということで、この処理を実行すると、自動的に損失関数の値が小さくなるように、重みパラメータを調整してくれます。
これが「誤差逆伝播」となります。

もっと詳しく知りたいときは

勾配降下法のアルゴリズムに関しての難しいお話はこのかたの記事を読むのがよさそうです

11
16
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
16