1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

Webアプリケーションエンジニアがディープラーニングに挑戦する際にやったこと(Coursera Week5)

Posted at

Coursera Week5

はじめに

CourseraのWeek5を実施しましたので、私のメモを公開します。
Courseraってなんだ?という方はWeek1から御覧ください。

ニューラルネットワーク

目的関数(CostFunction)

$L$はニューラルネットワークのレイヤの数。
$s$はニューロンの数を表す。($s_1$は入力レイヤのニューロン数。)
$K$は出力ユニット、クラスの数。
ニューラルネットワークの目的関数は以下のように表す。

バックプロパゲーション(Backpropagation algorithm)

ニューラルネットワークのコスト関数$J(\theta)$の最小値を求めるためにバックプロパゲーションを使用する。(最急降下法の代わり的な。)
バックプロパゲーションは日本語で誤差逆伝播法という。
最急降下法は入力レイヤから順番に計算していたが、バックプロパゲーションは逆に出力レイヤ側から計算する。
最初の入力レイヤには誤差は無いので計算しない。

実装ノート:パラメータのアンロール(implementation note:Unrolling parameters)

ロジスティック回帰ではthetaも最急降下法の結果もベクトルだったが、ニューラルネットワークでは行列になる。
これらの行列を以下のようにベクトルにアンロールすることができる。

thetaVec = [Theta1(:); Theta2(:); Theta3(:);];

また、reshapeを使用することでもとの行列に戻すことができる。

Gradient checking

最急降下法が正しく動いているかチェックする。
ただ、このチェックアルゴリズムは非常に遅いので毎回走らせてはいけない。

ニューラルネットワークの学習方法
1.ウェイトを0に近いランダムな数で初期化
2.フォワードプロパゲーション
3.目的関数$J(\theta)$を求める
4.バックプロパゲーション
5.Gradient Checking
6.目的関数$J(\theta)$を最小化する

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?