0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

レポート(深層学習)

Last updated at Posted at 2019-12-15

###入力層~中間層
中間層は、隠れ層ともいう。
ニューラルネットワークは、層から層へ、値を変換していく。
層と層の間にあるノード間の結合は、一つ一つが重みを持っている。

総入力=(重み×入力)の合計+バイアス
Pythonでの入力:u1=np.dot(x,W1) + b1
→内積をとる際、数字をそろえる
→34 43

複数の項目を入力層にて入力し、次の層へ伝達
image.png
image.png
image.png
image.png

###活性化関数
中間層用の活性化関数

image.png
➡Z1 = function.sigmoid(u)

ステップ関数
 →しきい値を超えたら発火する関数であり、 出力は常に1か0。
  パーセプトロン(ニューラルネットワークの前身)で利用された。
 →線形分離可能しか学習できない

ReLU関数
 →今最も使われている活性化関数
  勾配消失問題の回避とスパース化に貢献する
image.png
image.png

シグモイド(ロジスティック)関数
 →0 ~ 1の間を緩やかに変化する関数
 →勾配消失問題を引き起こすことがある
image.png
image.png

###出力層

 誤差関数
→ある測定値が正規分布で与えられる場合に、その測定値が −aから aの範囲にある確率

image.png
➡誤差関数に平均二乗誤差を用いている

ソフトマックス関数
→ソフトマックス関数の出力は0~1の実数値に落とし込むことができる

出力層の活性化関数
  ・中間層: しきい値の前後で信号の強弱を調整
  ・出力層: 信号の大きさ(比率)はそのままに変換
  →出力層と中間層で利用される活性化関数が異なる
image.png
image.png
image.png

###勾配降下法

学習率の値によって、学習の効率が大きく異なる
学習率が大きすぎる場合:最小値にいつもでもたどり着かず発散

学習率が小さい場合:小さすぎると収束に時間がかかる

普通の勾配降下法のことをバッチ勾配降下法といい、確率的勾配降下法のことをオンライン勾配降下法ということがある。
image.png

image.png

###誤差逆伝播法
算出された誤差を、出力層側から順に微分し、前の層前の層へと伝播。
教師データと実際と出力データとの間に生じる誤差情報を使ってネットワーク全体を学習する。
最小限の計算で各パラメータでの微分値を解析的に計算する手法
image.png
image.png
image.png

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?