1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

再提出レポート(深層学習ー1)

Posted at

順伝播(単層・単ユニット)
入力(2,3) 重み 0 1    計算結果(2,6) これにバイアス0.5
           0 2
を掛けて、出力が(1,3) 中間層出力はReLU関数を使うので、そのまま(1、3)

image.png

順伝播(単層・複数ユニット)
image.png

順伝播(3層・複数ユニット)
image.png
image.png

多クラス分類
重み1を3層、重み2を4層にして、出力を4つに分類した結果。
出力値の合計を1とし、最も大きい値の要素と訓練データとの比較が誤差である。
image.png
image.png

回帰
出力値と訓練データの差があり、その結果、誤差も大きい値である。
image.png
image.png

2値分類
image.png

誤差逆伝播法
image.png
image.png

確率的勾配降下法

image.png

MNISTを使った検証
訓練データ、検証データとも正答率が0.9以上と良い結果が得られた。

image.png

image.png

勾配消失問題

ReLU-gauss

image.png

<初期値設定について>
Sigmoid-Xavier
image.png

ReLU-He
image.png

バッチ正則化
image.png

確率的勾配降下法
・モメンタム
image.png

・AdaGrad
image.png

・RSMprop
image.png

・Adam
image.png

過学習
L1正則化
image.png

L2正則化
image.png

DropOut
image.png

DropOut-L1正則化
image.png

Im2col
image.png

Simple Convolution Network
image.png

Double Convolution Network
image.png

Double Convolution Network
image.png

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?