#深層学習1-6 Jupyter演習 (Section1:入力層~中間層)
#####【演習実施結果】
#####【考察】
内積を取る時は、入力の列の数と、重みの行の数を一致させる必要がある。一致していないとエラーになる。
numpyを使うと、パラメータの入力は、直接値を打ち込む以外に、0や1、また乱数を自動生成するようなメソッドが使える。
#深層学習1-8 Jupyter演習 (Section2:活性化関数)
#####【演習実施結果】
#####【考察】
処理自体は、単ノードの場合と同じ。
単ノードの時と異なり、今回は中間層のノード数が3なので、出力値も3つある。
数が多くなってくると、具体的な数値を冗長的に記述するよりも、np.random.rand()などを使用して、書けばソースコードは1行で済んで見やすくなる。
#深層学習1-15 Jupyter演習2
#####【演習実施結果】
1_3_stochastic_gradient_decent.ipynb
順伝播でシグモイド関数を使った方が、学習にばらつきが出て来るのが分かる。
全く収束していないのが分かる。
#####【考察】
同じネットワークモデルでも、使う活性化関数によって、結果が変わってくる。
またモデルだけではなく、与えるデータによっても、結果が変わる事が分かった。