はじめに
Deep Learningに関して数式と概念のつながりを重視する日本のエンジニア・学生に伝わりやすい構成にしています。数学の初心者から始め、私自身がつまずいた点を元に記述したいと思います。
連載タイトル
第1回:Linear Classifier — 全ては「テンプレートマッチング」から始まる
- ポイント: $Wx + b$ という数式が、実は「入力画像」と「クラスごとの理想の形」を内積(掛け算)で比較しているだけであることを解説します
- 学べること: $w$ と $W$ の違い、バイアス・トリックの利便性
第2回:損失関数(Loss Function) — モデルの「反省」を数値化する
- モデルが「惜しい!」のか「全然ダメ」なのかを、どうやってコンピュータに教えるのかを深掘りします。マルチクラスSVM Loss (Hinge Loss): 「正解が他より圧倒的に高ければOK」というスパルタな考え方
- Softmax / Cross-Entropy Loss: スコアを「確率(0〜100%)」に変換して考える、現代の主流な考え方。キーワード: $y$(正解)と $\hat{y}$(予測)の距離
第3回:最適化(Optimization) — 霧の中の「下山」戦略
- 誤差(Loss)を最小にするために、膨大なパラメータをどう動かすか?
- 勾配(Gradient): どちらの方向に重みを動かせばLossが減るかを示すコンパス
- 学習率(Learning Rate): 歩幅の重要性。大きすぎると谷を飛び越え、小さすぎると日が暮れる
SGDとAdam: 現代のデファクトスタンダードな「下山のプロ」たちの紹介。
第4回:(未定)
終わりに
その他、連載タイトルは随時アップデイトします。
Happy Hacking!!