0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【連載】ゼロから深く理解するDeep Learning 数学の旅

Posted at

はじめに

Deep Learningに関して数式と概念のつながりを重視する日本のエンジニア・学生に伝わりやすい構成にしています。数学の初心者から始め、私自身がつまずいた点を元に記述したいと思います。

連載タイトル

第1回:Linear Classifier — 全ては「テンプレートマッチング」から始まる

  • ポイント: $Wx + b$ という数式が、実は「入力画像」と「クラスごとの理想の形」を内積(掛け算)で比較しているだけであることを解説します
  • 学べること: $w$ と $W$ の違い、バイアス・トリックの利便性

第2回:損失関数(Loss Function) — モデルの「反省」を数値化する

  • モデルが「惜しい!」のか「全然ダメ」なのかを、どうやってコンピュータに教えるのかを深掘りします。マルチクラスSVM Loss (Hinge Loss): 「正解が他より圧倒的に高ければOK」というスパルタな考え方
  • Softmax / Cross-Entropy Loss: スコアを「確率(0〜100%)」に変換して考える、現代の主流な考え方。キーワード: $y$(正解)と $\hat{y}$(予測)の距離

第3回:最適化(Optimization) — 霧の中の「下山」戦略

  • 誤差(Loss)を最小にするために、膨大なパラメータをどう動かすか?
  • 勾配(Gradient): どちらの方向に重みを動かせばLossが減るかを示すコンパス
  • 学習率(Learning Rate): 歩幅の重要性。大きすぎると谷を飛び越え、小さすぎると日が暮れる

SGDとAdam: 現代のデファクトスタンダードな「下山のプロ」たちの紹介。

第4回:(未定)

終わりに

その他、連載タイトルは随時アップデイトします。

Happy Hacking!!

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?