0
1

More than 1 year has passed since last update.

もくじ

損失関数ってなぁに?
主に使われる損失関数
まとめ

損失関数ってなぁに?

ズバリ
 
 
 

損失の関数。

 
 
 
 

(o゚Д゚)=◯)`3゜)∵ヘブ

 
 まず損失とは何か?
 G○○gle先生に聞くと「損ない失うこと」と出てきます。ここでは、人間が決めた「正解値」とモデルによって算出された「予測値」とがあり、この差を損失と呼びます。
 そして、この損失を求める際に使用される数式のことを損失関数と言います。別名、誤差関数とも言います。
 
 この損失を少なくしていくことを学習と言います。

主に使われる損失関数

 主に使われる損失関数は3つ

  • 平均二乗誤差(MSE)関数
  • 交差エントロピー(クロスエントロピー)誤差関数
  • バイナリクロスエントロピー誤差関数

平均二乗誤差(MSE)関数

 MSE= \frac{1}{n} \sum_{i=1}^{n}( y_i -\hat{y}_i)^2\\
 n=データの総数 i=i番目のデータ y=正解地 \hat{y}=予測値

 こちらが損失関数の中で最もポピュラーな損失関数です。
 計算結果は予測値から正解値を引いたものを2乗し、その総和をデータ数で割ると算出できます。
 イメージとしては、正解値と予測値を直線で結び(ユークリッド距離)、どれくらい離れているかを求めている。

交差エントロピー(クロスエントロピー)誤差関数

 cross entropy= -\sum_{i=1}^{n} y_i \log_e \hat{y}_i\\
 n=データの総数 i=i番目のデータ y=正解地 \hat{y}=予測値

 現在、多くの分類問題の学習に使用されている関数です。
 分類問題の多くでは、結果を離散確立分布として出力するという性質を利用しています。
 クロスエントロピーでは、正解値と予測値の自然対数の値を掛け、それらの値を総和し、その結果に-1を掛けることでで算出できます。

バイナリクロスエントロピー誤差関数

 binary cross entropy = -y\log_e \hat{y} - (1-y)\log_e (1-\hat{y}) \\
y=正解地 \hat{y}=予測値

 片方の確率が分かると、もう片方の確率も自動的に求められる(1から求められた確率を引くだけで求められる)性質を利用しています。
 二値分類の場合は、この損失関数を使うことで計算量を抑えることができます。

まとめ

 あくまで触り程度ですが、損失関数のご紹介でした!
 もっと詳しく知りたい方はそれぞれの名前単体で検索を掛けてみるといいんじゃなかろうか…
記事作成:N&Y
 
 
 
 
 さっきはよくm…
(o゚Д゚)=◯)`3゜)∵
 ↑Y氏   ↑N氏

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1