LoginSignup
0
6

More than 3 years have passed since last update.

統計学分野のロジット関数やNNのシグモイド関数の対応

Posted at

Introduction

某所で人に説明する際に

  • 一般化線形モデル (GLM)
  • ロジスティック回帰
  • ロジット関数
  • 全結合層 (NN)
  • シグモイド関数 (NN)

の対応を忘れていてぱっとでてこなかったので、軽くおさらいします。

シッパイカラマナブノダイジ...
チシキバラバラヨクナイ...

厳密には同じものだといえないところがあるかもしれませんが、ご容赦下さい。

TLDR;

乱暴に言うと、

  • ロジスティック関数 - シグモイド関数 - ロジット関数の逆関数
  • ロジスティック回帰 - 全結合層の出力にシグモイド関数を適用 - GLMのリンク関数にロジット関数を選んだもの

なお何度もいいますが、あくまで同じなのは式の形であり、
境界やとりうる値、意味論を考えるとそうとは言えないかもしれないのでご注意を...

線形モデル(線形回帰)

ベースとなる単純な線形モデルは、

$$ y = WX + b $$

Xをinput, yをtarget, Wを重み, bをバイアス(切片)とします。

Xとyは統計だと、それぞれ説明変数、目的変数と呼ばれることが多いようです。

また右辺は線形予測子とも呼ばれます。

これがNNにおける一層の全結合層に対応します。

GLM

ここで一般化してリンク関数によりtargetを変換し線形予測子と結びつけます。

$$link(y) = WX + b$$

これがGLMのベースの式です。

先ほどの線形モデルはlink関数を恒等関数にした場合に対応します。  

今度はlink関数に以下のlogit(ロジット)関数を選びます。

logit(y) = log(\frac{y}{1 - y})

ようはオッズの対数です。

これを左辺がyになるように変形すると

log(\frac{y}{1 - y}) = z \\

y = \frac{1}{1 + exp(-z)}

が得られます。右辺をzの関数とすると、


g(z) = \frac{1}{1 + exp(-z)}

となりご存知シグモイド関数の形になります。

この$g(z)$はロジスティック関数でもあり、  
zを線形予測子で置き換えると、


y = \frac{1}{( 1 + exp(WX + b))}

となりyをtargetとしたロジスティック回帰となります。

同時にこれは 全結合層 にシグモイド関数を活性化関数として適用した形になります。

参考文献

  • データ解析のための統計モデリング入門――一般化線形モデル・階層ベイズモデル・MCMC (確率と情報の科学),久保拓也, 岩波書店, 2012/5/19
  • 回帰分析 - Wikipedia
0
6
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
6