Introduction
某所で人に説明する際に
- 一般化線形モデル (GLM)
- ロジスティック回帰
- ロジット関数
- 全結合層 (NN)
- シグモイド関数 (NN)
の対応を忘れていてぱっとでてこなかったので、軽くおさらいします。
シッパイカラマナブノダイジ...
チシキバラバラヨクナイ...
厳密には同じものだといえないところがあるかもしれませんが、ご容赦下さい。
TLDR;
乱暴に言うと、
- ロジスティック関数 - シグモイド関数 - ロジット関数の逆関数
- ロジスティック回帰 - 全結合層の出力にシグモイド関数を適用 - GLMのリンク関数にロジット関数を選んだもの
なお何度もいいますが、あくまで同じなのは式の形であり、
境界やとりうる値、意味論を考えるとそうとは言えないかもしれないのでご注意を...
線形モデル(線形回帰)
ベースとなる単純な線形モデルは、
$$ y = WX + b $$
Xをinput, yをtarget, Wを重み, bをバイアス(切片)とします。
Xとyは統計だと、それぞれ説明変数、目的変数と呼ばれることが多いようです。
また右辺は線形予測子とも呼ばれます。
これがNNにおける一層の全結合層に対応します。
GLM
ここで一般化してリンク関数によりtargetを変換し線形予測子と結びつけます。
$$link(y) = WX + b$$
これがGLMのベースの式です。
先ほどの線形モデルはlink関数を恒等関数にした場合に対応します。
今度はlink関数に以下のlogit(ロジット)関数を選びます。
logit(y) = log(\frac{y}{1 - y})
ようはオッズの対数です。
これを左辺がyになるように変形すると
log(\frac{y}{1 - y}) = z \\
y = \frac{1}{1 + exp(-z)}
が得られます。右辺をzの関数とすると、
g(z) = \frac{1}{1 + exp(-z)}
となりご存知シグモイド関数の形になります。
この$g(z)$はロジスティック関数でもあり、
zを線形予測子で置き換えると、
y = \frac{1}{( 1 + exp(WX + b))}
となりyをtargetとしたロジスティック回帰となります。
同時にこれは 全結合層 にシグモイド関数を活性化関数として適用した形になります。
参考文献
- データ解析のための統計モデリング入門――一般化線形モデル・階層ベイズモデル・MCMC (確率と情報の科学),久保拓也, 岩波書店, 2012/5/19
- 回帰分析 - Wikipedia