LoginSignup
0
0

正則化最小二乗法

Posted at

正則化最小二乗法

一般的に学習データに対する誤差関数を最小化するように学習しますが、

これだけでは細かくフィッティングした複雑なモデルが生成され、過学習が起こります。

過学習を防ぐために誤差関数に正則化項を加える。

正則化された最小二乗法(Regularized Least Squares)における誤差関数を定義しています。この誤差関数は、データ依存の誤差項と正則化項の和として表されます。

E_D(w) + \lambda E_W(w)

$E_D$を二乗和誤差関数を下の式を用いる。

E_D(w) = \frac{1}{2} \sum_{n=1}^{N} \{ t_n - w^T\phi(x_n)\}^2 

誤差関数の全体を

\frac{1}{2} \sum_{n=1}^{N} \{ t_n - w^T\phi(x_n)\}^2 + \frac{\lambda}{2}w^Tw

wに関する勾配を求めてから0とおきwについて解けば

0 = -\sum_{n=1}^{N} \{ t_n - w^T\phi(x_n)\}\phi(x_n)^T + \lambda w
0 = \sum_{n=1}^{N}t_n\phi(x_n)^T  - w^T\sum_{n=1}^{N}\phi(x_n)\phi(x_n)^T - \lambda w
0 = t \Phi^\top - w^T\Phi^\top \Phi - \lambda w
w^T\Phi^\top \Phi + \lambda w =  t \Phi^\top
w = (\Phi^\top \Phi + \lambda I)^{-1} \Phi^\top t

このように解けます。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0