4
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

機械学習/ノルム、正則化

Posted at

#1.はじめに
 今回は、ノルムと正則化についてまとめます。

#2.ノルム
 ベクトルの大きさを計算する場合、ノルムという計算式を使います。ノルム$L^p$の一般式は、下記の様に表せます。
スクリーンショット 2020-04-21 18.22.41.png

 P=2である$L^2$ノルムは、ユークリッド距離と呼ばれ、
スクリーンショット 2020-04-21 18.23.00.png

 P=1である$L^1$ノルムは、マンハッタン距離と呼ばれ、
スクリーンショット 2020-04-21 18.22.52.png

#3.正則化
 機械学習において、コスト関数にペナルティ項を加えて、コスト関数+ペナルティ項の和を最小化する形にすることで、過学習の抑制や次元削減の効果が期待できます。

1)L2正則化
 $min_wf(x)+\frac{\lambda}{2}\sum_{i=1}^n|w_i|^2$

 損失関数+L2正則化項の合計を最小化するパラメータ$w_i$を求めることで、過学習の抑制効果が得られます。線形回帰の場合は、Lidge回帰と呼ばれます。

2)L1正則化
 $min_wf(x)+\lambda\sum_{i=1}^n|w_i|$

 損失関数+L1正則化項の合計を最小化するパラメータ$w_i$を求めることで、次元削減効果が得られます。線形回帰の場合は、Rasso回帰と呼ばれます。

4
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?