1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

scikit-learnのロジスティック回帰の正則化項ハマった話

Last updated at Posted at 2022-02-14

 完全に2値分類できる問題があったとする。scikit-learn のロジスティック回帰を使って分類する場合、scikit-learn のロジスティック回帰ではデフォルトでL2ノルムが加えられている。この正則化項により、うまく分類できない場合があった。

解決策

 そういうときは以下のようにpenalty=noneを追加して正則化項を削除するとうまくいった。
lr = LogisticRegression(penalty = "none")

 理論的には完全分類できる問題で正則化項を入れないと、係数が発散するのでL2やL1の罰則項を追加しておくべき。
 私が試した問題ではなぜか正則化項を削除したらうまくいったという話。

参考

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?