0
0

Pythonのstatsmodesの重回帰分析の回帰係数が摩訶不思議な値になる問題の原因と対策

Last updated at Posted at 2023-12-17

概要

  • Pythonの統計解析statsmodelsで重回帰分析を行っていたら,あるサンプル数以上から回帰係数が正しく出力されないという現象に出会ったので,その原因と対策について共有します.
  • 結論をざっくりいうと,原因は(たぶん)因子であるカテゴリ変数をOne-Hotエンコーディングをしていたことで,対策は因子ごとのダミー変数を1つずつ抜くことです.

起こった問題

A, B, C, D, 4つの因子に対してそれぞれa, b, cという水準(値)を取りうるデータとその評価点(1から7の数値)があるデータに対し, 各因子の値を説明変数,評価点を目的変数としてPythonのstatsmodeslで重回帰分析をすることで,各因子の値が評価点にどのように影響を与えるかを分析していました.(抽象的でスイマセン....要は得点評価法を用いたコンジョイント分析です)

下記のような感じでカテゴリ変数である因子A, B, C, Dを0または1の値を取るダミー変数(A_a, A_b,...)に置き換えました.いわゆるOne-Hotエンコーディングというものです[参考2].

df_x2 = pd.get_dummies(df_x[['A','B','C','D']])

置き換えたデータに対して,次のように最小二乗法による重回帰分析を実行した結果, あるサンプル数まではそれっぽい結果を出すのですが,それを超えると不可思議な結果を出すようになりました.

model= sm.OLS(df_y, sm.add_constant(df_x2))
result = model.fit()
result.summary()

サンプル数が842まではこんな感じなのですが...

1.png

サンプル数が843を超えると...

2.png

こんな感じで, 1サンプル増えただけなのに回帰係数が大きく変わって,しかも同じ因子から作ったダミー変数の回帰係数がまったく同じ値になるという謎現象が起こりました(涙).この謎の閾値はデータの値によって違いましたが,データ数が増えると似たような現象が起こることは同様でした.

原因と対策

どうにも問題が解決しなかったので,Rの方で同様の重回帰分析を行った結果,次のようになりました.

3.png

"NA"という値が含まれていました.これはある説明変数が他の説明変数で完全に説明できることを意味しています[参考3].重回帰分析では説明変数間に相関があると多重共線性により正しい結果が出ないため,説明変数から除く必要があります(...そうだった).
※ これとは別に,各説明変数の多重共線性をチェックする必要があります[参考4]. いっぺんにやってくれてもいいのに.

このRが自動でやってくれている処理を手動でやってあげる(データから各因子ごとにダミー変数を1つずつ抜いてあげる)とstatsmodelsでもRと同じ結果を出力するようになりました.

4.png

回帰係数が最初の図とずいぶんと変わったように感じるかもしれませんが,これは各説明変数の意味が変わるからです.

今回の教訓は"One-Hotエンコーディングしたデータを,そのまま重回帰分析に喰わすな"ということでした.

おまけ

statsmodesのGithubのissue,なんと2.5k(2500件!?)ありました@@;.Tensorflowをはじめとした最新の機械学習のライブラリを使うならPythonが超絶便利ですが,クラシックな統計解析は,昔からあるRなどの統計解析ソフトを使う方が動作が安定していてよいのかな~と思いました.どなたかのご参考になれば幸いです.

今回はコンジョイント分析のやり方自体は説明しませんでしたが,次回はコンジョイント分析のやり方についてまとめて書いてみようと思います♪

参考

以下のサイトを参考にさせて頂きました.ありがとうございます.

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0