#内容と想定読者
Pycaretを使ってみようと思ったときのメモになります。
やることは回帰(regression)です。
導入から分析までの流れをメモしました。
初めてPycaretを触る方の一助になればと思います。
Pycaretのインストール
pipで行けるんだろーなとか思ってやったらエラー。
原因を解消するより仮想環境を作る方が簡単そうだったのでそうしました。
ってことで、ターミナルを開いて、condaで仮想環境の作成。
今回は仮想環境名PyCaret、Pythonバージョンは3.6で作成しました。
conda create --name PyCaret python=3.6
作成した環境に移動。
conda activate PyCaret
pycaretのインストール
pip install pycaret
これで完了。(pycaretいらんってなったら、仮想環境ごと削除)
自分はJupyter Notebookを使いたいので、次の設定も行いました。
Pycaretの呼び出しとlightGBM周りのエラー
上記の手順でPycaretのインストールに成功したので、早速Pycaretを使っていきたいところですが、まだもうちょっとインストールしないといけないものがあります。それがlightgbmとlibompとbrewになります。
<↓なんでこれらが必要なのか気になる人向け↓>
pycaretはいくつかのモデルを自動で生成し、モデル毎のテスト結果を比較出力ができます。その際、デフォルトでlightgbmが呼ばれるのでインストールしておかないとエラーになります。また、lightgbmは並列処理を行うのでそのためにlibompが必要になります。ただ、このlibompがbrew経由でのインストールになるので、brewも合わせてインストールが必要になります。
<説明終わり>>
ってことでインストールします。
pip install lightgbm
brewは公式サイトからダウンロード用URLをとってきて、実行する。
これめっちゃ時間かかります。
/bin/bash -c "$(curl -fsSLhttps://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brewがインストールできたので、それを使ってlibompのインストール
brew install libomp
以下簡単な動作確認。
import pycaret
これで pycaret がインポートできたら下準備はおしまいです。
#ようやく本編?〜分析開始!〜
ってなことで、importまでもなかなか大変だったわけですが、ここから実際に使っていこうと思います。
今回はBostonデータを使った家賃予想をやってみたいと思います。(有名なやつですね)
色々なサイトでBostonデータに対して高精度となるようなパラメーターの調整やらなんやらされてると思いますが、
この記事ではそんなことは目指しません。なんとなく触ってみる。そんな感じです。
では、まずデータの取得から
from pycaret.regression import *
from pycaret.datasets import get_data
data_set = get_data("boston")
続いて、pycaret独特のsetupってのを行います。
まぁ簡単に言うと前処理なんですが、pycaretを使って分析を行うにはsetupは必須作業です。
デフォルトでも、特徴量のデータタイプ推定、IDや日付データの削除、欠損値の補完、train_test_split、乱数シード設定、データサンプリングを行ってくれます。(詳しくは公式サイト:https://pycaret.org/setup/)
もちろんデフォルトで設定されていないものはオプション指定可能です。
今回は多重共線性の項目だけオプション設定してみてます。
exp = setup(data_set, target='medv', remove_multicollinearity=True)
そうすると各特徴量に対して、推定されるデータタイプが返されます。
一応目視で間違いないかを確認して、問題なければEnter。今回は問題なさそうなのでEnterでsetupを完了させます。
問題があればquitを入力し、手動で調整が必要です。(公式サイト:https://pycaret.org/setup/)
さて、ここから従来の分析であればいくつかのモデルを試して、モデルを選定していくって感じになるかと思います。
↑この作業めんどくさくないですか?
pycaretには、モデル比較用の関数が用意されており、これがめちゃくちゃ便利!!
compare_models()
この一文で複数のモデルでスコアを算出してくれます!
(ちなみにデータを入れんでいいの?と言われそうですが、どのデータを対象にするかなどはsetupで設定が完了しているみたいです。)
ってことで今回の結果はこんな感じ。
※各モデルごとに必要なパラメータはデフォルト値
Modelのところには分析モデルが書かれていて、MAEから右のところはスコア。結果も見やすくていいですね。
今回は回帰なのでR2が大きいExtra Tree を使って話を進めます。
モデルは以下のように選択します。
model = create_model("et")
モデル比較結果の一番左の値を引数に取る感じです。
ちなみに、compare_models()の返り値はbestモデル(結果の一番上のやつ)になってるので、
model = compare_models() ってな感じで受けてもいいかもです。
本来は、上位三つくらいのモデルに対してパラメータ調整とかやって精度を高めた上で
どのモデルを採用するかを検討すべきなんでしょうけど、今回はやりません。
次はハイパーパラメータのチューニングですね。やっちゃいましょう!
tuned_model = tune_model(model)
はい!これでハイパーパラメータのチューニングも完了!!!
と言いたいところですが、よく見てみるとチューニング前後でR2スコアが下がってしまっていることに気づきます。
compare_models()を行った時のスコアは0.86669ですよね。
(この辺は乱数のせいじゃない?と思う方もいるとは思いますが、setup時に乱数シードの設定をしているので何度やってもこの結果は変わりません。)
今回のハイパーパラメータチューニングは、デフォルト値ではうまく行きませんでした。
仕方ないので、ここはいつも通り?引数を設定してあげましょ〜。
import numpy as np
params = {'max_depth':np.random.randint(1,(len(data.columns)*.85),20),
"max_features": np.random.randint(1, len(data.columns),20),
"min_samples_leaf": [2,3,4,5,6],
}
tuned_custom_model = tune_model(model, custom_grid = params)
そうすると少しですが、R2スコアが大きくなったのが確認できますね。(元々は0.86669)
まぁ、これが最適です!なんては到底言えないですが、、、
グリッドサーチするための引数を渡すことでハイパーパラメータの調整もできるよーってことがわかったのでOKとします。
#結果の可視化
主に、plot_modelとevaluate_modelの二つで結果の確認が可能
plot_model(tuned_custom_model)
evaluate_model()では、グラフ上のボタンを押すことで様々な特徴量を確認することができる。
evaluate_model(tuned_custom_model)
#予測精度の確認
predict_model()を使うことで予測精度の確認ができます。
特にデータは指定していませんが、setup時にトレーニングデータとテストデータに分けられているので、問題なし!
ちなみに、predict_modelではテストデータが使われます。
predict_model(tuned_custom_model)
スクロールバーで一番右にすると予測結果(Label)と正解データ(medv)が確認できます。
R2も0.8459と言うことで過学習も特にして無さそうな感じかなー、まずまずって感じですかね。
#振り返り(個人の感想)
と言うことで、まずはここまで読んでいたただいてありがとうございます。
pycaretのインストール、モデル構築/予測をやってみました。個人的にはすごく便利だなーといった印象でした。
ただ、pycaretも一応前処理を行ってくれますが、pycaretに入れるデータの前処理はpandas等で行った方がいいのかなーと思いました。
(欠損値補間で平均が入るのですが、個人的にはラベル別の平均値とかを入れたいので)
「pandasでインプットデータを整えて、pycaretに渡す」
こんな感じになるのかな〜、まぁ使いやすいように使えってことですね。
以上、お疲れ様でした!