LoginSignup
31
37

More than 1 year has passed since last update.

簡単にできる機械学習 ~PyCaretを使ってみた~

Last updated at Posted at 2022-03-14

はじめに

簡単に機械学習ができる、PythonのAutoMLライブラリである 「PyCaret」 について紹介いたします。
初めてのqiita投稿なので、温かい目で読んでいただけると嬉しいです。

機械学習は開発に時間がかかったり、専門的で難しいと感じる方もいると思いますが、AutoML を利用することで、効率よく機械学習を行うことができます。

AutoML とは、データの前処理やモデルの作成を自動化し、少ないコードで行うことができる仕組みです。
その一つに PyCaret というPythonベースのライブラリがあります。

PyCaret は以下のような方におすすめだと思います。

  • 時間や手間をかけず機械学習をしたい方
  • 「機械学習の勉強をしたいけれど、実装とか難しそう」と不安を抱えている方

PyCaret とは

PyCaret は、PythonのAutoMLライブラリです。OSSで、MITライセンスに従って使用することができます。
Pythonを既に利用していれば、モジュールのインポートだけで扱うことができます。

基本的に以下のような流れで、PyCaretのモジュールを実行していきます。
pycaret_flow.PNG

本記事では、公式サイトのチュートリアルである、「ダイヤモンドの価格予測」を例として、上記の流れを紹介していきたいと思います。

事前準備

以下の実行環境をご準備ください。

実行環境

  • Python 3.7.9 (3.6以上であれば大丈夫です)
  • Pycaret 2.3.6
  • Jupyter Notebook

PyCaretをインストールします。以下のコマンドを実行してください。

pip install pycaret

今回は、Jupyter Notebookを使用したいと思いますので、必要に応じてご準備ください。

やってみた

今回は、ダイヤモンドの価格予測を行うため、回帰を試していきます。

PyCaretでは、他にもさまざまな機械学習を扱うことができます。(インポートコマンドは後に出てきます。)

手法 インポートコマンド
分類 pycaret.classification
回帰 pycaret.regression
クラスタリング pycaret.clustering
異常検知 pycaret.anomaly
自然言語処理 pycaret.nlp
アソシエーションルールマイニング pycaret.arules

※アソシエーションルールマイニングとは...ある事象が発生した時に、別の事象が発生するといった関係性を分析する手法

データの準備

PyCaretのインポートとデータセットを準備していきます。Jupyter Notebook上で、以下のコマンドを実行します。
今回は回帰を行うので、pycaret.regressionをインポートしてください。

import pycaret #必要なパッケージの読み込み
from pycaret.regression import * #回帰のインポート
from pycaret.datasets import get_data #データセットの読み込み
dataset = get_data("diamond") #ダイヤモンドのサンプルデータを取得

データの前処理

データを学習用と検証用に9:1に分割したいと思います。
検証用データは、学習データによって作成した予測モデルの検証に使用します。

data = dataset.sample(frac=0.9, random_state=789) #学習データ frac:抽出する行の割合、random_state:乱数シード
data_unseen = dataset.drop(data.index) 
data.reset_index(drop=True, inplace=True)
data_unseen.reset_index(drop=True, inplace=True) #検証データ

次に、目的変数に「Price」を設定し、前処理を実行します。

exp1 = setup(data = data, target = 'Price', session_id=123,ignore_features = None, ) #前処理を実行

setupの主な引数

パラメータ 概要
data サンプル数×特徴量のデータ
target 目的変数
session_id 後で再現できるように設定しておく疑似乱数
ignore_features 無視したい特徴量
normalize Trueにするとデータが正規化される
train_size 学習データのサイズ、例:=0.7で70%学習データに使われる
log_data Trueにすると学習、テストデータをcsvで保存する

前処理は、自動でデータ型が推測され、データを成形してくれます。
また、欠損値の処理やカテゴリのエンコードも自動で実行されます。
デフォルトでは、カテゴリ特徴は最頻値、数値特徴は平均値が代入されます。

コマンドを実行すると、下記の画面が出力され、ここで問題がなければ、Enterキー押下、間違いがあれば「quit」を入力し、修正を行います。
setup.PNG

修正する場合は、以下のようにコマンドを実行することで、データ型を指定することができます。

exp1 = setup(data = data, target = 'Price', categorical_feature=["○○"], numeric_feature=["△△"], session_id=123) # categorical_feature:カテゴリの識別子, numeric_feature:数値データ, ○○,△△はデータの列名

予測モデル分析、選定

PyCaretではコマンド1つで複数の予測モデルを分析することができます。

 best = compare_models() #モデル比較

実行すると、以下のような結果が出力されます。
出力された結果から良さそうな手法を選択します。
黄色でマーカーされている値が、各指標の良い結果です。
compare_models.PNG

回帰で実行される予測モデルは以下のようなものがあります。

word モデル名
ridge リッジ回帰
lda 線形判別分析
gbc 勾配ブースティング
ada アダブースト
lightgbm LightGBM
rf ランダムフォレスト
xgboost XGBoost
et ExtraTree
lr ロジスティック回帰
knn K近傍法
svm サポートベクターマシン
et ExtraTree
dt 決定木
qda 二次判別分析
nb ナイーブベイズ
catboost CatBoost

予測モデルの選定方法は、R2が1に最も近いものや、RMSEが小さいものを選ぶと良いと言われています。

今回は、R2が1に近く、RMSEが最も小さい「Extra Trees Regressor」という手法を選択します。

0からモデルの選定を行う場合、使いたい手法をそれぞれ準備し、同じデータ、同じ条件で行う必要がありますが、PyCaretでは、1行でまとめて行うことができるので、短時間で楽に手法を比較することができます。

【補足】
評価指標について

略称 指標名
MAE 平均絶対誤差
MSE 平均二乗誤差
RMSE 平均二乗平方根誤差
R2 決定係数
RMSLE 対数平均二乗平方根誤差
MAPE 平均絶対誤差率

モデル作成

予測モデル比較で選んだ手法で、モデル作成を行います。
引数に予測モデルを設定します。

model = create_model("et") #予測モデルに Extra Trees Regressor を選択

実行すると自動で、10分割交差検証が行われ、各評価指標と、平均値、標準偏差が出力されます。

create_model.PNG

ハイパーパラメータのチューニング

予測モデルが決まったら、ハイパーパラメータのチューニングを行います。
デフォルトでは、R2が最適化されるようにランダムグリッドで自動調整が行われます。
パラメータ指定で他の評価指標が最適化されるようにすることも可能です。

tuned_model = tune_model(model) #パラメータチューニング

RMSEを最適化する場合。

tuned_model = tune_model(model, optimize='rmse') #RMSEで最適化

モデルの評価、可視化

モデルのチューニングができたので、パラメータ確認や可視化、モデルの検証を行い、モデルを評価します。
以下のコードで、パラメータの確認ができます。

evaluate_model(tuned_model) #パラメータ確認

evalute_model.PNG

可視化も少ないコードで実施することができます。いくつか紹介いたします。

残差プロット

横軸が予測値、縦軸が残差をプロットしています。
縦軸が0の直線に集まっているほど良いモデルといえます。

plot_model(turned_model) #残差プロット 

zansa_plot.PNG

予測誤差プロット

横軸が実際の値、縦軸が予測値をプロットしています。
プロットが傾き1の直線に集まっているほど良いモデルといえます。

plot_model(turned_model, plot='error') #予測誤差プロット

error_plot.PNG

特徴量プロット

横軸が重要度、縦軸が特徴量をプロットしています。
重要度が大きい特徴量の順に表示されます。
結果を見てみると、ダイヤモンドの重さが価格に大きく作用していることがわかります。

plot_model(turned_model, plot='feature') #特徴量プロット

feature_plot.PNG

モデルの確定

評価指標や可視化結果を踏まえ、これまでに使用されていないホールドアウトデータを使用して、モデルのパフォーマンスを確定します。
※ホールドアウトは学習データを学習用、評価用で分割して、モデルを評価するテスト手法です。PyCaretではデフォルトで30%のデータが確保されています。

final_model = finalize_model(turned_model) #モデルの確定

予測

作成した学習モデルを使用し、予測を行います。引数にモデル、予測対象のデータを記述します。

result = predict_model(final_model, data = data_unseen) #テストデータで予測

実行すると、以下のような結果が出力されます。

predict_model.PNG

Priceが実際のダイヤモンドの値段、Labelが予測した値段です。
この結果を見てみると、結構いい感じに値段の予測ができていることがわかります。

モデルの保存と読込

最後に、作成したモデルを保存します。また、読み込みも以下のコードで実施することができます。

save_model(final_model,"final_model") #モデルの保存
final_model = load_model("final_model") #モデルの読込

保存しておくことで、アプリに組み込んだり、予測の再実験を行うことができます。

以上、PyCaretの扱い方でした。

まとめ

PyCaretの基本的な使い方について紹介させていただきました。

簡単なまとめです!

  • AutoMLとは... 簡単に時間をかけず機械学習ができるようになるツール
  • PyCaretとは... OSSでpythonベースのAutoMLライブラリ、簡単!!数行で機械学習ができる!

PyCaretのようなAutoMLツールを利用することで、誰でも簡単に機械学習に触れられるので、
初心者をはじめ、普段から機械学習を扱っている方にもおすすめだと思い、記事を書かせていただきました。

最後までお読みいただきありがとうございました。

参考文献

31
37
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
31
37