0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

機械学習入門 vol.6 回帰 - 線形回帰

Last updated at Posted at 2021-12-09

本コンテンツは機械学習入門講座を各所でやっている内容の一部を、受講者の皆様の予習・復習のために公開しているものです。対象読者は、Pythonをやったことがほとんどない方やつまづいてしまっている方でも概ね実行できるようになるレベルで書いています。解説は講座でそれなりに詳しくしているため、コードにコメントする以上の説明はあまり記述していません。

各コードはJupyterシリーズやiPythonで記述しながら実行できるように記述しています。

AI/DX/機械学習/Pythonのアドバイザリー、社内研修、セミナー等承っております。
webサイトからお問い合わせください。
BeeComb Grid株式会社

機械学習入門シリーズ記事

  1. 機械学習入門 vol.1 Pythonの基礎1 記述とデータ型 -> 講座第3回に相当
  2. 機械学習入門 vol.2 Pythonの基礎2 条件分岐と処理 -> 講座第3回に相当
  3. 機械学習入門 vol.3 Pythonの基礎3 関数・クラス・モジュール -> 講座第3回に相当
  4. 機械学習入門 vol.4 表(Pandas)の基本操作 -> 講座第3回/第4回に相当
  5. 機械学習入門 vol.5 グラフ(Seaborn)の基本操作 -> 講座第3/4回に相当
  6. 機械学習入門 vol.6 回帰 - 線形回帰 -> 講座第4回に相当
  7. 機械学習入門 vol.7 回帰 - ランダムフォレストとパラメータチューニング -> 講座第4回に相当
  8. 機械学習入門 vol.8 回帰 - その他の回帰 (k近傍法,ラッソ回帰,リッジ回帰..etc) -> 講座第4回に相当
  9. 機械学習入門 vol.9 判別(分類) -> 講座第5回に相当
  10. 機械学習入門 vol.10 次元削減 -> 講座第6回に相当
  11. 機械学習入門 vol.11 クラスタリング -> 講座第6回に相当

機械学習入門 vol.6 回帰 - 線形回帰

回帰の手法として線形回帰、決定木による回帰の代表としてランダムフォレストの仕組み、近傍法の代表としてk近傍法を取り上げて説明しました。そのソースコードを紹介します。

線形回帰

線形回帰のクラスはLinearRegressionです。線形回帰で学習させて、検証用データの予測を実行し、mean_absolute_errorで絶対値誤差平均を確認することで、検証用データの予測がどれくらいズレるのかという確認をする流れを説明しました。

本ページのプログラムは、プログラム実行ファイルと同じフォルダに下記データファイルが保存されていることを前提として書いています。ダウンロードしてご利用ください。

data.xlsx
data.csv

最初にPandasでデータを読み込んでおきましょう。

import pandas as pd
# Pandasでデータを読み込みます
df = pd.read_excel('./data.xlsx', sheet_name='データ')
# ラベル間違いを直しておきます。
df = df.rename(columns={"合憲点数":"合計点数"})
df

必要なライブラリのインポートは下記の通りです。

# 線形回帰のクラス
from sklearn.linear_model import LinearRegression
# テストデータセット分割関数
from sklearn.model_selection import train_test_split
# 精度検証
from sklearn.metrics import mean_absolute_error

データフレームから機械学習のためにデータを取り出して学習します。この回では「週の学習時間から取れる合計点数を予測する」機械学習を行います。scikit-learnの機械学習クラスは、教師あり学習の場合、基本的にfitメソッドで学習すると覚えておいて差し支えないでしょう。

# 学習時間と合計点数を取り出し
data_x = df[['週の学習時間']]
data_y = df[['合計点数']]
# データをトレーニング用と検証用に分割
train_x, test_x, train_y, test_y = train_test_split(data_x, data_y, test_size=0.2)
# 線形回帰クラスのインスタンス作成
lr_model = LinearRegression()
# 学習させる
lr_model.fit(train_x, train_y)

テストデータに対して予測して結果を取得します。予測をする場合は他のクラスでも基本的にpredictメソッドを利用します。

# テストデータを予測する
predicteds = lr_model.predict(test_x)
predicteds

線形回帰の学習で得られた傾きを切片を表示してみます。

# 傾きと切片を表示
print(lr_model.coef_)  # 傾き
print(lr_model.intercept_)  # 切片

予測値と正解をデータフレームを結合して見比べてみましょう。

# テストデータの予測と結果を比較する
df2 = test_x.copy()
df2['予測'] = predicteds
df2['予測'] = df2['予測'].round().astype("int")
df2['正解'] = test_y
df2['差分'] = df2['予測'] - df2['正解']
df2

image.png

検証用データの予測と正解を回帰直線付きグラフで見比べてみましょう。検証用データは学習に利用されていないのでずれが出ていることが見て取れます。

# グラフで表示
df2 = test_x.copy()
df2['点数'] = predicteds
df2['種別'] = "予測"
df3 = test_x.copy()
df3['点数'] = test_y
df3['種別'] = "正解"
df2 = df2.append(df3)

sb.lmplot(x="週の学習時間", y="点数", hue="種別", data=df2)

image.png
予測と正解のずれを数値で把握するための手法として「平均絶対誤差」と「平均二乗誤差」の説明をしました。平均絶対誤差を表示してみましょう。

# 精度検証(平均絶対誤差)
mean_absolute_error(test_y, predicteds)

平均二乗誤差をみたい時はmean_squared_error関数を使います。
スケールが小さい場合、誤差を細かくみないといけない場合は平均二乗誤差、それ以外は平均絶対誤差を見る程度の認識で使い分けていくと良いでしょう。

最後に任意の値(ここでは1時間勉強した時と8時間勉強した時)に取得できる合計点数を予測してみましょう。

# 適当な週の学習時間から合計点数を予測する
data_array = [[1],[8]]
results = lr_model.predict(data_array)
results

値の渡し方が、配列の配列になっている点に注目して覚えておきましょう。1行のデータが複数のパラメータを持っている場合にも利用できるように作られているからです。基本的にscikit-learnのライブラリ全体でこの渡し方をすることになります。さらに詳しく知りたい方はnumpyも調べてみると良いですが、本講座でnumpyの深掘りは対象外とさせていただいています。

複数のパラメータから一つの値を予測してみる

#
# 5教科の点数から週の学習時間を予測してみる
#
# 5教科の点数を学習データ、正解を週の学習時間として取り出す
data_x = df.loc[:,'国語':'社会']
data_y = df['週の学習時間']
# データをトレーニング用と検証用に分割
train_x, test_x, train_y, test_y = train_test_split(data_x, data_y, test_size=0.2)
lr_model2 = LinearRegression()
# 学習させる
lr_model2.fit(train_x, train_y)
# 各次元の傾きと切片を表示
print(lr_model2.coef_)
print(lr_model2.intercept_)

検証用データに対して予測してみましょう

# 検証用データを予測する
predicteds = lr_model2.predict(test_x)
predicteds

精度を検証してみましょう

# 精度検証
mean_absolute_error(test_y, predicteds)

複数の値を予測する

LinearRegressionはscikit-learnの共通インターフェースに合わせて、正解データを複数一度に学習・予測できるように実装されています。
次は、週の学習時間から、5教科それぞれの点数を予測するように学習してみましょう。

#
# 5教科の点数をそれぞれ予測してみる
#
# 学習時間と合計点数を取り出し
data_x = df[['週の学習時間']]
data_y = df.loc[:,'国語':'社会']
# データをトレーニング用と検証用に分割
train_x, test_x, train_y, test_y = train_test_split(data_x, data_y, test_size=0.2)
lr_model3 = LinearRegression()
# 学習させる
lr_model3.fit(train_x, train_y)
# 各次元の傾きと切片を表示
print(lr_model3.coef_)
print(lr_model3.intercept_)

傾きと切片がそれぞれ5つ計算されていることが見て取れます。

こちらも予測して精度検証してみましょう。

# テストデータを予測する
predicteds = lr_model3.predict(test_x)
predicteds
# 精度検証
mean_absolute_error(test_y, predicteds)

線形回帰だけでweb記事としては長くなってしまったので決定木による回帰、近傍法による回帰は記事を分割して配信したいと思います。

機械学習入門シリーズ記事

  1. 機械学習入門 vol.1 Pythonの基礎1 記述とデータ型 -> 講座第3回に相当
  2. 機械学習入門 vol.2 Pythonの基礎2 条件分岐と処理 -> 講座第3回に相当
  3. 機械学習入門 vol.3 Pythonの基礎3 関数・クラス・モジュール -> 講座第3回に相当
  4. 機械学習入門 vol.4 表(Pandas)の基本操作 -> 講座第3回/第4回に相当
  5. 機械学習入門 vol.5 グラフ(Seaborn)の基本操作 -> 講座第3/4回に相当
  6. 機械学習入門 vol.6 回帰 - 線形回帰 -> 講座第4回に相当
  7. 機械学習入門 vol.7 回帰 - ランダムフォレストとパラメータチューニング -> 講座第4回に相当
  8. 機械学習入門 vol.8 回帰 - その他の回帰 (k近傍法,ラッソ回帰,リッジ回帰..etc) -> 講座第4回に相当
  9. 機械学習入門 vol.9 判別(分類) -> 講座第5回に相当
  10. 機械学習入門 vol.10 次元削減 -> 講座第6回に相当
  11. 機械学習入門 vol.11 クラスタリング -> 講座第6回に相当

AI/DX/機械学習/Pythonのアドバイザリー、社内研修、セミナー等承っております。
webサイトからお問い合わせください。
BeeComb Grid株式会社

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?