2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

pythonで「Rによる実証分析」を読む1 回帰分析の基礎

Last updated at Posted at 2022-05-05

「Rによる実証分析」をpythonで書き換えながら読み進めていきます。
章によってはコード部分が少なく説明中心となっている場合もありますがご了承ください。
個人的な勉強が目的の中心となることご理解ください。

回帰分析の考え方

回帰=予測

回帰とは、興味ある変数$y$の値を、他の変数$x$を用いて予測することを意味する。
このとき、$x$を説明変数(独立変数)、$y$を被説明変数(従属変数)と呼ぶ。
$x$を用いて予測された$y$の値を$x$の関数として$m(x)$などと書き、これを回帰関数
という。
予測の誤差$\varepsilon=y-m(x)$を誤差項と呼ぶ。

最小二乗法

予測の精度を上げるためには、予測誤差を小さくする必要がある。
予測の正確さの基準として、平均二乗誤差(MSE)を次のように定義する。
$$
MSE=\frac{1}{n}(\varepsilon_1^2+\cdots+\varepsilon_n^2)=\frac{1}{n}\sum_{i=1}^n(y_i-y^*)^2
$$
この平均二乗誤差を最小化することで回帰関数を得る手法を最小二乗法と呼ぶ。

平均二乗誤差を展開。整理すると

$$
\begin{align}
MSE&=\frac{1}{n}\sum_{i=1}^ny_i^2-2y^*・\sum_{i=1}^ny_i+(y^*)^2\\
&=\bigl(\frac{1}{n}\sum_{i=1}^ny_i-y^* \bigr)^2+\frac{1}{n}\sum_{i=1}^ny_iy_i^2-\bigl(\frac{1}{n}\sum_{i=1}^ny_i \bigr)^2
\end{align}
$$

が得られる。
$y^*=\frac{1}{n}\sum_{i=1}^ny_i$であるとき、平均二乗誤差が最小となる。

以上を整理すれば、

  1. 母集団から、各個人の$x$と$y$をペアにした標本を抽出する
  2. 得られた標本を、$x$の値に応じて複数のグループに分割する
  3. 各グループ内で$y$の平均値$y^*$を計算し、その結果を$m(x)$とする

このような回帰分析の方法を、ノンパラメトリック回帰と呼ぶ。

条件付期待値と回帰分析

「$y$を$x$に回帰する」とは、$x$の値が与えられたときの$y$の条件付期待値$E(y|x)$を求めることである。
回帰関数$m(x)$が条件付期待値$E(y|x)$と等しいとき、誤差項$\varepsilon$は

$$
\varepsilon=y-E(y|x)
$$

と書ける。上式の期待値をとれば、誤差項の期待値が0となることが分かる。

数値例

import pandas as pd
import matplotlib.pyplot as plt
import japanize_matplotlib

data = pd.read_csv('R_EmpiricalAnalysis/02 演習用データ集/data_4_1.csv')
plt.plot(data.time, data.temp, 'o', mfc='white')
plt.xlabel('時刻');
plt.ylabel('気温');

image.png

import numpy as np

mx = np.zeros(24)

for i in range(24):
    group = data.query('time == @i')
    mx[i] = group['temp'].mean()

plt.plot(data.time, data.temp, 'o', mfc='white')
plt.plot(mx, 'r')
plt.xlabel('時刻');
plt.ylabel('気温');

image.png

単回帰分析

ノンパラメトリック回帰の限界

説明変数$x$に多くの項目が含まれる場合、同一の$x$からなる各グループは必然的に小さくなる。このような場合には、得られた予測値はあまり信頼できるものではない。このような場合はノンパラメトリック回帰は使用できない。
$x$と$y$の間に何らかの関係が事前に想定される場合にも、ノンパラメトリック回帰は最善の方法ではない。

plt.plot(data.temp, data.elec, 'o', mfc='white')
plt.xlabel('気温');
plt.ylabel('電気使用量(万kW)');

image.png

temp = np.round(np.arange(np.min(data.temp), np.max(data.temp)+0.1, 0.1),1)
mx = np.zeros(len(temp))

for i, t in enumerate(temp):
    group = data.query('temp == @t')
    mx[i] = group['elec'].mean()

plt.plot(data.temp, data.elec, 'o', mfc='white')
plt.plot(temp, mx, 'r')
plt.xlabel('気温');
plt.ylabel('電気使用量(万kW)');

image.png

たとえば、「気温が1度上昇すると、電力使用量がどれだけ増加するか」などの事実を正確に読み取ることはできない。
また、回帰曲線はギザギザとなり全体の傾向が見づらいものとなっている。

線形回帰の仮定

以上のような問題に対応する1つの方法は、回帰関数に何らかの関数系を仮定することである。
電力使用量は気温の1次式であるとして、
$$
elec=\beta_0+\beta_1 temp + \varepsilon
$$

という回帰モデルを仮定する。
この関係式のことを回帰式、係数$(\beta_0,\beta_1)$を回帰係数と呼ぶ。
このように、説明変数と被説明変数の間に1次式の関係を仮定する方法を線形回帰と呼ぶ。
今回の場合、説明変数が1種類しかないので、単回帰モデルとも呼ぶ。
複数の説明変数を仮定する場合には重回帰モデルと呼ぶ。

単回帰の計算方法

母集団から無作為抽出された大きさ$n$の標本${(y_i,x_i):i=1,\cdots,n }$が利用可能であるとする。
回帰関数の形には
$$
E(y|x)=\beta_0+\beta_1x
$$
という仮定をする。

この標本に基づく予測誤差は

$$
\varepsilon_1=y_1-(\beta_0+\beta_1x_1),\hspace{5mm} \varepsilon_2=y_2-(\beta_0+\beta_2x_2),\hspace{5mm}\cdots,\hspace{5mm}\varepsilon_n=y_n-(\beta_0+\beta_nx_n)
$$

によって計算され、平均二乗誤差は、
$$
MSE=\frac{1}{n}\sum_{i=1}^n(y_i-\beta_0-\beta_ix_i)^2
$$

となる。
この誤差を最小にする係数の値$(\hat{\beta}_0,\hat{\beta}_1)$を、最小二乗推定量、あるいはOLS推定量と呼ぶ。

平均二乗誤差を係数$(\beta_0,\beta_1)$によって微分し、その結果を0と置くことで得られる。
$$
\frac{\partial MSE}{\partial \beta_0}=-\frac{2}{n}\sum_{i=1}^n(y_i-\beta_0-\beta_ix_i)=0\
\frac{\partial MSE}{\partial \beta_1}=-\frac{2}{n}\sum_{i=1}^n(y_i-\beta_0-\beta_ix_i)x_i=0
$$

として、これを解くことにより、

$$
\hat{\beta_1}=\frac{\sum_{i=1}^n(x_i-\bar{x_n})(y_i-\bar{y_n})}{\sum_{i=1}^n(x_i-\bar{x_n})^2}
$$

ここで、$\bar{x}_n$は$x$の標本平均、$\bar{y}_n$は$y$の標本平均である。
分母・分子を$n-1$で割ってみると、
$$
\hat{\beta}_1=\frac{xとyの標本共分散}{xの標本分散}
$$
であることが分かる。

from sklearn.linear_model import LinearRegression

lm1 = LinearRegression()
lm1.fit(data[['temp']], data['elec'])

print('係数: ', lm1.coef_)
print('切片: ', lm1.intercept_)
係数:  [145.03031295]
切片:  -614.2721790534642

電力使用量の予測値は
$$
elec = -614.3 + 145.0×temp
$$

によって計算されることになる。
気温が1度上昇すれば電気使用量が1時間当たり145万kW増加することがわかる。

pred1 = lm1.predict(temp.reshape(-1, 1))

plt.plot(data.temp, data.elec, 'o', mfc='white')
plt.plot(temp, pred1, 'r')
plt.xlabel('気温');
plt.ylabel('電気使用量(万kW)');

image.png

ここで、推定量とは、推定の結果を、標本${(y_i,x_i):i=1,\cdots,n }$の関数として表現したものであり、
推定値は、実際に標本を代入して計算した結果の数値である。

重回帰分析

説明変数の追加

電力使用量の時間変化を見ると、日中から夕方までは電力使用量が多く、夜間から早朝には少なくなる傾向があることがわかる。

plt.plot(data.time, data.elec, 'o', mfc='white')
plt.xlabel('時刻');
plt.ylabel('電気使用量(万kW)');

image.png

時間が昼であることを示すダミー変数を考えて、以下のような回帰モデルを仮定する。
$$
elec = \beta_0+\beta_1 temp + \beta_2 daytime+\varepsilon
$$

このように2つ以上の説明変数を用いて予測を行う方法を重回帰分析という。

daytime = (data.time >= 9)&(data.time <= 18)
0      False
1      False
2      False
3      False
4      False
       ...  
739    False
740    False
741    False
742    False
743    False
Name: time, Length: 744, dtype: bool

重回帰分析とは

説明変数$x$は$d(\geq 2)$個の項目からなっており、$x=(x_1,x_2,\cdots,x_d)$というベクトルとして表現される。
回帰関数には
$$
E(y|x)=\beta_0+\beta_1x_1+\cdots+\beta_dx_d
$$
という線形構造が仮定される。
平均二乗誤差は、
$$
MSE=\frac{1}{n}\sum_{i=1}^n(y_i-\beta_0-\beta_1x_{1i}-\cdots\beta_dx_{di})^2
$$
となり、これを最小化する$(\beta_0,\cdots,\beta_d)$を見つけることが目的となる。

data['daytime'] = daytime

lm2 = LinearRegression()
lm2.fit(data[['temp','daytime']], data['elec'])

print('係数: ', lm2.coef_)
print('切片: ', lm2.intercept_)
係数:  [116.97824457 555.44241579]
切片:  -69.55027797301864

電気使用量の予測値は
$$
elec = -69.55+116.98×temp + 555.44×daytime
$$
によって計算されることとなる。

決定係数と回帰分析

決定係数

重回帰分析のデータへのあてはまりの良さは、次のよって定義される決定係数$R^2$の大きさによって評価される。

$$
R^2=1-\frac{\sum_{i=1}^n\hat{e_i}^2}{\sum_{i=1}^n(y_i-\bar{y})^2}
$$
ここで、$\hat{e}_i$は残差と呼ばれる値であり、

$$
\hat{e_i}=y_i-(\hat{\beta_0}+\hat{\beta_1}x_{1i}+\cdots+\hat{\beta_d}x_{di}), i=1,\cdots,n
$$

によって計算される。
決定係数は、
$$
R^2=\frac{\sum_{i=1}^n(y_i-\bar{y})^2 - \sum_{i=1}^n\hat{e_i}^2}{\sum_{i=1}^n(y_i-\bar{y})^2}
$$
となる。
分母は、被説明変数$y$の変動量を意味する。
分子は、$y$の変動のうち、回帰分析によって予測できた変動量に相当する。
決定係数が1であれば、回帰分析によって$y$の変動を100%予測できていることになる。

from sklearn.metrics import r2_score

pred1 = lm1.predict(data[['temp']])
pred2 = lm2.predict(data[['temp','daytime']])

print(r2_score(data.elec, pred1))
print(r2_score(data.elec, pred2))
0.5181380561977577
0.6459006636599551

単回帰モデルの決定係数は0.518、重回帰モデルの決定係数は0.646となり、予測力が0.13増加したことになる。

決定係数はモデルの正しさを保証しない

決定係数には「説明変数を追加すれば、それが何であれ決定係数の値は必ず上昇する」という性質がある。
したがって、決定係数の大小だけによって「モデルの設定の正しさ」を判断することはできない。

説明変数を増やしていけば,決定係数はだんだんと 1 に近づくので,決定係数が大きくなったのが追加された説明変数の効果なのかどうかがわからなくなる。このため,自由度調整済みの決定係数が定義される。

$$
R_{adj}^2=1-\frac{\sum_{i=1}^n\hat{e_i}^2\ /\ (n-k-1)}{\sum_{i=1}^n(y_i-\bar{y})^2\ /\ (n-1)}
$$

$n$はサンプルサイズ、$k$は説明変数の数を表す。

次回

推測統計の基礎

参考文献

2
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?