以下の統計検定2級対策動画で用いられているスライドの一部です。
推定量の「良さ」を測る3つのものさし
不偏性・一致性・有効性を学ぶ
統計学の目的:一部から全体を推測する
-
推測統計 とは、手元にある一部のデータ( 標本 )から、その背景にある全体のデータ( 母集団 )の性質を推測する手法です。
-
例:工場の製品検査
- 全製品の平均重量( 母平均 )を知りたい。
- 全てを調べるのは非現実的…
- → 一部の製品( 標本 )の平均重量( 標本平均 )から推測する。
基本用語の確認
-
母集団
- 調査対象となる全体の集団。
-
標本 (サンプル)
- 母集団から抽出された一部分のデータ。
-
母数 (パラメータ)
- 母集団が持つ真の特性値。(例: 母平均 $\mu$, 母分散 $\sigma^2$)
- 私たちが本当に知りたい値 。
-
推定量 (Estimator)
- 母数を推定するために、標本から計算される統計量や計算式。(例: 標本平均 $\bar{X}$)
問題提起:「良い」推定量とは?
母数を推定するための計算式( 推定量 )には、様々な種類があります。
では、どの推定量を使えば良いのでしょうか?
「良い」推定量 を判断するための、代表的な3つのものさしがあります。
- 不偏性 (Unbiasedness)
- 一致性 (Consistency)
- 有効性 (Efficiency)
1. 不偏性 (Unbiasedness)
推定に「偏り」はないか?
具体例:錠剤の平均重量を推定する
ある製薬会社が製造する錠剤の 本当の平均重量 (母平均 $\mu$)を知りたいとします。
- 母集団:全錠剤
- 標本:$n$ 個の錠剤 ${X_1, X_2, \dots, X_n}$
- 推定したい母数:母平均 $\mu$
この母平均 $\mu$ を推定するために、 標本平均 $\bar{X}$ を使ってみましょう。
$$
\bar{X} = \frac{1}{n}\sum_{i=1}^{n}X_i
$$
標本平均 $\bar{X}$ の「期待値」を調べる
この推定量の「期待値(何度も試行した場合の平均的な振る舞い)」を計算してみます。
$$
E[\bar{X}] = E\left[\frac{1}{n}\sum_{i=1}^{n}X_i\right] = \frac{1}{n}\sum_{i=1}^{n}E[X_i]
$$
各標本 $X_i$ の期待値は母平均 $\mu$ に等しいので ($E[X_i]=\mu$)、
$$
E[\bar{X}] = \frac{1}{n}\sum_{i=1}^{n}\mu = \frac{1}{n}(n\mu) = \mu
$$
- 結論: 標本平均 $\bar{X}$ の期待値は、推定したい母平均 $\mu$ と 完全に一致 します。
- この性質を 「偏りがない (Unbiased)」 と言います。
では、分散の推定はどうだろう?
次に、錠剤の重量の 本当のばらつき (母分散 $\sigma^2$)を推定したいとします。
推定量として、標本のばらつきである 標本分散 $S^2$ を考えてみましょう。
$$
S^2 = \frac{1}{n}\sum_{i=1}^{n}(X_i - \bar{X})^2
$$
この期待値 $E[S^2]$ はどうなるでしょうか?
標本分散 $S^2$ には「偏り」がある
標本分散 $S^2$ の期待値を計算すると、次のようになります。
$$
E[S^2] = \frac{n-1}{n}\sigma^2
$$
- 問題点: $E[S^2]$ は、真の母分散 $\sigma^2$ とは 一致しません 。
- 常に少しだけ 小さく推定してしまう偏り(バイアス) があります。
- これでは「良い」推定量とは言えません。
偏りを補正する:「不偏分散」
この偏りを解消するため、分母を $n$ ではなく $n-1$ で割った 不偏分散 $U^2$ を使います。
$$
U^2 = \frac{1}{n-1}\sum_{i=1}^{n}(X_i - \bar{X})^2
$$
この不偏分散 $U^2$ の期待値は、
$$
E[U^2] = E\left[\frac{n}{n-1}S^2\right] = \frac{n}{n-1} \left(\frac{n-1}{n}\sigma^2\right) = \sigma^2
$$
- 結論: $E[U^2]$ は $\sigma^2$ と 完全に一致 し、偏りがなくなりました。
- 統計学で分散を $n-1$ で割るのは、この 不偏性 を確保するためです。
【まとめ】不偏性とは?
不偏性 とは、推定量の期待値が、推定したい母数と等しくなる性質のことです。
-
数式での定義:
推定量を $\hat{\theta}$、母数を $\theta$ としたとき、以下の関係が成り立ちます。
$$
E[\hat{\theta}] = \theta
$$ -
直感的な意味:
- 何度も標本抽出と推定を繰り返せば、その 推定値の平均は真の値 になる。
- つまり、 「推定に偏り(バイアス)がない」 ということです。
2. 一致性 (Consistency)
サンプルを増やせば、真の値に近づくか?
具体例:市長選挙の出口調査
ある市長選挙で、候補者Aの 真の得票率 $p$ を推定したい状況を考えます。
$n$ 人の有権者に調査した結果の支持率(標本比率)を $\hat{p}_n$ とします。
-
もし、$n=10$ (10人)にしか聞かなかったら?
- 偶然、Aを支持しない人ばかりに当たるかもしれません。
- 推定値 $\hat{p}_{10}$ は真の値 $p$ から大きくズレる可能性があります。
-
もし、$n=1000$ (1000人)に聞いたら?
- 個々の回答の偶然性は薄まります。
- 推定値 $\hat{p}_{1000}$ は真の値 $p$ にかなり近くなるでしょう。
サンプルサイズを増やすと、推定は正確になる
サンプルサイズ $n$ を大きくすればするほど、推定量 $\hat{p}_n$ は真の得票率 $p$ に限りなく近づいていきます。
import numpy as np
import matplotlib.pyplot as plt
# --- Settings ---
true_p = 0.6 # True probability
max_n = 1000 # Maximum sample size
sample_sizes = np.arange(1, max_n + 1)
estimated_props = []
# --- Simulation ---
for n in sample_sizes:
sample = np.random.binomial(1, true_p, n)
estimated_props.append(np.mean(sample))
# --- Plotting ---
plt.figure(figsize=(12, 7))
plt.plot(sample_sizes, estimated_props, label='Sample Proportion', alpha=0.7)
plt.axhline(y=true_p, color='r', linestyle='--', label=f'True Proportion (p={true_p})')
plt.title('Consistency of Sample Proportion')
plt.xlabel('Sample Size (n)')
plt.ylabel('Proportion')
plt.ylim(0, 1)
plt.grid(True, linestyle='--', alpha=0.6)
plt.legend()
plt.show()
【まとめ】一致性とは?
一致性 とは、サンプルサイズ $n$ を大きくすればするほど、推定量が真の母数に近づいていく性質のことです。
-
数式での定義:
任意の小さな正の値 $\epsilon$ に対して、以下が成り立ちます。
$$
\lim_{n \to \infty} P(|\hat{\theta}_n - \theta| < \epsilon) = 1
$$ -
直感的な意味:
- サンプルを増やせば増やすほど、推定の精度は向上する。
- つまり、 「データが多ければ、真の値に近づく」 ということです。
3. 有効性 (Efficiency)
推定値の「ばらつき」は小さいか?
具体例:リンゴの平均重量を推定する
ある農園のリンゴの 本当の平均重量 $\mu$ を知りたいとします。(重量は正規分布に従うと仮定)
ここで、母平均 $\mu$ を推定するための 2つの不偏推定量 があります。
どちらがより「良い」推定量でしょうか?
- 推定量A: 標本平均 $\bar{X}$
- 推定量B: 標本中央値 $m$
どちらの「ばらつき」が小さいか?
- 「良い」推定量は、推定値の ばらつき (分散) が小さい ことが望ましいです。
- なぜなら、一度の調査で真の値に近い結果を得られる可能性が高いからです。
- シミュレーションで、2つの推定量の分布を比較してみましょう。
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
# --- Settings ---
mu, sigma = 150, 10 # True mean and std deviation
sample_size = 30 # Sample size for each experiment
n_simulations = 10000 # Number of simulations
# --- Simulation ---
sample_means = []
sample_medians = []
for _ in range(n_simulations):
sample = np.random.normal(mu, sigma, sample_size)
sample_means.append(np.mean(sample))
sample_medians.append(np.median(sample))
# --- Plotting ---
plt.figure(figsize=(12, 7))
sns.histplot(sample_means, color='blue', kde=True, label='Sample Mean', stat='density')
sns.histplot(sample_medians, color='green', kde=True, label='Sample Median', stat='density')
plt.axvline(x=mu, color='r', linestyle='--', label=f'True Mean ({mu})')
plt.title('Distribution of Sample Mean vs. Sample Median')
plt.xlabel('Value')
plt.ylabel('Density')
plt.legend()
plt.grid(True, linestyle='--', alpha=0.6)
plt.show()
分散の比較(正規母集団の場合)
グラフから、標本平均の分布の方がよりシャープで、ばらつきが小さいことがわかります。
実際に分散を計算してみると、
-
標本平均の分散:
$$
V[\bar{X}] = \frac{\sigma^2}{n}
$$ -
標本中央値の分散 (nが大きい場合の近似):
$$
V[m] \approx \frac{\pi \sigma^2}{2n} \approx 1.57 \times \frac{\sigma^2}{n}
$$
$V[\bar{X}] < V[m]$ となり、標本平均の方が推定値のばらつきが小さい ことが確認できます。この場合、標本平均の方が より有効な推定量 と言えます。
【まとめ】有効性とは?
有効性 とは、複数の不偏推定量が存在する場合に、その分散がより小さい方が「良い」と評価する性質です。
-
数式での定義:
2つの不偏推定量 $\hat{\theta}_1, \hat{\theta}_2$ があるとき、
$$
V[\hat{\theta}_1] < V[\hat{\theta}_2]
$$
が成り立つならば、「$\hat{\theta}_1$ は $\hat{\theta}_2$ よりも 有効性が高い 」と言います。 -
直感的な意味:
- 「推定値のばらつきが小さい」 ということです。
総まとめ
良い推定量の3つのものさし
| 性質 | キーワード | 意味 |
|---|---|---|
| 不偏性 | 偏りがない | 推定量の期待値が真の値と一致する |
| 一致性 | データの量 | サンプルを増やせば真の値に収束する |
| 有効性 | ばらつきが小さい | 偏りのない推定量の中で分散が最小 |
これらの性質を理解することで、なぜその統計手法が使われるのか、という理論的背景を知ることができます。
なぜこの知識が重要なのか?
-
なぜ分散の計算で $n-1$ で割るのか?
- 👉 不偏性 を確保するため
-
なぜサンプルサイズが大きい調査は信頼できるのか?
- 👉 一致性 により、真の値に近づくため
-
なぜ平均の推定に中央値より平均値がよく使われるのか? (正規分布の場合)
- 👉 有効性 が高く、推定のばらつきが小さいため
理論的背景を知ることで、より深くデータを理解し、適切な分析手法を選択できるようになります。




