0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

推定量の「良さ」を測る不偏性・一致性・有効性を学ぶ_統計検定2級対策

0
Posted at

以下の統計検定2級対策動画で用いられているスライドの一部です。

推定量の「良さ」を測る3つのものさし

不偏性・一致性・有効性を学ぶ


統計学の目的:一部から全体を推測する

  • 推測統計 とは、手元にある一部のデータ( 標本 )から、その背景にある全体のデータ( 母集団 )の性質を推測する手法です。

  • 例:工場の製品検査

    • 全製品の平均重量( 母平均 )を知りたい。
    • 全てを調べるのは非現実的…
    • → 一部の製品( 標本 )の平均重量( 標本平均 )から推測する。

image.png


基本用語の確認

  • 母集団

    • 調査対象となる全体の集団。
  • 標本 (サンプル)

    • 母集団から抽出された一部分のデータ。
  • 母数 (パラメータ)

    • 母集団が持つ真の特性値。(例: 母平均 $\mu$, 母分散 $\sigma^2$)
    • 私たちが本当に知りたい値
  • 推定量 (Estimator)

    • 母数を推定するために、標本から計算される統計量や計算式。(例: 標本平均 $\bar{X}$)

問題提起:「良い」推定量とは?

母数を推定するための計算式( 推定量 )には、様々な種類があります。
では、どの推定量を使えば良いのでしょうか?


「良い」推定量 を判断するための、代表的な3つのものさしがあります。

  1. 不偏性 (Unbiasedness)
  2. 一致性 (Consistency)
  3. 有効性 (Efficiency)

1. 不偏性 (Unbiasedness)

推定に「偏り」はないか?


具体例:錠剤の平均重量を推定する

ある製薬会社が製造する錠剤の 本当の平均重量 (母平均 $\mu$)を知りたいとします。

  • 母集団:全錠剤
  • 標本:$n$ 個の錠剤 ${X_1, X_2, \dots, X_n}$
  • 推定したい母数:母平均 $\mu$

この母平均 $\mu$ を推定するために、 標本平均 $\bar{X}$ を使ってみましょう。

$$
\bar{X} = \frac{1}{n}\sum_{i=1}^{n}X_i
$$


標本平均 $\bar{X}$ の「期待値」を調べる

この推定量の「期待値(何度も試行した場合の平均的な振る舞い)」を計算してみます。

$$
E[\bar{X}] = E\left[\frac{1}{n}\sum_{i=1}^{n}X_i\right] = \frac{1}{n}\sum_{i=1}^{n}E[X_i]
$$

各標本 $X_i$ の期待値は母平均 $\mu$ に等しいので ($E[X_i]=\mu$)、

$$
E[\bar{X}] = \frac{1}{n}\sum_{i=1}^{n}\mu = \frac{1}{n}(n\mu) = \mu
$$

  • 結論: 標本平均 $\bar{X}$ の期待値は、推定したい母平均 $\mu$ と 完全に一致 します。
  • この性質を 「偏りがない (Unbiased)」 と言います。

image.png


では、分散の推定はどうだろう?

次に、錠剤の重量の 本当のばらつき (母分散 $\sigma^2$)を推定したいとします。

推定量として、標本のばらつきである 標本分散 $S^2$ を考えてみましょう。

$$
S^2 = \frac{1}{n}\sum_{i=1}^{n}(X_i - \bar{X})^2
$$

この期待値 $E[S^2]$ はどうなるでしょうか?


標本分散 $S^2$ には「偏り」がある

標本分散 $S^2$ の期待値を計算すると、次のようになります。

$$
E[S^2] = \frac{n-1}{n}\sigma^2
$$

  • 問題点: $E[S^2]$ は、真の母分散 $\sigma^2$ とは 一致しません
  • 常に少しだけ 小さく推定してしまう偏り(バイアス) があります。
  • これでは「良い」推定量とは言えません。

image.png


偏りを補正する:「不偏分散」

この偏りを解消するため、分母を $n$ ではなく $n-1$ で割った 不偏分散 $U^2$ を使います。

$$
U^2 = \frac{1}{n-1}\sum_{i=1}^{n}(X_i - \bar{X})^2
$$

この不偏分散 $U^2$ の期待値は、

$$
E[U^2] = E\left[\frac{n}{n-1}S^2\right] = \frac{n}{n-1} \left(\frac{n-1}{n}\sigma^2\right) = \sigma^2
$$

  • 結論: $E[U^2]$ は $\sigma^2$ と 完全に一致 し、偏りがなくなりました。
  • 統計学で分散を $n-1$ で割るのは、この 不偏性 を確保するためです。

【まとめ】不偏性とは?

不偏性 とは、推定量の期待値が、推定したい母数と等しくなる性質のことです。

  • 数式での定義:
    推定量を $\hat{\theta}$、母数を $\theta$ としたとき、以下の関係が成り立ちます。
    $$
    E[\hat{\theta}] = \theta
    $$

  • 直感的な意味:

    • 何度も標本抽出と推定を繰り返せば、その 推定値の平均は真の値 になる。
    • つまり、 「推定に偏り(バイアス)がない」 ということです。

2. 一致性 (Consistency)

サンプルを増やせば、真の値に近づくか?


具体例:市長選挙の出口調査

ある市長選挙で、候補者Aの 真の得票率 $p$ を推定したい状況を考えます。
$n$ 人の有権者に調査した結果の支持率(標本比率)を $\hat{p}_n$ とします。

  • もし、$n=10$ (10人)にしか聞かなかったら?

    • 偶然、Aを支持しない人ばかりに当たるかもしれません。
    • 推定値 $\hat{p}_{10}$ は真の値 $p$ から大きくズレる可能性があります。
  • もし、$n=1000$ (1000人)に聞いたら?

    • 個々の回答の偶然性は薄まります。
    • 推定値 $\hat{p}_{1000}$ は真の値 $p$ にかなり近くなるでしょう。

サンプルサイズを増やすと、推定は正確になる

サンプルサイズ $n$ を大きくすればするほど、推定量 $\hat{p}_n$ は真の得票率 $p$ に限りなく近づいていきます。

image.png


import numpy as np
import matplotlib.pyplot as plt

# --- Settings ---
true_p = 0.6  # True probability
max_n = 1000  # Maximum sample size
sample_sizes = np.arange(1, max_n + 1)
estimated_props = []

# --- Simulation ---
for n in sample_sizes:
    sample = np.random.binomial(1, true_p, n)
    estimated_props.append(np.mean(sample))

# --- Plotting ---
plt.figure(figsize=(12, 7))
plt.plot(sample_sizes, estimated_props, label='Sample Proportion', alpha=0.7)
plt.axhline(y=true_p, color='r', linestyle='--', label=f'True Proportion (p={true_p})')
plt.title('Consistency of Sample Proportion')
plt.xlabel('Sample Size (n)')
plt.ylabel('Proportion')
plt.ylim(0, 1)
plt.grid(True, linestyle='--', alpha=0.6)
plt.legend()
plt.show()

【まとめ】一致性とは?

一致性 とは、サンプルサイズ $n$ を大きくすればするほど、推定量が真の母数に近づいていく性質のことです。

  • 数式での定義:
    任意の小さな正の値 $\epsilon$ に対して、以下が成り立ちます。
    $$
    \lim_{n \to \infty} P(|\hat{\theta}_n - \theta| < \epsilon) = 1
    $$
  • 直感的な意味:
    • サンプルを増やせば増やすほど、推定の精度は向上する。
    • つまり、 「データが多ければ、真の値に近づく」 ということです。

3. 有効性 (Efficiency)

推定値の「ばらつき」は小さいか?


具体例:リンゴの平均重量を推定する

ある農園のリンゴの 本当の平均重量 $\mu$ を知りたいとします。(重量は正規分布に従うと仮定)

ここで、母平均 $\mu$ を推定するための 2つの不偏推定量 があります。
どちらがより「良い」推定量でしょうか?

  • 推定量A: 標本平均 $\bar{X}$
  • 推定量B: 標本中央値 $m$

どちらの「ばらつき」が小さいか?

  • 「良い」推定量は、推定値の ばらつき (分散) が小さい ことが望ましいです。
  • なぜなら、一度の調査で真の値に近い結果を得られる可能性が高いからです。
  • シミュレーションで、2つの推定量の分布を比較してみましょう。

image.png


import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns

# --- Settings ---
mu, sigma = 150, 10  # True mean and std deviation
sample_size = 30     # Sample size for each experiment
n_simulations = 10000 # Number of simulations

# --- Simulation ---
sample_means = []
sample_medians = []
for _ in range(n_simulations):
    sample = np.random.normal(mu, sigma, sample_size)
    sample_means.append(np.mean(sample))
    sample_medians.append(np.median(sample))

# --- Plotting ---
plt.figure(figsize=(12, 7))
sns.histplot(sample_means, color='blue', kde=True, label='Sample Mean', stat='density')
sns.histplot(sample_medians, color='green', kde=True, label='Sample Median', stat='density')
plt.axvline(x=mu, color='r', linestyle='--', label=f'True Mean ({mu})')
plt.title('Distribution of Sample Mean vs. Sample Median')
plt.xlabel('Value')
plt.ylabel('Density')
plt.legend()
plt.grid(True, linestyle='--', alpha=0.6)
plt.show()

分散の比較(正規母集団の場合)

グラフから、標本平均の分布の方がよりシャープで、ばらつきが小さいことがわかります。
実際に分散を計算してみると、

  • 標本平均の分散:
    $$
    V[\bar{X}] = \frac{\sigma^2}{n}
    $$

  • 標本中央値の分散 (nが大きい場合の近似):
    $$
    V[m] \approx \frac{\pi \sigma^2}{2n} \approx 1.57 \times \frac{\sigma^2}{n}
    $$

$V[\bar{X}] < V[m]$ となり、標本平均の方が推定値のばらつきが小さい ことが確認できます。この場合、標本平均の方が より有効な推定量 と言えます。


【まとめ】有効性とは?

有効性 とは、複数の不偏推定量が存在する場合に、その分散がより小さい方が「良い」と評価する性質です。

  • 数式での定義:
    2つの不偏推定量 $\hat{\theta}_1, \hat{\theta}_2$ があるとき、
    $$
    V[\hat{\theta}_1] < V[\hat{\theta}_2]
    $$
    が成り立つならば、「$\hat{\theta}_1$ は $\hat{\theta}_2$ よりも 有効性が高い 」と言います。

  • 直感的な意味:

    • 「推定値のばらつきが小さい」 ということです。

総まとめ


良い推定量の3つのものさし

性質 キーワード 意味
不偏性 偏りがない 推定量の期待値が真の値と一致する
一致性 データの量 サンプルを増やせば真の値に収束する
有効性 ばらつきが小さい 偏りのない推定量の中で分散が最小

これらの性質を理解することで、なぜその統計手法が使われるのか、という理論的背景を知ることができます。

なぜこの知識が重要なのか?

  • なぜ分散の計算で $n-1$ で割るのか?

    • 👉 不偏性 を確保するため
  • なぜサンプルサイズが大きい調査は信頼できるのか?

    • 👉 一致性 により、真の値に近づくため
  • なぜ平均の推定に中央値より平均値がよく使われるのか? (正規分布の場合)

    • 👉 有効性 が高く、推定のばらつきが小さいため

理論的背景を知ることで、より深くデータを理解し、適切な分析手法を選択できるようになります。
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?