LoginSignup
1
4

More than 5 years have passed since last update.

読書ノート:現代数理統計学の基礎(その4)

Last updated at Posted at 2018-06-10

はじめに

不偏分散

\begin{align}
\sum_{i=1}^n(X_i-\bar{X})^2&=\sum_{i=1}^n(X_i-\mu+\mu-\bar{X})^2\\
&=\sum_{i=1}^n\left[(X_i-\mu)^2+2(X_i-\mu)(\mu-\bar{X})+(\mu-\bar{X})^2\right]\\
&=\sum_{i=1}^n(X_i-\mu)^2+2n(\bar{X}-\mu)(\mu-\bar{X})+n(\mu-\bar{X})^2\\
&=\sum_{i=1}^n(X_i-\mu)^2-n(\mu-\bar{X})^2\\
E\left[\sum_{i=1}^n(X_i-\bar{X})^2\right]&=n\sigma^2-n\frac{\sigma^2}{n}=(n-1)\sigma^2\\
V^2(X)&=\frac{1}{n-1}\sum_{i=1}^n(X_i-\bar{X})^2\quad 不偏分散\\
E[V^2(X)]&=\sigma^2
\end{align}

標本分布

$X_1,\dots,X_n,iid\sim N(\mu,\sigma^2)$とする。
$X_i=\mu+\sigma Z_i$と定義すると、$Z_1,\dots,Z_n,iid\sim N(0,1)$となる。

$Y=HZ$と定義すると、$Y_1,\dots,Y_n,iid\sim N(0,1)$となる。
$H$はHelmert Matrix。$HH^t=H^tH=I,Y^tY=Z^tH^tHZ=Z^tZ$

\begin{align}
H=\left[\begin{array}{ccccc}
1/\sqrt{n} & 1/\sqrt{n} & 1/\sqrt{n} & \cdots & 1/\sqrt{n} \\
-1/\sqrt{2} & 1/\sqrt{2} & 0 & \cdots & 0 \\
-1/\sqrt{2\cdot 3} & -1/\sqrt{2\cdot 3} & 2/\sqrt{2\cdot 3} & \cdots & 0 \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
-1/\sqrt{(n-1)n} & -1/\sqrt{(n-1)n} & -1/\sqrt{(n-1)n} & \cdots & (n-1)/\sqrt{(n-1)n}
\end{array}\right]
\end{align}

$\sqrt{n}\bar{Z}=Y_1\sim N(0,1)$
$\sum_{i=1}^n(Z_i-\bar{Z})^2=Y_2^2+\cdots+Y_n^2\sim\chi_{n-1}^2$
$\sqrt{n}\bar{Z}$と$\sum_{i=1}^n(Z_i-\bar{Z})^2$は独立となる。

従って、
$\frac{\sqrt{n}}{\sigma}(\bar{X}-\mu)\sim N(0,1)$
$\frac{1}{\sigma^2}\sum_{i=1}^n(X_i-\bar{X})^2=\frac{n-1}{\sigma^2}V^2\sim\chi_{n-1}^2$
$\bar{X}$と$V^2$は独立となる。

確率変数$Z=\frac{\sqrt{n}(\bar{X}-\mu)}{\sigma}$と定義すると、$Z\sim N(0,1)$となる。
確率変数$U=\frac{n-1}{\sigma^2}V^2$と定義すると、$U\sim \chi_{n-1}^2$となる。
確率変数$T=\frac{\sqrt{n}(\bar{X}-\mu)}{V}$と定義すると、$T=\frac{Z}{\sqrt{U/(n-1)}}$となる。
$T$は自由度$n-1$のt分布に従う。
$Var(U)=2(n-1)$なので、$Var(V^2)=\frac{2\sigma^4}{n-1}$となる。

F分布の定義 $F_{m,n}=\frac{\chi^2_m/m}{\chi^2_n/n}$

確率変数の収束

\begin{align}
\Pr(|X|\ge a)&\le\frac{E[|X|]}{a}\quad\text{マルコフ(Markov)の不等式}\\
\Pr(|X-E[X]|\ge k)&\le \frac{V(X)}{k^2}\quad\text{チェビシェフの不等式}
\end{align}

大数の弱法則
サンプルサイズを増やしていくと、サンプルの平均が真の平均に確率収束すること。

\begin{align}
X_1,\dots,X_n,iid&\sim\mu\\
\bar{X}_n=\frac{1}{n}\sum_{i=1}^nX_i&\to_p\mu
\end{align}

大数の強法則
サンプルサイズを増やしていくと、サンプルの平均が真の平均に概収束すること。(ほとんど至る所で収束)

中心極限定理
サンプルサイズを増やしていくと、真の平均からの誤差が正規分布に分布収束すること。

\begin{align}
X_1,\dots,X_n,iid&\sim(\mu,\sigma^2)\\
\Pr\left(\frac{\sqrt{n}(\bar{X}-\mu)}{\sigma}\le x\right)&\to_d \frac{1}{\sqrt{2\pi}}\int_{-\infty}^x\exp\left(-\frac{t^2}{2}\right)dt
\end{align}

順序統計量の分布

累積分布関数$F_{X_{(k)}}(x)=\Pr(X_{(k)}\le x)$の導出
「$n$個中少なくとも$k$個の$X_i$が$x$以下」→「$x$以下の値が$n$回の試行中$k$回以上発生する」

\begin{align}
F_{X_{(k)}}(x)&=\sum_{j=k}^n\binom{n}{j}F(x)^j(1-F(x))^{n-j}\\
f_{X_{(k)}}(x)&=\frac{d}{dx}F_{X_{(k)}}(x)=\frac{n!}{(k-1)!(n-k)!}f(x)F(x)^{k-1}(1-F(x))^{n-k}
\end{align}

十分統計量

$T(x)=t$を満たす$x$と$t$について、$\Pr(X=x|T(X)=t)$が母集団の未知パラメータ$\theta$に依存しないとき、$T(X)$を十分統計量と呼ぶ。
$\Pr(X=x|T(X)=t,\theta)=\Pr(X=x|T(X)=t)$

$X_1,\dots,X_n,iid\sim Ber(\theta)$とすると、$\Pr(X=x|\theta)=\theta^{\sum x_i}(1-\theta)^{n-\sum x_i}$となる。
$T(X)=\sum X_i$とすると、$\Pr(T(X)=t|\theta)=\binom{n}{t}\theta^t(1-\theta)^{n-t}$となる。
$\Pr(X=x|T(X)=t,\theta)=\frac{\Pr(X=x,T(X)=t|\theta)}{\Pr(T(X)=t|\theta)}=1/\binom{n}{t}$となり、$\theta$に依存しない。

統計量の導出と性質

1.モーメント法
$\cfrac{1}{n}E[X^r]$を連立させてパラメータを求める。

2.最尤法
対数尤度関数を最大化するパラメータを求める。
$\hat{\theta}(X_n)=\sup_\theta\log\prod f(x_i|\theta)$

3.フィッシャー情報量
$I(\theta)=E\left[\left(\cfrac{d}{d\theta}\log f(x|\theta)\right)^2\right]
=-E\left[\cfrac{d^2}{d\theta^2}\log f(x|\theta)\right]$

4.クラメール・ラオの不等式
不偏推定量の分散はフィッシャー情報量の逆数より小さくはならない。
$V(\hat{\theta}(X_n))\ge\cfrac{1}{nI(\theta)}$

5.サンプル数を無限大にすることに関する概念
(1) 不偏推定量
推定量の平均値が真値と一致する。
$E[\hat{\theta}(X_n)]=\theta$
(2) 最良線形不偏推定量
データの線形結合による不偏推定量で、分散が最小であるもの。

6.サンプルサイズを無限大にすることに関する概念
(1) 一致性
推定量が真値に確率収束する。
$\forall \epsilon>0\rightarrow\Pr(|\hat{\theta}(X_n)-\theta|\ge\epsilon)=0(n\to\infty)$
(2) 漸近有効性
推定量の分散が下限値と一致する。
$\sqrt{n}(\hat{\theta}(X_n)-\theta)\to_dN(0,I(\theta)^{-1})(n\to\infty)$
(3) 漸近正規性
最尤推定量が漸近有効性を持つ。
$\sqrt{nI(\theta)}(\hat{\theta}(X_n)-\theta)\to_dN(0,1)(n\to\infty)$

1
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
4