LoginSignup
1
1

More than 3 years have passed since last update.

統計メモ:期待値

Last updated at Posted at 2020-07-26

期待値や分散の計算は非常によく使うので整理。性質は一度納得したら覚えておくとスムーズ

期待値の定義

連続型確率変数$X$に関する$f(X)$ の期待値は

$$
E_{X}[f(X)] = \int_{\mathbb{R}} f(x) p(x) d x
$$
$E_{x}[\cdot]$ は$X$に関して期待値をとる操作

よく使う期待値の性質

1.定数の期待値

定数の期待値は定数になる($a$は定数)

$$
E_{X}[a] = a\
$$

2. 線形性

確率変数が$X$のみの場合

E_{X}[af(X) + bg(X)] = aE_{X}[f(X)] + bE_{X}[g(X)]

複数の確率変数$X, Y$ についても線形性は保たれる

E_{XY}[af(X) + bg(Y)] = aE_{X}[f(X)] + bE_{Y}[g(Y)]

上の式は、$X, Y$が互いに独立でなくても成立する

証明

1. 定数の期待値

\begin{aligned}
E_{X} [ a ] &=\int a p(x) d x \\
&=a \int p(x) d x=a
\end{aligned}

2.線形性

確率変数が$X$のみの場合。期待値は積分(離散変数の場合総和)で定義されているため線形性が保たれる

\begin{align}
E_{x} [a f(x)+b g(x)] &=\int \left\{ af(x)+b g(x) \right\}p(x) dx\\
&=a \int f(x)p(x) d x+b \int g(x)p(x) d x \\
&=a E_{X} [f(x)] + b E_{X}[g(x)]
\end{align}

複数の確率変数$X, Y$ の場合、期待値は同時確率 $p(x, y)$ を使いますが、周辺化されるため結果は単純になる

\begin{align}
E_{XY}\left[f(X)+g(Y)\right] &=\iint \{ f(x)+g(y) \} p(x, y) d x d y \\
&=\iint f(x) p(x, y) d x d y+\iint g(y) p(x, y) d x d y \\
&=\int f(x)[\int p(x, y) d y] d x+\int g(y)[\int p(x, y) d x] d y \\
&=\int f(x) p(x) d x+\int g(y) p(y) d y
\end{align}

2行目から3行目の変形は周辺化 $ p(x)= \int p(x, y)dy$ を用いた

期待値の線形性から和の期待値は期待値の和となるが、これはよく使う

E_{XY}[X + Y] = E_{X}[X] + E_{Y}[Y]

正規分布に従う2つの変数$X$と$Y$ があり、平均がそれぞれ$\mu_{x}, \mu_{y}$ の正規分布に従っているとする

\begin{array}{l}
X \sim \mathcal{N}\left(\mu_{x}, \sigma_{x}^{2}\right) \\
Y \sim \mathcal{N}\left(\mu_{y}, \sigma_{y}^{2}\right) \\
\end{array}

$X$と$Y$の 和の確率変数$X + Y$ の平均は$\mu_{x}+\mu_{y}$ となる

{E[X+Y]=E[X]+E[Y]=\mu_{x}+\mu_{y}}

私がよく分からなくなるのが以下です。
- 何に関しての期待値を取っているのか
- 変数同士の独立を仮定しているのか
日々精進。

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1