この記事で解説すること
以下の代表的な離散確率分布における、期待値・分散・確率母関数・モーメント母関数の導出について途中式を省略することなくまとめます。辞書的に参考にしてくれたら嬉しいです。
- 幾何分布
- 負の二項分布
- 超幾何分布
- 多項分布
離散一様分布、ベルヌーイ分布、二項分布、ポアソン分布に関しては以下の記事で解説しています。よろしければ、ご覧ください。
幾何分布
成功確率が$p$の試行について、初めて成功するまでの失敗の回数を$X$とするとき、$X$は幾何分布に従うといい、$X \sim Geo(p)$と表現する。幾何分布の確率関数は以下のように書ける。
P(X=x) = (1-p)^xp \ (x=0,1,2,\ldots)
幾何分布は、初めて試行が成功するまでの回数を$X$として定義することもあります。この記事では、負の二項分布(幾何分布の一般化)との整合性をとるため、上記の定義を使用します。以降で計算する期待値・分散・母関数は、分布の定義の仕方により、計算結果が多少異なるので注意してください。
期待値
\begin{align}
E[X] & = \sum_{x=0}^{\infty} x P(X=x) \\
& = \sum_{x=0}^{\infty} x(1-p)^xp \\
& = p \sum_{x=0}^{\infty} x(1-p)^x \\
\end{align}
ここで、$S=\sum_{x=0}^{\infty} x(1-p)^x$とおく。このとき、$S$と、$S$に$1-p$を掛けたものをそれぞれ書き下すと、以下のようになる。
\begin{align}
S & = & (1-p) & + & 2(1-p)^2 + 3(1-p)^3 + \cdots \\
(1-p)S & = & & & (1-p)^2 + 2(1-p)^3 + \cdots\\
\end{align}
ここで、辺々を引き算すると、
\begin{align}
pS & = (1-p) + (1-p)^2 + (1-p)^3 + \cdots \\
& = \frac{1-p}{1-(1-p)} \ (\because 無限等比級数の公式)\\
& = \frac{1-p}{p}
\end{align}
が成り立つ。したがって、
\begin{align}
E[X] & = pS \\
& = \frac{1-p}{p}
\end{align}
と求められる。
分散
まず、$E[X^2]$を求める。
\begin{align}
E[X^2] & = \sum_{x=0}^{\infty} x^2 P(X=x) \\
& = \sum_{x=0}^{\infty} x^2 (1-p)^xp \\
& = p \sum_{x=0}^{\infty} x^2 (1-p)^x \\
\end{align}
ここで、$S=\sum_{x=0}^{\infty} x^2 (1-p)^x$とおく。このとき、$S$と、$S$に$1-p$を掛けたものをそれぞれ書き下すと、以下のようになる。
\begin{align}
S & = & 1^2(1-p) & + & 2^2(1-p)^2 + 3^2(1-p)^3 + \cdots \\
(1-p)S & = & & & 1^2(1-p)^2 + 2^2(1-p)^3 + \cdots\\
\end{align}
ここで、辺々を引き算すると、
\begin{align}
pS & = (1^2-0^2)(1-p) + (2^2-1^2)(1-p)^2 + (3^2-2^2)(1-p)^3 + \cdots \\
& = \sum_{x=1}^{\infty}\{x^2-(x-1)^2\}(1-p)^x \\
& = \sum_{x=1}^{\infty}(2x-1)(1-p)^x \\
& = 2\sum_{x=1}^{\infty}x(1-p)^x - \sum_{x=1}^{\infty}(1-p)^x \\
& = \frac{2}{p}\sum_{x=1}^{\infty}x(1-p)^xp - \sum_{x=1}^{\infty}(1-p)^x \\
& = \frac{2}{p} \cdot \frac{1-p}{p} - \frac{1-p}{1-(1-p)} \ (\because 第1項は期待値計算、第2項は無限等比級数の公式)\\
& = \frac{(1-p)(2-p)}{p^2}
\end{align}
が成り立つ。したがって、
\begin{align}
E[X^2] & = pS \\
& = \frac{(1-p)(2-p)}{p^2}
\end{align}
と求められる。ゆえに分散は、
\begin{align}
V[X] & = E[X^2] - (E[X])^2 \\
& = \frac{(1-p)(2-p)}{p^2} - (\frac{1-p}{p})^2 \\
& = \frac{(1-p)(2-p-1+p)}{p^2} \\
& = \frac{1-p}{p^2}
\end{align}
と求められる。
確率母関数
\begin{align}
G_X(s) & = E[s^x] \\
& = \sum_{x=0}^{\infty} s^x P(X=x) \\
& = \sum_{x=0}^{\infty} s^x (1-p)^x p \\
& = p \sum_{x=0}^{\infty} \{s(1-p)\}^x \\
& = \frac{p}{1-s(1-p)} (|s|<\frac{1}{1-p})(\because 無限等比級数の公式)
\end{align}
なお、$s$に関する条件は、無限等比級数の収束条件(公比の絶対値が1未満であること)から導くことができます。
モーメント母関数
確率母関数の式に$e^t$を代入することで求められる。
\begin{align}
M_X(t) & = G_X(e^t) \\
& = \frac{p}{1-e^t(1-p)} \ (t < -\log{(1-p)})
\end{align}
負の二項分布
成功確率$p$の独立なベルヌーイ試行について、確率変数$X$を$r(>0)$回「成功」するまでの「失敗」の回数として定義する。このとき、確率変数$X$は負の二項分布に従うといい、$X \sim NB(r, p)$と表す。負の二項分布の確率関数は以下のように表せる。
\begin{align}
P(X=x) = {}_{x+r-1}C_x p^r (1-p)^x \ (x=0, 1, 2, \ldots)
\end{align}
負の二項分布は、幾何分布を一般化したものです。負の二項分布において、$r=1$としたものが幾何分布と一致します。
期待値
\begin{align}
E[X] & = \sum_{x=0}^{\infty} x P(X=x) \\
& = \sum_{x=0}^{\infty} x {}_{x+r-1}C_x p^r (1-p)^x \\
& = \sum_{x=0}^{\infty} x \frac{(x+r-1)!}{(r-1)!x!} p^r (1-p)^x \\
& = \sum_{x=1}^{\infty} x \frac{(x+r-1)!}{(r-1)!x!} p^r (1-p)^x (\because x=0に対応する項は0となる)\\
& = \sum_{x=1}^{\infty} \frac{(x+r-1)!}{(r-1)!(x-1)!} p^r (1-p)^x \\
& = \sum_{x=1}^{\infty} \frac{(x+r-1)(x+r-2)\cdots(r+1)r}{(x-1)!} p^r (1-p)^x \ (\because (r-1)!を約分)\\
& = r\cdot\frac{1-p}{p} \sum_{x=1}^{\infty} \frac{(x+r-1)(x+r-2)\cdots(r+1)}{(x-1)!} p^{r+1} (1-p)^{x-1} \\
& = r\cdot\frac{1-p}{p} \sum_{y=0}^{\infty} \frac{(y+(r+1)-1)(y+(r+1)-2)\cdots(r+1)}{y!} p^{r+1} (1-p)^y \ (\because y=x-1とおいた) \\
& = r\cdot\frac{1-p}{p} \sum_{y=0}^{\infty} \frac{(y+(r+1)-1)!}{((r+1)-1)!y!} p^{r+1} (1-p)^y \\
& = r\cdot\frac{1-p}{p} \sum_{y=0}^{\infty} {}_{y+(r+1)-1}C_y \ p^{r+1} (1-p)^y \\
& = r\frac{1-p}{p}\ (\because NB(r+1, p)の全確率が1)
\end{align}
分散
まず$E[X^2]$を求める。
\begin{align}
E[X^2] & = \sum_{x=0}^{\infty} x^2 P(X=x) \\
& = \sum_{x=0}^{\infty} x^2 {}_{x+r-1}C_x p^r (1-p)^x \\
& = \sum_{x=0}^{\infty} \{(x(x-1)+x\} {}_{x+r-1}C_x p^r (1-p)^x \ (\because x^2を書き換えた) \\
& = \sum_{x=0}^{\infty} x(x-1) {}_{x+r-1}C_x p^r (1-p)^x + \sum_{x=0}^{\infty}x {}_{x+r-1}C_x p^r (1-p)^x \\
& = \sum_{x=2}^{\infty} x(x-1) {}_{x+r-1}C_x p^r (1-p)^x + E[X] \ (\because 第1項:x=0,x=1の項は0となる。第2項:期待値と同じ計算)\\
& = \sum_{x=2}^{\infty} x(x-1) \frac{(x+r-1)!}{(r-1)!x!} p^r (1-p)^x + E[X] \\
& = \sum_{x=2}^{\infty} \frac{(x+r-1)!}{(r-1)!(x-2)!} p^r (1-p)^x + E[X] \\
& = \sum_{x=2}^{\infty} \frac{(x+r-1)(x+r-2)\cdots(r+1)r}{(x-2)!} p^r (1-p)^x + E[X] \ (\because (r-1)!を約分)\\
& = r(r+1)\frac{(1-p)^2}{p^2}\sum_{x=2}^{\infty} \frac{(x+r-1)(x+r-2)\cdots(r+2)}{(x-2)!} p^{r+2} (1-p)^{x-2} + E[X] \\
& = r(r+1)\frac{(1-p)^2}{p^2}\sum_{x=2}^{\infty} \frac{((x-2)+(r+2)-1)((x-2)+(r+2)-2)\cdots(r+2)}{(x-2)!} p^{r+2} (1-p)^{x-2} + E[X] \\
& = r(r+1)\frac{(1-p)^2}{p^2}\sum_{y=0}^{\infty} \frac{(y+(r+2)-1)(y+(r+2)-2)\cdots(r+2)}{y!} p^{r+2} (1-p)^y + E[X] \ (\because y=x-2とおいた)\\
& = r(r+1)\frac{(1-p)^2}{p^2}\sum_{y=0}^{\infty} {}_{y+(r+2)-1}C_y p^{r+2} (1-p)^y + E[X] \\
& = r(r+1)\frac{(1-p)^2}{p^2} + E[X] \ (\because NB(r+2, p)の全確率は1)\\
& = r(r+1)\frac{(1-p)^2}{p^2} + r\frac{1-p}{p}
\end{align}
したがって分散は、
\begin{align}
V[X] & = E[X^2] - (E[X])^2 \\
& = r(r+1)\frac{(1-p)^2}{p^2} + r\frac{1-p}{p} - (r\frac{1-p}{p})^2 \\
& = r\frac{1-p}{p^2}
\end{align}
と求められる。
確率母関数
\begin{align}
G_X(s) & = E[s^X] \\
& = \sum_{x=0}^{\infty} s^x P(X=x) \\
& = \sum_{x=0}^{\infty} s^x {}_{x+r-1}C_x p^r (1-p)^x \\
& = \sum_{x=0}^{\infty} {}_{x+r-1}C_x p^r \{s(1-p)\}^x \\
& = \frac{p^r}{\{1-s(1-p)\}^r}\sum_{x=0}^{\infty} {}_{x+r-1}C_x \{1-s(1-p)\}^r \{s(1-p)\}^x \\
& = (\frac{p}{1-s(1-p)})^r \ (\because NB(r, 1-s(1-p)の全確率は1) \\
\end{align}
モーメント母関数
確率母関数の式に$e^t$を代入することで求められる。
\begin{align}
M_X(t) & = G_X(e^t) \\
& = (\frac{p}{1-e^t(1-p)})^r
\end{align}
超幾何分布
赤玉$M$個、白玉(N-M)個の合計$N$個の合計$N$個の玉が入っている袋を考える。このとき、非復元抽出で$n$個の玉を取り出したときの赤玉の個数を$X$とすると、$X$は超幾何分布に従うといい、$X\sim HG(N,M,n)$と表現する。超幾何分布の確率関数は以下のように書ける。
\begin{align}
P(X=x) = \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n}
\end{align}
ただし$x$の範囲は、
\begin{align}
\max{\{0, n+M-N\}} \leq x \leq \min{\{n, M\}}
\end{align}
である。
期待値
超幾何分布の期待値計算は$x$の範囲によって、4種類の場合分けが必要になります($x$の最小値が0と$n+M-N$の2通り、最大値が$n$と$M$の2通りあるからです)。ここでは簡単のため、$0 \leq x \leq n$の場合のみ示します。他の場合も同様に計算でき、結果は同じになります。
\begin{align}
E[X] & = \sum_{x=0}^n x P(X=x) \\
& = \sum_{x=0}^n x \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} \\
& = \sum_{x=1}^n x \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} \ (\because x=0の項は0となる)\\
& = \sum_{x=1}^n x \frac{M!}{x!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{N!}{n!(N-n)!} \\
& = \sum_{x=1}^n \frac{M!}{(x-1)!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{N!}{n!(N-n)!} \\
& = n \frac{M}{N} \sum_{x=1}^n \frac{(M-1)!}{(x-1)!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{(N-1)!}{(n-1)!(N-n)!} \\
& = n \frac{M}{N} \sum_{y=0}^{n-1} \frac{(M-1)!}{y!(M-1-y)!} \frac{((N-1)-(M-1))!}{((n-1)-y)!((N-1)-(M-1)-((n-1)-y))!} / \frac{(N-1)!}{(n-1)!((N-1)-(n-1))!} \ (\because y=x-1とおいた) \\
& = n \frac{M}{N} \sum_{y=0}^{n-1} \frac{{}_{M-1}C_y \cdot {}_{(N-1)-(M-1)}C_{n-1-y}}{{}_{N-1}C_{n-1}} \\
& = n \frac{M}{N} \ (\because HG(N-1, M-1, n-1)の全確率が1)
\end{align}
分散
まず$E[X^2]$を求める。
\begin{align}
E[X^2] & = \sum_{x=0}^n x^2 P(X=x) \\
& = \sum_{x=0}^n x^2 \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} \\
& = \sum_{x=0}^n \{x(x-1)+x\} \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} \\
& = \sum_{x=0}^n x(x-1) \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} + \sum_{x=0}^n x \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} \\
& = \sum_{x=0}^n x(x-1) \frac{{}_MC_x \cdot {}_{N-M}C_{n-x}}{{}_NC_n} + E[X] \ (\because 第2項は期待値の定義そのもの) \\
& = \sum_{x=0}^n x(x-1) \frac{M!}{x!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{N!}{n!(N-n)!} + E[X] \\
& = \sum_{x=2}^n x(x-1) \frac{M!}{x!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{N!}{n!(N-n)!} + E[X] \ (\because x=0, x=1に対応する項は0) \\
& = n(n-1) \frac{M(M-1)}{N(N-1)} \sum_{x=2}^n \frac{(M-2)!}{(x-2)!(M-x)!} \frac{(N-M)!}{(n-x)!(N-M-(n-x))!} / \frac{(N-2)!}{(n-2)!(N-n)!} + E[X] \\
& = n(n-1) \frac{M(M-1)}{N(N-1)} \sum_{y=0}^{n-2} \frac{(M-2)!}{y!(M-2-y)!} \frac{((N-2)-(M-2))!}{(n-2-y)!((N-2)-(M-2)-(n-2-y))!} / \frac{(N-2)!}{(n-2)!((N-2)-(n-2)!} + E[X] \\
& = n(n-1) \frac{M(M-1)}{N(N-1)} \sum_{y=0}^{n-2} \frac{{}_{M-2}C_y \cdot {}_{(N-2)-(M-2)}C_{n-2-y}}{{}_{N-2}C_{n-2}} + E[X] \\
& = n(n-1) \frac{M(M-1)}{N(N-1)} + E[X] \ (\because HG(N-2, M-2, n-2)の全確率が1)\\
& = n(n-1) \frac{M(M-1)}{N(N-1)} + n \frac{M}{N} \\
\end{align}
したがって分散は、
\begin{align}
V[X] & = E[X^2] - (E[X])^2 \\
& = n(n-1) \frac{M(M-1)}{N(N-1)} + n \frac{M}{N} - (n \frac{M}{N})^2 \\
& = \frac{nM(N-M)(N-n)}{N^2(N-1)}
\end{align}
と求められる。
確率母関数&モーメント母関数
超幾何分布の母関数は、常微分方程式論で登場する超幾何関数という高度な関数を用いて表現します。そのため、母関数を簡単に導出することができないので、この記事では超幾何分布の母関数は扱いません。
多項分布
一回の試行に対して、$K$通りの結果が得られる事象を考える。各結果の発生確率はそれぞれ$p_1, p_2, \ldots, p_K$とする(ただし、$p_i \geq 0$、$\sum_{i=1}^K p_i =1$を満たすとする)。この試行を$n$回繰り返したときの各結果の発生回数を$X_1, X_2, \ldots, X_K$とするとき、$X=(X_1, X_2, \ldots, X_K)$の分布を多項分布という。Xが多項分布に従うことを$X \sim Mn(n,p_1,p_2,\ldots,p_K)$と書く。また、多項分布の確率関数は以下のように表せる。
\begin{align}
P(X_1=x_1, X_2=x_2, \ldots, X_K=x_K) = \frac{n!}{x_1!x_2!\cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_K^{x_K}
\end{align}
ただし、$x_1 + x_2 + \cdots + x_K = n$かつ$x_i \geq 0$を満たすとする。
期待値
\begin{align}
E[X_i] & = \sum_{x_i=0}^n x_i P(X_1=x_1, X_2=x_2, \ldots, X_i=x_i, \ldots, X_K=x_K) \\
& = \sum_{x_i=0}^n x_i \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K}\\
& = \sum_{x_i=1}^n x_i \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K}\ (\because x=0の項は0となる)\\
& = \sum_{x_i=1}^n \frac{n!}{x_1!x_2!\cdots (x_i-1)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K} \\
& = np_i \sum_{x_i=1}^n \frac{(n-1)!}{x_1!x_2!\cdots (x_i-1)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i-1} \cdots p_K^{x_K} \\
& = np_i \sum_{y_i=0}^{n-1} \frac{(n-1)!}{x_1!x_2!\cdots y_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{y_i} \cdots p_K^{x_K} \ (\because y_i = x_i -1とおいた)\\
& = np_i \ (\because Mn(n-1,p_1,p_2,\ldots,p_K)の全確率が1)
\end{align}
分散
まず$E[X_i^2]$を求める。
\begin{align}
E[X_i^2] & = \sum_{x_i=0}^n x_i^2 P(X_1=x_1, X_2=x_2, \ldots, X_i=x_i, \ldots X_K=x_K) \\
& = \sum_{x_i=0}^n x_i^2 \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K}\\
& = \sum_{x_i=0}^n \{x_i(x_i-1)+x_i\} \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K}\\
& = \sum_{x_i=0}^n x_i(x_i-1) \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K} + \sum_{x_i=0}^n x_i \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K}\\
& = \sum_{x_i=0}^n x_i(x_i-1) \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K} + E[X] \ (\because 第2項は期待値計算に一致)\\
& = \sum_{x_i=2}^n x_i(x_i-1) \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K} + E[X] \ (\because x=0,x=1の項は0となる)\\
& = \sum_{x_i=2}^n \frac{n!}{x_1!x_2!\cdots (x_i-2)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i} \cdots p_K^{x_K} + E[X] \\
& = n(n-1)p_i^2 \sum_{x_i=2}^n \frac{(n-2)!}{x_1!x_2!\cdots (x_i-2)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i-2} \cdots p_K^{x_K} + E[X] \\
& = n(n-1)p_i^2 \sum_{y_i=0}^{n-2} \frac{(n-2)!}{x_1!x_2!\cdots y_i! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{y_i} \cdots p_K^{x_K} + E[X] \ (\because y_i = x_i -2とおいた)\\
& = n(n-1)p_i^2 + E[X] \ (\because Mn(n-2,p_1,p_2,\ldots,p_K)の全確率が1)\\
& = n(n-1)p_i^2 + np_i
\end{align}
したがって分散は、
\begin{align}
V[X_i] & = E[X_i^2] - (E[X_i])^2 \\
& = n(n-1)p_i^2 + np_i - (np_i)^2 \\
& = np_i(1-p_i) \\
\end{align}
と求められる。
共分散
まず、$E[X_iX_j]$を求める。任意の$i\neq j$について、
\begin{align}
E[X_iX_j] & = \sum_{x_1+x_2+\cdots+x_K=n} x_i x_j \frac{n!}{x_1!x_2!\cdots x_i! \cdots x_j! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i}\cdots p_j^{x_j} \cdots p_K^{x_K} \\
& = \sum_{x_1+x_2+\cdots+x_K=n} \frac{n!}{x_1!x_2!\cdots (x_i-1)! \cdots (x_j-1)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i}\cdots p_j^{x_j} \cdots p_K^{x_K} \\
& = n(n-1)p_ip_j \sum_{x_1+x_2+\cdots+x_K=n} \frac{(n-2)!}{x_1!x_2!\cdots (x_i-1)! \cdots (x_j-1)! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x_i-1}\cdots p_j^{x_j-1} \cdots p_K^{x_K} \\
& = n(n-1)p_ip_j \sum_{x_1+\cdots+x'_i+\cdots+x'_j +\cdots+ x_K=n-2} \frac{(n-2)!}{x_1!x_2!\cdots x'_i! \cdots x'_j! \cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_i^{x'_i}\cdots p_j^{x'_j} \cdots p_K^{x_K} \ (\because x_i-1=x'_i, x_j-1=x'_j)\\
& = n(n-1)p_ip_j \ (\because Mn(n-2,p_1,p_2,\ldots,p_K)の全確率が1)
\end{align}
となる。したがって共分散は、
\begin{align}
Cov[X, Y] & = E[X_iX_j] - E[X_i]E[X_j] \\
& = n(n-1)p_ip_j - np_i \cdot np_j \\
& = -n p_i p_j
\end{align}
と求められる。
確率母関数
\begin{align}
G_X(s_1,s_2\ldots,s_{K-1}) & = E[s_1^{X_1}s_2^{X_2} \cdots s_{K-1}^{X_{K-1}}] \\
& = \sum_{x_1+x_2+\cdots+x_K=n} s_1^{x_1}s_2^{x_2} \cdots s_{K-1}^{x_{K-1}} P(X_1=x_1, X_2=x_2, \ldots, X_K=x_K) \\
& = \sum_{x_1+x_2+\cdots+x_K=n} s_1^{x_1}s_2^{x_2} \cdots s_{K-1}^{x_{K-1}} \frac{n!}{x_1!x_2!\cdots x_K!} p_1^{x_1}p_2^{x_2}\cdots p_K^{x_K} \\
& = \sum_{x_1+x_2+\cdots+x_K=n} \frac{n!}{x_1!x_2!\cdots x_K!} (sp_1)^{x_1}(sp_2)^{x_2}\cdots (sp_{K-1})^{x_{K-1}} p_K^{x_K}\\
& = (s_1p_1 + s_2p_2 + \cdots + s_{K-1}p_{K-1} + p_K)^n \ (\because 多項定理)
\end{align}
多項分布では、$\sum_{i=1}^K p_i =1$という条件があるため、$K$に対応する生起確率は、計算せずとも$p_K = 1-(p_1 + p_2 + \cdots + p_{K-1})$と求めることができます。そのため、変数$s_i$の個数は$K-1$個で十分です。もちろん多変量分布における母関数の定義通りに計算(変数$s_K$も使用)しても間違いではありません。
モーメント母関数
確率母関数の式に$e^{t_1},e^{t_1},\ldots,e^{t_{K-1}}$を代入することで求められる。
\begin{align}
M_X(t_1, t_2, \ldots, t_{K-1}) & = G_X(e^{t_1},e^{t_2},\ldots,e^{t_{K-1}}) \\
& = (e^{t_1}p_1 + e^{t_2}_2p_2 + \cdots + e^{t_{K-1}}_{K-1}p_{K-1} + p_K)^n
\end{align}
参考文献
終わりに
この記事に関してご意見や指摘がございましたら、お気軽にコメント欄までお知らせください。よろしくお願いいたします。