で確率過程の一般事項について紹介しましたが、ここではその中でもメジャーなウィーナー過程について紹介します。ウィーナー過程はブラウン運動やランダムウォークと言った様々な確率モデルで用いられます。
\newcommand{\borel}[1]{\mathcal{B}(#1)}
\newcommand{\lip}[1]{\underset{#1}{\mathrm{l.i.p.}}}
\newcommand{\R}{\mathbb{R}}
ガウス系
\mathscr{S} = \{X_\lambda:\Omega \rightarrow \mathbb{R} \mid X_\lambda \in L^2(\Omega,\mathcal{F},p)\}
がガウス系であるとは有限個の$\mathscr{S}$の元の線形結合がガウス分布に従うことです:
X = \sum_{i=1}^n c_i X_i \sim N(\mu_c,\sigma_c^2) \quad (\{X_i\}_{i=1}^n \subset \mathscr{S}, c = \{c_i\}_{i=1}^n \subset \mathbb{R}) \\
\mu_c = E[X] = \sum_{i=1}^n c_i E[X_i] \\
\sigma_c^2 = V[X] = \sum_{i,j} c_i c_j E[(X_i-\mu_c)(X_j-\mu_c)]
つまり、
\tilde{p}((a,b]) = p\left( X^{-1}((a,b]) \right)
とすると、
\tilde{p}((-\infty,x])= \frac{1}{\sqrt{2\pi}\sigma} \int_{-\infty}^x e^{-\frac{(x'-\mu_c)^2}{2\sigma_c^2}} dx'
となることです。また、確率過程$(X_t)_{t \in T}$がガウス系ならば、これをガウス過程と言います。
ウィーナー過程(ブラウン運動)
確率過程$(B_t)_{t\in T}$($T \subset [0,\infty)$)が以下の3つを満たすとき、ウィーナー過程と言います。
- ガウス過程である。
- $\forall B_t: E[B_t] = 0$、$\forall B_s,B_t: V[B_s,B_t] = \min(t,s)$
- 連続過程である。
別の定義
この定義は次の3条件を満たすことと必要十分です。
- 加法過程である。
- $B_0 = 0$かつ、$t>s$のとき、$X_t-X_s \sim N(0,t-s)$
- 連続過程である。
多次元のウィーナー過程
B(t,\omega)=(B^1(t,\omega_1),\cdots,B^n(t,\omega_n))
で、任意の$t$において$B^1,\cdots,B^n$が独立であるとき、$B$を$n$次元ブラウン運動と言います。
これを構成するには確率空間$(\Omega_i,\mathcal{F}_i,p_i;\mathbf{F}_i)$に対して直積空間を考えればOKです。
ウィーナーマルチンゲール
増大情報系$\mathbf{F} = (\mathcal{F})_{t \in T}$($T$は非可算)に適合する連続過程$X = (X_t)_{t\in T}$が
X_0 = 0 \\
t>s \Rightarrow X_t-X_s \sim N(0,t-a)
で$X_t -X_s$は$\mathcal{F}_s$と独立であるとき、これはウィーナー過程になります。そして、
E[X_t-X_s \mid \mathcal{F}_s] = E[X_t-X_s] = 0 \\
\Rightarrow E[X_t \mid \mathcal{F}_s] = X_s
なので、これはマルチンゲールです。そこで、$X$を$\mathbf{F}$に関するウィーナーマルチンゲールと言います。$\mathbf{F}$に関するウィーナーマルチンゲール全体の集合を$\mathcal{W}(\mathbf{F})$とします。
初期状態が決まったブラウン運動
フィルター付き確率空間$(\Omega,\mathcal{F},p;(\mathcal{F}_t))$とそれに適合するブラウン運動$B(t)$を考えます。
確率空間$(\R^d,\borel{R^d},\mu)$に対して、
\forall \Gamma \in \borel{\R^d}: p(B(0,\omega) \in \Gamma) = \mu(\Gamma)
を初期分布$\mu$をもつ$d$次元ブラウン運動と言います。
特に
\exists! x \in \R^d: \mu(\{x\}) = 1
であるとき、$x$を出発するブラウン運動と言います。
初期条件
初期分布$\mu$に対して、$\mathcal{F}_\infty$と独立な確率ベクトル
\exists \xi \in \mathcal{F}|\borel{\R^d}:
\forall \Gamma \in \borel{\R^d}: \mu(\Gamma) = p(\xi(\omega) \in \Gamma)
が存在するとき、この$\xi$を初期条件と言います。このとき、
p(B(0,\omega)=\xi(\omega)) = 1
です。
普遍的σ加法族
ボレル集合族によってσ加法族が定められた距離空間$((\Omega,d),\mathcal{B}(\Omega))$に定義できるすべての確率測度の集合を$\mathfrak{M}$とします。
また、$\mu \in \mathfrak{M}$を使ってボレル集合族を完備化してつくった可測集合族を$\bar{\mathcal{B}}^\mu(\Omega)$と表すことにします。
このとき普遍的σ加法族を
\mathscr{U}(\Omega) = \bigcap_{\mu \in \mathfrak{M}} \bar{\mathcal{B}}^\mu(\Omega)
と定義します。
マルコフ族
σ加法族が定められた状態空間$(\Omega,\mathcal{F})$上のマルコフ族とは増大情報系とそれに適合する確率過程の組$(X_t,\mathcal{F}_t)_{t \in T}$と確率測度の集合$(p^x)_{x \in \R^d}$のセットで、以下の条件を満たすもののことです。
- $F \in \mathcal{F}$に対して関数$f_F:\R^d \rightarrow \R$を$f_F(x) = p^x(F)$で定義すると、$\forall F \in \mathcal{F}: f_F \in \mathscr{U}(\Omega)|\mathcal{B}(\R)$
- $\forall x \in \R^d:p^x(X_0(\omega) = x) = 1$
- $\forall x \in \R^d,s,t \geq 0, \Gamma \in \borel{\R^d}: p^x(X_{t+s}(\omega) \in \Gamma \mid \mathcal{F}_s) = p^x(X_{t+s}(\omega) \in \Gamma \mid X_s)$
- $\forall x \in \R^d,s,t \geq 0, \Gamma \in \borel{\R^d}:$
p^x(X\_{t+s}(\omega) \in \Gamma \mid X_s) = p^{X_s(\omega')}(X_t(\omega) \in \Gamma) \quad (a.e. \ \Omega \ni \omega' \ w.r.t. \ p^x)
ちょっと複雑な表現ですが、$p^x$におけるゼロ集合$N \in \mathcal{N}^{p^x}(\Omega)$内の$\omega' \in N$に対しては成り立たなくてもよいという意味です。
ブラウン族
マルコフ族で$X_t$としてブラウン運動$B_t$、確率測度の列として$x$を出発する確率測度をとれば、マルコフ族になっていて、これはブラウン族と呼ばれるものになります。
確率積分
フィルター付き確率空間$(\Omega,\mathcal{F},p;\mathbf{F})$上で、
$\mathbf{F} = (\mathcal{F}_t)_{ t\in T}$に適合するウィーナーマルチンゲール$B = (B_t)_{t \in T}$に対して$B$についての汎関数積分
I_t(Y) = \int_0^t Y_s dB_s
を定義しましょう。状況に応じて$B(t)=B_t$と書きます。
(確率積分の意味で)可積分な確率過程
確率過程$Y(t,\omega)$が以下の3条件を満たすとき(この記事では)可積分であると言います。
- $Y$は$\mathbf{F}$に適合する
- $Y \in (\mathcal{B}(T)\otimes \mathcal{F})|\mathcal{B}(\mathbb{R})$
- $t$についてのL2ノルムがほとんど至る所で有界:
P\left( \forall t \in T: \int_0^t |Y(s,\omega)|^2 ds < \infty \right) = 1
この3条件を満たす$Y$全体の集合を$\mathcal{L}^2(\mathbf{F})$と表します。これは線形空間になっています。
構成の方針
いきなり$\mathcal{L}^2(\mathbf{F})$に対する積分を定義するのは難しいのでより小さい集合で定義して、それを拡張します。
tについての単関数で表される確率過程全体の集合
\begin{align}
0 &= t_0 < t_1 < t_2 < \cdots, \quad t_i \rightarrow \infty \\
Y(t,\omega) &= \sum_i Y(t_{i},\omega)1_{[t_i,t_{i+1})}(t)
\end{align}
と表せる$Y$全体の集合を$\mathcal{S}(\mathbf{F})$とします。
2乗ノルムの平均が有界
L^2(\mathcal{F}) = \left\{ Y \in (\mathcal{B}(T)\otimes \mathcal{F})|\mathcal{B}(\mathbb{R}) \mid Y:\mathbf{F}-\text{adaptive}, E\left[ \int_0^t Y^2(s,\omega) ds \right] < \infty \right\}
包含関係
\mathcal{S}(\mathbf{F}) \subset L^2(\mathbf{F}) \subset \mathcal{L}^2(\mathbf{F})
が成り立つので、$\mathcal{S}(\mathbf{F})$で定義した確率積分を拡張していきます。
単関数に対する確率積分
$Y \in \mathcal{S}(\mathbf{F})$のとき、$t \in T$
\exists! n: t_{n} < t < t_{n+1}
となり、
I_t(Y) = \sum_{i=0}^n Y(t_i)[B(t_{i+1}) - B(t_i)] + Y(t_n)[B(t) - B(t_n)] \quad (Y \in \mathcal{S}(\mathbf{F}))
と定義します。
性質
E[ I_t^2(Y)] = E\left[ \int_0^t Y^2(s,\omega) ds \right] \quad (Y \in \mathcal{S}(\mathbf{F}))
であるので$I_t(Y) \in L^2(\mathbf{F})$となることが分かります。
L2空間での定義
まず、$L^2(\mathbf{F})$での半ノルム
||Y||_t = E\left[ \int_0^t Y^2(t,\omega) dt \right]^{1/2}
を定義します。そして、$Y \in L^2(\mathbf{F})$のとき、$Y$の単関数近似
\{Y^{(m)}\} \in \mathcal{S}(\mathbf{F}): \forall n = 1,2,\cdots: ||Y-Y^{(m)}||_n \xrightarrow{m \rightarrow \infty} 0
を用いると、
n>t \Rightarrow E[ (I_t(Y^{(m)}) - I_t(Y^{(m')}) )^2]^{1/2} = || Y^{(m)} - Y^{(m')} ||_t \leq || Y^{(m)} - Y^{(m')} ||_n \xrightarrow{m,m' \rightarrow \infty} 0
となるので、$(I_t(Y^{(m)}))_m \subset L^2(\mathbf{F})$はコーシー列になります。
したがって、
I_t(Y) = \lim_{m \rightarrow \infty} I_t(Y^{(m)}) \quad (Y \in L^2(\mathbf{F}))
と定義されます。
性質
- $I_t(Y) \quad( Y \in L^2(\mathbf{F}))$は$t$に関して連続
- $I_t(Y) \quad( Y \in L^2(\mathbf{F}))$は$Y$に関して線形
- $I_t(Y) \quad( Y \in L^2(\mathbf{F}))$は$\mathbf{F}$に関するマルチンゲールである。
- 任意の$Y,\bar{Y} \in L^2(\mathbf{F})$に対して
条件$C_t(\Omega)$を
C_t(\omega): "\forall s \leq t: Y_s(\omega) = \bar{Y}_s(\omega) \Rightarrow I_t(Y)(\omega) = I_t(\bar{Y})(\omega) "
とすると、
P\left( \forall t \in T:C_t(\omega) \right) = 1
確率積分の定義
$Y \in \mathcal{L}^2(\mathbf{F})$に対して、
\tilde{Y}(t,\omega) = \int_0^t Y(s,\omega) ds
として、
\begin{align}
Y^{(n)}(t,\omega) &= Y(t,\omega)1_{[0,n]} \left( \tilde{Y}(t,\omega) \right) \\
n &= 1,2,\cdots
\end{align}
とすると、
\int_0^t (Y^{(n)}(t,\omega))^2 dt \leq n
です。ここで、$Y$の可積分性より
\exists n \in \mathbb{N}: \int_0^t Y^2(t,\omega) dt \leq n
で、$m \geq n$として
\forall s \leq t: Y^{(n)}(s,\omega) = Y^{(m)}(s,\omega)
が成り立ちます。よって、
I_t(Y^{n}) = I_t(Y^{m})
です。したがって、
\begin{align}
\exists n \in \mathbb{N}: &\int_0^t Y^2(t,\omega) dt \leq n \\
I_t(Y) &= I_t(Y^{(n)}) \quad (Y \in \mathcal{L}^2(\mathbf{F}))
\end{align}
とすると、十分大きければ$n$の取り方によらず$I_t(Y)$を定義できます。
確率積分の性質
- $I_t(Y)$は$t$に関して連続
- $I_t(Y)$は$Y$に関して線形
- 任意の$Y,\bar{Y} \in \mathcal{L}^2(\mathbf{F})$に対して
P\left( \left\{ \omega \in \Omega \mid \forall t \in T:C_t(\omega) \right\} \right) = 1
- 任意の$k \in \mathbb{N}$と確率過程の列$(Y_n) \subset \mathcal{L}^2(\mathbf{F})$に対して、
\lip{n \rightarrow \infty} \int_0^k (Y_n(t,\omega))^2 dt = 0 \Rightarrow \lip{n \rightarrow \infty} \underset{0 \leq t \leq k}{\sup}|I_t(Y_n)| = 0
- $Y$が$\mathbf{F}$に適合する連続過程であれば、
Y \in \mathcal{L}^2(\mathbf{F})
であり、$s<t$に対して$[s,t]$の任意の分割
\begin{align}
\Delta &= \{s=t_0<t_1< \cdots < t_n=t\} \\
|\Delta| &= \max_i |t_i - t_{i-1}|
\end{align}
とすれば、$\Delta$の取り方によらず
I_{s,t}(Y) = \int_s^t Y(t',\omega) dB_{t'} = \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n Y(t_{i-1})(B(t_i) - B(t_{i-1}))
となります。
コメント
$X \in \mathcal{L}^2(\mathbf{F})$は一般に$\mathbf{F}$マルチンゲールにはなりません。このような$X$を議論するときには局所マルチンゲールというものが導入されます。
補足
$t>s$に対して確率微分を
dX(s,t,\omega) = X(t,\omega) - X(s,\omega)
と定義します。これは確率積分を単関数近似して
\int_s^t Y(t',\omega) dB_{t'} = \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n Y(t_{i-1})(B(t_i) - B(t_{i-1}))
のように表したときに意味を持つ量になっています。
このとき、確率積分は任意の分割$\Delta$で単関数近似した際に区間$[t_{i-1},t_i]$において
\begin{align}
X(t) &\rightarrow X(t_{i-1}) \\
dX(s,t) &\rightarrow dX(t_{i-1},t_i)
\end{align}
として和分(と$|\Delta|$の極限)をとったものになっています。(普通は$dX$として$dB$しか考えませんが)
したがって、$dX$が複数ついているような確率積分であってもちゃんと定義されています。
先の議論のように確率積分はルベーグ積分とまったく同じやり方で構成されています。しかし、ふつうの積分は収束(ここでは概収束)で定義されますが、確率積分の定義は確率収束という緩い収束で定義されているので、このような量もwell-definedになっています。
計算例1
\begin{align}
X_i &= B(t_i) - B(t_{i-1}) \\
S_\Delta &= \sum_{i=1}^n X_i^2
\end{align}
と置くと、
\begin{align}
E[X_i] &= 0 \\
E[X_i^2] &= t_i - t_{i-1} \\
E[X_i^4] &= 3(t_i - t_{i-1})^2
\end{align}
であり、
\begin{align}
E[S_\Delta] &= \sum_i E[X_i^2] = t-s \\
V[S_\Delta] &= \sum_i V[X_i^2] = \sum_i (E[X_i^4] - E[X_i^2]^2) \\
&= 2\sum_i (t_i-t_{i-1})^2 \\
&\leq 2|\Delta|\sum_i (t_i-t_{i-1}) \\
&= 2|\Delta|(t-s) \xrightarrow{|\Delta| \rightarrow 0} 0
\end{align}
なので、任意の$\epsilon>0$に対して、$2\sqrt{|\Delta|}(t-s)<\epsilon$ととれば、
\begin{align}
&\{ \omega \in \Omega \mid |S_\Delta(\omega) - E[S_\Delta]| > \epsilon \} \\
&\subset \{ \omega \in \Omega \mid |S_\Delta(\omega) - E[S_\Delta]| \geq 2\sqrt{|\Delta|}(t-s) \} \\
&\subset \left\{ \omega \in \Omega \mid |S_\Delta(\omega) - E[S_\Delta]| \geq \frac{V[S_\Delta]}{\sqrt{|\Delta|}} \right\}
\end{align}
であり、チェビシェフの不等式を使って
P\left(|S_\Delta(\omega) - E[S_\Delta]| > \epsilon \right) \leq P\left(|S_\Delta(\omega) - E[S_\Delta]| \geq \frac{V[S_\Delta]}{\sqrt{|\Delta|}} \right) < |\Delta|
となります。$|\Delta| \rightarrow 0$とすると、
\forall \epsilon > 0: \lim_{|\Delta| \rightarrow 0 }P\left(|S_\Delta - (t-s)| > \epsilon \right) = 0
です。つまり、
\int_s^t (dB_u)^2 = \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n (B(t_i) - B(t_{i-1}))^2 = t-s
と分かります。
計算例2
$Y = B$のとき、$B$は連続過程だから
\begin{align}
\int_s^t B_u dB_u &= \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n B(t_{i-1})(B(t_i) - B(t_{i-1})) \\
&= \lip{|\Delta| \rightarrow 0} \frac{1}{2} \sum_{i=1}^n[ (B(t_i)^2 - B(t_{i-1})^2) - (B(t_i) - B(t_{i-1}))^2 ] \\
&= \lip{|\Delta| \rightarrow 0} \frac{1}{2} \sum_{i=1}^n(B(t_i)^2 - B(t_{i-1})^2) - \frac{1}{2}(t-s) \\
&= \lip{|\Delta| \rightarrow 0} \frac{1}{2} \sum_{i=1}^n(B(t_i)^2 - B(t_{i-1})^2) - \frac{1}{2}(t-s) \\
&= \lip{|\Delta| \rightarrow 0} \frac{1}{2} (B(t_n)^2 - B(t_0)^2) - \frac{1}{2}(t-s) \\
&= \frac{B(t)^2 - B(s)^2}{2} - \frac{t-s}{2}
\end{align}
計算例3
\begin{align}
\int_s^t t dB_t &= \lip{|\Delta| \rightarrow 0}\sum_{i=1}^n t_{i-1}(B(t_i) - B(t_{i-1})) \\
&= \lip{|\Delta| \rightarrow 0} \left[ \sum_{i=1}^n (t_iB(t_i) - t_{i-1}B(t_{i-1})) - \sum_{i=1}^n B(t_i) ( t_i - t_{i-1}) \right] \\
&= tB(t) - sB(s) - \int_s^t B(u) du
\end{align}
計算例4
計算例1より
\begin{align}
\mathcal{S}_\Delta &= \sum_i(t_i-t_{i-1})X_i \\
E\left[ \mathcal{S}_\Delta \right] &= \sum_i(t_i-t_{i-1})E[X_i] = 0 \\
V\left[ \mathcal{S}_\Delta \right] &= \sum_i(t_i-t_{i-1})^2 V[X_i] \\
&= \sum_i (t_i-t_{i-1})^3 \\
&\leq |\Delta|^2 \sum_i(t_i-t_{i-1}) \\
&= |\Delta|^2 (t-s)
\end{align}
だから、チェビシェフの不等式より
p\left(|\mathcal{S}_\Delta| \geq \frac{V[\mathcal{S}_\Delta]}{|\Delta|}\right) < |\Delta|^2
となって、計算例1と同様にして
\int_s^t du dB_u = \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n (t_i-t_{i-1})(B(t_i) - B(t_{i-1})) = 0
計算例5
\sum_{i=1}^n (t_i-t_{i-1})^2 < |\Delta| \sum_{i=1}^n (t_i-t_{i-1}) = (t-s)|\Delta| \xrightarrow{|\Delta| \rightarrow 0} 0
と収束するので、これは確率収束します。したがって、確率積分の意味で
\int_s^t (du)^2 = \lip{|\Delta| \rightarrow 0} \sum_{i=1}^n (t_i-t_{i-1})^2 = 0
伊藤ルール
計算例1、4、5の結果
\begin{align}
\int_s^t (dB_u)^2 &= t-s = \int_s^t du \\
\int_s^t du dB_u &= 0 \\
\int_s^t (du)^2 &= 0
\end{align}
はしばしば簡単に
\begin{align}
(dB)^2 &= dt \\
dtdB &= 0 \\
(dt)^2 &= 0
\end{align}
と表されて、伊藤ルールと呼ばれています。
マルチンゲールの表現定理
$\mathbf{F}$に適合する$\forall Y(t,\omega) \in L^2(\Omega,\mathcal{F},p)$に対して
\exists X(t,\omega) \in \mathcal{L}^2(\mathbf{F}): Y(t,\omega) = E[Y(t)] + \int_0^t X(s,\omega) dB(s,\omega)
と表されます。
参考記事
- 伊藤清「確率論」岩波書店
- 舟木 直久「確率微分方程式」岩波書店
- 石村, 直之「確率微分方程式入門 ―数理ファイナンスへの応用―(数学のかんどころ 26)」共立出版