0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

時系列解析:個人的メモ

Posted at

概要

計量時系列分析(沖本著)を勉強しています。
この本自体は割りと不親切でざっくりしているので、そこまでおすすめしません。

MAモデル

MA(1)モデル定義

y_t = \mu + \epsilon_t + \theta_1 \epsilon_{t-1}
\epsilon_t \sim W.N.(\sigma^2 )

性質

  1. 定常
  2. 平均:$E[y_t] = \mu$
  3. 分散:$V[y_t] = (1+\theta_1^2)\sigma^2 $

共分散

Cov[y_t,y_{t-1}] = Cov
[ \mu + \epsilon_t + \theta_1 \epsilon_{t-1},
 \mu + \epsilon_{t-1} + \theta_1 \epsilon_{t-2}]

= Cov
[  \epsilon_t + \theta_1 \epsilon_{t-1},
 \epsilon_{t-1} + \theta_1 \epsilon_{t-2}]

=\theta_1 Cov[\epsilon_{t-1},\epsilon_{t-1}]

= \theta_1 \sigma^2

  1. 自己共分散:$Cov[y_t,y_{t-1}] = \theta_1 \sigma^2$
  2. 自己共分散:$Cov[y_t,y_{t-k}] = 0 (k >1)$

$MA(q)$の場合はq次を超える自己バリアンスは0になる

ARモデル:自己回帰モデル

AR(1)

y_t = c + \phi_1 y_{t-1} + \epsilon_t
\epsilon_t \sim W.N.(\sigma^2 )

性質

定常であるとするならば

  1. 平均:$\mu = c + \phi_1 \mu$より$\mu = c/(1- \phi_1)$
  2. 分散:$V[y_t] = V[ \phi_1 y_{t-1} + \epsilon_t] = \phi_1^2 V[y_{t-1}] + \sigma^2 $ よって、$V[y_t] = \sigma^2 /(1-\phi_1^2)$

といえる。

自己共分散

Cov[y_t,y_{t-k}] = Cov[c + \phi_1 y_{t-1} + \epsilon_t,y_{t-k}] 
=Cov[\phi_1 y_{t-1},y_{t-k}] + Cov[ \epsilon_t,y_{t-k}]
=\phi_1 Cov[ y_{t-1},y_{t-k}]

Covの分解$Cov(y,x)=(y-\bar{y})(x-\bar{x})$であることから、
$Cov(y,x)=(y_1-\bar{y_1} + y_2 - \bar{y_2})(x-\bar{x})$と考えられるため
$Cov(y,x)= Cov(y_1,x) + Cov(y_2,x)$といけるのである。

以上より、

\gamma_k = \phi_1 \gamma_{k-1}

となる。

$AR(p)$に一般化すると

\gamma_k = \phi_1 \gamma_{k-1} + \phi_2 \gamma_{k-2} + \cdots + \phi_p \gamma_{k-p}

これをユールウォーカー方程式と呼ぶ。
初期値$\gamma_0,\gamma_1$を与えると逐次的に自己共分散が得られる。

ちなみに差分方程式といえばZ変換である。Z変換を使えば漸化式から一般解が求められる。

AR特性方程式

y_t = c + \phi_1 y_{t-1} + \cdots +\phi_p y_{t-p}+\epsilon_t
y_0,y_1,\cdots ,y_{p-1} = given
\epsilon_t \sim W.N.(\sigma^2 )

これをZ変換します。

(z^p - \phi_1 z^{p-1} - \cdots - \phi_p ) Y(z) = \frac{c}{1-z^{-1}} -y_0(z^{p-1} +\cdots) - \cdots

ここで特性根は

(z^p - \phi_1 z^{p-1} - \cdots - \phi_p ) (z-1) = 0

となる。

Z変換表を参考にする。

等比数列のZ変換は

Z[a^n]= \frac{z}{z-a}

特性根が等比数列の増加比に相当する。つまり、

|a| >1 \rightarrow 爆発的増加
a =1 \rightarrow 定数
|a| < 1 \rightarrow 減衰

という関係がある。

以上より、$AR$過程の特性方程式を元に特性根を計算することで、過程が爆発するか、減衰するかが判定できる。

AR定常・反転可能性

(AR過程をMA( \infty )過程に変換可能) = (AR過程が定常)

$MA( \infty )$過程は平均が$\mu$、分散が有限であることから定常です。

(MA過程をAR( \infty )過程に変換可能) = (反転可能という)

実際に変換してみましょう。


ARMA過程

$AR + MA$である。
$MA$を$AR(\infty)$に変換可能、
$AR$を$MA(\infty)$に変換可能、
であることから、$ARMA$は係数が無限和の$AR(\infty)$もしくは$MA(\infty)$であると言える。

MAが定常であることから、ARが定常であれば定常となる。

VAR過程

AR過程を複数変数に拡張したもの。
制御における離散状態方程式と等価
カルマンフィルタはこのモデルを使う。

VMA,VARMAが使われないのは、VARで十分にモデルを記述でき、問題の複雑さからである。

\boldsymbol{y}_t = \boldsymbol{c} + \boldsymbol{\Phi}_1 \boldsymbol{y}_{t-1} + \cdots +  \boldsymbol{\Phi}_p \boldsymbol{y}_{t-p}  + \boldsymbol{\epsilon}_t

これまで変数$y_t$は1つの時系列データのみだったが、今回の$\boldsymbol{y}_t $は複数の時系列データを並べたものです。

VARの性質

定常であるとするならば

  1. 平均:$\mu = c + \phi_1 \mu$より$\mu = (I_n- \phi_1)^{-1} c$
  2. 自己共分散
Cov(y_t,y_{t-k}) = \Gamma_k

とする。ベクトル確率変数の共分散は行列計算になる。

Cov(y_t,y_{t-k}) = E[(y_t-E[y_t])^T (y_{t-k}- E[y_{t-k}])]

である。

Cov(\boldsymbol{c} + \boldsymbol{\Phi}_1 \boldsymbol{y}_{t-1} + \cdots +  \boldsymbol{\Phi}_p \boldsymbol{y}_{t-p}  + \boldsymbol{\epsilon}_t,y_{t-k})
=
Cov(\boldsymbol{\Phi}_1 \boldsymbol{y}_{t-1} ,y_{t-k}) + \cdots+
Cov(\boldsymbol{\Phi}_1 \boldsymbol{y}_{t-p} ,y_{t-k}) +
Cov(\epsilon_t ,y_{t-k}) +

よって

 \Gamma_k = \boldsymbol{\Phi}_1  \Gamma_{k-1} + \cdots +\boldsymbol{\Phi}_p  \Gamma_{k-p}

となる。これは$AR$過程で出てきたユールウォーカー方程式の多次元版である。

初期値$\Gamma_0,\Gamma_1$を与えると逐次的に自己共分散が得られる。

見かけ上無関係な回帰モデル:SURモデル

$VAR$過程はを各行分解し、個別に同定することができる。
これは、$(y_t){1}$ と $(y_t){2成分}$に見かけ上無関係であることに由来する。

つまり、$VAR$モデルは$SUR$モデルの一種と考えられる。

グレンジャー因果性

$VAR(1)$モデルを各成分で書き出す

y_{1,t} = c_1 + \phi_{11} y_{1,t-1} + \phi_{12} y_{2,t-1} + \epsilon_{1t}\\
y_{1,t} = c_1 + \phi_{21} y_{1,t-1} + \phi_{22} y_{2,t-1} + \epsilon_{1t}

ここで、$y_{2}$を抜いてモデルを同定した場合

y_{1,t} = c_1 + \phi_{11} y_{1,t-1}  + \epsilon_{1t}\\

はこうなる。

前項での最小二乗誤差法による同定の結果の最小二乗誤差$MSE_1$
後項での最小二乗誤差法による同定の結果の最小二乗誤差$MSE_2$

$MSE_1 < MSE_2$であれば、$y_2$を採用した効果があると考えられる。
これを$y_2$から$y_1$にグレンジャー因果性があると呼ぶ。

ただし、モデルが複雑であるほど当てはまりがいいので、仮に因果関係がなくても一般に成立する。
よって、検証が必要になる。最小二乗誤差の検定といえばF分布である。

2F = 2\frac{(MSE_2 -MSE_1)/r}{MSE_1/(T-np-1)} \sim F(2,T-np-1)

係数$2$はVARモデルの説明変数には過去の被説明変数が含まれている事による、歪みの補正らしい(わからない)。

インパルス応答

$t=0$にて$\epsilon_{1,t=0}= 1$をあたえ、他では$\epsilon_{1,t \neq 0}= 0$として、$y_t$を逐次的に計算し、応答を求める。

直行化インパルス応答:攪乱項の共分散が対角になるように係数行列を設定し、応答を見た結果

分散分解

例題はわかったが使い道がよくわからん

構造型VARモデル

前に行列$B$がついただけ。

B\boldsymbol{y}_t = \boldsymbol{c} + \boldsymbol{\Phi}_1 \boldsymbol{y}_{t-1} + \cdots +  \boldsymbol{\Phi}_p \boldsymbol{y}_{t-p}  + \boldsymbol{\epsilon}_t

$VAR$に変換可能。

単位根過程

差分系列が定常過程となる過程。

ここからが難しい

見せかけの回帰

GARCHモデル

状態変化モデル

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?