0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

行列の性質備忘録

Last updated at Posted at 2020-01-27

忘れちゃう行列周りの事項の備忘録

行列式

$$
\begin{align}
\mathrm{det}(AB) = \mathrm{det}(A) \mathrm{det}(B),\
\mathrm{det}(A^{-1}) = \left(\mathrm{det}(A)\right)^{-1},\
\mathrm{det}\left(\bar{A}\right) = \overline{\mathrm{det}(A)} ,\
\mathrm{det}(A^T) = \mathrm{det}(A) ,\
\left| \mathrm{det}(A) \right|^2 = \mathrm{det}(A^H A)
\end{align}
$$

行列$A \in \mathbb{C}^N$が対角化, $A = X \Lambda X^{-1}, \Lambda_{ij}=\lambda_i \delta_{ij}$, 出来るとき、
$$
\mathrm{det}(A) = \mathrm{det}(X) \mathrm{det}(\Lambda) \mathrm{det}(X^{-1}) = \prod_{i=1}^N \lambda_i
$$
とくに、すべての固有値について、$\lambda_i > 0$のとき、
$$
\log \left( \mathrm{det}(A) \right) = \sum_{i=1}^N \log \left( \lambda_i\right).
$$
また、
$$
\log \left| \mathrm{det}(A) \right| = \sum_{i=1}^N \log \left| \lambda_i\right|.
$$

固有対、対角化

$$
\begin{align}
A = X \Lambda X^{-1}, \Lambda_{ij}=\lambda_i \delta_{ij}, \
A x_i = x_i \lambda_i ,
\quad
X = \left(x_1, x_2, \dots, x_N \right)
\end{align}
$$

行列のトレース

行列$A \in \mathbb{C}^N$が対角化, $A = X \Lambda X^{-1}, \Lambda_{ij}=\lambda_i \delta_{ij}$, 出来るとき、
$$
\begin{align}
\mathrm{tr} (A) = \mathrm{tr} (\Lambda) = \sum_i \lambda_i.
\end{align}
$$

行列の関数

行列$A \in \mathbb{C}^N$が対角化, $A = X \Lambda X^{-1}, \Lambda_{ij}=\lambda_i \delta_{ij}$, 出来るとき、多項式展開できる関数$f(x)$の行列の関数$f(A)$は以下のように大雑把に定義できる
$$
\begin{align}
f (A) = X f(\Lambda) X^{-1}.
\end{align}
$$

$f(A)$の固有値は$f(\lambda_i),i = 1,\dots,N$.

行列の指数関数のトレース

行列$A \in \mathbb{C}^N$が対角化, $A = X \Lambda X^{-1}, \Lambda_{ij}=\lambda_i \delta_{ij}$, 出来るとき、
$$
\mathrm{det}(e^A) = \mathrm{det}(e^\Lambda) = e^{\sum_i \lambda_i} = e^{\mathrm{tr} (A) }
$$

パラメーターに依存するエルミート行列の固有値問題の性質

$\alpha \in \mathbb{R}$をパラメーターにするエルミート行列$A (\alpha) \in \mathbb{C}^{N\times N}$がユニタリー行列$U$を使って、対角化, $A = U \Lambda U^{H} , \Lambda_{ij}=\lambda_i \delta_{ij}$, 出来るとき、
$$
\frac{\mathrm{d} \lambda_i }{\mathrm{d} \alpha} = u_i^H \left( \frac{\mathrm{d}A}{\mathrm{d} \alpha}\right) u_i
$$

ユニタリー行列の対角化

ユニタリー行列$U \in \mathbb{C}^{N\times N}$について、ユニタリー行列は正規行列(直交する列ベクトルを並べて作ることができる)なので、対角化可能。また、その固有値は絶対値1であり、相異なる固有値に対応する固有ベクトルは直交する。

固有値を成分とする対角行列が$\Lambda \in \mathbb{C}^{N\times N}, U = V\Lambda V^H, \Lambda_{ij}=e^{\mathrm{i}\phi_i}\delta_{ij}$で与えられるとき、固有値$\phi_1, \dots, \phi_N$をを持つエルミート行列$\Phi$を使って、
$$
U = e^{\mathrm{i}\Phi}, \qquad \Phi v_i = \phi_i v_i,
$$
と書ける。

特異値分解

特異値分解 - Wikipediaによると、行列$A \in \mathbb{C}^{M\times N}$はユニタリー行列$U \in \mathbb{C}^{M\times M}, V\in \mathbb{C}^{N\times N}$を用いて
$$
A = U \Sigma V^H
$$
とかけて、$\Sigma_{ij} = \sigma_i \delta_{ij}, \sigma_i \geq 0$である。

$U = (u_1,\dots,u_M), V=(v_1,\dots, v_N)$とおくと、行列$A$は
$$
A = \sum_{i}^{\min(M,N)} \sigma_i u_i v_i^H
$$
と表現できる。$u_i$と$v_i$はそれぞれ左特異ベクトル、右特異ベクトル。
$1 \leq i \leq \min(M,N)$について以下の性質がある
$$
A v_i = \sigma_i u_i, \qquad
u_i^H A = v_i^H \sigma_i
$$

全ての特異値$\sigma_i$が正定値かつ縮退がない場合は、$u_i$と$v_i^H$の積でキャンセルしない絶対値1の複素数を除いて、一意に$U,V$は決まる。(逆に$u_i' = e^{\mathrm{i}\phi_i}u_i, v_i' = e^{\mathrm{i}\phi_i}v_i, \phi_i \in \mathbb{R}$という形で絶対値1の複素数をかけて作った$U', V'$はまた特異値分解の一つになっている。もちろん、特異値は変化しない。)

左右の特異ベクトルの性質

左右の特異ベクトルは、それぞれ半正定値行列$A^H A$、$A A^H$の固有ベクトルになっている:
$$
A^H A v_i = \sigma_i^2 v_i, \quad A A^H v_i = \sigma_i^2 v_i.
$$

エルミート行列の固有ベクトルとの関係

エルミート行列$A \in \mathbb{C}^{N \times N}$の固有ベクトル、固有値との関係についてここでは議論する。
エルミート行列は、固有対$(\lambda_i, x_i)$を使って
$$
A = \sum_{i=1}^N \lambda_i x_i x_i^H
$$
と書ける。

$\lambda_i x_i x_i^H = \left| \lambda_i \right| x_i \left( \mathrm{sgn}(\lambda_i) x_i\right)^H
$を用いると、
$$
\sigma_i = \left| \lambda_i \right|, \qquad
U = (x_1,\dots,x_N), \qquad
V = (\mathrm{sgn}(\lambda_1)x_1,\dots,\mathrm{sgn}(\lambda_N)x_N)
$$
とすることでとすれば、行列Aが$A = U \Sigma V$とかける。固有値の符号は$U$側に押し付けても良い。
特異値分解は、非縮退かつ正定値特異値に対しては、左特異ベクトルと右特異ベクトルの対に施す絶対値1の複素数の積を除いて一位に定まったので、この手続きが求めた$U \Sigma V$が特異値分解にほかならない。

行列$A$が正定値エルミートのときは、固有ベクトルが左右の特異ベクトルと絶対値1の複素数の係数不定性を除いて一致する。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?