1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

量子コンピュータと量子通信,演習問題解答例:第2章-その2

Last updated at Posted at 2023-01-27

$$
\def\bra#1{\mathinner{\left\langle{#1}\right|}}
\def\ket#1{\mathinner{\left|{#1}\right\rangle}}
\def\braket#1#2{\mathinner{\left\langle{#1}\middle|#2\right\rangle}}
$$

はじめに

こんにちは、S.Kouです。お待たせしました!今回もニールセン・チャンの解答例を共有していきます。

今回は演習2.5からやっていきます!
前回の記事を見直して少し量が少ないと思ったので今回から少し分量を増やしたいと思います。

前回の記事はこちら

本記事の内容は
Michel A. Nielsen, Isaac L. Chuang 共著. 木村達也 訳.
量子コンピュータと量子通信. オーム社. 2004
の内容に準拠しています。

本編

2.1.4 内積

演習2.5

以下ベクトルを$\boldsymbol{x}$のように表記する。

内積演算をベクトル空間に加えたものが内積空間であるから、
ベクトル空間$\boldsymbol{C}^n$上の任意のベクトル$\boldsymbol{x}$,$\boldsymbol{y}$について、$(\boldsymbol{x}, \boldsymbol{y})$が内積の要請を満たすことを示せばよい。

(i)

\begin{align}
(\boldsymbol{x}, \sum_j \lambda_j \boldsymbol{y}_j) &= ((x_1, \cdots, x_n), \sum_j \lambda_j(y_{1j}, \cdots, y_{nj})) \\
&= \sum_i x^*_i \sum_j \lambda_j y_{ij} \\
&= \sum_j \lambda_j \sum_i x^*_i y_{ij} \\
&= \sum_j \lambda_j ((x_1, \cdots, x_n), (y_{1j}, \cdots, y_{nj})) \\
&= \sum_j \lambda_j (\boldsymbol{x}, \boldsymbol{y}_j)
\end{align}

(ii)

\begin{align}
(\boldsymbol{y}, \boldsymbol{x})&= \sum_i y^*_i x_i \\
&= (\sum_i x^*_i y_i)^* \\
&= (\boldsymbol{x}, \boldsymbol{y})^*
\end{align}

(iii)

\begin{align}
(\boldsymbol{x}, \boldsymbol{x}) &= \sum_i x^*_i x_i \\
&= \sum_i |x_i|^2 \geq 0
\end{align}

等号成立は$\boldsymbol{x} = \vec{0}$のとき

以上より$(・,・): \boldsymbol{C}^n \times \boldsymbol{C}^n \rightarrow \boldsymbol{C}$は内積の要請を満たすのでこれは内積空間となる。

演習2.6

\begin{align}
(\sum_i \lambda_i \ket{w_i},\ket{v}) &= (\ket{v}, \sum_i \lambda_i \ket{w_i})^* \\
&= (  \sum_i \lambda_i (\ket{v},\ket{w_i}) )^* \\
&= \sum_i \lambda_i^* (\ket{v},\ket{w_i})^* \\
&= \sum_i \lambda_i^* (\ket{w_i},\ket{v})
\end{align}

演習2.7

\begin{align}
\braket{w}{v}=1-1=0
\end{align}

より、直交している。

これらの正規化された形は

\begin{align}
\frac{\ket{w}}{\sqrt{\braket{w}{w}}} = \frac{1}{\sqrt{2}}
\begin{pmatrix}
1\\
1
\end{pmatrix} \\
\frac{\ket{v}}{\sqrt{\braket{v}{v}}} = \frac{1}{\sqrt{2}}
\begin{pmatrix}
1\\
-1
\end{pmatrix}
\end{align}

演習2.8

帰納法を用いる。

(i)

生成する正規直交基底について

\begin{align}
\ket{v_0}&=\frac{\ket{w_0}}{||\ket{w_0}||} \\
\ket{v_1}&=\frac{\ket{w_1}-\braket{v_0}{w_1}\ket{v_0}}{|| \ket{w_1}-\braket{v_0}{w_1}\ket{v_0} ||}
\end{align}

と定義すると、

\begin{align}
\braket{v_0}{v_1}=\frac{\braket{v_0}{w_1} - \braket{v_0}{w_1}\braket{v_0}{v_0}}{|| \ket{w_1}-\braket{v_0}{w_1}\ket{v_0} ||}=0
\end{align}

より、$\ket{v_0},\ket{v_1}$は直交する。

(ii)

次に、$\{ \ket{v_j} \}(j=0,1,\cdots ,k)$が互いに直交すると仮定すると、任意の$j$について

\begin{align}
\braket{v_j}{v_{k+1}} &= \bra{v_j}(\ket{w_{k+1}}-\sum_{i=0}^k\braket{v_i}{w_{k+1}}\ket{v_i}) \\
&=\braket{v_j}{w_{k+1}}-\sum_{i=0}^k\braket{v_i}{w_{k+1}}\braket{v_j}{v_i}\\
&= \braket{v_j}{w_{k+1}}-\sum_{i=0}^k\braket{v_i}{w_{k+1}}\delta_{ji}\\
&= \braket{v_j}{w_{k+1}}-\braket{v_j}{w_{k+1}} = 0
\end{align}

が成り立つ。つまり、任意の$\ket{v_j}$は$\ket{v_{k+1}}$と直交している。

以上より、Gram-Schmidtの方法で生成されるベクトルたちは、全て互いに直交している。
また、定義式から正規化していることがわかるので、直ちにこれらが正規直交基底であることがわかる。

演習2.9

完全性関係を用いて展開する。

\begin{align}
\sigma_x &= I\sigma_x I \\
&= \sum_{ij}\ket{i}\bra{i}\sigma_x\ket{j}\bra{j}\\
&= \sum_{ij}\bra{i}\sigma_x\ket{j}\ket{i}\bra{j} \\
&=\bra{0}\sigma_x\ket{0} \ket{0}\bra{0}+ \bra{0}\sigma_x\ket{1} \ket{0}\bra{1} + \bra{1}\sigma_x\ket{0} \ket{1}\bra{0} + \bra{1}\sigma_x\ket{1} \ket{1}\bra{1}\\
&=\ket{0}\bra{1}+\ket{1}\bra{0}
\end{align}

同様の手順で

\begin{align}
\sigma_y &= -i\ket{0}\bra{1}+i\ket{1}\bra{0} \\
\sigma_z &= \ket{0}\bra{0}-\ket{1}\bra{1}
\end{align}

ここまで完全性関係を用いて展開を行ったが、$i$行$j$列目の要素が$\ket{i}\bra{j}$の係数となっていることを利用すれば、直ちに以上の結果が得られる。

演習2.10

基底$\{ \ket{v_i} \}$について,

(\ket{v_j}\bra{v_k})\ket{v_i} = \sum_{l} A_{lj}\ket{v_l}

を考えると$i=k,l=j$のときに$A_{li}=1$となる。従って$\ket{v_j}\bra{v_k}$の表現行列は$l行i列目$の要素が1でそれ以外は0となっている行列である。

あとがき

今回はここまでとなります。
次回もおそらく1週間程度間が空くかもしれませんが気長に待っていただけると幸いです。
一緒に勉強頑張っていきましょう!

ご意見ご指摘などあれば、記事のコメントや、twitterまでお願いします。

次回の記事はこちら

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?