Edited at

やっぱり線形代数は必要 #2 ベクトル

More than 1 year has passed since last update.

プログラミングのための線形代数 平岡 和幸(著), 堀 玄(著)オーム社」をまとめています。が、大学数学はほぼ独学なので、だいぶゆるふわ理解になると思います。どうぞご了承ください。間違っていたらぜひ指摘してください。

前の記事←→次の記事


ベクトルと空間のイメージ

ベクトルと言った場合、基本的に縦のベクトルとして扱っていくそう1

\boldsymbol{x}=

{\left(
\begin{matrix}
x_0 \\
x_1 \\
x_2
\end{matrix}
\right)
}

スペースの関係で、転置(行と列を入れ替える操作)の記号$T$を使って、$\boldsymbol{x} = (x_0,x_1,x_2)^T$と表記します。ベクトルは太字。


線形空間

線形代数でベクトルを考えるときは、ベクトルの「足し算」と「定数倍」のみ使います。「長さ」や「角度」は定義しません2原点$O$と「足し算」と「定数倍」が定義された世界を、線形空間(ベクトル空間)と呼びます。

(「長さ」や「角度」の概念も導入した空間(高校数学のベクトルの単元で扱ってきた座標空間)は、内積空間と呼びます。)

↓このイメージで合ってるかは正直分かりません…が、今の所この理解で進めていきます…。間違っていたら教えてください><

Picture1.png


基底

あるベクトルを定義するときに基準となるベクトルの組基底と呼びます。

言い換えると、今考えている空間内のどんなベクトル$\vec{v}$でも、

\vec{v} = x_1\vec{e_1} + \cdots + x_n\vec{e_n}

という、足し算と定数倍の1通りの形で表せるようなようなベクトルの組み合わせ$(\vec{e_1}, \cdots, \vec{e_n})$のこと。

Screen Shot 2018-10-20 at 06.14.30.png

さらに言い換えると、$(\vec{e_1}, \cdots, \vec{e_n})$を使えば、今考えている空間(2次元なら平面、3次元なら空間、n次元ならn次元空間)のあらゆる点を足し算と定数倍で表現できます。


線形結合

上述の$\vec{v} = x_1\vec{e_1} + \cdots + x_n\vec{e_n}$のうち、ある係数($(u_1, \cdots, u_n)$とする)を持ってきて、足し算と定数倍してできるベクトル

u_1\vec{e_1} + \cdots + u_n\vec{e_n}

を、$(\vec{e_1}, \cdots, \vec{e_n})$の線形結合(1次結合)と呼びます。

基底ベクトル(基底の要素となるベクトル、$\vec{e_1}$とか)は少なすぎても多すぎても向きが同じやつだけでもダメで、基底ベクトルの数 = 次元数 = 座標の成分数です。

Screen Shot 2018-10-20 at 06.04.21.png


今後の予定


  • 第1章 ベクトル・行列・行列式



  • 第2章 ランク・逆行列・一次方程式

  • 第3章 コンピュータでの計算(1)

  • 第4章 固有値・対角化・Jordan標準形

  • 第5章 コンピュータでの計算(2)





  1. 後に写像の話をするときに、「ベクトル$\boldsymbol{x}$に行列$A$(で表される写像)を施す」操作を$A\boldsymbol{x}$とスッキリ書きたいという便宜上。機械学習でも画像処理でも数式で扱うのは基本的にデータセットなので、横でも縦でもあんまり問題じゃないってことだとおもう 



  2. 今の所そんな感じで理解してます...。でも本当にそうなのか不安。数学のすごい人、どうでしょう、、