線形代数学
・スカラーとベクトルと行列
スカラー:普通の数字。四則演算が可能。
ベクトル:「大きさ」「向き」を持つデータ。スカラーとセットで用いられる。
行列:スカラーを表にまとめたデータ。また、ベクトルを並べたデータ。
→スカラーやベクトル、行列を用いることで連立方程式を解いたり、ベクトルの変換が可能になる!
・行列の積
行列の積の方法は「行」×「列」を意識して行う。
下記の例題を用いて説明すると、
{\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\times
\begin{pmatrix}
e & f \\
g & h
\end{pmatrix}
}
上記の左側の行列の1「行」目$a$と右側の行列の1列目$e$を掛け合わせる。
次に行列の1「行」目$b$と右側の行列の1列目$g$を掛け合わせる。
掛け合わせた2つの数を足し合わせる。
{\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\times
\begin{pmatrix}
e & f \\
g & h
\end{pmatrix}
}
=
\begin{pmatrix}
ae + bg & X_2 \\
X_3 & X_4
\end{pmatrix}
同様に$X_2,X_3,X_4$を計算すると
{\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\times
\begin{pmatrix}
e & f \\
g & h
\end{pmatrix}
}
=
\begin{pmatrix}
ae + bg & af + bh \\
ce + dg & cf + gh
\end{pmatrix}
となり、行列の積を求めることができる。
行列の積後の行列の形は、左側の行列の行数と右側行列の列数となる。
上記の式では左側の行列は2行2列、右側の行列も2行2列なので
行列の積後の形は2行(左側の行数)2列(右側の行数)となる。
・逆行列と単位行列
単位行列:対角に1が並び、それ以外は0である正方行列。行列にかけても値が変わらない正方行列。
スカラに例えると1のようなイメージ(数字に1をかけても元の数字は変わらない)
逆行列:ある正方行列にかけると単位行列になる正方行列。
スカラに例えると逆数のようなイメージ(ある数に逆数をかけると1になる)
上記のように単位行列を用いることで正方行列の逆行列をもとめることができる。
・行列式
正方行列の大きさ特徴を表すものであり、スカラーである数のこと。
求め方は、
{\begin{vmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{vmatrix}
}
=
a_{11} a_{22} - a_{12}a_{21}
で行列式を算出できる。
・固有値と固有ベクトル
ある行列$A$とあるスカラー$λ$それぞれにあるベクトルをかけ、下式が成り立つときの
A{\begin{pmatrix}
a \\
b
\end{pmatrix}
=
λ\begin{pmatrix}
a \\
b
\end{pmatrix}
}
ベクトルとスカラー$λ$をそれぞれ「固有ベクトル」と「固有値」という。
例
{\begin{pmatrix}
1 & 4 \\
2 & 3
\end{pmatrix}
\times
\begin{pmatrix}
1 \\
1
\end{pmatrix}
=
\begin{pmatrix}
5 \\
5
\end{pmatrix}
=
5\begin{pmatrix}
1 \\
1
\end{pmatrix}
}
・固有値分解
ある正方行列が固有値と固有ベクトルを持つとき
{\begin{align}
A &=V\Lambda V^{-1} \\
\end{align}
}
特異値分解
統計学
・集合
モノの集まり数学的にはS={a,b,c,d,e,f}などで表す。
・和集合と共通部分
和集合はAまたはBで表され、共通部分はAかつBで表される。
・確率
頻度関数とベイズ関数
頻度関数(客観確率):発生する頻度を表す。
ベイズ関数(主観確率):信念の度合い。
確率の定義
P(A) = 事象Aが起きる数 / すべての事象の数
条件付き確率
ある事象Bが与えられた下で、Aとなる確率
事象Aかつ事象Bが起きる数 / 事象Bが起きる数
独立な事象の同時確率
お互いの発生に因果関係がない事象Aと事象Bが同時に発生する確率は
事象Aが起きる確率と事象Bが起きる確率の積で求めることができる。
ベイズ則
例:ある街の子供は毎日1/4の確率で飴玉をもらうことができ、飴玉をもらうと
1/2の確率で笑顔になる。その街の笑顔な子供が飴玉をもらっている確率を求めよ
ただし、この街の子供が笑顔でいる確率は1/3である。
上記の飴玉をもらう確率と笑顔になる確率は同時確率であるため、
飴玉をもらって笑顔になる確率は積で求められ1/8となる。
これは、飴玉をもってて笑顔である子供の確率と同じである。
飴玉をもってて笑顔である子供の確率と街の子供が笑顔でいる確率も同時確率であり、
飴玉をもらって笑顔になる確率と等しい。よって答えは3/8となる。
確率変数と確率分布
確率変数:事象と結びつけられた数。事象そのものを指すと解釈する場合も多い。
確率分布:事象の発生する確率の分布。離散値であれば表で表せる。
期待値:その分布における確率変数の平均の値
分散と共分散
分散:データのばらつき具合。各値が期待値からどれほどずれているか平均化したもの。
共分散:2つのデータ系列の傾向の違い。
いろいろな確率分布
ベルヌーイ分布:コイントスのイメージ。裏と表出る確率が等しくない場合でも扱える。
マルチヌーイ分布:さいころを転がすイメージ。各面の割合いが等しくない場合でも扱える。
二項分布:ベルヌーイ分布の多施行版
ガウス分布:釣鐘型の連続分布
推定量と推定値
推定量:パラメータを推定するために利用する数値の計算方法や計算式のこと。
推定値:実際に施行を行った結果から計算した値。
情報科学
元の数からの増加の比率の積文を用いて情報の量を求める。
自己情報量
ある事象が発生したときにどれほど珍しい事象なのかを示す尺度のこと。
情報量は確率で表され、確率が低いほど情報量は多い。
対数の底が2のとき、単位はビット(bit)で表す。
log(W(x)) = -log(P(x))
シャノンエントロピー
自己情報量の期待値のイメージ。
事象が複数起きた場合。事象の起きやすさはそれぞれ異なるため、それぞれの事象に重み付けを
行う必要がある。そのうえで計算した情報量をシャノンエントロピー(平均情報量)という。
-Σ(P(x)log(P(x))) で表す。