0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

ラピッドチャレンジ レポート 応用数学

Last updated at Posted at 2021-07-11

第1章 線形代数

 高校程度の内容の確認。基本的な知識で特異事項はないが、必要に応じて再度確認

・スカラー、ベクトル、行列
・連立方程式の行列での表現
・行列の演算
・行基本変形の行列の積での表現
・逆行列(Inverse matrix)と単位行列(Identity matrix)
  逆行列の求め方:ガウス掃き出し法
  逆行列が存在しない場合(面積・体積0の場合)
・行列式(Determinant)
  行列式の線形性
   *行を入れ替えると符号が入れ替わる
  行列式の求め方

\begin{vmatrix}
a & b \\
c & d \\
\end{vmatrix}
=ad-bc

   *3×3以上に増えても変換して出せる
・固有値と固有ベクトル

A\vec{x}=\lambda\vec{x}

 上記の時、$\vec{x}$と$\lambda$を固有ベクトル、固有値という。

・固有値の求め方
 $|A-\lambda I|=0$ を解くことで求められる。(なぜなら$\vec{x}$は$\vec{0}$ではない)

・固有値分解
 固有値を対角線上に並べた行列(それ以外の成分は0)$\Lambda$と、固有ベクトルを並べた行列$V$で正方行列を次のように変形できる。
 $$A=V\Lambda V^{-1}$$

・特異値分解
 正方行列以外の行列を固有値分解のようなことをする。
 $$M=USV^{-1}$$ ($U$、$V$は直交行列)

・特異値の求め方
 $MM^{-1}$と$M^{-1}M$を固有値分解する。

・特異値分解の利用例
 画像データを行列として特異値分解し、成分の小さな特異値を取り除いても概ね同じような画像に見える。
 画像の大枠を変えずに画像の圧縮ができる。
 また特異値の大きい成分を比較することで、画像の類似性を判断することができるため、機械学習の前処理で利用できる。

第2章 統計学

 こちらも必要に応じて確認する程度

・集合
 和集合:$A\cup B$  共通部分:$A\cap B$
・確率
  条件付き確率:$P(B|A)=\frac{P(A\cap B)}{P(A)}$
  ベイズ則:$P(A|B)=\frac{P(A)P(B|A)}{P(B)}$
・記述統計:揃っているデータを整理
 推計統計:標本から母集団を予想
・確率変数と確率分布
・期待値
 離散値:$E(f(X))=\sum_{k=1}^n P(x_k)f(x_k)$
 連続値:$E(f(X))=\int_{}P(X=x)f(X=x)dx$
・分散
 $V(f(X))=E\left( \Big(f(X=x)-E(f(x))\Big)^2\right)=E(f(X)^2)-\Big(E(f(X)) \Big)^2$
・共分散
 2つのデータの相関度:正だと正の相関、負だと負の相関、0だと無関係
 $Cov(f(X),g(Y))=E\bigg( \Big(f(X=x)-E(f(X)) \Big) \Big( g(Y=y)-E(g(Y)) \Big) \bigg)\
=E\Big(f(X=x)g(Y=y) \Big)-E\Big(f(X=x)\Big)E\Big(g(Y=y)\Big)$
・標準偏差:分散の平方根
・代表的な分布(数式いらない・・・?)
 ベルヌーイ分布:コインの裏表のような2クラスのどちらかの分布
 マルチヌーイ(カテゴリカル)分布:サイコロのような多クラスの分布
 二項分布:ベルヌーイ分布の多試行版
 ガウス分布:山型の分布。データがわからないときはとりあえずこの分布と仮定
・推定:標本から母集団の特性(平均値等のパラメータ)を推測
・推定量:計算方法など関数のこと
 推定値:実際に出た数値 $hat{\theta}
・標本分散:サンプル数が少ないと本来の分散より小さくなる

$$\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2$$
 不変分散:サンプル数に応じて補正

$$\frac{n}{n-1}\times\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2=\frac{1}{n-1}\sum_{i=1}^n (x_i-\bar{x})^2$$

第3章 情報科学

 感覚的につかみにくいので繰り返し確認が必要

・自己情報量
 $$-\log P(x)=\log W(x)$$
 対数の底が2:単位はビット(bit)   対数の底がe:単位は(nat)
・シャノンエントロピー:自己情報量の期待値
$$H(x)=E(I(x))=-E(\log(P(x)))=-\sum_{}P(x)\log P(x)$$
・カルバック・ライブラー ダイバージェンス:二つの確率分布の類似性を表す(*共分散でも似た話あった)
$$D_{KL}(P, ||Q)=E_{X\sim P}\left[\log\frac{P(x)}{Q(x)}\right]=E_{X\sim P}\left[\log P(x)-\log Q(x) \right]$$
・交差エントロピー
$$H(P,Q)=-\sum_{x}P(x)\log Q(x)$$

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?