ラビットチャレンジの提出課題
#応用数学
- 線形対数
M×N個の数を長方形に並べて()で括ったものをM行N列の行列という。M=Nのときの行列を正方行列と呼ぶ。正方行列のとき、固有値分解ができる(λE-Aが正則行列でないとき)。それ以外の行列のときは、特異値分解ができる。逆行列が存在するとき、その行列を正則行列と呼び、-1(インバース)をつけて示す。逆行列を求めるとき、求めたい行列の右側に単位行列を追加して、左側が単位行列になるまで行の計算を繰り返す。行列の行と列を入れ替えた行列を転置行列といい、tをつけて示す。2×2の行列A、Bがあったとき、掛け算は可能であるが、基本的に可換ではない。M×N1の行列A、N2×Lの行列Bがあったとき、N1=N2であれば掛け算ができる。
- 確率・統計
サイコロの目などを整数で表し、それに対応する確率が存在するとき、確率変数と呼ぶ。サイコロの目などは離散確率変数、身長などの連続値の場合には連続確率変数と呼ぶ。確率変数がどのような値をとるのか期待されるかという意味で、確率変数と確率の積の和で表される値を期待値と呼ぶ。確率分布の散らばりの具合を分散、分散の平方根を標準偏差、2組のデータのばらつき具合を共分散と呼ぶ。確立分布には、正規分布、二項分布、ベルヌーイ分布、。推定量とは計算式やパラメータのことで、推定値は予想される値のことでハットをつけて示す。和事象(和集合)では、加法定理が成立し、AとBの事象が排反であるときはP(A∪B)=P(A)+P(B)であり、排反でないときP(A∪B)=P(A)+P(B)-P(A∩B)で計算できる。AとBが排反でないときにAが起こる条件下でBが起きる確率を条件付き確率といい、P(B│A)=(P(A∩B))/(P(A))と表す。
- 情報理論
自己情報量とは情報の珍しさを表すもので、底が2のとき単位はbit、底がeのとき単位はnatで示す。シャノンエントロピーとは自己情報量の期待値であり、機械学習させるときに誤差関数の代わりとしても使える(エントロピー最大)。カルバック・ライブラー ダイバージェンスで、ダイバージェンスは距離の意味に近く性質の近さを意味する。情報利得ともいう。交差エントロピーはKLダイバージェンスの一部分を取り出したもので、Q(想定していた確率)についての自己情報量をP(実際の確率)の分布で平均している。
○演習問題