LoginSignup
7

More than 3 years have passed since last update.

【キカガク流】人工知能・機械学習 脱ブラックボックス講座 - 初級 を学んで

Last updated at Posted at 2018-09-18

記事を書いたきっかけ

機械学習関係の勉強をしてきたが、後に残る形にしてこなかったので、
自身の理解を深める意味も込めて、記事を書いてみました。

備考

1から10まで要約するというより、気になったところだけまとめる。


概念の紹介

・AI ⊃ 機械学習 ⊃ ディープラーニング の関係。
・AIを人間に例えると、わかりやすい。

AI 機械学習 ディープラーニング
人間と同等の仕事(機能) 人間の目、耳、口など個別の機能 判断を下すための手順の一つ
情報は数値として扱われている前提 左記の数値を元に、入力と出力の関係性を見出す

機械学習に必要な数学

# 微分・積分 線形代数 確率統計
ベイズ ○(積分)
機械学習 ○(微分)

強化学習

・これはデータがない、ほとんどないというものに対して行われる学習手法。
・イメージは掃除ロボット。動きながら地図を作り、移動床面積が大きくなるように掃除するといった使われ方をしている。

内挿、外挿

・与えられたデータ内を内挿という。
・与えられたデータ外を外挿という。(要は未来の値を予測する)
・機械学習はデータ内は保証するが、外は保証しないというもの。そのため、うまく学習させるには、学習データを増やして内挿しておく必要がある。
・時系列(株価予測)の場合には、縦軸となる価格が内挿か外挿かの判断基準となる。
※イメージとしては、
20代(最小)と30代(最大)のアンケートを収集: 40台の予測は外挿になる
20代(最小)と60代(最大)のアンケートを収集: 30台の予測は内挿になる

微分

・微分で、接線の傾きが求まる。
・微分により求まる傾きが0であることを利用することで、ある関数の最小(最大)となる点が求まる。
 ※単回帰でいうと、この関数は誤差を指す。
・微分で覚えておくべき点。
 ・微分は導関数ともいう。
 ・傾きの求め方は、yの増加分をxの増加分で割る。

\frac{f(x_2)-f(x_1)}{x_2-x_1}

・上記と同じ意味の数式は以下の通り。

\lim_{n \to 0}f(n)

・新たな記号の読み方はリミットで、n→0はnに0を代入すると考えてOK。

・偏微分とは多変数の微分を指しており、以下のように表記される。

\frac{∂}{∂x}

・∂=ラウンド(ディー)と呼ばれる。
・limと同じ意味だが、x以外を定数と仮定して微分するという意味になる。

・例題

\frac{∂}{∂a}{3a^2} = 6a

-また微分は分けて考えることが出来るのが、特徴。

\frac{∂}{∂x}({4{x_1}+3{x_2})} = \frac{∂}{∂x}{4{x_1}+\frac{∂}{∂x}3{x_2}}

予測について

・予測とは、適切にパラメータを求めること。
・適切とは、評価関数、損失関数を最小化することを指す。
・単回帰における評価関数は、2乗誤差や絶対値誤差があるが、以下のことを念頭に。
 ・ただ、絶対値誤差は関数が逆三角形の形になり、なめらかでない→微分ができない。
 ・放射線を描く(なめらかな線が掛ける)2乗誤差を使う → 微分ができる。

予測におけるテクニック

・データの中心化(centering)を行うことがある。
・中心化をすると、真ん中を通ることができる。
・つまり数式で言えば、Y=ax+bがY=axとなるため、求めるべきパラメータが一つ減る。
・求め方は平均値を引くだけ

{X_c} = x - \bar{x}
`

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7