はじめに
qiita書くのにいい題材ないかなって図書館を見てたら東京大学工学教程なるものを見つけました.(https://www.amazon.co.jp/%E6%9D%B1%E4%BA%AC%E5%A4%A7%E5%AD%A6%E5%B7%A5%E5%AD%A6%E6%95%99%E7%A8%8B-%E6%83%85%E5%A0%B1%E5%B7%A5%E5%AD%A6-%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92-%E4%B8%AD%E5%B7%9D-%E8%A3%95%E5%BF%97/dp/4621089919/ref=sr_1_3?s=books&ie=UTF8&qid=1500622851&sr=1-3)
内容も体系的にまとまってました.
そして何よりも授業で使われてるところ見たことないのに東京大学工学教程っていうタイトルっていう面白さがあったので,この本が気に入っちゃいました.
そこでこの本で学習したことを元に,自分なりにココ大事だなってところを中心にまとめられたらと思います.
9章あるんで,1章ごと更新しようと思っています.
#1章 機械学習の概念
##1章の要旨
通信路モデルの導入,機械学習の例としてnaive Bayes分類を紹介する.さらに機械学習の基礎概念,例えば教師あり学習や教師なし学習について説明している.次に,アルゴリズムの評価方法を紹介している.
##通信路モデル
ここでは最尤法とよばれる方法の紹介があった.
卑近な例で説明します.
打率1割の打者Aと打率3割の打者Bがいるとする.
AとBのどちらかが打ったという情報が入った時,人は自ずとBの人が打った確率が高いと考えます.
これを機械学習に置き換えます.
情報源yとそこから派生し観測されたxがあったとします.
yは野球の例でいうと打者,xは打ったか打たなかったかという情報にあたります.
xが確定した情報であるときのyの確率をp(y|x)と書きます.
野球の例でいうと
p(y=A|x=打つ)<p(y=B|x=打つ)とかける.
このようなp(y|x)の分布を求める計算を学習過程という.
またp(y|x)の分布から以下の式でもっともらしいp(y|x)を求められる.
$$\hat{y} =argmax_{y}p(y|x)-(1.1)$$
またベイズの定理より
$$p(y|x)p(x)=p(x|y)p(y)$$
を用いると(1.1)は
$$\hat{y} =argmax_{y}p(x|y)p(y)-(1.2)$$
となる.
##naive Bayes分類
文中の例
$$\begin{cases} \ \end{cases}$$
$$$$
$$$$