Posted at

Cousera - Andrew Ng 先生の Machine Learning Week 1

More than 1 year has passed since last update.

さて始まりました。無料で機械学習が学べるともっぱらの Coursera、評判の高い Andrew Ng 先生の授業を受講してみました。

丁度 Week 1 が終わったので軽くまとめることにします。


Coursera についての所感

通勤中に iPhone で Coursera アプリで動画を見ながら evernote にメモしつつ進めています。

動画は1本10分未満くらいなのでスキマ時間にやるには丁度いいと思いました。


アプリの不便な点


  • アプリを行ったり来たりしてるとトップ画面に戻ってしまう

  • 途中から動画を再生するとクイズが変な位置で連続して表示されたりする

  • 字幕がどんどんずれていく

電車の騒音の中でイヤホンで聞いていると、声が小さいところが全然きこえなかったり、音量あげすぎるとサ行がメチャクチャ耳に痛かったりしたので字幕を表示していますが、これもずれていくので英語が苦手な私にとってはかなり辛かったです。

結局日本語字幕を表示するようにしてすごく楽になりました。


内容について

そこから説明するんだってくらい丁寧に説明していてとても分かりやすいです。クイズも寝てなければとける出席確認みたいな感じでした。

Week 1 の最後のテストみたいなやつはノートに書いてやらないとできないなと思ったんですが、計算が簡単に解けるようにできていたので大丈夫でした。


講義メモ


Supervised Learning

regression 出力は実数

回帰を Classification problem として捉えることもできる


Unsupervised Learning

clustering で解く


データセットの用語

m サンプル数


Linear regression

変数が1つだと univariate linear regression (単回帰) という


hypothesis

regression をする関数を hypothesis 仮説 と言う 慣習的な言い方で深い意味はない


hypothesis の用語

θ パラメータ


cost function

minimize 〜 〜の関数を最小化するパラメータを求める

square error function ほとんどの線形回帰に最適

cost function は等高線で可視化する


gradient descent 最急降下法

適当な地点から始めて最も急な方向へ進む

学習率を変えなくても local minimum の近くでは傾きがゼロに近くので勝手に収束する


Batch Gradient Descent

Batch: 最急降下法のように1ステップの計算に全体を使うアルゴリズムのこと


英単語

converge 収束

convex 凸

Intuition 直観


疑問点

最急降下法は微分が 0 になる極小値に収束するが、初期値が最大値や平らなところで始まった場合でも降下しなくなるんじゃないかと思いました