こんばんわ。
先ほどAirpots紛失事件(見つかりました。)が起きてひと段落がつきました。
今日は機械学習に置いての分類と回帰をまとめたいなーって思います。
#分類について
分類の大きな目的は、データが属するクラス(Yes,No)を予測することです。
予測するクラス数が2クラスの場合、2値分類と呼ばれます。
ex)
- ユーザーの利用履歴から、ある定期購読を退会するかしないかを判断。
- 生徒のプロフィールで、合格か不合格か
- メール情報で、スパムかスパムではないか
- などなど
もし、2クラスより多い分類ならば、それは多クラス分類と呼ばれる。
ex)
- 学生の評価
- 画像認識
- などなど
回帰について
回帰の大きな目的は、値の予測です。
もっと深くいうならば、説明変数(特徴量)から目的変数を説明するタスク。
ex)
- 数学の点数を理科の点数で説明。(説明変数:理科の点数、目的変数:数学の点数)
- 家賃を物件の広さと地域で説明。(説明変数:広さと地域、目的変数:家賃)
また線形回帰というものに着手するならば、
目的変数をy、説明変数がn個あると仮定して$x_1$,$x_2$,・・・,$x_n$とした時に,
y = a_0 + a_1x_1 + ・・・ + a_nx_n
として、$a_0, a_1, ・・・, a_n$を求める。
これらを求めるために、最尤法や最小二乗法などがある。
また$n = 1$のとき、単回帰といい、それ以外を重回帰と呼ぶ。
違いの例
下記の参考文献さんの例を挙げさせていただくと、
顧客の過去訪れた飲食店の情報があるとします。
分類 : 新しいレストランが好きor好きじゃないかを予測
回帰 : 新しいレストランに今後何回訪れるかを予測
二つの共通点
最後に二つの共通点を述べておきます。
それはどちらとも「教師あり学習」であるということ。
ちなみに、教師あり学習とは、データに付随する正解ラベルを用いた学習。
簡単ではありますが、分類回帰をまとめてみました。
ありがとうございました。