そもそも回帰とは手元の実測値に対してアルゴリズムを適用させ、実測値を近似できるように当てはめていく作業のことを指します。
すなわち、回帰分析とは手元のデータから有り得そうな未来を考える統計的手法です。
また手元のデータ(要因となるデータ)を「説明変数」といい、求められた結果のデータを「目的変数」といいます。
ここまでは理解できたでしょうか。
今回は言葉の説明だけですのでとりあえずなんとなく理解ができればクリアです!
1%だけでも分かれば後々検索することができるので、超入門としては大満足の進歩です!
それでは続きます。
回帰問題は大きく2つに分けられます。
線形回帰と非線形回帰です。ここで線形とは直線で表現するか否かという理解でOKです。
まず線形回帰で有名なものとしては
・単回帰分析
・重回帰分析
・Ridge回路
・Lasso回路
があります。
次に非線形回帰で有名なものは
・決定木
・ランダムフォレスト
・ニューラルネットワーク
があります。
これらをアルゴリズムといいます。データサイエンティストはこのようなアルゴリズムを用いてデータ分析を進めているのですね。