0
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

DeepRunning ~Level4.7~

Last updated at Posted at 2020-08-02

#Level4.機械学習講座(理論と実践)
##4-7.サポートベクターマシン(SVM)
###4-7-1.サポートベクターマシンとは
  ●2クラス分類のための機械学習手法

  ●線形判別関数と最も近いデータ点の距離を“マージン”と呼ぶ。
   マージンが最大となる線形判別関数を求める。

  ●サポートベクター
   分離超平面を構成する学習データは、サポートベクターだけで残りのデータは不要である。

  ●ソフトマージンSVM
   サンプルを分離できない時、誤差を許容し、誤差に対してペナルティを与える。
   線形分離できない場合でも対応し、パラメータCの大小で決定境界が変化する。

  ●非線形分離
   線形分離できない時、特徴空間に写像し、その空間で線形分離する。

  ●カーネルトリック
   高次元ベクトルの内積をスカラーで表現する。
   特徴区間が高次元でも計算コストを抑えられる。

  ※目的関数の導出などは、別途、復習して知識を養っておく必要がある。(今後の目標)

###4-7-2.ハンズオン
  サンプルコードをもとにして、実行して確認してみる。

SVM0001.png
SVM0002.png
SVM0003.png
SVM0004.png
SVM0005.png
SVM0006.png
SVM0007.png
SVM0008.png
SVM0009.png
SVM0010.png
SVM0011.png
SVM0012.png
SVM0013.png
SVM0014.png
SVM0015.png
SVM0016.png
SVM0017.png

###4-7-3.考察
  マージンの考え方や、決定境界を可視化するやり方は、
  誰かに説明をする時に理解してもらい易いだろうなと感じた。
  サポートベクターマシンの・・・と言うと良く分からない人には難しく感じる。
  誤分類の許容や、マージンとペナルティを与える適切な関係性など、
  お試しでやってみようと思う。

0
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?