15
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

C-SVMのチューニング(正則化パラメータの最適化)

Last updated at Posted at 2016-03-24

はじめに

C-SVMのチューニングでは,正則化パラメータ($C$)の最適値をCross Validationで求める方法が提案されています.
本エントリーでは,pythonのscikit-learnを使って,SVMのクラス分類に必要な$C$を最適化する方法を紹介します.
SVMの損失関数は,データ数に依存して変化するため,データ数のスケーリングによって,$C$の最適値を評価する必要があります.

正則化(Regularization)

SVMで分類を行う際,データが線形分離できない場合,分離超平面のマージン内のデータを許す,ソフトマージンSVMを用います.
その際,分類しないデータについてペナルティを与え,ペナルティの重要度を正則化パラメータ($C$)によって決定します.
$C→∞$とすると,誤分類を許容しないハードマージンSVMとなります.
ソフトマージンSVMでは,以下の式で表される誤差を最小とする最適化を行います.

C \sum_{i=1}^n L \left (  f ( x_i ), y_i  \right ) + \Omega ( \omega ) 

 $C$:正則化パラメータ
 $L$:損失関数
 $Ω$:ペナルティ関数(正則項)
 $n$:データ数
 $f$:判別関数
 $x_i$:入力変数
 $y_i$:クラスラベル{$+1,-1$}

正則化によって,過学習を抑えて,汎化能力を高めることができます.
上記の式では,$C$,$Ω$を追加項として与えることで,正則化を行います.
$C$は$L$と$Ω$の寄与率を制御するパラメータとなります.
$L$,$Ω$には,以下の関数のいずれかを選択します.

 $L$:hinge関数,あるいはhinge関数の二乗(squared_hinge)

hinge(m) = max \{ 1-m, 0 \}
squared\_hinge(m) = ( max \{ 1-m, 0 \} )^2

 $Ω$:$L1$正則化($p=1$),あるいは$L2$正則化($p=2$)

\Omega ( \omega ) = \dfrac {1}{p} \Vert f \Vert^p

scikit-learnを用いたC-SVM

pythonの機械学習ライブラリscikit-learnでは,線形分離でSVMのクラス分類を行うLinearSVCがあります.
LinearSVCでは,$L$,$Ω$をそれぞれ設定することができます.

Similar to SVC with parameter kernel='linear', but implemented in terms of liblinear rather than libsvm, so it has more flexibility in the choice of penalties and loss functions and should scale better to large numbers of samples.
https://github.com/scikit-learn/scikit-learn/blob/51a765a/sklearn/svm/classes.py#L18-L21

一方,scikit-learnにあるSVCでは,$L=$hinge,$Ω=L2$で変更はできません.

loss : string, 'hinge' or 'squared_hinge' (default='squared_hinge')
Specifies the loss function. 'hinge' is the standard SVM loss (used e.g. by the SVC class) while 'squared_hinge' is the square of the hinge loss.
penalty : string, 'l1' or 'l2' (default='l2')
Specifies the norm used in the penalization. The 'l2' penalty is the standard used in SVC. The 'l1' leads to coef_ vectors that are sparse.
https://github.com/scikit-learn/scikit-learn/blob/51a765a/sklearn/svm/classes.py#L33-L41

C-SVMのチューニング

$C$の最適値をCross Validationによって求めることで,C-SVMをチューニングします.
但し,$L$はデータ数に応じて増加するため,$C$をデータ数に応じてスケーリングします.

If we consider the loss function to be the individual error per sample, then the data-fit term, or the sum of the error for each sample, will increase as we add more samples. The penalization term, however, will not increase.
http://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVC.html#sklearn.svm.LinearSVC

ソースコード

ソースコードはscikit-learnにある"Scaling the regularization parameter for SVCs"のExampleを元に作成しました.

plot_svm_scale_c.py
#!/usr/bin/env python
# -*- coding: utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt
import sklearn.svm as svm

from sklearn.svm import LinearSVC
from sklearn.cross_validation import ShuffleSplit
from sklearn.grid_search import GridSearchCV
from sklearn import datasets

# データセットからirisを入手
iris = datasets.load_iris()
X, Y = iris.data, iris.target
# 4個の入力変数のうち、最初の2変数のみ使用
X = X[:,0:2]
n_samples = Y.size

# 正則化項のペナルティ関数、損失関数
# (penalty, loss) = (l2, l1), (l1, l2), (l2, l2)
# パラメータCの値域をnp.logspaceで設定
clf_sets = [(svm.LinearSVC(penalty='l2', loss='hinge', dual=True, tol=1e-3), np.logspace(-1, 2, 30), X, Y),
            (svm.LinearSVC(penalty='l1', loss='squared_hinge', dual=False, tol=1e-3), np.logspace(-1, 2, 30), X, Y),
            (svm.LinearSVC(penalty='l2', loss='squared_hinge', dual=True, tol=1e-3), np.logspace(-1, 2, 30), X, Y)]

for fignum, (clf, cs, X, Y) in enumerate(clf_sets):
    plt.figure(fignum, figsize=(9, 10))

    print 'penalty=%s, loss=%s' % (clf.penalty, clf.loss)
    print 'fraction, C, C*n_samples, max_score'
    for k,train_size in enumerate(np.linspace(0.3, 0.7, 3)[::-1]):
        param_grid = dict(C=cs)
        grid = GridSearchCV(clf, refit=False, param_grid=param_grid,
                            cv=ShuffleSplit(n=n_samples, train_size=train_size, n_iter=250, random_state=1))
        grid.fit(X, Y)
        scores = [x[1] for x in grid.grid_scores_]
        # cross validationで使用したデータ数,最大正答率でのパラメータC,C(スケーリング後),最大正答率
        print '%4.2f, %8.3f, %8.3f, %4.3f'%(train_size, cs[np.argmax(scores)], cs[np.argmax(scores)] * n_samples * train_size, np.max(scores))
        # パラメータCをサンプル数でスケーリングしない場合、スケーリングする場合のグラフ作成
        scales = [(1, 'No scaling'),((n_samples * train_size), '1/n_samples'),]

        for subplotnum, (scaler, name) in enumerate(scales):
            plt.subplot(2, 1, subplotnum + 1)
            plt.xlabel('C')
            plt.ylabel('CV Score')
            grid_cs = cs * float(scaler)  # scale the C's
            plt.semilogx(grid_cs, scores, label="fraction %3.2f" % (train_size))
            plt.title('scaling=%s, penalty=%s, loss=%s' % (name, clf.penalty, clf.loss))

    plt.legend(loc="best")
plt.show()

出力結果

  • $Ω=L2$,$L=hinge$
訓練データ数(比率) $C$ $C*$訓練データ数 最大正答率
0.70 11.721 1230.707 0.758
0.50 11.721 879.077 0.737
0.30 14.874 669.308 0.720

iris_P2_L1_dual.png

  • $Ω=L1$,$L=squared\_hinge$
訓練データ数(比率) $C$ $C*$訓練データ数 最大正答率
0.70 62.102 6520.678 0.779
0.50 62.102 4657.627 0.775
0.30 23.950 1077.762 0.767

iris_P1_L2_prime.png

  • $Ω=L2$,$L=squared\_hinge$
訓練データ数(比率) $C$ $C*$訓練データ数 最大正答率
0.70 2.807 294.758 0.772
0.50 5.736 430.211 0.766
0.30 4.520 203.416 0.751

iris_P2_L2_dual.png

考察

理論的には,$Ω=L1$では,データ数に依存するbiasがあるため,$C$をデータ数でスケーリングすることで性能を評価します.
一方,$Ω=L2$は,データ数に依存しないため,$C$のスケーリングなしでも評価が可能です.

l1-penalty case
In the l1 case, theory says that prediction consistency (i.e. that under given hypothesis, the estimator learned predicts as well as a model knowing the true distribution) is not possible because of the bias of the l1. It does say, however, that model consistency, in terms of finding the right set of non-zero parameters as well as their signs, can be achieved by scaling C1.

l2-penalty case
The theory says that in order to achieve prediction consistency, the penalty parameter should be kept constant as the number of samples grow.

http://scikit-learn.org/stable/auto_examples/svm/plot_svm_scale_c.html

理論通り,$Ω=L1$,$L=squared\_hinge$の結果は,データ数でスケーリングした$C$を用いることで,データ数に依存しないプロットが得られました.
また,$Ω=L2$,$L=squared\_hinge$,$Ω=L2$,$L=squared\_hinge$の結果についても,$C$のスケーリングしなくとも,データ数に依存しないプロットが得られ,理論と一致しました.
いずれの結果も,スケーリングすることで結果が明瞭になるので,C-SVMのチューニングには,データ数でスケーリングした$C$を用いたグラフで実施すると良いと言えます.

チューニング前後のC-SVM結果

最後に,$C$をデフォルト値(1.0),最適値の平均値を用いた,C-SVMの結果を示します.

ソースコード

ソースコードは,先ほどのplot_svm_scale_c.pyの*for fignum...*以下を次の様に修正しました.

plot_separating_hyperplane.py
for fignum, (clf, cs, X, Y) in enumerate(clf_sets):
    plt.figure(fignum,figsize=(9,10))
    
    max_cs = []
    for k,train_size in enumerate(np.linspace(0.3, 0.7, 3)[::-1]):
        param_grid = dict(C=cs)
        grid = GridSearchCV(clf, refit=False, param_grid=param_grid,
                            cv=ShuffleSplit(n=n_samples, train_size=train_size, n_iter=250, random_state=1))
        grid.fit(X, Y)
        scores = [x[1] for x in grid.grid_scores_]

	max_cs.append(cs[np.argmax(scores)] * n_samples * train_size)

    x_min = 4.0
    x_max = 8.0
    y_min = 1.5
    y_max = 4.5

    XX, YY = np.mgrid[x_min-0.5:x_max+0.5:200j, y_min-0.5:y_max+0.5:200j]

    print 'penalty=%s, loss=%s' % (clf.penalty, clf.loss)
    print 'c, predict(average)'

    sets = [(1.0, 'default'),(np.average(max_cs) / Y.size, 'optimization'),]
    predicts = []
    for subplotnum, (c, name) in enumerate(sets):
	clf.set_params(C=c)
	clf.fit(X, Y)
	Z = clf.predict(np.c_[XX.ravel(), YY.ravel()])
	Z = Z.reshape(XX.shape)
	plt.subplot(2, 1, subplotnum + 1)
	plt.xlabel('Sepal length')
	plt.ylabel('Sepal width') 
	plt.xlim(x_min, x_max)
	plt.ylim(y_min, y_max)
 	plt.scatter(X[:, 0], X[:, 1], c=Y, zorder=10, cmap=plt.cm.Paired)
 	plt.axis('tight')
	plt.pcolormesh(XX, YY, Z, cmap=plt.cm.Paired)
        plt.title('C=%.3f, penalty=%s, loss=%s' % (c, clf.penalty, clf.loss))
	print '%.3f, %6.3f' % (c, clf.score(X,Y))

plt.show()

出力結果

  • $Ω=L1$,$L=squared\_hinge$
$C$ 正答率(平均値)
1.000 0.720
6.176 0.787

svm_p_l2_l_l1.png

  • $Ω=L1$,$L=squared\_hinge$
$C$ 正答率(平均値)
1.000 0.807
21.463 0.807

svm_p_l1_l_l2.png

  • $Ω=L2$,$L=squared\_hinge$
$C$ 正答率(平均値)
1.000 0.787
1.982 0.807

svm_p_l2_l_l2.png

参考

金森敬文「統計的学習理論」(講談社、2015年)
Scaling the regularization parameter for SVCs (scikit-learn公式ページ)

15
12
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
15
12

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?