LoginSignup
3
4

More than 5 years have passed since last update.

【翻訳】scikit-learn 0.18 User Guide 3.2. 推定器のハイパーパラメータのチューニング

Last updated at Posted at 2016-12-30

http://scikit-learn.org/0.18/modules/grid_search.html を google翻訳した
scikit-learn 0.18 ユーザーガイド 3. モデルの選択と評価 より


3.2. 推定器のハイパーパラメータのチューニング

ハイパーパラメータとは、推定器内の、直接学習されないパラメータのことです。 scikit-learnでは、それらは引数として推定子クラスのコンストラクタに渡されます。典型的な例には、サポートベクター分類器の Ckernelgamma 、LASSO の alpha などがあります。
最適なクロスバリデーション:推定器の​​成果 のスコアで、ハイパーパラメータ空間を検索することは可能であり、推奨されます。
推定器を構成する任意のパラメータは、このようにして最適化することができる。具体的には、与えられた推定器のすべてのパラメータの名前と現在の値を見つけるには、次のようにします。

estimator.get_params()

検索は次のようになります。

  • 推定器(独立変数または sklearn.svm.SVC() などの分類器)
  • パラメータ空間
  • 候補を探索またはサンプリングする方法
  • クロスバリデーション
  • スコア関数

いくつかのモデルでは、以下に概説される特殊で効率的なパラメータ検索戦略が可能です。指定された値に対して、 GridSearchCV はすべてのパラメータの組み合わせを徹底的に検討し、 RandomizedSearchCV は指定された分布を持つパラメータ空間から与えられた数の候補をサンプリングすることができます。これらのツールを説明した後、我々は両方のアプローチに適用できるベストプラクティスを詳述します。
これらのパラメータの小さなサブセットは、モデルの予測または計算のパフォーマンスに大きな影響を与える可能性があり、その他のパラメータはデフォルト値のままにすることができるのが一般的です。おそらく文献に添付されている参考文献を読んで、予想される動作をより詳細に理解するために、推定器クラスのドキュメントを読むことをお勧めします。

3.2.1. 完全なグリッド検索

GridSearchCVによって提供されるグリッド検索は、 param_grid パラメータで指定されたパラメータ値のグリッドから候補を徹底的に生成します。例えば、次の param_grid

param_grid = [
  {'C': [1, 10, 100, 1000], 'kernel': ['linear']},
  {'C': [1, 10, 100, 1000], 'gamma': [0.001, 0.0001], 'kernel': ['rbf']},
 ]

線形カーネルと[1、10、100、1000]のC値、RBFカーネルを持つ2つのグリッド、およびC値の外積を[1,10 、100,1000]、 gamma 値[0.001、0.0001]である。
GridSearchCVインスタンスは通常の推定器APIを実装しています。データセットに「フィッティング」すると、可能なすべてのパラメータ値の組み合わせが評価され、最適な組み合わせが保持されます。

3.2.2. ランダム化されたパラメータの最適化

パラメータ設定のグリッドを使用することは、現在、パラメータ最適化のために最も広く使用されている方法ですが、他の検索方法はより好ましい特性を持っています。 RandomizedSearchCVは、パラメータごとにランダムな検索を実装します。各設定は、可能なパラメータ値に対する分布からサンプリングされます。これには、包括的な検索に比べて2つの主な利点があります。

  • 予算は、パラメータの数および可能な値とは無関係に選択することができる。
  • パフォーマンスに影響を与えないパラメータを追加しても、効率は低下しません。

パラメータのサンプリング方法を指定するには、辞書を使用します。これは、GridSearchCVのパラメータを指定するのと非常によく似ています。さらに、サンプリングされた候補数またはサンプリング反復回数である計算予算は、 n_iter パラメーターを使用して指定されます。各パラメータについて、可能な値に対する分布または離散的な選択肢のリスト(一様にサンプリングされる)を指定することができます。

{'C': scipy.stats.expon(scale=100), 'gamma': scipy.stats.expon(scale=.1),
  'kernel': ['rbf'], 'class_weight':['balanced', None]}

この例では、 expongammauniform または randint などのサンプリングパラメータに役立つ多くのディストリビューションを含む scipy.stats モジュールを使用しています。原則として、値をサンプリングする rvs(random variate sample)メソッドを提供する関数を渡すことができます。 rvs 関数への呼び出しは、連続呼び出しで可能なパラメータ値から独立したランダムサンプルを提供する必要があります。

警告 scipy 0.16より前の scipy.stats では、ランダムな状態を指定することはできません。代わりに、 np.random.seed を介してシードするか、または np.random.set_state を使用して設定することができるグローバルnumpyランダム状態を使用します。しかし、scikit-learn 0.18を開始すると、 scley.model_selection モジュールは、scipy> = 0.16 も利用可能である場合、ユーザーが提供するランダムな状態を設定します。

上記の C のような連続パラメータの場合、ランダム化を最大限に活用するために連続分布を指定することが重要です。このようにして、 n_iter を増やすと常により細かい検索が行われます。

3.2.3. パラメータ検索のヒント

3.2.3.1. 客観的なメトリックの指定

デフォルトでは、パラメータ検索では推定器の score 関数を使用してパラメータ設定を評価します。これらは、分類のための sklearn.metrics.accuracy_score と回帰のための sklearn.metrics.r2_score があります。用途によっては、他のスコアリング機能がより適しています(たとえば、不均衡な分類では、精度スコアはしばしば参考になりません)。 GridSearchCV、RandomizedSearchCV、および以下で説明する特殊なクロスバリデーションツールの scoring パラメータを使用して、別のスコアリング関数を指定することができます。詳細については、 スコアリング・パラメータ:モデル評価ルールの定義 を参照してください。

3.2.3.2. 合成推定器とパラメータ空間

パイプライン:連鎖推定 は、これらのツールでパラメータ空間を検索できる合成推定器の​​構築について説明しています。

3.2.3.3. モデル選択:開発と評価

さまざまなパラメータ設定を評価することによるモデルの選択は、グリッドのパラメータを「訓練」するためにラベル付きデータを使用する方法として見ることができます。
得られたモデルを評価する際には、グリッド検索プロセス中には使用されなかったサンプルについて評価を行うことが重要です。データを 開発セット (GridSearchCVインスタンスに供給される)と 評価セット に分割してパフォーマンスメトリックを計算することをお勧めします。
これは、 train_test_split ユーティリティー関数を使用して行うことができます。

3.2.3.4. 平行

GridSearchCV と RandomizedSearchCVは、それぞれのパラメータ設定を個別に評価します。あなたのOSがサポートしていれば、キーワード n_jobs = -1を使って計算を並列に実行することができます。詳細は、関数のシグネチャを参照してください。

3.2.3.5. 障害に対するロバスト性

いくつかのパラメータ設定は、fit でエラーが発生するかもしれません。デフォルトでは、他のパラメータ設定が完全に評価できる場合でも、検索全体が失敗することになります。 error_score = 0(または= np.NaN)を設定すると、警告が発行され、その時のスコアが 0 (またはNaN) に設定されますが、検索は完了します。

3.2.4. ブルートフォースパラメータ検索の代替

3.2.4.1. モデル固有の相互検証

モデルの中には、あるパラメーターの値の範囲のデータを、そのパラメーターの単一の値に対して推定器を適合させるのとほぼ同じくらい効率的に適合させることができます。この機能を利用して、このパラメータのモデル選択に使用されるより効率的なクロスバリデーションを実行できます。
この戦略に従う最も一般的なパラメータは、正則化装置の強度を符号化するパラメータである。この場合、推定器の 正規化パス を計算すると言います。
そのようなモデルのリストはここにあります:

3.2.4.2. 情報基準

いくつかのモデルは、正則化パラメータの最適推定値の情報理論的閉形式を提供することができます(交差検定を使用する場合は数個ではなく)。
自動モデル選択のためにAikike Information Criterion(AIC)またはBayesian Information Criterion(BIC)から利益を得たモデルのリストを以下に示します。

3.2.4.3. バッグの見積もり

バギングに基づいたアンサンブル法を使用する場合、すなわち置換を伴うサンプリングを使用して新しいトレーニングセットを生成する場合、トレーニングセットの一部は未使用のままである。アンサンブル内の各分類器について、トレーニングセットの異なる部分は除外される。
この残された部分は、別個の検証セットに依存することなく、汎化誤差を推定するために使用することができる。この推定値は、追加データが不要でモデル選択に使用できるため、「無料」となります。
これは現在、次のクラスで実装されています。


scikit-learn 0.18 ユーザーガイド 3. モデルの選択と評価 より

©2010 - 2016、scikit-learn developers(BSDライセンス)。

3
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
4