LoginSignup
11
20

More than 5 years have passed since last update.

【翻訳】scikit-learn 0.18 User Guide 目次

Last updated at Posted at 2016-12-18

http://scikit-learn.org/0.18/user_guide.html をgoogle翻訳した
チュートリアルはこちら


ユーザーガイド

1. 教師付き学習

1.1. 一般化された線形モデル :flag_us:未訳

  1. 最小二乗法
    1. 最小二乗法の複雑さ
  2. リッジ回帰
    1. リッジの複雑さ
    2. 正規化パラメータの設定:一般化された相互検証
  3. 最小絶対収縮および選択演算子 - Lasso
    1. 正則化パラメータの設定
      1. 相互検証の使用
      2. 情報基準ベースのモデル選択
  4. マルチタスクのLasso
  5. Elastic Net
  6. マルチタスクElastic Net
  7. 最小角度回帰 - LARS
  8. LARS Lasso
    1. 数学的処方
  9. 直交マッチング追求(OMP)
  10. ベイジアン回帰
    1. ベイジアンリッジ回帰
    2. 自動妥当性判定 - ARD
  11. ロジスティック回帰
  12. 確率的勾配降下 - SGD
  13. パーセプトロン
  14. パッシブアグレッシブアルゴリズム
  15. ロバストネス回帰:異常値とモデル化誤差
    1. 異なるシナリオと有用な概念
    2. RANSAC:RANdom SAmple Consensus
      1. アルゴリズムの詳細
    3. Theil-Sen推定器:一般化 - 中央値ベースの推定器
      1. 理論的考察
    4. フーバー回帰
    5. ノート
  16. 多項式回帰:基底関数を用いた線形モデルの拡張

1.2. 線形および二次判別分析 未訳

  1. 線形判別分析を用いた次元削減
  2. LDAおよびQDA分類子の数学的定式化
  3. LDA次元削減の数学的定式化
  4. 収縮
  5. 推定アルゴリズム

1.3. カーネルリッジ回帰 :flag_us:未訳

1.4. サポートベクターマシン:flag_jp:

  1. 分類
    1. 多クラス分類
    2. スコアと確率
    3. 不均衡な問題
  2. 回帰
  3. 密度推定、新規性検出
  4. 複雑
  5. 実用上のヒント
  6. カーネル関数
    1. カスタムカーネル
      1. Python関数をカーネルとして使用する
      2. グラム行列の使用
      3. RBFカーネルのパラメータ
  7. 数学的処方
    1. SVC
    2. NuSVC
    3. SVR
  8. 実装の詳細

1.5. 確率的勾配降下 :flag_us:未訳

  1. 分類
  2. 回帰
  3. スパースデータの確率的勾配降下
  4. 複雑
  5. 実用上のヒント
  6. 数学的処方
    1. SGD
  7. 実装の詳細

1.6. 最近傍法 :flag_us:未訳

  1. 教師なし最近傍法
    1. 最も近い隣人を見つける
    2. KDTreeクラスとBallTreeクラス
  2. 最近傍分類
  3. 最近傍回帰
  4. 最近傍法のアルゴリズム
    1. ブルートフォース
    2. K-Dツリー
    3. ボールツリー
    4. 最近傍アルゴリズムの選択
    5. leaf_sizeの効果
  5. 最寄りの重心分類器
    1. 最も近いシュリンケンセントロイド
  6. 近くのおおよその近所
    1. 地域感受性ハッシングフォレスト
    2. 局所感性ハッシュの数学的記述

1.7. ガウスプロセス :flag_us:未訳

  1. ガウスプロセス回帰(GPR)
  2. GPRの例
    1. ノイズレベル推定を伴うGPR
    2. GPRとカーネルリッジ回帰の比較
    3. Mauna Loa CO2データのGPR
  3. ガウスプロセス分類(GPC)
  4. GPCの例
    1. GPCによる確率的予測
    2. XORデータセット上のGPCの図
    3. 虹彩データセットにおけるガウスプロセス分類(GPC)
  5. ガウスプロセスのカーネル
    1. ガウスプロセスカーネルAPI
    2. 基本カーネル
    3. カーネル演算子
    4. ラジアル基底関数(RBF)カーネル
    5. マテランカーネル
    6. 有理二次カーネル
    7. Exp-Sine-Squaredカーネル
    8. ドットプロダクトカーネル
    9. 参考文献
  6. レガシーガウスプロセス
    1. 導入回帰の例
    2. ノイズの多いデータをフィッティングする
    3. 数学的処方
      1. 最初の仮定
      2. 最良線形不偏予測(BLUP)は、
      3. 経験的に最良の線形偏り予測器(EBLUP)
    4. 相関モデル
    5. 回帰モデル
    6. 実装の詳細

1.8. クロス分解 :flag_us:未訳

1.9. ナイーブベイズ :flag_us:未訳

  1. ガウスナイーブベイズ
  2. 多項式ナイーブベイズ
  3. ベルヌーイナイーブベイズ
  4. アウトオブコアのナイーブベイズモデルのフィッティング

1.10. 決定木 :flag_us:未訳

  1. 分類
  2. 回帰
  3. 多出力問題
  4. 複雑
  5. 実用上のヒント
  6. ツリーアルゴリズム:ID3、C4.5、C5.0およびCART
  7. 数学的処方
    1. 分類基準
    2. 回帰基準

1.11. アンサンブルメソッド :flag_jp:

  1. バギングメタ推定器
  2. ランダム化された木の森
    1. ランダムフォレスト
    2. 非常にランダム化された木
    3. パラメーター
    4. 並列化
    5. 機能重要度評価
    6. 全くランダムなツリー埋め込み
  3. AdaBoost
    1. 使用法
  4. グラディエントツリーブースト
    1. 分類
    2. 回帰
    3. 追加の弱い学習者をフィッティングする
    4. ツリーサイズの制御
    5. 数学的処方
      1. 損失関数
    6. 正規化
      1. 収縮
      2. サブサンプリング
    7. 解釈
      1. 機能の重要性
      2. 部分依存
  5. VotingClassifier
    1. 大多数のクラスラベル(多数決/厳選)
      1. 使用法
    2. 加重平均確率(ソフト投票)
    3. GridSearchでVotingClassifierを使用する
      1. 使用法

1.12. 多クラスアルゴリズムと多ラベルアルゴリズム:flag_jp:

  1. マルチラベル分類フォーマット
  2. 1つの残りの部分
    1. マルチクラス学習
    2. マルチラベル学習
  3. 1対1
    1. マルチクラス学習
  4. エラー訂正出力コード
    1. マルチクラス学習
  5. マルチ出力回帰
  6. 複数出力の分類

1.13. 特徴選択:flag_jp:

  1. 分散の少ないフィーチャの削除
  2. 一変量機能の選択
  3. 再帰的な特徴の除去
  4. SelectFromModelを使用した機能の選択
    1. L1ベースの機能選択
    2. ランダム化スパースモデル
    3. ツリーベースの機能選択
  5. パイプラインの一部としての機能の選択

1.14. 半教師あり :flag_us:未訳

  1. ラベル伝播

1.15. 等張性回帰 :flag_jp:

1.16. 確率較正 :flag_jp:

1.17. ニューラルネットワークモデル(教師あり) :flag_us:未訳

  1. 多層パーセプトロン
  2. 分類
  3. 回帰
  4. 正規化
  5. アルゴリズム
  6. 複雑
  7. 数学的処方
  8. 実用上のヒント
  9. warm_startでより多くの制御

2. 教師なし学習

2.1. ガウス混合モデル :flag_us:未訳

  1. ガウス混合
    1. GaussianMixtureの長所と短所
      1. 長所
      2. 短所 2古典的ガウス混合モデルにおける成分数の選択
    2. 推定アルゴリズム期待値最大化
  2. 変分ベイズガウス混合
    1. 推定アルゴリズム:変分推論
    2. BayesianGaussianMixtureとの変容推論の長所と短所
      1. 長所
      2. 短所
    3. ディリクレのプロセス

2.2. マニホールド学習 :flag_us:未訳

  1. 導入
  2. Isomap
    1. 複雑
  3. 局所的に線形埋め込み
    1. 複雑
  4. ローカルで修正された線形埋め込み
    1. 複雑
  5. ヘッセ行列の固有マッピング
    1. 複雑
  6. スペクトル埋め込み
    1. 複雑
  7. ローカル接線スペースアライメント
    1. 複雑
  8. 多次元スケーリング(MDS)
    1. メトリックMDS
    2. 非メトリックMDS
  9. t-分散確率的近傍埋め込み(t-SNE)
    1. t-SNEの最適化
    2. バーンズハットt-SNE
  10. 実用上のヒント

2.3. クラスタリング :flag_us:未訳

  1. クラスタリング方法の概要
  2. K平均
    1. ミニバッチK-Means
  3. 親和性伝播
  4. 平均シフト
  5. スペクトルクラスタリング
    1. ラベルの割り当て方法の違い
  6. 階層的クラスタリング
    1. 異なるリンケージタイプ:ワード、完全な平均リンケージ
    2. 接続制約の追加
    3. メトリックの変更
  7. 密度ベースの空間クラスタリング(DBSCAN)
  8. 階層を用いたバランスのとれた反復的な削減とクラスタリング (BIRCH)
  9. クラスタリングのパフォーマンス評価
    1. 調整済みランドインデックス
      1. 利点
      2. 欠点
      3. 数学的処方
    2. 相互情報ベースの得点
      1. 利点
      2. 欠点
      3. 数学的処方
    3. 同質性、完全性およびV-尺度
      1. 利点
      2. 欠点
      3. 数学的処方
    4. Fowlkes-Mallowsの得点
      1. 利点
      2. 欠点
    5. シルエット係数
      1. 利点
      2. 欠点
    6. カリンスキー・ハラバズ指数
      1. 利点
      2. 欠点

2.4. Biclustering :flag_us:未訳

  1. スペクトルコ・クラスタリング
    1. 数学的処方
  2. スペクトルバイクラスタリング
    1. 数学的処方
  3. バイクラスタリング評価

2.5. コンポーネント内の信号を分解する(行列分解問題) :flag_jp:

  1. 主成分分析(PCA)
    1. 正確なPCAと確率論的解釈
    2. インクリメンタルPCA
    3. ランダム化SVDを用いたPCA
    4. カーネルPCA
    5. スパース主成分分析(SparsePCAおよびMiniBatchSparsePCA)
  2. 切り捨て特異値分解と潜在意味解析
  3. 辞書学習
    1. あらかじめ計算された辞書によるスパースコーディング
    2. 一般的な辞書学習
    3. ミニバッチ辞書学習
  4. 因子分析
  5. 独立成分分析(ICA)
  6. 非負行列分解(NMFまたはNNMF)
  7. 潜在的ディリクレ割り当て(LDA)

2.6. 共分散推定 :flag_us:未訳

  1. 経験的共分散
  2. 縮小共分散
    1. 基本的な収縮
    2. Ledoit-Wolfシュリンク
    3. オラクル近似収縮
  3. スパース逆共分散
  4. ロバスト共分散推定
    1. 最小共分散行列式

2.7. 新規性と外れ値の検出 :flag_jp:

  1. 新規性の検出
  2. 外れ値検出
    1. 楕円形の封筒を取り付ける
    2. アイソレーションフォレスト
    3. 1クラスSVM対楕円エンベロープ対アイソレーションフォレスト

2.8. 密度推定 :flag_jp:

  1. 密度推定:ヒストグラム
  2. カーネル密度推定

2.9. ニューラルネットワークモデル(教師なし) :flag_us:未訳

  1. 制限付きボルツマン機械
    1. グラフィカルモデルとパラメータ化
    2. ベルヌーイ制限付きボルツマンマシン
    3. 確率的最尤学習

3. モデルの選択と評価

3.1. クロスバリデーション:推定器の​​成果を評価する :flag_jp:

  1. クロスバリデーションされたメトリックの計算
    1. クロスバリデーションによる予測の取得
  2. クロス検証イテレータ
  3. i.i.dのクロスバリデーションイテレータデータ
    1. K倍
    2. Leave One Out(LOO)
    3. Leave P Out(LPO)
    4. ランダム置換相互検証a.k.a.シャッフル&スプリット
  4. クラスラベルに基づいた階層化を持つ相互検証イテレータ
    1. 層状K倍
    2. 層別シャッフルスプリット
  5. グループ化されたデータの相互検証イテレータ
    1. グループk倍
    2. 1つのグループを離れる
    3. Pグループを残す
    4. グループシャッフルスプリット
  6. あらかじめ定義されたFold-Splits / Validation-Sets
  7. 時系列データの相互検証
    1. 時系列分割
  8. シャッフルの注意
  9. 相互検証とモデル選択

3.2. 推定器のハイパーパラメータのチューニング :flag_jp:

  1. 完全なグリッド検索
  2. ランダム化されたパラメータの最適化
  3. パラメータ検索のヒント
    1. 客観的なメトリックの指定
    2. コンポジット推定値とパラメータ空間
    3. モデル選択:開発と評価
    4. 平行
    5. 障害に対するロバスト性
  4. ブルートフォースパラメータ検索の代替
    1. モデル固有の相互検証
    2. 情報基準
    3. その他の推定器

3.3. モデル評価:予測の質を定量化する :flag_jp:

  1. 得点パラメータ:モデル評価ルールの定義
    1. 一般的なケース:定義済みの値
    2. メトリック関数からスコアリング戦略を定義する
    3. 独自の採点オブジェクトの実装
  2. 分類メトリック
    1. バイナリからマルチクラス、マルチラベルまで
    2. 精度スコア
    3. コーエンのカッパ
    4. 混乱マトリックス
    5. 分類レポート
    6. ハミング損失
    7. ジャカード類似性係数スコア
    8. 精密、リコール、F-対策
      1. バイナリ分類
      2. マルチクラスとマルチラベルの分類
    9. ヒンジ損失
    10. ログの損失
    11. マシューズ相関係数
    12. レシーバ動作特性(ROC)
    13. ゼロ1つの損失
    14. ブリーザスコア損失
  3. マルチラベルランキングメトリック
    1. カバレッジエラー
    2. ラベルランクの平均精度
    3. ランキングの損失
  4. 回帰メトリック
    1. 説明された分散スコア
    2. 平均絶対誤差
    3. 平均二乗誤差
    4. 中央絶対誤差
    5. R²スコア、決定係数
  5. クラスタリングメトリック
  6. ダミー推定器

3.4. モデルの永続化 :flag_jp:

  1. 永続化の例
  2. セキュリティと保守性の制限

3.5. 検証曲線:スコアをプロットしてモデルを評価する :flag_jp:

  1. 検証曲線
  2. 学習曲線

4. データセット変換

4.1. パイプラインとFeatureUnion:推定器の​​組み合わせ :flag_jp:

  1. パイプライン:連鎖推定器
    1. 使用法
    2. ノート
  2. FeatureUnion:複合フィーチャスペース
    1. 使用法

4.2. 特徴抽出 :flag_jp:

  1. dictsからのフィーチャーのロード
  2. フィーチャーハッシュ
    1. 実装の詳細
  3. テキスト特徴抽出
    1. 言葉の表記
    2. 希少性
    3. 共通ベクタライザの使用法
    4. Tf-idf項の重み付け
    5. テキストファイルのデコード
    6. アプリケーションとサンプル
    7. Bag of Wordsの表現の限界
    8. ハッシュトリックを使用して大きなテキストコーパスをベクトル化する
    9. HashingVectorizerでアウトオブコアスケーリングを実行する
    10. ベクタライザクラスのカスタマイズ
  4. 画像特徴抽出
    1. パッチ抽出
    2. 画像の接続性グラフ

4.3. データ前処理 :flag_jp:

  1. 標準化、平均除去と分散のスケーリング
    1. 範囲へのフィーチャのスケーリング
    2. スパースデータのスケーリング
    3. 異常値を含むデータのスケーリング
    4. センタリングカーネル行列
  2. 正規化
  3. 二値化
    1. 特徴二値化
  4. カテゴリの機能をエンコードする
  5. 欠損値の補完
  6. 多項式フィーチャの生成
  7. カスタムトランス

4.4. 教師なし次元削減 :flag_jp:

  1. PCA:主成分分析
  2. ランダム投影
  3. フィーチャアグロメレーション

4.5. ランダムプロジェクション :flag_jp:

  1. Johnson-Lindenstraussの補題
  2. ガウスランダム投影
  3. まばらなランダム投影

4.6. カーネル近似 :flag_us:未訳

  1. カーネル近似のためのNystroem法
  2. ラジアル基底関数カーネル
  3. Additive Chi Squared Kernel
  4. スキュード・カイ2乗カーネル
  5. 数学の詳細

4.7. ペアワイズメトリック、類似性およびカーネル

  1. コサイン類似度
  2. 線形カーネル
  3. 多項式カーネル
  4. シグモイドカーネル
  5. RBFカーネル
  6. ラプラシアンカーネル
  7. カイ二乗カーネル

4.8. 予測対象(y)を変形する :flag_jp:

  1. ラベルの二値化
  2. ラベルエンコーディング

5.データセット読み込みユーティリティ :flag_us:未訳

  1. 一般データセットAPI
  2. 玩具のデータセット
  3. サンプル画像
  4. サンプルジェネレータ
    1. 分類とクラスタリングのためのジェネレータ
      1. 単一ラベル
      2. マルチラベル
      3. Biclustering
    2. 回帰のジェネレータ
    3. 多様な学習のためのジェネレータ
    4. 分解用ジェネレータ
  5. svmlight / libsvm形式のデータセット
  6. 外部データセットからのロード
  7. Olivettiはデータセットに直面する
  8. 20のニュースグループテキストデータセット
    1. 使用法
    2. テキストをベクトルに変換する
    3. より現実的なトレーニングのためのテキストのフィルタリング
  9. mldata.orgリポジトリからデータセットをダウンロードする
  10. 野生の顔認識データセットにおけるラベル付きの顔
    1. 使用法
  11. 森林伐採
  12. RCV1データセット
  13. ボストンの住宅価格データセット
    1. ノート
  14. 乳癌ウィスコンシン(診断)データベース
    1. ノート
    2. 参考文献
  15. 糖尿病のデータセット
    1. ノート
  16. 手書き数字データの光学的認識
    1. ノート
    2. 参考文献
  17. アイリス植物データベース
    1. ノート
    2. 参考文献
  18. Linnerrudデータセット
    1. ノート
    2. 参考文献

6.計算的に拡大する戦略:より大きいデータ :flag_us:未訳

  1. アウトオブコア学習を使用したインスタンスのスケーリング
    1. ストリーミングインスタンス
    2. フィーチャの抽出
    3. インクリメンタルな学習
    4. ノート

7.計算性能 :flag_us:未訳

  1. 予測レイテンシ
    1. バルク対アトミックモード
    2. 機能の数の影響
    3. 入力データ表現の影響
    4. モデルの複雑さの影響
    5. フィーチャ抽出レイテンシ
  2. 予測スループット
  3. ヒントとテクニック
    1. 線形代数ライブラリ
    2. モデル圧縮
    3. モデルの形状変更
    4. リンク

チュートリアルはこちら

©2010 - 2016、scikit-learn developers(BSDライセンス)。

11
20
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
20