45
49

More than 1 year has passed since last update.

Kaggle・機械学習に関する有益情報まとめ

Last updated at Posted at 2022-07-20

kaggleや機械学習についての良記事と,その記事で扱っている内容を簡潔に書きました.

Pytorch

Pytorch入門
テンソル操作のチートシート,モデル定義,損失関数,オプティマイザ,評価関数の定義

Pytorchチュートリアル(日本語)
モデル定義から,画像認識,自然言語処理,強化学習の実装までの解説

データ加工

データサイエンス100本ノック

Pandas100本ノック

特徴量選択

特徴量選択のまとめ
Filter method:データセット完結
相関係数,カイ二乗,フィッシャー係数

Wrapper method:モデルを使用して最適な組み合わせ選択
Step forward,Step backward, Exaustive search

Embedded method: モデル学習時に特徴量選択
L1正則化

機械学習モデル

代表的な機械学習手法一覧
【教師あり】
木:決定木,回帰木,ランダムフォレスト,GBDT
回帰:SVM,ロジスティック回帰,線形回帰
ベイズ:ナイーブベイズ
クラスタリング:k-NN
アンサンブル:ブースティング,バギング
NN:パーセプトロン,CNN,RNN,ResNet
時系列:自己回帰,移動平均,自己回帰和分移動平均モデル
【教師なし】
クラスタリング:k-means,DBSCAN,トピックモデル(LDA)
NN:自己組織化マップ

各分野ごとの最先端モデル
【画像認識】 EfficentNet,Normarilzer-Free Networks
【画像セグメンテーション】 Efficient-Unets
【物体検出】 YOLO-V5,VarifoculNet
【テーブルデータ】 GBDT,GNN,
【自然言語処理】 GPT-3,BERT, Google Switch Transformer
【教師なし特徴表現学習】 変分オートエンコーダ
【強化学習】 Deep Q-Network,Advantage actor-critic

損失関数

分類タスクの損失関数
分類(正負)ロジスティック損失
分類(確率)交差エントロピー誤差,ヒンジ損失

回帰タスクの損失関数
二乗損失,感度損失,Huber損失

最適化アルゴリズム

最適化アルゴリズムまとめ
勾配降下,SGD,ミニバッチSGD,モーメンタム,RMSprop,Adam

アンサンブル手法

Kaggleで学ぶモデルのブレンディングとスタッキング
平均法
投票法
スタッキング
ブレンディング

評価関数

評価関数のまとめ
回帰:MAE,MSE,RMSE,RMSLE
二クラス分類(正負):Accuracy,Precision,Recall,F1-score
二クラス分類(確率):交差エントロピー,AUC
多値分類:多クラス交差エントロピー,Multi-class accuracy,mean/macro/micro-F1

ハイパーパラメータチューニング

ハイパラチューニングまとめ
評価指標の定義
チューニング手法:グリッドサーチ,ランダムサーチ,ベイズ最適化
交差検証手法

追加予定

・転移学習
・大規模深層学習モデル
・活性化関数

45
49
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
45
49