0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

深層理論・機械学習・数学

Posted at

【第1部:機械学習の基本構造】

第1講:機械学習の分類と概念

  • 教師あり/なし/強化学習
  • 汎化、過学習、交差検証、評価指標

第2講:線形モデルと回帰

  • 線形回帰・ロジスティック回帰
  • 最小二乗法と勾配降下法

第3講:決定木・SVM・k-NN

  • 空間分割と分類境界
  • カーネル法と非線形性対応

【第2部:深層学習入門】

第4講:パーセプトロンと多層ネットワーク

  • 活性化関数(ReLU, Sigmoid)
  • 誤差逆伝播法の仕組み

第5講:CNNと画像処理

  • 畳み込み演算・フィルタと特徴抽出
  • プーリングと階層的特徴

第6講:RNNと系列モデリング

  • 時系列・自然言語への応用
  • LSTMとGRUの基本構造

【第3部:応用モデルと表現学習】

第7講:自己符号化器と次元圧縮

  • ボトルネック構造・再構成誤差
  • 表現の抽出とノイズ除去

第8講:生成モデルの基礎

  • VAEと潜在変数モデル
  • GANと敵対的訓練の考え方

第9講:トランスフォーマの構造

  • Attention機構と系列処理の革新
  • BERTと埋め込み空間の理解

【第4部:数理基礎と理論的背景】

第10講:線形代数の基礎

  • 行列・ベクトル・固有値
  • SVDと主成分分析(PCA)との接続

第11講:確率と統計の基礎

  • 確率分布、期待値・分散
  • ベイズ推定と尤度関数

第12講:最適化の基礎

  • 勾配法・ラグランジュ乗数
  • 凸最適化と制約付き問題

第13講:情報理論と学習

  • エントロピーと情報量
  • KL発散と正則化項の解釈

【第5部:統合と応用への接続】

第14講:機械学習理論への入り口

  • 統計的学習理論(ERM, VC次元)
  • 過学習とバイアス・バリアンス分解

第15講:数理からモデルへの架け橋

  • 関数空間とカーネル、正則化
  • 構造的理解(線形変換 → 層構造)

【補助演習】

  • NumPy・Matplotlib・scikit-learn入門
  • PyTorch or TensorFlowを使った簡易モデル構築
  • グラフとテンソルの演算感覚強化

💡特徴

  • モデルと数理の両方を毎講リンク付け
  • 「なぜその数式か」を強調
  • 概念(言葉)→ 数式 → Pythonコードへ接続

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?