【第1部:機械学習の基本構造】
第1講:機械学習の分類と概念
- 教師あり/なし/強化学習
- 汎化、過学習、交差検証、評価指標
第2講:線形モデルと回帰
- 線形回帰・ロジスティック回帰
- 最小二乗法と勾配降下法
第3講:決定木・SVM・k-NN
- 空間分割と分類境界
- カーネル法と非線形性対応
【第2部:深層学習入門】
第4講:パーセプトロンと多層ネットワーク
- 活性化関数(ReLU, Sigmoid)
- 誤差逆伝播法の仕組み
第5講:CNNと画像処理
- 畳み込み演算・フィルタと特徴抽出
- プーリングと階層的特徴
第6講:RNNと系列モデリング
- 時系列・自然言語への応用
- LSTMとGRUの基本構造
【第3部:応用モデルと表現学習】
第7講:自己符号化器と次元圧縮
- ボトルネック構造・再構成誤差
- 表現の抽出とノイズ除去
第8講:生成モデルの基礎
- VAEと潜在変数モデル
- GANと敵対的訓練の考え方
第9講:トランスフォーマの構造
- Attention機構と系列処理の革新
- BERTと埋め込み空間の理解
【第4部:数理基礎と理論的背景】
第10講:線形代数の基礎
- 行列・ベクトル・固有値
- SVDと主成分分析(PCA)との接続
第11講:確率と統計の基礎
- 確率分布、期待値・分散
- ベイズ推定と尤度関数
第12講:最適化の基礎
- 勾配法・ラグランジュ乗数
- 凸最適化と制約付き問題
第13講:情報理論と学習
- エントロピーと情報量
- KL発散と正則化項の解釈
【第5部:統合と応用への接続】
第14講:機械学習理論への入り口
- 統計的学習理論(ERM, VC次元)
- 過学習とバイアス・バリアンス分解
第15講:数理からモデルへの架け橋
- 関数空間とカーネル、正則化
- 構造的理解(線形変換 → 層構造)
【補助演習】
- NumPy・Matplotlib・scikit-learn入門
- PyTorch or TensorFlowを使った簡易モデル構築
- グラフとテンソルの演算感覚強化
💡特徴
- モデルと数理の両方を毎講リンク付け
- 「なぜその数式か」を強調
- 概念(言葉)→ 数式 → Pythonコードへ接続