2重管理を避けるため、今後このページを消す予定です。こちらの内容を数学ページに移転します!
データサイエンスってなぜ数学が必要なの?
約5年前の2018年に、自動運転業界に入りたいため、自動運転技術のベースになる機械学習やディープラーニングの勉強を始めました。
一応ですが、udacityでの機械学習やディープラーニングコースの勉強を終えましたが、理解が追いつけなかったり、途中で何度か挫折したりしたため、結局理解度が不十分でした。
当時は結構な時間や金銭コストをかけてやったのに、期待した効果が得られませんでした。当時のメモはこちらです。
期待した効果が得られなかった理由は、主に自分が現実じゃないスケジュールを設定していて、基礎知識が薄かったため、肝心な概念の理解ができませんでした。
基礎知識はまさにこれから勉強しようとしている数学です。幸いこちらの講座が見つかって、トライアル版で勉強してすごく分かりやすかったので、数学(線形代数学、微分積分、確率統計、監督学習)セットを注文して、勉強し始めました。
前回の反省点を踏まえて、時間かけても良いので、しっかり理解した上で進みます。アウトプットは一番良い勉強のツールなので、Qiitaで記事を残しつつ、勉強を進みます。
一. 線形代数学(23/2/15-)
0.まとめ
1. はじめに
2. ベクトル空間
3. 行列と行列の演算
4. 行列の関数
5. 行列の階数
- 第17回 行列の階数
- 第18回 行列関数の四つの要素
- 第19回 行列関数の値域
- 第20回 行列関数の単射
- 第21回 行列関数の全射
- 第22回 行列関数の全単射
- 第23回 逆行列
- 第24回 行基本変形による階数の求め方
- 第25回 ブロック行列
6. 線形方程式の解
7. 行列式
- 第30回 行列式の由来
- 第31回 2次の行列式
- 第32回 ベクトル積(外積)
- 第33回 3次の行列式
- 第34回 小行列式と余因子
- 第35回 行列式の性質(上)
- 第36回 行列式の性質(下)
- 第37回 クラメールの公式
- 第38回 ヴァンデルモンド行列式
- 第39回 余因子行列
8. 類似行列
9. 固有値と固有ベクトル
10. 二次形式
二. 単一変数微分積分
1. はじめに
2. 関数と極限
- 第2回 コーシー列の極限
- 第3回 ワイエルシュトラス数列の極限
- 第4回 数列極限の性質
- 第5回 無限に近づく関数の極限
- 第6回 一般的な関数の極限
- 第7回 無限小
- 第8回 無限大
- 第9回 極限の性質
- 第10回 ハインの定理
- 第11回 極限の演算法則
- 第12回 挟み撃ち定理
- 第13回 合成関数の極限
- 第14回 漸近線
- 第15回 単調有界数列必ず極限を持つ
- 第16回 無限小の比較
- 第17回 関数の連続性
- 第18回 関数の不連続点
- 第19回 連続関数の演算と初等関数の連続性
- 第20回 閉区間上の連続関数の性質
- 第21回 極限を用いて円の面積を求める
3. 微分と導関数
- 第22回 微分と線形近似
- 第23回 導関数による微分の求め方
- 第24回 一般的な導関数のいくつか
- 第25回 関数の和、差、積、商の微分法則
- 第26回 合成関数の導関数
- 第27回 逆関数の導関数
- 第28回 陰関数の導関数
- 第29回 パラメータ方程式の導関数と関連する変化率
- 第30回 高階導関数
4. 中間値の定理と導関数の応用
5. 不定積分
6. 定積分
7. 定積分の応用
8. 微分方程式
- 第48回 微分方程式の基本概念
- 第49回 分離変数型微分方程式
- 第50回 同次方程式
- 第51回 1階線型微分方程式
- 第52回 階数を下げることのできる高階微分方程式
- 第53回 高階線型微分方程式
- 第54回 定数係数線型微分方程式
三. 多変数微分積分
1. ベクトル代数と空間解析幾何学
2. 多変数関数の微積分法とその応用
- 第8回 多変数関数の基本概念
- 第9回 多変数関数の極限と連続性
- 第10回 全微分
- 第11回 偏微分と全微分
- 第12回 方向微分と勾配
- 第13回 全微分と連鎖律
- 第14回 導関数とヤコビ行列
- 第15回 陰関数の微分公式
- 第16回 多変数関数の極値とその求め方
- 第17回 ラグランジュ未定乗数法
3. 重積分
- 第18回 二重積分の概念と性質
- 第19回 二重積分の計算:フビニの定理
- 第20回 二重積分の計算:極座標系
- 第21回 二重積分の計算:座標変換
- 第22回 三重積分とフビニの定理
- 第23回 三重積分の変数変換
- 第24回 重積分の応用:幾何学
- 第25回 重積分の応用:物理学
4. 曲線積分と曲面積分
- 第26回 積分の拡張:曲線および曲面積分
- 第27回 第1種曲線積分
- 第28回 第2種曲線積分
- 第29回 パスに依存しない保存力場
- 第30回 2次元の発散と回転
- 第31回 グリーンの定理
- 第32回 第1種曲面積分
- 第33回 第2種曲面積分
- 第34回 3次元の発散と回転
- 第35回 ガウスの定理とストークスの定理
5. 無限級数
四. 確率統計
1. 確率論の基本概念
- 第1回 確率論の起源
- 第2回 確率とは何か
- 第3回 標本空間と事象
- 第4回 確率公理化
- 第5回 事象の演算
- 第6回 事象の関係
- 第7回 古典派確率
- 第8回 条件付き確率
- 第9回 ベイズと全確率
- 第10回 事象の独立性
2. 確率変数とその分布
- 第11回 確率変数
- 第12回 二項分布
- 第13回 離散的な数学的期待値
- 第14回 分散と標準偏差
- 第15回 ポアソン分布
- 第16回 重要な離散分布
- 第17回 確率密度関数
- 第18回 正規分布
- 第19回 指数分布
- 第20回 累積分布と関数の分布
3. 多次元確率変数とその分布
4. 確率変数の数値的特徴
5. 大数の法則と中心極限定理
6. 統計学の基本概念
7. パラメータ推定
8. 仮説検定
五. 監督学習
1. はじめに
2. パーセプトロン
- 第3回 パーセプトロンとは何ですか?
- 第4回 パーセプトロンの決定境界
- 第5回 パーセプトロンのブルートフォース実装
- 第6回 線形分離可能
- 第7回 パーセプトロンのポケットアルゴリズム
- 第8回 パラメータとハイパーパラメータ
- 第9回 機械学習のプロセス
- 第10回 交差検証
3. 機械学習の可行性
- 第11回 機械学習の基本的な概念
- 第12回 無料の昼食はありません
- 第13回 汎化誤差と経験誤差
- 第14回 経験誤差最小化の原理
- 第15回 二値分類の仮説空間
- 第16回 2次元パーセプトロンの仮説空間
- 第17回 断層のある仮説空間
- 第18回 バイアス、分散、複雑度
4. 線形回帰
5. 非線形分類と回帰
6. ロジスティック回帰
- 第29回 ノイズと分類
- 第30回 ロジスティック回帰の経験誤差関数
- 第31回 勾配降下法の理論
- 第32回 勾配降下法の実装
- 第33回 確率的勾配降下法
- 第34回 ロジスティック回帰のアンダーフィッティングとオーバーフィッティング
- 第35回 ロジスティック回帰の多クラス分類
7. サポートベクターマシン
- 第36回 ハードマージンサポートベクターマシン
- 第37回 ハードマージンの決定境界
- 第38回 ハードマージンのアルゴリズム
- 第39回 別のハードマージンのアプローチ
- 第40回 ハードマージンの双対アルゴリズム
- 第41回 ハードマージンと多項式
- 第42回 カーネル法
- 第43回 多項式カーネル
- 第44回 ガウスカーネル
- 第45回 ソフトマージンサポートベクターマシン
- 第46回 ソフトマージンの双対アルゴリズム
8. ナイーブベイズ
9. 決定木
10. アンサンブル学習
参考情報
数学
可視化
参考ブログ
Qiita数学記号記入
- Markdownでの数学式の書き方
No | 参照リンク |
---|---|
1 | これで完璧 Qiitaでの数式記法 |
2 | Qiitaの数式チートシート |
3 | Qiitaでの様々な数式の書き方 |