【中学数学 カリキュラム】
PART1 正の数と負の数
AI対応:符号付き数 → ニューラルネットの重み・誤差(正/負)、勾配方向の理解
PART2 文字式
AI対応:変数・パラメータ → モデルの重み W・バイアス b、テンソルの基本
PART3 1次方程式
AI対応:線形モデル y=Wx+b、回帰分析、勾配降下法の基本
PART4 比例と反比例
AI対応:比例 → Attention の線形性、反比例 → 距離減衰、誤差分散との関連
PART5 連立方程式
AI対応:行列 Ax=b、線形代数の入口、最小二乗法・回帰解析
PART6 1次関数
AI対応:線形回帰、活性化前の線形変換、Transformer の線形層
PART7 平方根
AI対応:ノルム計算、距離、誤差の二乗平均平方根(RMSE)、ベクトル長
PART8 因数分解
AI対応:再構成・分解 → PCA、SVD、低ランク近似の理解基礎
PART9 2次方程式
AI対応:損失最小化の曲率、最適化(凸性・極値)、ニューラルネットの誤差地形
PART10 関数 y=ax²
AI対応:二次損失、勾配の増減、回帰曲線、学習率の安定性
PART11 データの活用
AI対応:統計前処理、特徴量抽出、分布理解、回帰・分類の基礎
PART12 確率
AI対応:確率分布、ベイズ推論、誤差の確率モデル、Dropout、Softmax
【高校数学】
PART1 数と式
実数/整式・因数分解/分数式・無理式/方程式・不等式(1次・2次)
AI対応:
・線形代数の基礎
・誤差とLossの計算
・最適化で使う不等式(単調性)
・分数式→正規化、スケーリング
・無理式→距離・ノルムの理解
PART2 2次関数
平方完成/頂点・軸/最大・最小/グラフ
AI対応:
・最適化問題(極小値・凸性)
・Loss曲面の形状
・パラメータ更新時の勾配の挙動
・回帰分析の2次誤差関数
PART3 三角比・三角関数
定義/弧度法/性質・グラフ/加法定理
AI対応:
・Positional Encoding(Transformerのsin/cos)
・周期信号の解析(FFT)
・音声AI・画像AIの周期性特徴
・ニューラル常微分方程式(Neural ODE)の基礎
PART4 データの分析
平均・分散・標準偏差/相関/回帰直線
AI対応:
・特徴量の分布
・正規化と標準化
・相関 → Attention と類似度
・回帰直線 → 線形モデル・勾配法
PART5 確率
順列・組合せ/基本確率/独立/条件付き確率/期待値
AI対応:
・確率分布(Gauss, Bernoulli, Softmax)
・Cross Entropy
・マルコフ過程(言語モデルの基礎)
・期待値 → 予測の平均出力
・Bayes推論 → 論理的AIの本質
PART6 図形とベクトル
位置ベクトル/内積/直線方程式/空間ベクトル
AI対応:
・Embedding のベクトル表現
・内積 → Attentionの本体
・コサイン類似度 → 文章や画像の意味距離
・ベクトル空間モデル(Word2Vec、BERT)
PART7 指数・対数
指数法則/対数の定義/グラフ/指数・対数方程式
AI対応:
・Softmaxの指数関数
・対数損失 log-loss
・ニューラルネットのスケーリング
・活性化関数(exp, logsumexp)
PART8 数列
等差/等比/漸化式/求和/数学的帰納法
AI対応:
・RNN / Transformer の「逐次処理」
・再帰関係=ニューラルネットの反復構造
・オートレグレッシブモデル(LLMの生成構造)
・帰納法 → 予測モデルの一般化理解
PART9 微分法
導関数/公式/接線/増減・極値/最適化
AI対応:
・勾配降下法(Gradient Descent)
・バックプロパゲーション(微分の連鎖)
・損失最小化
・最適化アルゴリズム(SGD, Adam)
PART10 積分法
不定積分/定積分/面積・体積/微分積分のつながり
AI対応:
・確率密度関数の積分
・期待値の計算
・連続量モデル(拡散モデルの理論)
・ニューラルODEの積分表現
・損失の累積量評価