第1部:LLM・生成AIと数学の関係を知る
単元 | 内容 |
---|---|
1.1 |
AIは何を最適化しているのか?〜損失関数と「最小値」〜 ▶ 数Ⅱ「関数の最大・最小」と結びつけて学ぶ |
1.2 |
AIにおける指数関数の正体:e, log, Sigmoid, Softmax の意味 ▶ 数Ⅱ「指数・対数関数」から理解する |
1.3 |
モデルはどう「曲線」を学ぶか?〜多項式回帰・最小二乗法〜 ▶ 数Ⅱ「2次関数・近似」応用編 |
1.4 |
確率で言葉を作るAIの仕組み:条件付き確率と生成モデル ▶ 数A「確率」+数Ⅲ「条件付き確率」の活用 |
1.5 |
ベクトルとAIの“似てる”を測る方法:内積とコサイン類似度 ▶ 数B「ベクトル」を使って意味距離を計算 |
第2部:数学Ⅲで強化する「モデルを動かす計算力」
単元 | 内容 |
---|---|
2.1 |
偏微分ってなに?:機械学習における勾配と誤差の最小化 ▶ 数Ⅲ「微分法」から「勾配降下法」へつなげる |
2.2 |
関数の合成と連鎖律:ニューラルネットの誤差伝播の数学 ▶ 数Ⅲの連鎖法則を実用的に体感 |
2.3 |
積分=意味の合計?:Softmaxの正規化・確率密度関数と積分 ▶ 数Ⅲ「積分法」から確率的発想へ |
2.4 |
行列と多変量関数:Transformerの背後にある線形代数入門 ▶ 数C相当(もしくは拡張):「行列の積」「ベクトル変換」 |
2.5 | AIは「変化」をどう学ぶのか?:接線、傾き、最急降下のイメージ統合 |
第3部:数学 × プログラミング演習(Pythonベース)
単元 | 内容(NumPy・Matplotlib・PyTorchでの演習) |
---|---|
3.1 | グラフで見る「最小値」〜損失関数と学習率〜 2次関数の最小化をシミュレーション |
3.2 | Softmaxと確率の可視化〜指数関数と対数の操作〜 |
3.3 | ベクトル内積と類似度を図形とコードで理解する |
3.4 | 偏微分と勾配降下法:簡易ニューラルネットの学習体験 |
3.5 | ChatGPT的文章生成:確率と選択のPythonミニ実装(n-gramや確率分布) |
第4部:高校生にもできる生成AI活用と社会実装
単元 | 内容 |
---|---|
4.1 | プロンプトエンジニアリング入門:ChatGPTに数式を教える/教えてもらう |
4.2 | 生成AIで学習補助:数学の証明説明、図形問題の分解、作文添削 |
4.3 | 数学×創作:AIに短歌、詩、ストーリーを生成させて構造を解析する |
4.4 | AIに頼る危うさと倫理:数学的に「正しいこと」と「納得できること」は違う? |
4.5 | 卒業研究・探究活動に活かすAI:レポート生成・表作成・資料要約の活用術 |