0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

高校数学2と3で学ぶLLM × 機械学習 × 生成AI

Posted at

第1部:LLM・生成AIと数学の関係を知る

単元 内容
1.1 AIは何を最適化しているのか?〜損失関数と「最小値」〜
▶ 数Ⅱ「関数の最大・最小」と結びつけて学ぶ
1.2 AIにおける指数関数の正体:e, log, Sigmoid, Softmax の意味
▶ 数Ⅱ「指数・対数関数」から理解する
1.3 モデルはどう「曲線」を学ぶか?〜多項式回帰・最小二乗法〜
▶ 数Ⅱ「2次関数・近似」応用編
1.4 確率で言葉を作るAIの仕組み:条件付き確率と生成モデル
▶ 数A「確率」+数Ⅲ「条件付き確率」の活用
1.5 ベクトルとAIの“似てる”を測る方法:内積とコサイン類似度
▶ 数B「ベクトル」を使って意味距離を計算

第2部:数学Ⅲで強化する「モデルを動かす計算力」

単元 内容
2.1 偏微分ってなに?:機械学習における勾配と誤差の最小化
▶ 数Ⅲ「微分法」から「勾配降下法」へつなげる
2.2 関数の合成と連鎖律:ニューラルネットの誤差伝播の数学
▶ 数Ⅲの連鎖法則を実用的に体感
2.3 積分=意味の合計?:Softmaxの正規化・確率密度関数と積分
▶ 数Ⅲ「積分法」から確率的発想へ
2.4 行列と多変量関数:Transformerの背後にある線形代数入門
▶ 数C相当(もしくは拡張):「行列の積」「ベクトル変換」
2.5 AIは「変化」をどう学ぶのか?:接線、傾き、最急降下のイメージ統合

第3部:数学 × プログラミング演習(Pythonベース)

単元 内容(NumPy・Matplotlib・PyTorchでの演習)
3.1 グラフで見る「最小値」〜損失関数と学習率〜
2次関数の最小化をシミュレーション
3.2 Softmaxと確率の可視化〜指数関数と対数の操作〜
3.3 ベクトル内積と類似度を図形とコードで理解する
3.4 偏微分と勾配降下法:簡易ニューラルネットの学習体験
3.5 ChatGPT的文章生成:確率と選択のPythonミニ実装(n-gramや確率分布)

第4部:高校生にもできる生成AI活用と社会実装

単元 内容
4.1 プロンプトエンジニアリング入門:ChatGPTに数式を教える/教えてもらう
4.2 生成AIで学習補助:数学の証明説明、図形問題の分解、作文添削
4.3 数学×創作:AIに短歌、詩、ストーリーを生成させて構造を解析する
4.4 AIに頼る危うさと倫理:数学的に「正しいこと」と「納得できること」は違う?
4.5 卒業研究・探究活動に活かすAI:レポート生成・表作成・資料要約の活用術

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?