「AIの学習(トレイン)って結局なにをやっているの?」
機械学習や生成AIを触り始めると、必ず一度は出てくる疑問です。
この記事では、できるだけ数式を避けつつ、
AIが内部で何をしているのかを構造的に分解して説明します。
そもそも「トレイン(学習)」とは何か
一言で言うと、
AIが「間違いを減らすために内部パラメータを調整する作業」
です。
AI内部の基本構造(ざっくり)
- 入力層
- 中間層(隠れ層)
- 出力層
- 重み(weight)
- バイアス(bias)
AIの知識は 重みとバイアス に詰まっています。
学習の全体フロー
- 入力データを与える
- AIが予測を出す
- 正解と比較する
- 誤差を数値化
- 重みを修正
このループを何百万回も繰り返します。
入力データはすべて数値
- 文章 → トークン → 数値
- 画像 → ピクセル → 数値
- 音声 → 波形 → 数値
推論(Forward Pass)
入力は重みと計算され、層を通過して出力になります。
誤差(ロス)の計算
出力と正解との差を ロス として計算します。
逆伝播(Backpropagation)
誤差の原因を逆算し、
どの重みをどれだけ直すか決めます。
重み更新が学習の本体
- 少しずつ修正
- 一気に変えない
なぜGPUが必要なのか
AI学習は 巨大な行列演算の塊 だからです。
学習後に残るもの
- モデル構造
- 学習済み重み
データそのものは残りません。
まとめ
- AI学習は誤差最小化
- 中身は数値計算
- 魔法ではない
- GPUが必須