この記事でわかること
- LLMがどうやって言葉を理解・生成してるか
- 「計算式ってなにしてるの?」がイメージでつかめる
- LLMの中身がちょっとわかるようになる!
まず:LLMって何してるの?
ひとことで言うと:「次に来る言葉を当てるAI」です。
例:
「私は今日、」→「ラーメンを食べた。」
この「ラーメンを食べた」みたいな続きを、たくさんの知識から“予想”してる。
ステップで見てみよう!
1. 言葉はそのままだとAIにはわからない
→ 人間の「文字」や「単語」は、AIにとっては意味不明。
2. まず「単語 → 数字のベクトル」に変換
「犬」→ [0.2, -1.3, 0.8, ...]
これがEmbedding(埋め込み)。言葉の“意味”を数字で表す。
3. さらに「順番」も大事 → 位置情報も足す
単語の意味 + 位置のベクトル = 入力ベクトル完成!
4. 次に出てくるのが「Self-Attention(自己注意)」
「周りの言葉との関係を調べて、“どれが大事か”を考える機能」
5. Attentionで何が起きてるの?
- 各単語が「自分にとって重要な単語はどれ?」を計算
- たとえば「犬と遊んだ」→「犬」と「遊んだ」が強く結びつく
6. 関係の強さは「スコア(重み)」として計算される
イメージ:
「犬」→「遊んだ」= 0.9(強い関係)
「私は」→「遊んだ」= 0.2(弱い関係)
7. 強い関係の情報ほど「重く」取り入れる
これで「文の流れ」に合った意味の理解ができるようになる!
8. 次に「意味を深める」工程:Feed Forward Network
各単語のベクトルを小さな脳みそ(MLP)に通して、意味を強化
9. AttentionとFFNを何回も繰り返す(Transformer構造)
10. 最後に「Softmax」で次の単語を予測!
例文:私は今日ーーーーーでラーメンを食べた。
候補:「学校」「病院」「ラーメン屋」
結果:「ラーメン屋」 = 一番ありえそう → 出力!
全体の流れまとめ
1. 言葉 → 数字のベクトルに変換(Embedding)
2. 周りの単語とどれくらい関係あるかを計算(Attention)
3. 各単語の意味を強化(FFN)
4. それを繰り返す(深層)
5. 最後に「次の単語はこれ!」と予測(Softmax)
つまりLLMって…
✨「大量の文章を読んで、次に来る言葉を超高精度で当てるAI」
そのために、言葉を「数字」にして、「どれが大事か」を見て、「予測」してる!
📌 こんな感じで覚えよう!
「LLM = 百万冊の本を読んだ人」
「次に出る言葉を、今までの経験で“だいたいこれでしょ”って当ててるだけ」
🙌 おわりに
- 数式が苦手でも「流れ」と「やってること」がわかればOK!
- もっと詳しく知りたい人は「Transformer Self-Attention」あたりから深掘りしよう!