0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LLMの中の「計算式」を、数式ニガテでもわかるように解説してみた!

Posted at

この記事でわかること

  • LLMがどうやって言葉を理解・生成してるか
  • 「計算式ってなにしてるの?」がイメージでつかめる
  • LLMの中身がちょっとわかるようになる!

まず:LLMって何してるの?

ひとことで言うと:「次に来る言葉を当てるAI」です。

例:

「私は今日、」→「ラーメンを食べた。」

この「ラーメンを食べた」みたいな続きを、たくさんの知識から“予想”してる。


ステップで見てみよう!

1. 言葉はそのままだとAIにはわからない

→ 人間の「文字」や「単語」は、AIにとっては意味不明。


2. まず「単語 → 数字のベクトル」に変換

「犬」→ [0.2, -1.3, 0.8, ...]

これがEmbedding(埋め込み)。言葉の“意味”を数字で表す。


3. さらに「順番」も大事 → 位置情報も足す

単語の意味 + 位置のベクトル = 入力ベクトル完成!

4. 次に出てくるのが「Self-Attention(自己注意)」

「周りの言葉との関係を調べて、“どれが大事か”を考える機能」


5. Attentionで何が起きてるの?

  • 各単語が「自分にとって重要な単語はどれ?」を計算
  • たとえば「犬と遊んだ」→「犬」と「遊んだ」が強く結びつく

6. 関係の強さは「スコア(重み)」として計算される

イメージ:

「犬」→「遊んだ」= 0.9(強い関係)
「私は」→「遊んだ」= 0.2(弱い関係)

7. 強い関係の情報ほど「重く」取り入れる

これで「文の流れ」に合った意味の理解ができるようになる!


8. 次に「意味を深める」工程:Feed Forward Network

各単語のベクトルを小さな脳みそ(MLP)に通して、意味を強化


9. AttentionとFFNを何回も繰り返す(Transformer構造)


10. 最後に「Softmax」で次の単語を予測!

例文:私は今日ーーーーーでラーメンを食べた。
候補:「学校」「病院」「ラーメン屋」
結果:「ラーメン屋」 = 一番ありえそう → 出力!

全体の流れまとめ

1. 言葉 → 数字のベクトルに変換(Embedding)
2. 周りの単語とどれくらい関係あるかを計算(Attention)
3. 各単語の意味を強化(FFN)
4. それを繰り返す(深層)
5. 最後に「次の単語はこれ!」と予測(Softmax)

つまりLLMって…

✨「大量の文章を読んで、次に来る言葉を超高精度で当てるAI」

そのために、言葉を「数字」にして、「どれが大事か」を見て、「予測」してる!


📌 こんな感じで覚えよう!

「LLM = 百万冊の本を読んだ人」
「次に出る言葉を、今までの経験で“だいたいこれでしょ”って当ててるだけ」


🙌 おわりに

  • 数式が苦手でも「流れ」と「やってること」がわかればOK!
  • もっと詳しく知りたい人は「Transformer Self-Attention」あたりから深掘りしよう!
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?