0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIの仕組みはAIに聞こう!

Last updated at Posted at 2025-05-12

最近はAIの進化が凄まじいですよね...

自分は最近OpenAIのChatGPTに課金したんですが、もう手放せませんw

でも皆さん、AIは確かに便利ですが、AIの仕組みって理解していますか?

ちなみに、自分は全く知りませんでした!

なので、今回AIについての理解を深める良い方法を思いついたので、

実践していきたいと思います!

LLMについて

まず、今回お話していくAIとは、「生成AI」のことを指します。

AIというと、機械学習やディープラーニングなども入ってくるので、

今回は生成AIに限った話にさせてください。

まず、生成AIと切っても切り離せない存在が、LLM(大規模言語モデル)です。

生成AIとは、以下のようなイメージで成り立っています。

生成AI
├─ 🧠 LLM(テキスト生成)
│ └─ ChatGPT、Claude、Gemini など
├─ 🎨 画像生成AI(例:DALL·E、Stable Diffusion)
├─ 🎵 音声生成AI(例:Voicebox、Voicery)
├─ 🎥 動画生成AI(例:Runway、Pika)

つまり、生成AIは色々なものを生成するAIのことで、

LLMは文章だけを生成するAIということです。

LLMの進化

では、LLMの進化について見ていきましょう!

まず初めに、ここでは大きく分けて7つの段階があります。

番号 技術名 内容
1 Seq2Seq モデル 翻訳や要約など「入力 → 出力」の基本構造の原点。RNNベースで登場し、自然言語処理に革命を起こした。
2 Attention 機構 入力文の中で「重要な単語」に注目できる仕組み。文脈理解や意味保持を向上させた。
3 Transformer アーキテクチャ RNNを使わず並列処理を可能にし、LLMの高速学習と高精度化を実現した画期的構造。
4 Byte Pair Encoding(BPE)などのトークナイゼーション 単語をサブワード単位で処理することで、未知語に強くなり、語彙数も削減できた。
5 Pretraining + Fine-tuning 戦略 汎用的な事前学習のあと、特定タスクに合わせて微調整。BERTやGPTで広く採用。
6 Self-supervised Learning(自己教師あり学習) 正解ラベルなしで学習可能。例:次の単語を予測させることで、大量データ学習が可能に。
7 Scaled Training(超巨大モデルの学習) パラメータ数とデータ量を増やせば性能も向上するという「スケーリング法則」が発見された。
8 RLHF(人間のフィードバックによる強化学習) ChatGPTで採用。人間の好む返答へとチューニングし、対話性能を大幅向上させた。

AIと勉強していく方法について

では、ここからが本題です。

正直、上の表の内容を一つ一つググれば理解を深めることができます。

しかし、実際にAIがどのように考えているのか、自分の興味のある質問で試してみたくはありませんか?

そのプロンプトとしては

以下の形式に従ってください。各ユーザー入力に対し、Encoder処理とDecoder出力に分けて、{自分が知りたい技術名}の形式で応答してください。

としたあとに、適当な質問をしてみてください。

質問の例:プロゲーマーは幼少期に、共通している事柄はありますか

すると、そのモデルがどのようなことができ、どんなことに注力しているのかを

対話形式で知ることができます。

例えば、Attention機構とはなんだ?気になるなぁ...と思ったとします。

お手持ちのChatGPTなどに上記のプロンプトで聞いてみてください。

(新しいチャットで聞くほうが適切な回答が帰ってきます。)

ちなみに、以下はAttention機構について上記のプロンプトを使用した際の出力内容です。

[Input: プロゲーマーは幼少期に、共通している事柄はありますか]

[Encoder処理]
→ トークン列: [プロゲーマー, は, 幼少期, に, 、, 共通, し, て, いる, 事柄, は, あり, ます, か]
→ 意図抽出:プロゲーマーの幼少期における環境・習慣・特性などの共通点を尋ねている
→ 文構造:主語+時期指定+抽象的属性の有無を問う形式の疑問文

[Attention重み可視化]
→ 「幼少期」: 0.26
→ 「共通」: 0.23
→ 「事柄」: 0.20
→ 「プロゲーマー」: 0.17
→ その他: 0.14以下

※ 特に「幼少期」「共通」「事柄」に注意が集中 → 時期的特徴と属性に焦点

[Decoder出力]
→ 多くのプロゲーマーには、幼少期からゲームに触れる環境があったという共通点があります。
→ さらに、「集中力の高さ」「勝ち負けへのこだわり」「親の理解」なども共通して見られる傾向があります。
→ 回答:はい、複数の共通した特徴が見られます。

[Decoder Ready]

実際、Attention機構は各トークンごとに分けられた単語について、重み付けを行い、

より人間的な返答を自然言語で行えるようになりました。

まとめ

AIの仕組みはAIに聞こう!

ということで、紹介したプロンプトを参考に、AIについての知識を深めていただければと思います!

もし何か問題がございましたら、ご指摘等いただけると幸いです。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?