1. 👋 はじめに
前回はディープラーニングの核心(CNN・RNN・Transformer)を学びました。
今回はシリーズ最終回!私たちが毎日使うChatGPT・Claude・Geminiなどの生成AIの仕組みに迫ります。
「ChatGPTはどうやって文章を生成しているの?」
「プロンプトエンジニアリングって何?」
「AIをどう使いこなせばいいの?」
これらをわかりやすく解説します💪
この記事を読めば:
- ✅ LLM(大規模言語モデル)の仕組みがわかる
- ✅ 生成AIがどうやって文章を作るかがわかる
- ✅ プロンプトエンジニアリングの基本がわかる
- ✅ AIと正しく付き合うための考え方がわかる
2. 🤖 生成AIとは?
生成AI(Generative AI) とは、テキスト・画像・音楽・動画などを新しく「生成」できるAIの総称です。
【従来のAI】識別・予測が中心
入力:猫の画像
出力:「猫です(確率95%)」← 分類するだけ
【生成AI】新しいコンテンツを作り出す
入力:「かわいい猫の俳句を書いて」
出力:「縁側で ひなたぼっこの 白き猫」← 新しく作る!
生成AIの種類
| 種類 | 何を生成するか | 代表例 |
|---|---|---|
| 📝 テキスト生成 | 文章・コード・要約 | ChatGPT・Claude・Gemini |
| 🖼️ 画像生成 | イラスト・写真 | Midjourney・DALL-E・Stable Diffusion |
| 🎵 音楽生成 | 楽曲・効果音 | Suno・Udio |
| 🎬 動画生成 | 映像・アニメーション | Sora・Runway |
| 🗣️ 音声生成 | 読み上げ・声質変換 | ElevenLabs・VoiceVox |
3. 🧠 LLM(大規模言語モデル)とは?
LLM(Large Language Model) は、大量のテキストデータで学習した巨大な言語モデルです。ChatGPT・Claude・Geminiなどはすべてこれが基盤になっています。
「大規模」ってどのくらい?
📚 学習データの量:
インターネット上のテキスト・書籍・論文・コードなど
→ 数百GB〜数TB(東京図書館の蔵書数万冊分以上!)
🔢 パラメータ数(モデルの「賢さ」の指標):
GPT-3:1750億パラメータ
GPT-4:非公開(推定:数兆パラメータ)
Claude:非公開
💻 学習に必要なコンピュータ:
数千〜数万枚のGPU(数十億〜数百億円規模)
数週間〜数ヶ月の学習時間
4. 🔮 LLMはどうやって文章を生成するの?
核心は「次の単語を予測する」こと
LLMの学習の本質は非常にシンプルです。
「私は猫が___」← この次に来る単語は?
学習データから学んだ確率分布:
好 き:42% ████████████
嫌 い:15% ████
います:12% ███
飼って:10% ███
怖 い:8% ██
その他:13% ███
→「好き」が最も確率が高い → 選択!
→「私は猫が好き」
次に「私は猫が好き___」の次は?
→「です」が高確率 → 選択!
→「私は猫が好きです」
…これを繰り返して文章を生成する
トークン:LLMが扱う「文字の単位」
LLMは文字ではなく「トークン」という単位で処理します
英語の例:
「Hello, world!」
→ ["Hello", ",", "world", "!"] の4トークン
日本語の例(日本語は1文字1トークンに近い):
「私は猫が好きです」
→ ["私", "は", "猫", "が", "好き", "です"] など
GPT-4の文脈長(一度に処理できるトークン数):
最大128,000トークン ≈ 日本語で約9万文字
→ 文庫本1冊分を一度に読める!
温度(Temperature):創造性のコントロール
Temperature = 出力の「ランダム性」を調整するパラメータ
Temperature = 0(低い)
常に最も確率の高い単語を選ぶ
→ 予測可能・安定・事実確認向き
Temperature = 1(中間・デフォルト)
確率に応じてランダムに選ぶ
→ バランスが良い
Temperature = 2(高い)
低確率の単語も選ばれやすくなる
→ 創造的・予測不能・詩や創作向き
例:「空は___」の次の単語
低Temperature:「青い」(ほぼ確定)
高Temperature:「溶けている」「歌っている」など予想外の表現も
5. 🎓 LLMの学習プロセス
ステップ①:事前学習(Pre-training)
📚 大量のテキストデータを使って
「次の単語を予測する」タスクで学習
インターネット・書籍・論文などから
言語の仕組み・世界の知識・推論能力を獲得
→ この段階でできるのは「文章の続きを書く」だけ
→ まだ「会話」はできない
ステップ②:ファインチューニング(Fine-tuning)
🎯 特定のタスクに特化させる追加学習
事前学習済みモデル
↓ 少量の専門データで追加学習
特定タスクに強いモデル
例:
医療データでファインチューニング → 医療AIに
法律データでファインチューニング → 法律AIに
コードデータでファインチューニング → プログラミングAIに
ステップ③:RLHF(人間のフィードバックによる強化学習)
ChatGPTが「人間らしい会話」ができる秘密がここにあります。
RLHF(Reinforcement Learning from Human Feedback)
① AIがいくつかの回答を生成
回答A:「猫は哺乳類です。特徴は…」
回答B:「猫かわいいですよね!特徴としては…」
回答C:「猫について詳しく説明します。まず…」
② 人間のアノテーターが「良い回答」を選んで評価
回答B > 回答C > 回答A と評価
③ AIが「人間に好まれる回答」を学習
→ より親しみやすく・正確で・安全な応答ができるように!
6. ✍️ プロンプトエンジニアリング
プロンプトエンジニアリングとは、AIから望む出力を引き出すための「質問・指示の書き方の工夫」です。
基本原則:具体的に・明確に
❌ 悪いプロンプト:
「Pythonを教えて」
✅ 良いプロンプト:
「Python初心者向けに、リスト(List)の基本操作を
コード例付きで5つ教えてください。
各コード例には日本語でコメントを入れてください。」
プロンプトの重要な要素
① 役割を与える(Role)
「あなたは経験10年のPythonエンジニアです」
→ AIが専門家として回答するようになる
② 文脈を提供する(Context)
「初心者向けの勉強会で使う資料を作りたいです」
→ 適切なレベル・トーンで回答
③ 出力形式を指定する(Format)
「箇条書きで5つ・コード例付き・日本語で」
→ 想定通りのフォーマットで出力
④ 例を示す(Examples)
「以下のような形式で答えてください:[例]」
→ より正確なアウトプットが得られる
プロンプトの実例比較
コード生成の場合:
❌ 悪い例:
「ソートを書いて」
✅ 良い例:
「Pythonで以下の条件を満たすソート関数を書いてください:
- 入力:名前と年齢の辞書のリスト
- 年齢の昇順でソート
- 年齢が同じ場合は名前のアルファベット順
- 型ヒントとdocstringを含める
- テストコードも書いてください」
文章要約の場合:
❌ 悪い例:
「要約して」
✅ 良い例:
「以下の技術記事を、エンジニア以外でも理解できるよう
200文字以内で要約してください。
専門用語には括弧で簡単な説明を加えてください。
[記事本文]」
Chain of Thought(思考の連鎖)
複雑な問題は「段階的に考えさせる」と精度が上がります。
❌ 直接答えを求める:
「この問題の答えは?」
✅ 段階的に考えさせる:
「この問題をステップバイステップで考えてください。
各ステップを示しながら最終的な答えを導いてください。」
→ AIが推論プロセスを明示するため
間違いに気づきやすく・精度も上がる!
7. ⚠️ 生成AIの限界と注意点
① ハルシネーション(幻覚)
😰 ハルシネーションとは?
AIが自信満々に「でたらめな情報」を答えること
例:
「田中太郎という著名な物理学者の業績を教えて」
→ AIが実在しない業績・論文・受賞歴を
もっともらしく生成してしまう!
なぜ起きる?
LLMは「それらしい文章」を生成する仕組みのため
「知らない」と言う代わりに
「それらしい答え」を作ってしまう
対策:
✅ 重要な情報は必ず一次情報源で確認
✅ 「〜について、わからない場合はわからないと言ってください」と指示
✅ 事実確認が重要な場面では鵜呑みにしない
② 知識のカットオフ
📅 LLMは学習データの時点までしか知らない
例:GPT-4の学習データ締め切り → 2023年4月
→ それ以降のニュース・情報は知らない
→ 最新情報は別途調べる必要がある
対策:
✅ 最新情報が必要な場合はWeb検索と組み合わせる
✅ 「あなたの知識は〜年までです」と認識して使う
③ バイアス(偏り)
⚖️ 学習データの偏りがAIの出力に影響する
インターネット上のテキスト
→ 特定の言語・文化・視点が多い
→ その偏りをAIが学習してしまう
対策:
✅ AIの出力を批判的に読む
✅ 複数の視点・情報源で確認する
✅ 重要な意思決定はAIだけに頼らない
④ プライバシーと機密情報
🔒 入力した情報の扱いに注意!
❌ やってはいけないこと:
└─ 個人情報(氏名・住所・マイナンバーなど)を入力
└─ 会社の機密情報・未公開データを入力
└─ パスワードや認証情報を入力
✅ 使い方の注意:
└─ 企業のAI利用ポリシーを確認する
└─ 機密情報は匿名化・ダミーデータに置き換える
└─ 利用規約のデータ学習設定を確認する
8. 🚀 AIとの正しい付き合い方
AIは「万能ではないが強力なアシスタント」
✅ AIが得意なこと:
└─ 大量の情報を素早く整理・要約する
└─ 定型的な文章・コードのドラフト作成
└─ アイデアのブレインストーミング
└─ 翻訳・言い換え・校正
└─ 基本的な質問への回答
❌ AIが苦手なこと:
└─ 最新情報・リアルタイム情報の取得(検索ツールと連携し、徐々に克服しつつある)
└─ 100%正確な事実確認
└─ 深い専門的判断(医療・法律・財務など)
└─ 感情的なサポート・共感
└─ 独創的な創造性(あくまで学習データの組み合わせ)
エンジニアとしてのAI活用術
🛠️ コーディングでの活用:
✅ ボイラープレートコードの生成
✅ バグの原因を一緒に考える
✅ コードレビューのサポート
✅ ドキュメント・コメントの生成
✅ 新しい技術・ライブラリの学習サポート
📚 学習での活用:
✅ 難しい概念をやさしく説明してもらう
✅ 練習問題を作ってもらう
✅ コードの動作を説明してもらう
✅ エラーメッセージの解読
⚠️ 注意すること:
✅ 生成されたコードを理解してから使う
✅ セキュリティに関わるコードは必ず自分でレビュー
✅ AIの回答を「答え」ではなく「たたき台」として使う
9. 📊 主要な生成AIモデルの比較(2026年現在)
| モデル | 開発元 | 特徴 |
|---|---|---|
| 💬 GPT-4o | OpenAI | テキスト・画像・音声に対応。広く普及 |
| 🤖 Claude 3.5 | Anthropic | 長文処理・安全性・コーディングに強い |
| 🌐 Gemini 1.5 | Google検索・Workspaceと連携 | |
| 🦙 Llama 3 | Meta | オープンソース・カスタマイズ可能 |
| 🌸 Mistral | Mistral AI | 軽量・高速・ヨーロッパ発 |
10. 🎯 シリーズ総まとめ
4回にわたって学んだ内容を振り返りましょう!
| 回 | テーマ | 重要ポイント |
|---|---|---|
| 第一回 | AIの全体像 | AI⊃機械学習⊃ディープラーニングの入れ子関係 |
| 第二回 | 機械学習の仕組み | データ分割・過学習・評価指標の重要性 |
| 第三回 | ディープラーニング | CNN・RNN・Transformerの役割と違い |
| 第四回 | 生成AI・LLM | 「次の単語予測」の積み重ねで文章を生成 |
🤖 AIとは
└─ データとパターン認識の積み重ね
🧠 機械学習とは
└─ データから自動でルールを学習する仕組み
🔥 ディープラーニングとは
└─ 多層ニューラルネットワークによる高度な学習
🌟 生成AIとは
└─ 「次の単語を予測する」を繰り返して文章を生成
└─ 大量データ × 巨大モデル × 人間のフィードバック
AIは「魔法」でも「脅威」でもなく、仕組みを理解したうえで使いこなすツールです。仕組みを知ることで、AIの得意・不得意がわかり、正しく活用できるエンジニアになれます💪
このシリーズが「AIをブラックボックスのまま使わない」きっかけになれば幸いです🌟
💬 質問や感想があれば、コメント欄でお気軽にどうぞ!
👍 役に立ったら、いいね&ストックをお願いします!
🎓 ここまで読んでくださって、本当にありがとうございました!
🔗 シリーズ記事
- 【第一回】AI・機械学習・ディープラーニングの違いを図解
- 【第二回】機械学習の仕組みをやさしく解説
- 【第三回】ディープラーニングとニューラルネットワーク
- 【第四回】生成AI・LLMの仕組みと現在地(この記事)