ChatGPTが考えた実践向けの学習コース。
Step 0 : 学習優先順位
| 優先度 | 学ぶこと | 理由 |
|---|---|---|
| 1 | 生成AI APIの使い方 | 実務アプリ化の入口 |
| 2 | プロンプト設計 | 出力品質を直接左右する |
| 3 | JSON/構造化出力 | 既存システム連携に必須 |
| 4 | RAG | 社内文書・FAQ・規程検索で使える |
| 5 | Function Calling / Tool Calling | DB・外部API連携に必須 |
| 6 | 評価・ログ・ガードレール | 実務導入で一番大事 |
| 7 | セキュリティ・個人情報 | 会社利用では必須 |
| 8 | Transformerなどの内部構造 | 必要になったらでよい |
Step 1 (1〜2週間): APIで小さい実用品を作る
まずはこの3つです。
- 問い合わせ分類ツール
- 議事録要約ツール
- 設計書レビュー補助ツール
ここで学ぶべきことは、
- API呼び出し
- プロンプト設計
- JSON出力
- エラー処理
- コスト感
- レスポンス速度
です。
Step 2 (2〜4週間) : RAGを作る
次にこれです。
PDF / 社内文書に質問できるチャットボット
最低限の機能は、
- PDFを読み込む
- チャンク分割する
- embeddingする
- ベクトルDBに保存する
- 質問に関係する文書を検索する
- 回答に引用を付ける
- 分からないときは分からないと返す
です。
これは実務でかなり使えます。
Step 3 (1ヶ月) : 業務システム連携
最後にここです。
- DB検索
- 社内API呼び出し
- チケット作成
- Teams通知
- メール下書き生成
- 承認フロー
- ログ監査
ここまでできれば、かなり実用寄りの生成AIエンジニアです。
Step 4:並行して最低限の基盤知識だけ拾う。
- Token
LLMが処理する文字の単位。
日本語は英語よりトークン消費が大きくなりやすい。 - Context length
一度に読める情報量の上限。
長い資料を全部突っ込むのではなく、検索して必要部分だけ渡すのがRAG。 - Embedding
文章を数値ベクトルに変換する技術。
「意味が近い文書を検索する」ために使う。 - RAG
社内文書やDBから関連情報を検索して、それを根拠にLLMに回答させる仕組み。 - Structured output
LLMの出力をJSONなどの決まった形式に固定すること。
業務システム連携ではかなり重要。 - Function calling / Tool calling
LLMに外部APIや関数を呼び出させる仕組み。 - Hallucination
もっともらしい嘘。
RAG、引用、評価、ガードレールで抑える。
この7つを実装とセットで理解していれば、当面は十分です。