title: 【文系合格者が解説】G検定「生成AI・LLM」分野の攻略法|新シラバスの頻出ポイントまとめ
tags: G検定 AI ディープラーニング JDLA 資格
はじめに
こんにちは。2026年1月のG検定に合格した、文系出身のエンジニアです。
G検定のシラバスは近年大きく改訂され、生成AI(Generative AI) や 大規模言語モデル(LLM) に関する出題が増えています。ChatGPTやStable Diffusionが話題になる中、「最新のAI技術についても問われるの?」と不安に感じている方も多いのではないでしょうか。
実際に私が受験した際も、生成AI・LLM関連の問題は体感で全体の1〜2割ほど出題されていました。従来のディープラーニング基礎に加えて、この分野をしっかり押さえておくことが合格のカギになります。
この記事では、文系出身の私が実際に使った方法で、生成AI・LLM分野の頻出ポイントを整理します。
押さえるべきキーワード一覧
まずは試験で問われやすいキーワードを整理しましょう。
| カテゴリ | キーワード |
|---|---|
| 基盤モデル | Foundation Model、事前学習(Pre-training)、ファインチューニング |
| LLMの仕組み | Transformer、Self-Attention、トークン化、BPE |
| 代表的なモデル | GPT系列、BERT、LLaMA、PaLM |
| 学習手法 | 教師なし事前学習、RLHF(人間のフィードバックによる強化学習) |
| プロンプト技術 | プロンプトエンジニアリング、Few-shot、Zero-shot、Chain-of-Thought |
| 画像生成 | 拡散モデル(Diffusion Model)、VAE、GAN |
| 応用技術 | RAG(検索拡張生成)、マルチモーダルAI、AIエージェント |
| リスクと課題 | ハルシネーション、バイアス、著作権問題 |
文系でもわかる「LLMの仕組み」
LLMの仕組みを一言でいうと、「大量のテキストデータを読み込んで、次に来る単語を予測する」モデルです。
試験で問われるポイントは主に3つあります。
1. Transformerアーキテクチャ
LLMの土台となる技術です。従来のRNNと違い、文章を並列処理できるため高速に学習できます。「Self-Attention(自己注意機構)」によって、文中のどの単語が他のどの単語と関係が深いかを計算します。
2. 事前学習とファインチューニング
LLMは2段階で訓練されます。まず大量のテキストで「事前学習」を行い、言語の一般的なパターンを学びます。その後、特定のタスクに合わせて「ファインチューニング」で微調整します。この2段階アプローチが、少ないデータでも高い性能を発揮できる理由です。
3. RLHF(人間のフィードバックによる強化学習)
ChatGPTが「それっぽい回答」をするのは、人間の評価者がモデルの出力を評価し、その評価をもとに強化学習を行っているからです。G検定では「RLHFとは何か」「なぜ必要なのか」が問われます。
プロンプトエンジニアリングの出題ポイント
プロンプトエンジニアリングとは、LLMに対して適切な指示(プロンプト)を与えることで、望ましい出力を得る技術です。
試験では以下の用語の違いを正確に理解しているかが問われます。
- Zero-shot: 例を示さずに指示だけで回答させる方法
- Few-shot: いくつかの例を示してから回答させる方法
- Chain-of-Thought(CoT): 「ステップバイステップで考えてください」のように、推論過程を明示させる方法
私の受験時は、具体的なプロンプトの例を見せて「これはどの手法か?」と問う形式の問題が出ました。定義を暗記するだけでなく、具体例と結びつけて覚えておくのがおすすめです。
RAG(検索拡張生成)を理解しよう
RAG(Retrieval-Augmented Generation)は、最近のG検定で特に注目されているトピックです。
LLMには「学習データにない最新情報を知らない」「ハルシネーション(もっともらしい嘘)を生成する」という弱点があります。RAGは外部のデータベースや文書から関連情報を検索し、その情報をもとにLLMが回答を生成する仕組みです。
試験では「RAGのメリット」「RAGとファインチューニングの違い」が問われやすいです。ざっくり覚えるなら、RAGは「カンペを見ながら回答する」、ファインチューニングは「勉強して知識を身につける」とイメージすると分かりやすいでしょう。
生成AIのリスクと倫理
技術だけでなく、生成AIが社会に与える影響についても出題されます。
- ハルシネーション: AIが事実と異なる情報をもっともらしく生成する現象
- 著作権問題: 生成AIの学習データに著作物が含まれる場合の法的課題
- ディープフェイク: 画像・動画の偽造によるなりすましリスク
- バイアス: 学習データの偏りが出力に反映される問題
この分野は「AI利活用ガイドライン」や「AI事業者ガイドライン」と絡めて出題されることが多いです。技術的な仕組みだけでなく、社会的な文脈も含めて理解しておきましょう。
文系の私が実践した勉強法
生成AI・LLM分野は新しいトピックなので、従来の参考書だけではカバーしきれないことがあります。私が実践した方法を紹介します。
- 公式シラバスで出題範囲を確認する: JDLAの公式サイトで最新シラバスをダウンロードし、生成AI関連の項目をチェック
- ChatGPTやClaudeを実際に使ってみる: プロンプトエンジニアリングの手法は、実際に試すと理解が深まる
- キーワードを表にまとめる: 上の表のように、カテゴリごとにキーワードを整理すると記憶に残りやすい
- ニュースで最新動向をチェック: 生成AI分野は進化が速いので、IT系ニュースサイトも参考になる
おわりに
生成AI・LLM分野は範囲が広く感じますが、実は「仕組みの基本」「主要な手法の違い」「リスクと倫理」の3本柱を押さえれば、大部分の問題に対応できます。
文系出身でも、日頃からChatGPTなどを使っている方なら、直感的に理解できる内容も多いはずです。ぜひ自信を持って取り組んでみてください。
G検定の学習には、以下のサイトもおすすめです。体系的にまとまっているので、スキマ時間の学習に役立ちます。
※本記事はJDLA非公式の個人的な学習メモです。最新の試験範囲はJDLA公式サイトでご確認ください。