0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【簡単AWS AIP】【初心者向け】生成AIの重要キーワードを整理する:LLM / Prompt Engineering / Hallucination / RAG

0
Posted at

AWS AI Practitioner の学習を進めると、
特に重要になってくるのが 生成AIまわりのキーワード です。

最近の試験対策でも頻出になりやすいのが、以下の4つです。

  • LLM(大規模言語モデル)
  • Prompt Engineering
  • Hallucination
  • RAG(Retrieval-Augmented Generation)

どれも生成AIを理解するうえで欠かせない用語であり、
実務でもそのまま使われることが多い概念です。

本記事では、それぞれの意味と関係性を、
試験対策を意識しながら分かりやすく整理していきます。


🎯 対象読者

  • AWS AI Practitioner を勉強中の方
  • 生成AIまわりの用語を体系的に整理したい方
  • LLM や RAG の違いが曖昧な方
  • 実務でも使える基礎知識を身につけたい方

🧩 まずは全体像

今回扱う4つのキーワードは、バラバラではなく、相互に関係しています。

LLM
 └── Prompt Engineering によって出力を調整する
 └── Hallucination が起こることがある
 └── RAG を使うことで外部情報を補い、精度向上を狙う

つまり、

  • LLM は生成AIの中心となる仕組み
  • Prompt Engineering は LLM をうまく使うための工夫
  • Hallucination は LLM 利用時の代表的な課題
  • RAG はその課題への代表的な対策の一つ

という関係です。


📘 LLM(大規模言語モデル)とは?

LLM は Large Language Model の略で、
大量の文章データを学習した言語モデルのことです。

簡単に言えば、
人間の言葉を理解し、それらしい文章を生成できる大規模なAIモデル です。

できること

LLM は、例えば以下のような処理が得意です。

  • 質問応答
  • 要約
  • 翻訳
  • 文章生成
  • コード生成
  • 分類や抽出

例えば、ユーザーが質問すると、
その入力をもとに自然な文章で回答を返すことができます。


✨ なぜ「大規模」なのか?

LLM が「大規模」と呼ばれるのは、
主に以下の理由によります。

  • 学習データ量が非常に多い
  • パラメータ数が非常に多い
  • 幅広い言語パターンを学習している

その結果、従来の自然言語処理モデルよりも、
より自然で柔軟な応答が可能になります。


💡 LLM のポイント

試験対策として押さえておきたいのは、
LLM は 文章を理解しているように見えるが、本質的には「次に来る可能性が高い単語」を予測している という点です。

つまり、LLM は人間のように本当に理解しているわけではなく、
学習したパターンをもとに、もっともらしい出力を生成している と考えるとイメージしやすいです。


🛠 Prompt Engineering とは?

Prompt Engineering は、
LLM に対してより望ましい出力を得るために、入力(プロンプト)を工夫すること です。

生成AIは、同じモデルであっても、
プロンプトの書き方次第で出力の質が大きく変わります。

例えば

単に

要約して

と入力するよりも、

以下の文章を、初心者向けに3行で日本語要約してください。
専門用語はできるだけ避けてください。

と入力した方が、期待に近い結果が得られやすくなります。


🔍 Prompt Engineering が重要な理由

LLM は非常に強力ですが、
「何をしてほしいか」を明確に伝えないと、出力が曖昧になりやすいです。

そのため、Prompt Engineering では以下のような工夫が重要になります。

  • 目的を明確にする
  • 出力形式を指定する
  • 条件を具体的に書く
  • 役割を与える
  • 例を示す

🧠 よくあるプロンプトの工夫

1. 役割を与える

あなたはAWS認定試験の講師です。

2. 出力形式を指定する

箇条書きで3点にまとめてください。

3. 対象読者を指定する

初心者向けに説明してください。

4. 条件を加える

専門用語はできるだけ使わずに説明してください。

5. 例を与える

以下の例と同じ形式で出力してください。

📌 Prompt Engineering の試験ポイント

AWS AI Practitioner では、Prompt Engineering はかなり重要です。

押さえておきたいポイントは次の通りです。

  • プロンプトを工夫することで出力品質を改善できる
  • モデル自体を再学習しなくても改善できる場合がある
  • 明確で具体的な指示が重要
  • 出力形式や制約を与えると安定しやすい

👉 つまり、
「生成AIをうまく使うための基本スキル」 として理解しておくことが大切です。


⚠ Hallucination(ハルシネーション)とは?

Hallucination は、
生成AIが事実と異なる内容を、もっともらしく出力してしまう現象 を指します。

日本語では「幻覚」や「幻覚応答」と表現されることもあります。

  • 実在しない参考文献を作る
  • 存在しないAWSサービス名を答える
  • 間違った事実を自信ありげに説明する

このように、見た目は自然でも、
中身が正しいとは限らないのが Hallucination の問題です。


🤔 なぜ Hallucination が起きるのか?

LLM は「正しい答え」を保証する仕組みではなく、
もっとも自然に見える文章を生成する仕組みです。

そのため、

  • 学習データに十分な情報がない
  • 質問が曖昧
  • 文脈が不足している
  • モデルが知識を持っていない

といった場合に、
それらしい内容を補完してしまうことがあります。


🚨 Hallucination のポイント

試験でもよく問われるのは、次の点です。

  • Hallucination は生成AIの代表的なリスク
  • 出力が自然でも、事実とは限らない
  • 特に正確性が重要な業務では注意が必要
  • 外部データ参照や人間による確認が重要

🔎 RAG(Retrieval-Augmented Generation)とは?

RAG は Retrieval-Augmented Generation の略で、
日本語では一般的に 検索拡張生成検索補強生成 と表現されます。

簡単に言うと、

LLM が回答を生成する前に、外部の情報を検索して、その情報をもとに回答精度を高める仕組み
です。


🧩 RAG の基本イメージ

通常の LLM は、
学習済みの知識だけを使って回答します。

一方、RAG では以下のような流れになります。

ユーザーの質問
   ↓
関連情報を検索
   ↓
検索結果をLLMに渡す
   ↓
LLMがその情報を踏まえて回答を生成する

💡 RAG を使うメリット

RAG の代表的なメリットは以下の通りです。

  • 最新情報を使いやすい
  • 社内文書や独自データを参照できる
  • Hallucination の抑制が期待できる
  • 回答の根拠を持たせやすい

例えば、社内FAQや社内マニュアルを検索対象にすれば、
汎用的な知識ではなく、自社専用の情報に基づいて回答するAI を作りやすくなります。


⚖ LLM 単体と RAG の違い

項目 LLM 単体 RAG
知識源 学習済み知識 学習済み知識 + 外部情報
最新情報 弱いことがある 反映しやすい
社内情報対応 苦手 得意
Hallucination 対策 限界あり 軽減が期待できる

👉 試験では、
「外部知識を参照して精度を上げたい」
というケースで RAG が選択肢になりやすいです。


🧠 ここは特に覚えたいポイント

覚え方 1

  • LLM = 大量文章を学習した大規模言語モデル
  • Prompt Engineering = より良い出力を得るための入力設計
  • Hallucination = もっともらしい誤情報
  • RAG = 外部情報を検索してから回答する仕組み

覚え方 2

  • LLM は便利だが、誤りを出すことがある
  • その代表的な問題が Hallucination
  • その対策の一つとして RAG がある

覚え方 3

  • モデルの中だけで答える → LLM 単体
  • 外の情報を見てから答える → RAG

💼 実務目線の補足

実務では、生成AIをそのまま使うだけでは不十分なことが多いです。

例えば、

  • 社内規程を参照して回答したい
  • 最新マニュアルに基づいて答えてほしい
  • 正確性が重要な問い合わせ対応に使いたい

といった場合、LLM 単体では不安が残ります。

そこで、

  • プロンプトを工夫する
  • RAG を使う
  • 人間が最終確認する

といった設計が重要になります。

この考え方は試験だけでなく、
実際に生成AIを業務利用するときにも非常に重要です。


✅ まとめ

今回整理したポイントは以下の通りです。

  • LLM は大量の文章データを学習した大規模言語モデル
  • Prompt Engineering は、出力品質を高めるための入力設計
  • Hallucination は、もっともらしい誤情報を出す現象
  • RAG は、外部情報を検索してから回答することで精度向上を狙う仕組み

この4つは、AWS AI Practitioner においても非常に重要な生成AIの基礎用語です。
特に最近のAI関連資格では、単なる用語暗記ではなく、
それぞれがどう関係しているか を理解しておくことが大切です。


📌 次回予告

次回は、AWS AI Practitioner でもよく問われる
AWS の AI 関連サービス について整理していきます。

例えば、

  • どんなサービスがあるのか
  • 何に使うのか
  • どう使い分けるのか

といった観点で、試験向けに分かりやすくまとめる予定です。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?