**ハルシネーション(Hallucination)**とは、
AI(特に大規模言語モデルや生成AI)が、事実と異なる内容や、根拠のない内容をもっともらしく作り出してしまう現象のことを指します。
簡単に言うと:
「それっぽいけど、ウソ」
な回答をAIがしてしまう現象です。
例
例えば、あなたがAIにこんな質問をしたとします:
「2022年にノーベル文学賞を受賞したのは誰ですか?」
もしAIが、
「村上春樹です。」
と答えたら、それはハルシネーションです(実際には違う人が受賞しています)。
一見自然な日本語で答えているので、間違いに気づきにくいのも大きな問題点です。
なぜハルシネーションが起こるのか?
- AIは「知識ベース」で動いているわけではなく、「次に来るもっともらしい単語列」を予測して生成しています。
- 正しいかどうかを必ずしも検証していないため、「見たことがありそうな答え」を作ってしまう。
- 特に訓練データに存在しない情報や、難しい質問に対して発生しやすいです。
ハルシネーションが問題になる場面
- 医療や法律など、正確さが非常に重要な分野
- ニュース記事やレポートの作成
- 教育用途(間違った知識を広めてしまう可能性がある)
対策
- 出力内容を人間が必ず確認する
- ファクトチェックを別プロセスで組み合わせる
- モデル自体をより事実ベースで学習させる(RAG:Retrieval-Augmented Generationなど)
まとめ
- ハルシネーション=「もっともらしいけどウソをつく現象」
- 理由=AIは確率で文章を作っているから、必ずしも真実を見ていない
- 対策=人間による検証、事実確認システムとの組み合わせが重要