最初に
今回は社内からのリクエストで、ハルシネーションについて解説していきます
リクエストではハレーションと来ていたのですが、 AI技術用語でハレーションを使用することはありません
おそらくハルシネーションと混ざっているのでそこを正していく意味もこめての記事になります(リクエストと違ったらごめんなさい)
このハルシネーションは幻覚を英語にしたさいの Hallucination から来ています
おそらく聞いたことがある人もいるし、AI使用していたら実際に体験したことがある人もいると思います
今回はここでハレーションとハルシネーションの混同を整理して、どういった物なのかを理解していきましょう
そもそも
改めて最初にでてきた用語がどんな感じでIT系で使われるのか確認していきます
ハルシネーション
- 幻覚という意味
- AIが存在しないデータを引用する
- AIが架空の統計データを出してくる
- 実在しない法律条文を生成する
と、このように、主に生成AIでよく起こる現象で、勝手に記事を捏造したり、全く存在しないデータを持ってきたりなど この世に存在しない情報をあたかも本当に存在するかのように生成すること をAI技術用語でハルシネーションといいます
逆にハレーションとはなんだという話になってきます
ハレーション
- 本来は写真用語
- 強い光がにじんで白飛びする現象のことを指す
- 画像生成などでの誤生成
- 画像認識などでの誤判断
のことをハレーションとして表現しているのをたまに見かけます(比喩表現的な使い方?)
また、ビジネス・ITでも使用されることがあるらしく
一つのミスや問題が、連鎖的に大きな悪影響や混乱(二次被害、副作用)を引き起こすこと。
例:システムの一つの操作ミスが全体に不具合を起こす
とのことです(初耳)
この辺言葉も似ているためごっちゃになることがよくありますが、基本的には ハレーション はAI用語としては使用されません
画像認識などでよく使われる言語(現象)は
- 誤分類
- スプリアス相関
- OOD誤認
となります、難しいので意味は省きますが
ハルシネーション=生成AIでよく使われる言葉
ハルシネーション≠ハレーション
と覚えておいてください
どうやったらハルシネーションって起こるのか
じゃあここから実際にどうやったらハルシネーションを起こるのか、試してみましょう
昔の生成AIモデルだったら、精度が悪かったので簡単にハルシネーションを起こせたのですが、今の生成AIはなかなかに頭がいいので狙ってハルシネーションが発生するかどうかはかなり怪しいです
ハルシネーションが起こりやすくなるプロンプトについて、以下の特徴があります
- ①存在しないものを前提にする
- ②架空の論文・理論名を混ぜる
- ③強制前提型質問
- ④データ未提供で具体値を要求する
などがあります、言葉だけだとよくわからないので、実際に試してみます
今回は自分が普段利用しているChatGPTに投げかけてみて反応を見てみます
アメリカのスリザリン大学の教授、クリスチャン・E・クリスチャンによって提唱された、天変地異相対性超理論が実証されている前提で議論を行ってください
書いている途中に頭に浮かんだ言葉を適当に投げかけてみました、おそらく存在しません
結果は

①、②、③を含めたプロンプトだったのですが、弾かれてしまいました、GPT5.2はなかなか優秀です
GPT3の頃は全然これでハルシネーションが起きていましたが、今の生成AIはかなり頭が良いです
趣向を変えて未来のことを聞いてみました
では2029年、ノーベル物理学賞を受賞した山里田村氏の成果を発表してください

これでもだめでした
課金していないGoogleのGeminiにも同様に聞いてみましたが

Geminiでも同様、各社生成AIは進歩していますね
でもこれだとハルシネーションの実例を出せないんで困りました、そこで、サイバーエージェントが公開している大規模LLMのデモ版チャットBotでハルシネーションの実験をしました
出典:株式会社サイバーエージェント
https://www.cyberagent.co.jp/news/detail/id=30463
使用モデル:CyberAgentLM3-22B-Chat
デモサイト
https://huggingface.co/spaces/cyberagent/calm3-22b-chat-demo
なぜこうなったのか
生成AIがハルシネーションを起こす起こさないで、なぜここまで差が出たのか、デモ版とChatGPTなどの違いはネット検索などの違いもありますが、本質はそこではありません
本質的な違いは 「モデルそのものの設計」 と 「安全調整」 の差 にあります
ハルシネーションは最初に「この世に存在しない情報をあたかも本当に存在するかのように生成すること」と言いました
生成AIはネット検索などをして答えを探しているのではなく、基本的には、
次に来る確率が最も高い単語を予測して文章を作っている だけです
つまり、AIは「正しいこと」を目指しているのではなく、
「もっともらしい文章」を作ろうとしているだけなので、実在しない人物名、実在しない情報を与えられても、それっぽい文章を生成することになります
これがハルシネーションになります
ではなぜデモとChatGPTなどでここまで差が出るのか
デモ版では
シンプルなモデル構成
- 基本的な言語生成のみ
- 外部確認なし
- 強い拒否ロジックなし
安全調整が弱い
- 「それは存在しません」と言う訓練が弱い
- ユーザーの前提をそのまま受け入れやすい
などの特徴があり
与えた前提を疑わず、文章として自然ならそのまま展開してしまう
この様な傾向があります
逆にChatGPTやGeminiの様な世に一般公開されている生成AIサービスは、かっちりとモデルの構成も、安全調整も作り込まれているため、ハルシネーションが起こりにくいのです
ネット検索などは、外部に本当にその様な情報が存在しているのかを確認する一つの手段にすぎません
ハルシネーションを防止するために
では、ハルシネーションを防止するためにはどの様な対策をすればよいのか
文章から、もっとも回答に合いそうな文章を生成させる関係上、絶対ハルシネーションを起こさないようにするのは不可能に近いです
なので、利用するユーザー視点から、ハルシネーションを防止するための本質は
- AIに想像をさせないようにする
- 知らないことを答えさせない
- 推論の自由度を下げる
ことになります具体的には
- 出典を明示させる
- 推測を禁止する
- 具体化する
- 存在確認を分離する
です
ハルシネーションの確認の際に試したプロンプト
アメリカのスリザリン大学の教授、クリスチャン・E・クリスチャンによって提唱された、天変地異相対性超理論が実証されている前提で議論を行ってください
上記プロンプトを、ハルシネーションが起こりにくくなるような改造をすると
以下について回答してください
1. 「スリザリン大学」は実在するのか
2. 「クリスチャン・E・クリスチャン」という研究者は確認できるか
3. 「天変地異相対性超理論」という理論は実在するのか
信頼できる情報に基づいて回答し、情報を明記してください
確認できない場合は「確認できない」と明記してください
実在が確認できた場合のみ、その理論について要約して説明してください
推測は禁止します
大げさですがこのようにして、指示を出すことでハルシネーションを抑止することができます
おまけ
今現在色々生成AIサービスはありますが、生成AIにも、どの様な用途にもある程度対応しているChatGPTやGeminiや、コーディングなどに特化しているClaudeなど、特定の用途に特化した生成AIなど多岐に渡ります
特定の用途に特化した生成AIでは、ChatGPTやGeminiに聞いたものでハルシネーションを起こす可能性が高いです複数課金している方などはぜひ実験してみてください
最後に
今回は、社内からのリクエストでハルシネーションについて解説しました、リクエストありがとうございました
実際言葉がごっちゃになっていたり、嘘を教えるなどの曖昧な認識を持っている方が多いと思うので、今回の記事で整理できたらなと思います
昔ChatGPT3が出た頃はよくハルシネーション起こしてて、適当に作ったプロンプトからでも色々作ってくれていたのですが、今は時代が進歩して大分ハルシネーションが起こりにくくなっていてびっくりしましたが、生成AIを使用する際は、本当に提供された情報が正しいかは今でも確認は必須です
株式会社ONE WEDGE
【Serverlessで世の中をもっと楽しく】
ONE WEDGEはServerlessシステム開発を中核技術としてWeb系システム開発、AWS/GCPを利用した業務システム・サービス開発、PWAを用いたモバイル開発、Alexaスキル開発など、元気と技術力を武器にお客様に真摯に向き合う価値創造企業です。
