12
26

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】

Last updated at Posted at 2023-07-10

ハルシネーション(Hallucination)とは?

もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。

なぜハルシネーションを起こすのか?

AIに掛け算をさせてみよう

image.png
image.png
5x5=は正解できたが、438890x819471=は不正解である。なぜならAIは掛け算を理解しておらず、人間が九九を暗記しているにすぎないのである。

ではどうすれば、438890x819471=を正解できるのであろうか?それは、簡単だ。RNNのように時系列の次元をTransformerに追加することで正解に導くことができる。

image.png

これは一体何を意味するのだろうか。GPT-4はまさにマルチモーダル(画像)を扱えるが、GPT-5で動画。
つまり、時系列を追加することで自己検証が可能となりハルシネーションがなくなるだろう。自己検証が可能となれば、RLHFのような人間のフィードバックも必要ではなくなるだろう

まとめ

AIからハルシネーションをなくすには、transformerにMLMではなく時系列の次元を追加したモデルを開発すべきである
AGIは近い

12
26
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
26

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?