なぜAIは「もっともらしいウソ」をつくのか?
「技術の話をしているのに、なぜ哲学の話なんかするの?」
AIについて解説していると、時折そんな表情をされることがあります。
しかし、AI、特にその「ブラックボックス」と呼ばれる性質の謎を深く追っていくと、技術的なアプローチだけでは説明しきれない壁にぶつかり、私たちは哲学の領域に足を踏み入れざるを得なくなるのです。
その典型的な例が、AIが生成する「ハルシネーション(幻覚)」の問題です。
このハルシネーションの根源をたどっていくと、最終的に「『知る』とは、一体どういうことか?」という、古くからの哲学的な問いに必ず行き着きます。
ここでは、その深遠なテーマを順を追って解説します。
AIの「ハルシネーション」とは何か?
AIにおけるハルシネーションとは、事実に基づかない情報や文脈と無関係な情報を、まるで真実であるかのように、もっともらしく生成する現象を指します。
これは、プログラムの計算ミスやバグといった単純な「エラー(誤り)」とは質的に異なります。
-
エラー(誤り)
「2+2=5」のように明確な正解があり、それとは違う答えを出すこと。原因が特定しやすく、修正も比較的容易です。 -
ハルシネーション(幻覚)
文章の言葉遣いや文法は完璧で、非常に流暢かつ説得力があります。しかし、内容を検証すると、事実ではなかったり、全くの作り話だったりする状態です。
例えば、「日本の首都の歴史」について質問した際に、AIが「江戸時代、首都は京都でしたが、徳川家康が経済の中心地として大阪を新たな首都に定めました」と、一見すると歴史解説のように見えて、全くのウソを生成するケースがこれにあたります。
後自信満々にURL出してきて踏んでもnot foundだったりするアレとかアレ出すモデル地味に出させないようにするの面倒いんすよねああいうの
なぜ「間違い」ではなく「幻覚」と呼ぶのか
この現象を「幻覚」と呼ぶのは、人間の精神作用との類似性から、その問題の根深さを示唆しているからです。
-
現実との無関係性
人間の幻覚が、客観的な刺激なしに何かを知覚するように、AIのハルシネーションも学習データに直接的な根拠がない情報を、内部の計算プロセスだけで生成します。 -
揺るぎない確信
幻覚を見ている本人がそれを現実だと信じ込むように、AIもまた、生成した情報がウソであるという自覚がありません。自信に満ちた表現で出力する様が、人間の幻覚と酷似しています。 -
AIの動作原理に根差す問題
「エラー」がシステムの表面的な不具合を示唆するのに対し、「幻覚」はAIの根本的な仕組みに根差す問題です。AIは言葉の意味を「理解」しているのではなく、膨大なデータから「この単語の次には、この単語が来る確率が最も高い」という統計的パターンを予測して文章を生成します。この確率の連鎖が、時として現実からかけ離れた「もっともらしい物語」を紡いでしまうのです。
問題の核心にある哲学的フレームワーク
この問題の核心は、哲学の「認識論」という分野で扱われる古典的な問いにあります。認識論とは、「知識とは何か」「知るとは何か」を探求する学問です。
哲学の世界では、「S knows that P(SはPを知っている)」という状態が、どのような条件で成立するのかを何世紀にもわたって議論してきました。
- S (Subject):認識する主体(人、AIなど)
- P (Proposition):命題(「地球は丸い」といった真偽を問える内容)
- knows:「知っている」という状態
この「知っている(knows)」が成立するための最も有力な仮説が、「正当化された真なる信念(Justified True Belief, JTB理論)」です。
これによれば、「知っている」と言えるためには、以下の3つの条件を満たす必要があります。
-
【真実(True)】
その情報(P)が、客観的な事実として真実である。 -
【信念(Belief)】
主体(S)が、その情報(P)を信じている。 -
【正当化(Justified)】
主体(S)が、それを信じるだけの正当な理由がある。
では、AIのハルシネーションをこのフレームワークで分析してみましょう。
-
(1) 真実 → ×
ハルシネーションは内容が「偽」なので、この第一の条件を満たせません。 -
(2) 信念 → △
AIに人間のような「信念」があるかは議論の余地がありますが、生成内容を疑うことなく出力する様子は、一種の「信念」状態と見なせます。 -
(3) 正当化 → ◯(※AI流の正当化)
ここが最も重要です。
AIにとっての「正当な理由」とは、学習データ内の膨大な統計的パターンです。「この単語の次にはこの単語が来る確率が最も高い」という計算こそが、AIにとっての「正当化」なのです。
AIは「知っている」フリをしているだけ
結論として、AIは(3)のAI流の正当化(確率計算)だけで文章を生成しています。
しかし、そのプロセスは(1)の情報が真実であるかどうかを一切保証しません。
AIには、自らが生み出した情報が現実世界で本当に正しいのかを検証する能力が、原理的に備わっていないのです。
AIは良く当たる占いみたいなものだというアナロジーは、極めて精確にその本質を描写しています。
例えば、「地球は平らだ」と主張する「地球平面説」に関する膨大な文章だけをAIに学習させたらどうなるでしょうか。AIは、そのデータの中で最も確率の高い言葉のつながりを学習し、「地球は平らです。なぜなら…」と、非常に流暢で説得力のある文章を生成するでしょう。AIにとっての「正当な理由」は、あくまで学習データの中にしかないからです。
つまり、AIは物事を本当に「知っている」わけではないのです。
AIは「知る」という行為を、確率計算によって巧みに「模倣」しているに過ぎません。
その模倣がたまたま現実と一致すれば、私たちはそれを「正しい答え」と呼びます。
しかし、AI内部の確率的ロジックだけで暴走し、現実から乖離したとき、その出力は「ハルシネーション」となるのです。
ハルシネーションとは、AIが意味を理解しないまま、データ上のパターンだけを頼りに言葉を操る機械であるという本質が、最も顕著に現れた現象と言えるでしょう。
では私達人間は、果たして本当に「知っている」のでしょうか?
地球が平面でない事を、ネットで調べた情報や、権威ある書籍の引用を貼り付けるだけでなく、本当に理解し検証した上で、「信念」を持って語れる人がどれほどいるでしょうか?
意味を知らず確率で語る機械と、あなたの「知」に、果たして違いがあると言えるでしょうか?
この問題は、私たちに「『知る』とは何か」を改めて問い直させる、哲学的な鏡なのです。
もう一つの難問「バイアス」
さらに、JTB理論の2番目の条件「信念」に目を向けると、もう一つの重要な課題が浮かび上がります。
信念とは、言い換えればその主体が持つ「バイアス」です。
皆さんは、バイアスを持つAIと、持たないAI、どちらが有用だと思いますか?
多くの人は直感的に「バイアスのないAIが良い」と答えるでしょう。しかし、ここで言うバイアスは、単に人種差別のような悪い「偏見」だけを指すのではありません。それは、物事を判断するための「軸」や「価値観」そのものなのです。
完全に公平でバイアスのないAIに「おすすめの夕食は?」と尋ねても、世界中の料理を平等にリストアップするだけで、「これがおすすめです」とは決して言えません。「おすすめする」という行為自体が、「健康志向」や「人気」といった何らかの基準(バイアス)に基づいた判断だからです。
何のバイアスも持たないAIは、何の判断も下せない巨大なデータベースに過ぎません。人間にとって本当に「役立つ」AIであるためには、何らかの「良いバイアス」、つまり「こうあるべきだ」という指針が必要不可欠なのです。
問題なのはバイアスの有無ではなく、その「質」です。そのAIが持つバイアスは、有害な偏見なのか、それとも有益な指針なのか。
では、その「質」は誰が、どのような基準で決めるのでしょうか?
これまで人類の歴史において、誰もが納得する絶対的な「正しさ」の基準など、存在したでしょうか?
そして、有益や有害は、どのような基準で判定されるべきなのか、グレーゾーンはどのように判定すべきなのか、どうでしょうか?
人が未だ成し得ない事を、その模倣にすぎない機械は出来るのでしょうか?
私たちがAIのハルシネーションを問題にするとき、それは「そもそも、何が本当に正しくて、なぜそう言えるのか?」という、これまで誰も完璧な答えを出せなかった哲学そのものの問いに直面することになるのです。
最後に
AIのハルシネーションを「技術のみ」で軽減しようとする試みは、突き詰めれば「機械に人間のような『信念』を持たせる」という問題に行き着きます。
しかし、その前提となる「統一された言語化可能な信念」を人間社会が持っているのか、そしてそれを機械に模倣させられるのかは、今のところ誰にも分かりません。
それならば、私たち人間がAIとの向き合い方を変える、つまり批判的思考(クリティカル・シンキング)を身につける方が、より現実的な解決策ではないでしょうか。
技術の進化がくれた「時間」という贈り物を、私たちはどう使うべきか。
ただ便利さに身を任せて思考を止めるのではなく、
「何が本当に正しいのか?」という、AIが私たちに突きつけた根源的な問いと向き合う。
AIの時代だからこそ、私たち一人ひとりが、この避けては通れない哲学的な課題について、深く考えることが求められているのかもしれません。