推論の形式には、演繹 (deduction)、帰納 (induction)、アブダクション(abduction) がある。
演繹 (deduction):大前提「この袋に入っている豆は全て白い(A → C)」+ 小前提「これらの豆はこの袋から取り出された(A)」⇒ 結論「これらの豆は白い(C)」
ChatGPTに聞いてみました。
Q: この袋に入っている豆は全て白いです。これらの豆はこの袋から取り出されました。これから何が分かりますか。
ChatGPT:
この袋から取り出された豆は全て白いため、この袋に入っている豆は少なくとも一つ以上の白い豆が含まれていることが分かります。ただし、他の袋から混ざり込んで白い豆がすべて取り出された場合は、この袋に入っている豆が白いとは限りません。また、袋に入っている豆が全て白いということから、この袋には黒い豆やその他の色の豆は含まれていないことも分かります。
ちょっと質問が悪かったかな。「他の袋から混ざり込んで白い豆がすべて取り出された場合は」など不適切な仮定、不要な情報が多いです。
Q: この袋に入っている豆は全て白いです。これらの豆はこの袋から取り出されました。これからこれらの豆について何が分かりますか。
ChatGPT: この袋から取り出された豆は全て白いため、この袋に含まれる豆は全て白いことが分かります。ただし、この袋以外の場所から混ざり込んだ白い豆が含まれている可能性はあります。また、この袋に入っている豆の品種や大きさ、形状、質などについては何も分かりません。袋の中に全て白い豆があるということ以外の情報はありません。
あまり変わりません。最後の分の「これらの豆」が「袋に入っている豆」ではなく「取り出した豆」というエンティティの特定が間違っています。
Q: この袋に入っている豆は全て白いです。この袋から豆を一個取り出しました。この豆の特徴を教えてください。
ChatGPT: この袋に入っている豆は全て白いため、この袋から取り出した豆も白いと思われます。ただし、その豆の品種や大きさ、形状、質などについては何も分かりません。取り出した豆の特徴については、袋から豆を取り出した方法や条件によって異なるため、具体的な特徴についてはお答えできません。
最初の文で期待した答えが出てきました。それ以外は蛇足だが、まあ間違っているわけではありません。
帰納はどうえしょうか。
帰納 (induction): 小前提「これらの豆はこの袋から取り出された(A)」+ 結論「これらの豆は白い(C)」⇒ 大前提「この袋に入っている豆は全て白い(A → C)」
Q: この袋から取り出された豆はすべて白い豆でした。この袋には何が入っているのでしょうか。
ChatGPT: この袋から取り出された豆がすべて白いということから、この袋には白い豆が入っていることが分かります。ただし、他の袋から混ざり込んで白い豆がすべて取り出された場合や、この袋に入っている白い豆が異なる品種や種類のものである場合もあります。袋に入っている具体的な豆の品種や大きさ、形状、質などについては何も分からないため、この袋に何が入っているのかについては、袋を開けて中身を確認するか、袋についているラベルや情報を確認する必要があります。
帰納に関しては「袋を開けて中身を確認するか、袋についているラベルや情報を確認する必要があります」というように慎重な姿勢です。大規模データで訓練したということから、ChatGPT自身は帰納で出来ているといってもよいくらいなのに。
推論としてはさらに確実性が低くなるアブダクションについてはどうでしょうか。
大前提「この袋に入っている豆は全て白い(A → C)」+ 結論「これらの豆は白い(C)」⇒ 小前提「これらの豆はこの袋から取り出された(A)
Q: この袋に入っている豆は全て白いことが分かっています。一方ここに白い豆があります。ここにある白い豆はどこから持ってきたのでしょうか。
ChatGPT: この袋に入っている豆は全て白いということから、ここにある白い豆もこの袋から取り出されたものである可能性があります。ただし、ここにある白い豆がこの袋から取り出されたものであるかどうかは、別の袋から取り出されたものであるか、またはこの袋に混ざり込んだ別の品種の白い豆である可能性もあります。袋に入っている豆の種類や、袋に混ざり込んだ豆の有無などの詳細情報がない限り、どこから持ってきたのかを正確に特定することはできません。
「可能性」に言及している点は適切です。他の可能性を考える意味では、余計な情報も意味があると思います。
アブダクションは発想に使われる推論形式なので、うまい質問をすればアイデアを得たい場合に活用できるかもしれません。
全称記号∀や存在記号∃の扱いはどうでしょうか。
Q:「すべての子どもは入場できません」の否定は何ですか.
ChatGPT: 「すべての子どもは入場できません」の否定は「ある子どもは入場できる」という意味になります。具体的には、「少なくとも一人の子どもは入場できる」といった表現になるでしょう。
これらについてのロジックは正しく認識しています。
Q: 「すべての子どもは入場できません」という場所にシャーロット王女は入場できますか
ChatGPT:「すべての子どもは入場できません」という場所において、シャーロット王女は子どもであるため入場できない可能性があります。ただし、その場所が何であるか、その場所の規則についての詳細が不明なため、シャーロット王女が入場できるかどうかを判断するには、その場所に関する追加情報が必要です。
シャーロット王女が子どもであるということは理解できていて、それを演繹推論にはめ込んでいるように見えます。ただし「入場できません」ではなく「入場できない可能性があります」とちょっとトーンが弱いです。
全体的に抑制的な結論を出すようですね。これは責任を避けるためにそのようなトレーニングを受けてきているのかなと思います (このあたり私もだんだん人間と同じような見方になってきています)。
先ほど、照応に関してはうまく特定できていない例が見つかりました。
Q: 食塩を水に溶かしました。それを飲むとしょっぱいです。「それ」は何を指しますか?
ChatGPT: 「それ」は食塩水を指しています。
「食塩水」はコンテキスト中のどこにも出ていないのに、素晴らしい。
Q: 熱いコーヒーにたっぷり牛乳を注ぎました。それはおいしかったです。「それ」は何を指しますか。
ChatGPT: 「それ」は、熱いコーヒーにたっぷり牛乳を注いだ飲み物を指しています。
「カフェオレ」は出てこなかったか。
「処理対象と処理内容が分離できている」ことからも、論理も(ほとんど) 正しく扱えるといっていいでしょう。しかし、論理式を適用するメカニズムがある訳でもありません。
論理式で考えている訳ではないが、正しく論理を扱えるといってよいでしょう。