はじめに
ChatGPTのモデル分類と、チャールズ・パースが提唱した推論形式にはある種の対応関係があるのではないか。
さらに、この対応関係を深掘りすることで、AGI(汎用人工知能)実現のヒントが得られるのではないか。
- そう考えています。
この記事では、私の個人的なアイデアを整理し考察を述べます。
まず、パースの推論形式とChatGPTのモデル分類について解説し、その対応関係を整理します。最後に、AGI実現に向けたアイディアについてまとめます。
パースの提唱する推論形式
パースは、推論には以下の3種類があると提唱しました。
推論形式 | 説明 | 代表例 |
---|---|---|
帰納法 (Induction) | 多くの事例(原因A={A1,A2,...}と結果B={B1,B2,...})から法則[A → B]を導く方法 | 物理学・化学において実験結果から法則を導く方法 |
演繹法 (Deduction) | 既存の法則[A → B]と、特定の事例Ai ∈ Aから、結果Bi ∈ Bを導く方法 | 数学的証明 |
アブダクション (Abduction) | 結果Bi ∈ Bと法則[A → B]から、原因Ai ∈ Aを推測する方法 | 原因の探索や洞察(科学的発見など) |
ChatGPTのモデル分類
現在のモデルは下記の2タイプに分類できると考えています。
モデル | 特徴 |
---|---|
4o系 | 統計的に最も確率の高いアウトプットを生成するモデル |
o1系 | Chain-of-Thought(CoT)による推論を強化したモデル |
パースの推論形式とChatGPTの対応関係
ChatGPTの推論形式と、パースの分類には以下の対応関係があると考えます。
推論形式 | 対応モデル | 説明 |
---|---|---|
帰納法 | 4o系 | 多数の原因データと結果データから統計モデルを構築するプロセスは、帰納法に類似 |
演繹法 | o1系 | CoTによる段階的推論は、演繹法の思考プロセスに類似 |
アブダクション | 対応なし | ChatGPTには、まだこの能力がない |
現在のChatGPTには、アブダクションを行う仕組みが存在しないと考えています。
AGI実現へのアイデア
現在のLLM(大規模言語モデル)でも、表面的にはアブダクション的な推論が可能です。
たとえば、「この結果の原因を考えて」とプロンプトに入力すれば、それらしい仮説を出力できます。
しかし、LLMの本質が統計モデルである以上、その仮説は既存のデータに基づいたものに限られます。つまり、未知の事象に対する本質的に新しい仮説立案は困難です。
この課題を解決するために、以下の2点を備えたモデルが必要だと考えます。
- 未知の事象に対する仮説を立てる仕組み(例えば、アナロジーによる推論など)
- 仮説を検証する仕組み(原因と結果のデータを自律的に収集・評価する)
このような機能を持つAIは下記のループを実現できます。
- 帰納法(既存データをもとにモデルを構築)
- 演繹法(モデルとCoTを用いた推論の展開)
- アブダクション(推論に行き詰まった場合、新たに仮説を立てデータ収集)
⇒ 得られたデータからモデルを再構築する。(1.へ戻る)
このループを回すことで、LLMは自律的に知能を高め、AGIへと近づくのではないか
—— と私は考えました。
AGIの登場に期待を込めて。