0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AGI実現のカギは「アブダクション」にあり?

Last updated at Posted at 2025-02-28

はじめに

ChatGPTのモデル分類と、チャールズ・パースが提唱した推論形式にはある種の対応関係があるのではないか。

さらに、この対応関係を深掘りすることで、AGI(汎用人工知能)実現のヒントが得られるのではないか。

- そう考えています。

この記事では、私の個人的なアイデアを整理し考察を述べます。

まず、パースの推論形式とChatGPTのモデル分類について解説し、その対応関係を整理します。最後に、AGI実現に向けたアイディアについてまとめます。


パースの提唱する推論形式

パースは、推論には以下の3種類があると提唱しました。

推論形式 説明 代表例
帰納法 (Induction) 多くの事例(原因A={A1,A2,...}と結果B={B1,B2,...})から法則[A → B]を導く方法 物理学・化学において実験結果から法則を導く方法
演繹法 (Deduction) 既存の法則[A → B]と、特定の事例Ai ∈ Aから、結果Bi ∈ Bを導く方法 数学的証明
アブダクション (Abduction) 結果Bi ∈ Bと法則[A → B]から、原因Ai ∈ Aを推測する方法 原因の探索や洞察(科学的発見など)

ChatGPTのモデル分類

現在のモデルは下記の2タイプに分類できると考えています。

モデル 特徴
4o系 統計的に最も確率の高いアウトプットを生成するモデル
o1系 Chain-of-Thought(CoT)による推論を強化したモデル

パースの推論形式とChatGPTの対応関係

ChatGPTの推論形式と、パースの分類には以下の対応関係があると考えます。

推論形式 対応モデル 説明
帰納法 4o系 多数の原因データと結果データから統計モデルを構築するプロセスは、帰納法に類似
演繹法 o1系 CoTによる段階的推論は、演繹法の思考プロセスに類似
アブダクション 対応なし ChatGPTには、まだこの能力がない

現在のChatGPTには、アブダクションを行う仕組みが存在しないと考えています。


AGI実現へのアイデア

現在のLLM(大規模言語モデル)でも、表面的にはアブダクション的な推論が可能です。
たとえば、「この結果の原因を考えて」とプロンプトに入力すれば、それらしい仮説を出力できます。

しかし、LLMの本質が統計モデルである以上、その仮説は既存のデータに基づいたものに限られます。つまり、未知の事象に対する本質的に新しい仮説立案は困難です。

この課題を解決するために、以下の2点を備えたモデルが必要だと考えます。

  1. 未知の事象に対する仮説を立てる仕組み(例えば、アナロジーによる推論など)
  2. 仮説を検証する仕組み(原因と結果のデータを自律的に収集・評価する)

このような機能を持つAIは下記のループを実現できます。

  1. 帰納法(既存データをもとにモデルを構築)
  2. 演繹法(モデルとCoTを用いた推論の展開)
  3. アブダクション(推論に行き詰まった場合、新たに仮説を立てデータ収集)
    ⇒ 得られたデータからモデルを再構築する。(1.へ戻る)

このループを回すことで、LLMは自律的に知能を高め、AGIへと近づくのではないか

—— と私は考えました。

AGIの登場に期待を込めて。


0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?