生成AIって言ったらAI専門家は嫌がるのね深層生成学習はあるけど生成AI is 何?
とか言いながら未来を見たいならばCRDSレポートですよ
機械学習本コレクターの青木健一なんて信用できないでしょう。わかる。わかりみ。
東大松尾研の鈴木雅広氏が言っているならどうよ?YouTube動画があります。
【鈴木雅大】深層学習:深層生成モデルの概要と世界モデルへの発展【神経回路学会2023サテライト】
ここの最後で読みましょうと推奨されているレポートがこれ
人工知能研究の新潮流2 ~基盤モデル・生成 AI のインパクト~
最新だと
というレポートもあって大体同じ。
- 自由エネルギー原理
- 予測符号化理論(これは自由エネルギー原理の範疇)
- 統合情報理論
- グローバルニューロナルワークスペース
- (引用に挙がっている)「1000の脳」理論
などが脳科学で「認識」や「意識」などを理論化している有力な仮説らしいのよ。
同じく、鈴木雅広氏の世界モデルサーベイ
によると(世界モデルっていうのはざっくりいうと、AIが世界をどう認識するかの仕組み。ChatGPTみたいにこちらから問いかけだったらいいけれど、今年はエージェントって言われているじゃない。ブラウザ上の作業を自動化するとか、アプリ作業を自動化するとか。もっと言うと、動き出して人間の指示によって作業を自動化してくれるのがエージェント。ということは世界がどういうものか認識しなきゃいけないのよ、その仕組みが世界モデル)、世界モデルで脳科学の考え方として参考にされているのは、
- 自由エネルギー原理
そしてその派生として、
-
予測符号化理論
-
アクティブインファレンス
-
ベイズ脳仮説
など。 -
自由エネルギー原理 (Free Energy Principle)とは、
- Friston が提唱している理論で、脳が変分自由エネルギー(予測誤差を含む指標)を最小化することで、環境の不確実性や驚きを抑え、効率的な情報処理を実現している
その派生としてある、
- 予測符号化理論 (Predictive Coding Theory)は、
- 脳は常に外界からの入力を予測し、その予測と実際の感覚入力との差(予測誤差)を最小化することで内部モデルを更新するという考え方
らしいです。
脳科学とAIでつながる「自由エネルギー原理」
Fristonの翻訳が出ていて
ここまで言ってもまだ、あまり関心がなそそうですね!?ではこれは?この本の中にある「能動的推論への2つの道:王道(右上から始まる)と常道(左下から始まる)」をMemaidで書き直してみました。左が王道で右が常道です。
この仮説が正しければ、ですが、生成モデルがあって変分ベイズですよ。もう機械学習ないっすか。
今年はAIエージェントの年、そしてそれには世界モデルが必要。そして参照されている脳科学理論で有力な自由エネルギー原理、は機械学習(ベイズ)に親和性が高い!
もう、学ぶしかないでしょう!
Qiitaでも関連記事はまだ数件しかないですよ。今がチャンス。