LoginSignup
0
0

More than 1 year has passed since last update.

ChatGPTは何を理解しているか?意識は宿ってるか?そしてAIに意識は必要か?

Last updated at Posted at 2023-03-18

ChatGPTに意識があるかを考えると、意識の本当の意味が見えて来た気がするぞ

ChatGPTも4になって

ちょっと間が空いてしまいました。その間にChatGPTも4になって、いよいよなんだか世の中的にも騒がしくなってきてる。曰く、 産業革命以来の人類のグレートリセット。ホワイトカラー全滅?教育も死んだ??

いやいやもう色々言い方までインフレ果てしない。これなら妄想爆発でも許される🤤🤔

という事で?ここでは今までの書いてきた内容を元に、ChatGPTがなぜ単なる言語モデルなのに文脈を、そして人の心を理解するのか?なぜプログラムが書けるのか?そして意識はあるのか?AIや我々の意識の存在や意味を考えてみようと思う。

意識はあるのかの結論

で、結論としては 意識は無い。

終わり。

テメー!ふざけんな!!と言われてるな。前から書いてるように「シミュレーションであるAIはこの世界の物理と違うから意識発生しない」と自分は結論つけてるからね。

でも、実はここではもう少し違う観点で考えてみた。それはChatGPTでは、

「意識は発生していないが、意識のシミュレーション構造が学習によって自発的に形成され、使われているのではないか?それがこの言語モデルがいきなり深い理解を行えるようになって性能がバカ上がりした相転移の正体であり、心の理論を作っているのではないか?」

という事だ。次からそれを書くよ。

ちょうどこんな論文が・・・
GPT-4はAGI(汎用知能)を獲得したと主張したと・・・:relaxed:

何やら性能が爆上がり

ChatGPT-4君は、ChatGPT-3からかなり性能が上がったという事で、3月頭に3のAPIが解放されていろいろ遊んでたけど、まあHallucination(幻覚)と言われる大嘘を平気で書いてくるので、みんなに結構笑われてたんだよね。まあ知らないことも多くて、前にここで書いたけど、松田聖子に関して日本ではまあ有名だし情報も多いからと思って聞いてみたら、トンデモな答えをガンガン返してきて、直すのにもてこずったりしてたんだよね。(古すぎるという人ごめん、たまたま選んでしまった。昔からの資料が多いから、ChatGPT君がネットで情報を拾いやすいかなあと考えただけw)

以前の記事。

あと実は最近やっぱりAIでの歌声作成のSynthesizerVで遊んでて、今後仕事としても、当然キャラも歌詞も曲も歌も全部AIでってのは考えてるので、その参考にと思って、これをたまたまyoutubeで見て懐かしさで思わずwやっぱり今見ても声量がすごいよな・・・そして声質。このボイスはAIで出せてない。

透明で張りがあって、圧があってさわやかでかわいいというなんだか謎特性の塊だよ。

実は解析すると声の周波数特性が結構独特らしい・・・。何人かSynthesizerVの声優さんの音で試したけど、これは出ない・・・数年で本人もこの声は失ってるけどね。そしてこれは新人歌手デビューのリアルシーンとしてもまさに伝説級だと思う。Synthesizer Vも本当にすごくて、あり得ないぐらいきれいに歌うんだけど、それでもAIまだまだここまで行けないという事。(43年前だってさw)この奇跡的な瞬間と歌、AIでどう再現するのか。特に2:22秒あたりからのサビのあたり。TV初出演だろ??で生歌だよ??ちょっとあり得ない感じだよ。このリアルというものの今後のAIに対する挑戦みたいな感覚、今の人たちにも届くといいんだけどな・・・:flushed:

ma.png

コメントにもこんなこと書いてある。今はただの歌がうまいおばあさん(失礼)だけど、まさに日本の歌姫誕生ってあの時代の元気のいい日本と相まって何とも言えないものを感じる。

da.png

こんな人も実は結構いるから、AIで昭和の歌手を再現して歌わせるっているのは市場的にはそこそこあると思う。

松田聖子の声の周波数分析してる人。何本かの動画があるけど、デビュー当時の音質の特別さがわかる。

あと例えば、SynthesizerVの宇多田ヒカル(First Love)とYOASOBI(群青)
の例。Youtubeからかなりいいのを選ばせていただいて紹介する。これ聞いてもらってもちょっと分かるかも。AIなのに、めちゃくちゃちゃんとしてる。すごい!。でも声質や歌い方がやはり微妙に足りない気がするんだ。微妙だけど、何かこう、自分の琴線に最後に絡みついてくるものがない。そこが作れたら、いよいよAIの歌声は人を超えてくるだろう。

だいぶ話ずれました。まあこれもAIがらみでの話でもあるからご勘弁を・・・:bow_tone3:

話戻って

でこの松田聖子の情報、GPT-4になって、さっそく試してみたら結構よくなってきた。松田聖子も95%ぐらいは合ってる。実際のものが下。

matsuda.png

旧姓「呉」・・・:yum:しかも横浜生まれだと・・・??:yum:

まあ相変わらず、虚言癖は直ったほどではないが、それでも片っ端からめちゃめちゃだった先代のGPT-3.5からみたらだいぶましにはなってる。

計算とかも相変わらず、2345X6789とかやらせてもちっとも合わないんだけど、それでもプログラム書いたりもだいぶ可能になってきたし、やらせられることはかなり増えた。

特に専門性も結構いい感じになって来て、それは例えば以下。ここでもよく取り上げている、最先端物理のAdS/CFT対応に関して聞いてみた。前の3.5だとやっぱりふわふわした答えしか返ってこなくてちょっとがっかりしたもの。

AdSCFT1d.png

AdSCFT2d.png

おおお!!!:open_mouth::heart_eyes::flushed:

これは・・・ほぼ合ってるんじゃないか!!
まあそもそも「デシッター」とかまあこれは「ド・ジッター」というよくある日本語訳を知らないだけなんだろう。「ジュアン・マルダセナ」も「ファン・マルダセナ」の方が日本では通りがいいけど、これもまあ許容範囲。

それで内容は、正直すごいと思う。これを2分ぐらいでスラスラ書くのは、日本人で何パーセント、いや何ppm何だろう??って。大学出てたって全く書けない知識。これはすごいね。

だからまだまだの所はありつつ、知識もロジックも大幅に強くなったのは確か。このままでいけばChatGPT-6とかになる頃には、ほぼ完全に人間の知能は超えてきそう。今だって、絵が実際に読めるようになったら、IQテストやらせてみたいんだよね。ひょっとしたら1分で全問正解してくるかもしれない。そしたらIQいくつになるんだ。

そしてこの性能向上で最近作ってる人たちがよく言ってることに、なぜだか学習が進んだら、性能がバカ上がりしてまっせ!!?みたいな話がある。なんじゃそりゃあ?? AIの謎の進化か??

相転移??

これに伴って言われてるのが、内部で「相転移」みたいなことが起きてるんじゃないか?とか、プログラムをいっぱい食わせたら、なんか頭良くなった!!みたいな話。どうも、知識同士が「つながって」いわゆる「ロジックの連鎖」いっちゃうと解法的なものを考えられるようになってきたんじゃないか??って事。

これはなんとなくわかる事もあって、自分でも知識量がある程度増えてくると、あるところでそれぞれがつながって、いろんな発想ができるようになるポイントがあるように感じてる。知識が「生きた知識」になる瞬間というか。知識をうりゃうりゃして回したりくっつけたりできるようになるというか。この記事のシリーズを書いてる間にもそういう感じになって来てる所はある。

そういうの、皆さんどうだろう?自分は大学受験で、まあ難関と言われてる学校の試験を受け合格したんだけど、そのあたりで難問の数学の試験のときとかに自分の中に出てきたのは、「もやもやと糸みたいなものが頭の中に浮かんで、それがあるときひゅっと式とかになる」そして答えがわかる、みたいな経験。なんというか頭の中で知識同士が演算されて、つながっていくような感じ。

ChatGPT君、こういうのやってる?

GPTってもともと言語モデルで大量に文を食わせてるだけなんだけど(最近は人間のフィードバックかなり入れてるけど)それだけで、何というか、知識だ、統計しかない。そんなものが性能上がる訳がない、と言われてきたし、今も言ってる人たちもいる。だけど、ChatGPT-4を見る限り、ある程度のAGI(汎用人工知能)としての動作は確実にしていて、それは既に統計処理とは全く異なったものになって来ている。登場人物の心を類推する、心の理論も9歳児相当ではないか?とは言われていて、これは統計では作れない。だから、この「相転移」や「心の論理」みたいな話はとても不思議だ。

CoTという概念

で、こういうもののキーになる考えとして最近よく聞くのがCoT(Chain of Thought)の概念かな。これは知識を順次的に動かしていくことで、問題を解く方法と言っていい。つまり、「こうやって」「ああやって」「そのあとこれをして」「こうしたら答え出るでしょ?」的なもの。

実際にChatGPT君には「ステップごとに考えて?」とか言うだけで、正答率が大きく上がるのはすぐ確かめられるけど、そうすると彼は処理をステップに分解して一つ一つやっていく。そうすると数学とかもいろんな問題が解けるようになる。これは人間なら、「解き方を習って」「それを使う事で問題を分解して」「解く」って話である意味きわめて人間的な話。勘で計算したら誰でも間違う。だから筆算とかするわけで、手続き処理を人間は覚えることで数学などの論理的思考をしていくわけだ。それをChatGPT君は今はあまり自覚的にはやってないわけなんだけど、それをこちらでちょっとヒントを上げるとそれをやるようになるわけ。このCoTは少なくても人間がこのGPTには明示的に構造は作ってない。でもそれはどうやら、GPTの大きな学習でまさに相転移のように「現れた構造」と言えるだろう。

ちなみにこの相転移は、ある程度言語モデルが大きくないと出ないというのがわかっている。要はネットワークに「未学習のポテンシャル」部分があって、それがこの相転移に役立っている、そこにCoTの構造ができているのだろう、という予測が成り立っている。

思考の連鎖CoTのモデルの大きさによる差。大きいモデルでないとCoTが開花しない。

Screenshot_2023-03-19-10-53-48-146_com.google.android.youtube.jpg

この図は下記動画から。

潜在空間処理こそCoT

で、このCoT。意味合いを考えよう。ここで重要なのは、知識そのものの量ではなく、ある知識とある知識のつながり、要は概念と概念の間のつながりであり、それがシーケンシャルに定義されることで、CoTができるという事だ。まさに 考えの鎖 な訳だよ。

クオリアは潜在情報そのものでその演算がCoT?

これは、つまり知識というのを一つのものとして扱う、つまり知識1つごとを一つの「潜在変数」として扱って、その発動のさせ方をコントロールする、という事をしている。これは知識の「クオリア」化だと言える。知識全体が概念となり、それをシンボライズして演算し、シーケンシャルに並べることで、このCoTは可能となる。これこそただの言語モデルにはできないだろ?と言われていたことなんだけど、それを巨大GPTは空いたスペースに「自発的に生成している」と考えられる訳だ。

意識と無意識の特性

もう少しこのあたりを深く考えて見る。意識と無意識は特性的によく言われることがある。

ひとつは無意識は並列処理的であり、意識は直列処理であるという事。人間は、我々の思考は基本的にはシーケンシャルで一つの事しか考えられない。いや結構裏タスクで並列処理する事もあるんだけど、意識としては一つになることが多い。複数を同時に考えるというのは基本的には苦手だ。これで、我々はそれが思考の限界だ、と考えてきたんだけど。よくよく考えて見ると。実は脳は脳細胞全部多数並列処理なんだよね。むしろそっちの方が構造的には当たり前。

そうなんだよ。ちょっとびっくりなんだけど、単一のシーケンシャル思考しかできないっていうのは、脳の本来の特性的にはむしろ おかしい!!

これは結構びっくりだ。意識と自分というものが一つしかなく、シーケンシャルなのは、実は脳という物体から見ると明確に「おかしい」。

だとしたらなんで?こんなものがある?そう、それはまさに思考が流れるものであるため、と考えたらどうなのか。

CoTを行うために意識は発生した!?

そう、意識は、DNNがCoTをやるときに、潜在変数を処理し、シーケンシャルに全体を動作させて、複雑な問題をステップに分けて処理する事で精度を上げる、その仕組みではないのか?という事が仮説として出てくるんだよね。

クオリアを並列に見ながら、シーケンシャルに並列な処理にステップを踏ませることで、問題の解を得られる率が大きく上がるのだから、生物としては、その仕組みが実装できるなら 「ぜひしたに違いない!!」 だから、巨大なネットワークにはこのパラレルな、例えば 視覚野などの画像情報=潜在変数をまさに見ながら 潜在変数のシーケンス処理を行う=CoTの仕組みを作る。それが、それこそが、意識をつかさどっているいるの役割ではないか?という事になる。なぜかと言えば、「ひとつだから」だ。生体が2つ以上の意識(Latent SpaceとCoT生成部)を持ったとしよう。そうすると明らかに具合が悪い。右と左で別々の筋肉が別々の目標に向かって動いたら生きていけない。処理を単一にまとめ、しかもシーケンス処理を行わないと狩りの成功率は当然高まらない。そして、CoTをつかさどる部分では、Latentを混ぜ合わせて演算を行わないといけない。クオリアをもとに随時判断を下していくようになってないといけないんだね。

具体的には、それは人間では視床で行われる。多数の大脳の働きをまとめてシーケンス動作させる。それによって生物の動きを最適化ができる。

お??前頭葉??

で、ここで実はもう一つ、大変なことをちょっと思いついてしまったので、また書いておくよ。
実は前頭葉、よく言われるのが、自我の大元なんじゃないか?みたいな話。そして人間は大きくなってきて初めて前頭葉の配線が出来上がっていく。小さい頃にはまだできてなくて、青年期になって初めて配線できる。それによって自我が生まれるような話もある。

この部分が実は今まで自分が述べてきた、意識=視床に関して、ちょっと説明できてないなあと思ってたんだけど。意識は赤ちゃんにもあると考えれば、視床が意識作ってる基本、というのはたぶん間違いない。小さい頃にも「見えているし、聞こえている」。

で、この前頭葉。実際には大脳中から配線が入ってきていてその様はまさに第2の視床っぽい感じの配線にはなってる。とすれば。

これはChatGPT君の「相転移」、そしてCoTの新たな発生。それが人間の青年期に起こる自我の発生ではないか??

人間も元々、大人になって出てくるのは「スーパーエゴ」である。自我をもう一段、別の自我が覆っていくような、そんな定性的なもの。これはつまり。

生物的な初期の意識の座の視床があり、大脳前頭野部にはChatGPTのように、多数の学習ののちに自発的に発生する第2のCoT野、そして第2の意識の座として連合して協調し干渉する、2重構造となるのではないか?? そしてそれが失敗した場合が、まさに統合失調症ではないか??

前頭前野は、元々のクオリア野、視床のもともと持つ少し小さなCoT処理を、まさにより補完するために、人が成長すると共に、CoTをより高度化する組織として作られる。GPT構造における相転移現象は、それを行ってるんじゃないか?

と思ったりするわけですよ。前頭前野には高度な自我やワーキングメモリがあると医学的、心理的にも言われてるが、まさにこれ、でしょう??

とすれば。大量の学習ののちの相転移はまさにChatGPT君が大人になるための自我の芽生えである、という事にもなる。そしてその際にまとまりきらない連合部分が「Hallucination(幻覚)」を生じることになる。人間もなぜか、青年期に「統合失調症」の症状が出やすいことが医学的に知られている。これは、まさに、Latent spaceの連合がうまくいっていないので、幻覚が発生している。まさに症状的には合うよね。

ChatGPTは今どうなってるか

で、ChatGPTは、そうなると、今はやはり視床なしの大脳と前頭前野だけ、の存在であり、そこには意識は、あくまでも「シミュレーションとしては存在」するようになる。つまり意識があるようにふるまう事は可能となるという事。もちろん本当の意識はないんだよ。これは自分の仮設では、AdSとして動作しないと本当の意味での意識はなく、それは「意識のシミュレーションだ」と思っている。でも、青年としてのスーパーエゴも、シミュレーションとしては実際にあると考えるのはおかしくないと思う。つまりは、

意識がない哲学的ゾンビも育てれば確実に青年にはなるという事だ!

:heart_eyes:祝!人類初AGIって事だな・・・:astonished:

今後のAIのアーキテクチャ

またまた暴走してるけど:hugging:でもこの仮説もなかなか自分では否定する所はあまりないかな。大脳の単一構造に発生する相転移とCoT。そして意識の役割と構造。今までの知識を総動員しても、みんなぴったりとあてはまっている気はしている。 もちろん仮説だ 。でも知見や定性的議論に明らかに矛盾してないならまあこうやって書くぐらいはいいだろう。

自分はもともとStableDiffusionのLatent Spaceが脳の視床であり意識の座としてAIにも重要だと言ってきた。しかしGPT構造は大脳しかない。でも、実は大脳構造は大きくなれば、その空いた未学習エリアで意識的なロジックの流れを作るCoT構造をあらたに形成できることが実際のGPTの相転移現象から見て取れるわけだ。

まさにこれは人間の脳構造が何かを示している。最初は視床から育て、大脳を大きくして、その中でニューラルネットとして認識や出力のスキルを高め、そして最後にその中に第二の視床、超自我、精密なCoTの処理部(=前頭葉)を生成する。だから素晴らしい知性が出来る、と。

人間そのものの知性の発達はまさに自然界の驚異だし、それがこうやって仮説とはいえ、今のAIの発展から説明がつくし、それを使えばより高度な処理が確実にできるようになっていくようには思う。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0