拝啓

※雑談です、興味ある人だけで大丈夫です
私はプログラマーです(笑)
最近、機械学習のフレームワークが
多くなってきました…
AIを一般化するのはいいのですが
だんだん方法が凝り固まってきたと思います。
(同意の人はいいねを押すか、
コメントしてくれると嬉しいです)
昔のように一から作る価値がなくなって
見向きもされない時代ですかね?
水槽の脳という思考実験があります。
これは十分な信憑性があれば誰も疑えないことを
示していると思っています。(個人の感想です、
より知りたい人は調べてください)
AIも 疑い、新しい、活気的なものをつくって
行くことが必要だと思います。

注意点

まず、最低限の知識は必要です。
※AIの一般的なアルゴリズムがわかっていたらいいです
λ計算、漸化式で書きます。(λーラムダ)
その方がプログラムにしやすいはず!!
方法論であって、真似してもいいですが、うまく行くとはかぎりません...

方法論

原理は説明するのは難しくても
感覚でためしに作るといいです。
音楽を作るような感覚で、
創造力でうまくいきそうだったらメモする。
データ、計算量が爆発しないようにする。

自己流ーAI

今回のAIは
再帰型AE(オートエンコーダ)です。
メリット
データが少なくてすむ。
(すでにあったら教えてください)
確率変数は同じものを組み合わせることがある
(あったと思う)ことをヒントにしました。
入力が4、9、16などのnの2乗(nは自然数)
出力が1のニューラルネットワークを
作ります。M=NN
(λw x y z(M))引数
再帰型なので引数にλwxyzが一つずつ来るように
(λw x y z (M))λw x y z (...
となりますとニューラルにλをいれ、
λw x y z(λwxyz()wxyz*NN)
として、データに合うように条件を
いれれば再帰型NNができます。
まだ、圧縮しただけなので展開していきます。
データ=4のn乗 なので
最後は1つの出力にまとめられます。
特徴を伝達するには少し足りませんね😅
なので
入力1、出力4のNNをつくります。
さっきの反対をするのですが、
形が全く同じなのでそれを利用し、
対称で見たとき同じNNにだけ影響を
圧縮から展開にそれぞれが与える
ということをします。
言い換えると
A.B.C.D.=E.F.G.H
A→E
B→F
C→G
D→H
って感じです。
確率関数の導入もいいかも
今回は短めで終わらせます...

終わりに

ちょくちょく 思い付いたら投稿します。
意見や希望があったらコメントに
(こうしたらどう?は是非ともコメントに!!)
真似してくれて大丈夫です。

Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account log in.