これまでのコンピュータ
⇒ AとBを与えるとCが返ってくる。
⇒ 論理的
AI
⇒ AとBを与えると90%の確率でCが返ってくる。
⇒ 統計的
量子論の考え方
⇒ CがCである確率は90%
⇒ CがCであることを判定する測定器の精度(確率)による
では、論理的なコンピュータと統計的なコンピュータ、どっちが正確でしょう?
例えば、AとBの組み合わせが、数億通りあった場合
そのすべてのルールをロジックに組み込んだとすると
そこに潜むバグの確率は規模に対して指数関数的に増加します。
また、必要な組み合わせを見逃す確率も指数関数的に増加します。
AIの深層学習で実装した場合も
結局はCであることの判定は人間が決めなければならないので
いくら学習しても、人間が不正解だと判断すれば、これまでの学習成果をリセットして
人間が好む結果を出すように仕向けることになります。
つまり、論理的にしても統計的にしても人間が介在する以上どっちが正しいかは五十歩百歩
ただ、AIにしても、結局は人間が好まない結果を出すものはリセットされるわけですから
すべてを学習によって判断させるのではなく
人間と同じように、学習では得られない元々ある本能のようなものは書き換え不可能なROMとして
かならず実装するよう法律で決めるとかしてほしいですね。