この記事は、人工知能研究者 Filip Piekniewski氏のブログ記事 "Rebooting AI - Postulates" の翻訳です。なお、これは彼のブログ記事 "AI Winter Is Well On Its Way" (拙訳:人工知能の冬は確実に近付いている) へのフォロー記事として書かれたものです。
人工知能の再起動 - 前提条件
過去数週間、私は人工知能についての自分の意見を再構築し洗練させることを強いられた。「AIの冬」に関する私の記事がバイラルを起こした後、多くの方からメールとtwitterで連絡を受け、多くの優れた提案をいただいた。今、私が言わなければならないことに大きな注目が集まっているので、AIへのアプローチについて何が間違っていると考えるのか、またどのように修正できるのかについて、まとまった形で私の意見を書き残しておこうと決めた。以下が私の10個のポイントである
我々はチューリングによる知能の定義に囚われている。よく知られた定義において、チューリングは人間と対戦する言語的なゲームへの解法へと知能を矮小化している。ここでは特に、知能を (1)ゲームの解法とみなし、また (2)人間を判定者の位置に置く。この定義は極めて欺瞞的であり、AI分野にうまく貢献してこなかった。イヌ、サル、ゾウあるいはネズミでさえも非常に知的な生物であるが、それらの動物は言葉を使用できないためチューリングテストに失敗するだろう。
AIの中心的な問題は、モラベックのパラドックスである。このパラドックスは、1988年に最初に定式化された時よりもはるかに際立ってきており、過去30年以上我々がほとんどこの問題に取り組んでこなかったという事実は恥ずべきである。このパラドックスの中心となるテーゼは、最も単純に見える現実が最も複雑なゲームよりも複雑であるということだ。ゲーム (および他の限定されたwell definedなデータセットなどの議論領域) での超人的パフォーマンスが知能の指標として使われ続けており、これはチューリングテストによる知能観と共通している。アクターの知能を究極的に判定する者は、人間の委員会ではなく現実それ自体であるという事実は完全に無視されている。
我々のモデルは、しばしば間違った理由により上手く機能することさえある。他の記事 [1], [2], [3], [4] で詳細に示した。ディープラーニングはこの好例である。物体認識の問題は解決されたように見える。しかし、ディープネットが物体を認識する理由は、人間が物体を検出する理由とは大きく異なっている。チューリングテストの精神で人間を騙すことを考える人には重要ではないかもしれない。予期せぬ (領域外の) 現実に対処する人工的エージェントの能力を検討する人にとって、これは中心的な重要性を持つ。
現実はゲームではない。もしもゲームに例えるならば、現実は常にルールが変化し続ける無限のゲームの集合である。何か大きな変化が起きるたびに、ゲームのルールは書き換えられすべてのプレイヤーが順応する必要がある。さもなければプレイヤーは死ぬ。知能は、エージェントがこの問題を解決できるよう進化してきたメカニズムである。知能とは「常にルールが変化し続けるゲーム」を解くために役立つメカニズムであるため、その副作用として我々が固定ルールのゲームをプレイできることは何も不思議ではない。この逆は真実ではないと言える: ルール固定のゲームで人間の能力を上回る機械を構築することは、「常にルールが変化し続けるゲーム」をプレイしうるシステムを作る方法の理解には繋がらない。
物理的現実には、不変の定まったルールがある--それらは物理法則である。我々は物理法則を言語化し、予測を立てるために法則を使うことで文明の構築が可能となった。けれども、地球上のあらゆる生物はこれらの法則を非言語的にマスターしており、物理環境内での振る舞いが可能である。子供はニュートン力学について学ぶより前に、リンゴが木から落ちることを知っている。
統計的視覚モデルは非常に不十分である。というのは、経時的に不変な物事の外見と人間が割り当てた抽象的なラベルだけに頼っているからだ。ディープネットに、樹になったリンゴの画像を何百万枚も見せたとしても、決して重力の法則 (および、他多数の我々にとって絶対的に明白であること) を発見することはない。
常識について難しいことは、我々にとってあまりにも明白であるために言語化が難しく、従ってデータにラベル付けすることも非常に困難であるということだ。我々には巨大な盲点があり、それはあらゆる「明白なこと」を覆い隠している。従って、コンピュータに常識を教えることはできない。それは非実用的である可能性が高いというだけではなく、より本質的には、それが何であるかを認識することさえできないからだ。我々が作ったロボットが極めて馬鹿げた行動を取り、"エウレカ" の瞬間が訪れるまで、我々は常識を認識できないのである。
もしも我々がモラベックのパラドックスに取り組むならば (私の意見では、AIに対するあらゆる真剣な取り組みの焦点であるべき) 純粋に世界を観察することのみから、ラベルなしで学習する生物の能力を何らかの形で模倣する必要がある。この目標を達成するための有望なアイデアは、短期的な未来のイベントを予測し、実際に発生した事象とその予測とを比較することから学習するシステムを構築することである。数多くの実験からは、これが実際に生物の脳でも発生していることが示唆されており、また多くの観点からも多数の意義がある。というのは、これらのシステムはまず何よりも物理法則 (エージェントから観察される通りの、すなわち素朴物理学) を学ばなければならないであろうから。
我々はチューリングの定義の外側で「知能」のクオリティを定める必要がある。非平衡熱力学の分野に有望なアイデアがあり、これは予測仮説とも一致する。なぜこれが必要なのかと言えば、我々はチューリングテストに失敗する知的エージェントを構築する必要があるものの、それでもなお我々の進歩を測定するフレームワークが必要であるからだ。
今日我々が実行し、またAIと呼ばれているほぼ全てのことは、何らかの形の自動化[Automation]であり、言語化が可能であることを扱う。多くの領域でこれは上手く機能するかもしれないが、けれども実際のところは会計士の支援のために紙の台帳の代わりにExcelを使用することと大して異ならない。問題である (そして、常に問題であった) 領域は、自律性[Autonomy]である。オートノミーはオートメーションではない。オートノミーは、単なるオートメーションよりも大きな意味を持つ。人間よりも高い安全性が求められる場合、たとえば自動運転車のような場合には、オートノミーはそれより更に大きな意味を持つ。オートノミーは、広く定義された知能のほぼ同義語として捉えられるべきである。つまり、予期しない、訓練されていない、ことわざで言う未知の未知、何が分かっていないかすら分からない状況を扱う能力を想定しているからだ。
これらが私が伝えたいことのコアなポイントである。これらのポイントには様々に微妙なニュアンスがある。そこで私はこのブログを書いているのだ。けれども、もし読者がこれらのポイントを認めてくれるのであれば、我々はかなり近い場所に居る。その他にも、深刻に議論されているものの、私にはあまり本質的ではないと思われる多数のディテールが存在する。しかし、完全性のためにそれらの論点のいくつかについて私の見解を述べておきたい。
生得的なものか学習されるものか?
確かに、生物は生得的な能力を備えており、また確かに我々は学習することもある。これは、しかし実装に関連した問題であり、決定的な答えがあるとは思わない。将来の開発においては、両者の組み合わせが使用されるだろうと確信している。学習した機能か、手作りの機能か?
これは関連のある疑問だ。私の考えでは、「大脳皮質計算 [cortical computation]」の側面の大部分は学習されるものだろう。AIやオートノミーの文脈では。(しかし、これは何らかの理由により学習が難しいものの、有用であると証明された機能を手作りすることを妨げるものではない) また脳の大部分は、事前配線されたものである可能性が高い。自動化の特定アプリケーションでは、両方の方法が取られるだろう。明らかに、学習した機能が手作りの機能よりも優れている場合がある (ディープラーニングのあらゆる売り文句の通りだ)。しかし、数多くのアプリケーションにおいて、注意深く作成され開発された機能は、学習した機能よりも絶対的に、疑いの余地なく優れている。概して、これは誤った二分法であると私は考えている。デジタルかアナログか、あるいは量子的?
この点について、私は極端に強い立場を取っていない。それぞれに利点と欠点がある。デジタルはシンプルで、決定論的であり利用しやすい。アナログは制御が難しいが、しかしかなり少量のエネルギーしか使わない。(…) 量子? 知能を解決するために量子計算が必須であることを示す強い根拠があるのか、私は知らない。しかし、研究が進むにつれてそれが必須であると判明するかもしれない。これらはすべて「どのように作るか?[how]」に関連する問題である。私が主に関心を持っている問題は、「何であるか?[what]] だ。