Edited at

本当に知的なAIを作りたいなら、「原因と結果」を教えなさい

More than 1 year has passed since last update.

h-heyerlein-199082.jpg

ベイジアンネットワークという個々の変数の関係を条件つき確率で表す確率推論のモデルの研究によって、コンピューターサイエンスの世界の最高峰の賞であるチューリング賞を80年代に受賞しているジュデア・パール(Judea Pearl)という人が書いた“The Book of Why: The New Science of Cause and Effect” という本を最近読む機会がありました。最近盛り上がっているAIが、我々が期待するほど知的でない理由は、「原因と結果」、つまり因果関係を解明することができないからだというのがテーマです。素人でもわかるように丁寧に書かれているので、皆さんにもぜひ読んでいただきたいと思います。本の方はまだこちらで出版されたばかりなので日本語はまだないかもしれませんが、その彼のインタビュー記事がちょうど最近出ていて、本のメッセージを大まかに掴むことができるのではと思ったのでここで簡単に訳してみたいと思います。


  • To Build Truly Intelligent Machines, Teach Them Cause and Effect - Link

以下、要約



本当に知的なマシンを作りたいなら、原因と結果を教えなさい

AIのスマートさはジュデア・パールによる貢献がたいへん大きいでしょう。80年代に、彼はマシンが確率という概念を使って理由付けを行うことができるようにするための研究を率いていました。しかし、現在の彼は、AIの最も厳しい批評家です。彼は、最近出た“The Book of Why: The New Science of Cause and Effect” という本の中で、AIがさらなる進化を遂げることができていないのは、何が知能であるかに対する私達の理解が不完全なせいだと主張します。

30年前のAI分野の研究における大きな問題とは、マシンに、いくつかのわかっている条件に対して可能性のある原因を関連付けさせるということでした。パールはこれをベイジアンネットワークと呼ばれる仕組みを使って解決することに成功しました。ベイジアンネットワークを使うことで、アフリカから帰ってきた患者が熱があり、体に痛みがあるという条件だと、最も可能性があるのはマラリアであると、コンピューターが説明できるようになりました。この成果が認められて、パールは2011年に、コンピューターサイエンスの世界で最も権威のあるチューリング賞を受賞しています。

パールは、現在起きている機械学習の成果というのは、結局はとっくの昔にすでにコンピューターによってできていたことをさらに良くしたものに過ぎないと言います。

今年81歳になるPearlは、マシンがほんとの意味で人間と同じレベルの知能を持つためには、マシンが高熱とマラリアの相関を見つけ出す代わりに、マラリアが高熱を起こす理由なのだということを見つけ出すことができるようになるべきだと主張します。因果関係を見つけ出すことのできるフレームワークができて初めて、コンピューターは現実には起きてないことを質問し始めることができ、もし何かが起きたらどうなるのかということを調べ始めることができるようになるのです。

以下がPearlとのインタビューです。

なぜ、あなたの新しい本は、「なぜの本」というのですか?

それは、私がこの25年に渡って行ってきた「原因と結果」についての仕事、それがもつ人々の人生の中での意味、その応用範囲、そして因果を知ろうとしているような質問に対してどう答えたらよいのか、についてまとめた本だからです。不思議なことに、こうした質問というのはサイエンスの世界では見捨てられてしまったものなのです。そこで、私はこのサイエンスによって無視されてしまったものをもう一度取り戻したいと思っているのです。

サイエンスが原因と結果を見捨てたなんて、大げさすぎるのではないですか。そもそもサイエンスとは原因と結果そのものを追求するためのものではないかと思うのですが。

もちろんそのはずです。しかし、その高尚な願望はサイエンスの方程式には見られません。代数(algebra)の言語は左右対称です。もしXがYについて説明することができるなら、YがXについて説明することができるということになります。ここでは、決定的な関係を話しているのです。数学ではシンプルな事実を書く方法がありません。例えば、これからやってくる嵐は気圧計を下げるでしょう、しかしその反対(気圧計が下がるので嵐がやって来る。)ということはありえないはずなのです。

XがYを引き起こすからといって、YがXを引き起こすわけではないという、私達の理解を説明するための非対称な言語を、数学はまだ作り出せていません。サイエンスに対してひどいことを言っているということはわかっています。もし私の母に向かってこんなことを言おうものなら、私はひっぱたかれるでしょう。

あなたはコンピューターに確率推論を教えることで数十年前にAIの世界に名前を刻みました。当時のAIとはどのようなものだったのか教えてもらえますか。

80年代に問題となっていたのは、予測または診断に関するものでした。医者はある患者を診断してわかった多くの症状をもとに、彼がマラリアや他の病気を患っているかもしれない確率を知りたかったのです。当時はこうしたエキスパート(専門家)・システムと呼ばれる自動化されたシステムで、例えば医者、鉱物の調査をする人といった、その他たくさんのお金のかかる専門家を取り替えることができると思っていたのです。そこで、当時私は確率論を使ってこの問題を解決するということを思いついたわけです。

残念ながら標準的な確率の計算は指数関数的スペースと指数関数的時間を必要とします。そこで私はベイジアン・ネットワークという多項式時間を使い、透明性の高い仕組みを作りました。

それでは、なぜあなたは自分のことを、現在のAIのコミュニティでの背教者だと言うのですか?

マシンが不確かなことを推論するためのツールを作りあげたと同時に、私はもっと難しい問題、つまり「原因と結果(因果)の推論」を追求するために、いわゆるAIと呼ばれる世界を抜け出したのです。多くのAI分野の私の同僚たちはまだ「不確か」ということに悩まされています。この分野には多くのグループが、問題の原因という側面を考えることなしに、引き続き研究を行っています。彼らがしたいのは予測がうまくできて診断がうまくできることです。

一つ例をあげましょう。今日私達の目にする全ての機械学習の成果は診断モードで行われています。例えば、与えられたオブジェクトを猫か虎だとラベル付けするとしましょう。彼らは「介入」ということを気にもしません。彼らはただ与えられたオブジェクトを認識したいのであり、それが時間とともにどう進化するのかを予測したいのです。

予測と診断のための強力なツールを作ったときにはすでにAIの背教者と感じていました。というのも、これは人間の知能のほんの一部に過ぎないと気づいていたからです。もし私達がコンピューターに介入(例:もしタバコを禁止にしたらどうなるか。)と内省(あとで振り返る。例:もし私が高校を卒業していたら。)についての推測の仕方を教えたければ、因果モデルを使わざるを得ません。相関だけでは十分ではないのです。そしてこれは数学的な事実であって、意見ではないのです。

人々はAIの可能性に興奮しているようですが、あなたはそうではないのですか?

ディープラーニング(深層学習)に関する研究を見ていても、それらはみんな関連付けのレベルで止まってしまっています。つまりカーブ・フィッティング(得られたデータに最もよく当てはまるような曲線を求めること。)のことです。数学的な見地から言うと、どんなにがんばってデータをいじろうとも、さらにデータをいじって、その中から隠されたどんなパターンを発見したとしても、結局はカーブ・フィッティングの実践に過ぎません。たとえそれが複雑で難しかったとしてもです。

あなたがカーブ・フィッティングに関して話すのを聞いていると、あなたは機械学習にあまり感銘を受けていないように聞こえますが。

そんなことはありません。私は大変感銘しています。というのも、私達はこんなに多くの問題がただのカーブ・フィッティングで解決されると思っていなかったのですから。しかし私は将来のこと、つまり「次のステップは何か」ということを言っているのです。実験を計画し、サイエンスの領域において困難な質問に答えを見つけ出すことのできるようなロボットのサイエンティストが出現するのでしょうか。それこそが次のステップだと思うのです。さらに私達はコンピューターと意味のあるコミュニケーションを行いたいはずです。意味のあるというのは私達の直感と同じレベルでということです。もしロボットから私達の持つ「原因と結果」に対する感覚を奪ってしまったら、意味のある会話ができるわけありません。ロボットには、「もっとうまくやるべきだった。」と考えることができないのです。しかし、それはあなたも私も普段当たり前のように行っていることなのです。これが、コンピューターとコミュニケーションを行うときに必要な「つながり」を私達が持てない理由です。

マシンが私達が原因と結果に関して持つ直感を持てるようになる可能性はありますか?

マシンに環境のモデルを持たせなくてはいけません。マシンが現実世界のモデルを持てないのであれば、マシンが現実世界で知的に行動することは期待できません。まずは最初のステップとして現実世界の概念のモデルが人間によってプログラムできるようになるということでしょう。これはおそらく次の10年位でできるようになるでしょう。

次のステップは、マシンがそのようなモデルを自分で勝手に作れるようになり、さらにそれをデータをもとに実証的に検証し、改良していくことができるようになることです。これはサイエンスで起きたことです。円軌道の天動説から始まって、楕円軌道の地動説に行き着いたのです。

ロボットもお互いにコミュニケートし、比喩を使ったモデルで表されるこの仮説的な世界を自分たちの言葉で理解し始めるでしょう。

こういう考えをAI業界で仕事をする他の人たちに話すと、どういう反応が帰ってきますか?

AIは現在2つに分かれています。一つは、機械学習、深層学習、ニューラルネットワークの現在の成功に酔っている人たちの世界です。彼らには私の話していることが理解できません。彼らはただカーブ・フィッティングを続けたいのです。しかし、AI分野で機械学習以外の何らかの仕事をしたことがある人たちは私の話していることをすぐに理解できます。過去2ヶ月の間に機械学習の限界に関しての論文をいくつか読みました。

人々は機械学習から距離を置き始めるというトレンドが形成されているということですか?

トレンドではなく、”私達はどこへ向かっているのか、次のステップは何か”といった質問に答えるための真摯な探求の努力を行っている人達がいるということです。

自由意志ということに関してどう思いますか?

いつの日か自由意志を持ったロボットが出てくるのは間違いないでしょう。どうやってそれをプログラムするか、何がそこから得られるのかを理解しなくてはいけません。どういうわけか人類の進化は、自由意志という感覚をコンピューターを使って表現することを求めるのです。

どのように?

あなたは自由意志の感覚を持っています。人類の進化はこの感覚を私達に持たせました。明らかにそれはコンピューターの機能で表現できるものです。

ロボットが自由意志を持ったときというのは私達にわかるものなのですか?

最初の証拠は、コンピューターがお互いに、現実には起きていないことをコミュニケートし始めたときです。例えば、「もっとうまくやるべきだった。」という具合です。サッカーをやっているロボットたちがこうした言葉を使ってコミュニケートしはじめたならば、そのロボットには自由意志の感覚があるということになります。

悪(evil)という概念はどうですか?

それは自分の強欲や不満が、社会で受け入れられている標準よりも優先するという信条のことです。例えば、人は、ある種ソフトウェアのモジュールのようなものを持っていて、それは「君はお腹が空いているので、空腹を満たすためにであれば強欲になってもいいよ」と言ってきます。しかし、同じ人にまた別のソフトウェアモジュールがあって、こちらは社会の標準のしきたりに従うように指示してきます。例えば同情と呼ばれるものはその一つです。自分の不満を社会で受け入れられている標準よりも重要だと設定した時に、それは悪となるのです。

AIに悪いことができるというのは私達にはどのようにして気づくことができるのですか?

ロボットがソフトウェアのコンポーネントを無視、しかも継続的に無視し続けた時に、悪を宿したということになるでしょう。ロボットがあるソフトウェアのアドバイスには従うが、他のものには従わない、ロボットが正常な行動を保つために組まれたプログラムを無視し始めた時です。つまりロボットが言うことを聞かなくなったときということです。


以上、要約

最近は私も別の記事などでよく言っていることですが、現在私達がAIとよんでいるものには限界があります。

ですので、全ての人間の仕事を置き換えることにはならないし、コンピューターに世界が支配されることもないでしょう。少なくとも次の10年、20年は。しかし、現在のAIのテクノロジーそのものはハイプではなく、現実のものです。それは、パターン認識、最適化という分野になりますが、その進化はとんでもない早さで進行しています。ですので、現在人間が行っている、ルールが単純な作業、昨日までのものが明日も繰り返されると期待されるような作業はどんどん自動化されていくと思います。そこで、私達が答えなくてはいけないのは、私達が普段行っている仕事のどの部分が、単純作業で自動化される可能性があり、どの部分が人間にしか出来ないのかということです。

本文の中で、パールが言っていたように、人間にしか現在出来ない能力というのは、原因と結果、理由付け、理論構築といったものになります。こうした能力は、私達の持つ目的を成し遂げるためには欠かせないものでありますが、さらにAIのパターン認識、最適化の能力を組み合わせることで私達のビジネスや個人の能力を効率よく向上させていくことが出来るのではないでしょうか。

こうしたAIの限界や、AIと人間の違いを正しく認識することなしに、データ、AI、機械学習のテクノロジーをただやみくもに使おうとしている例をよく見かけます。データ分析の目的はより良い意思決定を行うためです。そして、今日のような、明日がどうなるかわからない、混沌とした不確実性の世界の中で意思決定をしていくプロセスは勘と経験に頼っているだけではさらにあいまいになりがちです。今こそ私達人間に求められるのは、目的や問題を定義し、将来を予測するために、現在起きている事象の原因をデータから探り出し、仮説を検証していくことができる思考能力なのではないでしょうか。

そうした思考能力の養成こそが今最も日本の企業には必要なのではないかと思う今日この頃です。


追記:ジュデア・パールから”The Seven Pillars of Causal Reasoning with Reflections on Machine Learning”という新しいエッセイが出てきました。現在の相関(Association)ベースの機械学習には解決することが出来ない7つの問題を説明しています。英語ですが興味のある人は是非。



アナリティカル・シンキングのトレーニング6月開催!

経営者、ビジネスリーダーがデータを使ってより良いビジネスの意志決定を行うためのフレームワーク、"アナリティカル・シンキング”のトレーニングを6月26日に行います。興味のある方は、こちらのホームページに詳しい情報がありますので是非ご覧ください。