LoginSignup
5
6

More than 5 years have passed since last update.

超知能へ向けたステップ Part 2 「チューリングテストを超えて」

Last updated at Posted at 2018-08-25

この記事は、ロドニー・ブルックス氏のブログ記事 "[FoR&AI] Steps Toward Super Intelligence II, Beyond the Turing Test" の翻訳です。訳者によるまとめはこちら


[これは4部構成のエッセイの2番目である -パート1 はこちら]

我々が (最終的には…) 汎用人工知能の作成方法を検討するにあたって、先の道には分岐点が存在している。どちらかの一方の道のみを進まなければならないと主張する人もいるだろう。私は、この選択は複雑なものであり、シュレーディンガー的妥協が適切であるかもしれないと述べたい。

私は、AGIと「空気より重い飛行機」の間にあるアナロジーについて、2通りの主張を受けることがある。そして、それらは私に対して同程度の頻度で主張されるものだ。この文章を書いている間にも、過去6週間の間に、少くとも2つの主張のうちの1つを投げ掛けられたことを思い出せる。

1つ目の主張はこうだ。人間がどのようにして知能を持つに至ったかを考慮に入れる必要はないし、人間を模倣する必要もない。ちょうど、空気より重い飛行機が鳥を模倣したものではないのと同じである、と。ライト兄弟の飛行機は、鳥の飛行からいくつか影響を受けているため、これは部分的にしか正しくない1。今日の飛行機の外見は鳥や昆虫とは非常に異なっていることは確かだ。けれども、それら飛行する生物に関する継続的な研究は、飛行機の設計にも影響を与え続けている。過去20年ほどの間、主翼先端にウィングレットを備えたジェット機が増えているのはこれが理由である。

飛行機を使えば、人間は鳥を模倣するよりも速く遠くまで飛ぶことができる。その一方で、飛行機は個人飛行という問題を解決してはいない。我々はライト兄弟以前の人よりも上手に地面から飛び上がって、高い樹の上に止まれるわけではない。また、我々は巨大で、極端な騒音を発する機械を使わずに、望んだときに飛んだり着陸したりはできない。もう少しばかり鳥に学ぶのも決して悪くない。

私は、人間レベルの知能を構築するために、人間が知能を実現した方法を完全に模倣する必要はないかもしれないという点は認めよう。けれども、少なくとも今のところは、人間の知能は我々が使える唯一のお手本であり、人間の知的能力から我々が学べることはまだ確実にたくさんあるだろうと思う。更には、この後で述べる通り、知的エージェントに人間との共通点を持たせれば、それらの知的エージェントをより理解しやすい人間のパートナーにできるだろう。

私は喜んでこの妥協をしたいと思う。人間と同様にあらゆることを行う必要はないと信じているが、しかし私は人間と人間の知能から学べることはまだたくさんあるとも確信してもいる。

2つ目に私がよく受ける主張は、私を年老いた偏屈者であるとみなすものである。確かにそうかもしれない!

そういった人たちがよく指摘することは、19世紀後半、ライト兄弟の初飛行の直前約10年前に、ケルヴィン卿その他の人たちが、「空気より重い飛行機が飛行することは不可能だ」と宣言した事例である。ケルヴィンも、そして他の人たちも、鳥や昆虫は空気より重いが飛行できると知っていたであろうから、文字通りのことを意図していたわけではなかっただろう。そのため明らかに、彼らはもっと限定された事例を指していたのだ。もしも彼らが人力飛行機について語っていたとすれば、彼らはその後60年以上は正しかったと言えるだろう。そして、それを実現したのは特別な訓練をつんだアスリートだったのだ2

より可能性が高そうなのは、彼らは度重なる失敗に意気消沈してしまい、飛行に必要な航空力学的パフォーマンスやエンジンパワーが不足していると考えてしまったのではあるまいか。彼らが理解できていなかったのは、開発が必要なのは飛行のコントロール手段であるということだったのだ。そして、それこそがまさにライト兄弟が成功した理由である。

つまり… アナロジーに従えば、単なる1つの視点変更によって我々もAGIに至れるのだろうか? そして、ディープラーニングはまさにその視点の変更なのだろうか? そして、既に問題が解決したことを私が知らないだけで、電車は正しい道程を加速し進んでいるのだろうか?

私は、確かに (やや) 年老いており、偏屈かもしれないしそうでないかもしれないが、このアナロジーは壊れていると思う。私が思うに、見落とされていた飛行の「コントロール手段」は、単なるアナロジーなどではない。けれども、実際のところ、人工知能で現在我々が見落としていることは少なくとも100個はあるだろう。知能は飛行よりも大きなものである。ここでは鳥の脳は助けにならないのだ。

そこで、2つ目の主張はおそらく私の個人的な短所に対する警告なのだと捉えておこう。私は、「飛行機 vs. 鳥」の議論、つまり「人間とは完全に異なる方法でAIを作ること」vs. 「人間を模倣すること」の議論で、どちらか一方の側のみの立場を取る必要はまったくないのだと言っておきたい。

より優れた方法は、エンジニアリングであれ、あるいは生物学の分野であれ、何であっても発見された力を活用することだと思う。しかし、もしも我々がAIシステムを理解可能な存在にできなければ、もしもAIたちが人間を人間たらしめている奇妙な性質とうまく付き合っていけなければ、またもしもAIたちがあまりにも異質であるために我々が共感を持って彼らと応対できなければ、AIたちが本当に我々の生活に馴染むことはないだろう。

AIたちの美しい外見の下には肉体と血液はなく、実際にはシリコンチップとワイヤ、さらにはディープラーニングネットワークがあるかもしれない。しかし、人間の世界で成功を収めるためには、AIたちは我々にとって好ましい存在でなければならない。

AGIの2つの実例、本当の仕事を行うエージェント

どのような動作ができるAGIエージェントやロボットが汎用的な知能を持つと言えるのかを決定することは、不明瞭な問題であると思う。また、それらの人工知能やロボットに人間レベルの知能を与えることは、更に定義の不明瞭な問題である。ある程度は一貫した議論をするために、AGIエージェントのための特定のアプリケーションを選んでおきたい。そしてそこで、ゴールへ到達するために (研究という観点から) 何が必要であるかを議論しよう。別のアプリケーションを選択しても良いかもしれないが、これら2つを取り上げることによってものごとが明確になるだろう。また、我々は「汎用」人工知能について語っているのだから、これらのアプリケーションのエージェントは、同様の状況に置かれた人間と同じ程度の働きができるものとする。

最初のAGIエージェントは、人々の家で年を取ってゆく高齢者の面倒を見る、物理的な身体を備えたロボットである。私が言っているのは、単なる愛玩用のロボットではなく、身体的な介助介護であり、年齢を重ねる人たちが自分自身の家で尊厳を保ち独立した生活を営めるよう支援するロボットである。簡便化のため、このロボットをエルダーケアワーカー [elder care worker]と呼ぼう。今後この記事では、略してECWと呼ぶ。

ECWは、高齢者を家庭内で支援するタスクについての一般的な前提知識を多数備えている。そしてもっと多くの基礎知識も備えている。たとえば、家とは何であるか、家で見つかるであろう類いの物、人々に関するあらゆる知識、つまり、高齢者一般と、家族のメンバーと家族関係について予期される広範な知識の双方を備えている。それに加えて、家に立ち入るかもしれないあらゆる種類の人々、宅配業者から住宅メンテナンス作業員などの知識も備えている。しかし、ECWは、個別の高齢者の個別事例、および彼らの拡大社会生活、その家特有の詳細にも速やかに適応する必要がある。また、介護対象者の加齢にも対応できなければならない。

2つ目のAGIエージェントは、議論の目的のため、必ずしも物理的なロボットである必要はないものを考えよう。そのエージェントは、ある複雑な計画タスクを実行するものである。その計画には、事業所、労働者としての人間、重要な役割を担う装置、事業所を訪れる顧客としての人間などが関わるものである。例として、この事例はこの後の記事全体で使用するが、ある特定の日における人工透析病棟の稼動の全詳細を計画するタスクを考えよう。物理的レイアウト、必要となる装置、施設で働く労働者やロボットのスキルセットとワークフロー、および施設を訪れる患者の満足度を高くすることなどを考慮する必要がある。これをサービスロジスティクスプランナー [services logistics planner] 略してSLPと呼ぼう。

SLPも、世界のあらゆる種類の物についての前提知識を備えてこのタスクに取り組むだろう。しかし、個別の病院の建物、地理的な位置と交通機関ネットワークへの接続、予期される患者集団の保険プロフィール、その他の詳細な個別知識も備えている。これらの人工透析病棟は既に世界中で多数設計されているけれども、本記事の目的のために、SLPは世界最初の設計に取り組まなければならないと仮定する。すなわち、ここで使う人工透析病棟の事例は、人類にとって完全に新規のタスクの代わりである。こういったロジスティック計画は、完全に未知のタスクではない。軍隊の高級将校は、将官よりも下位のレベルでは、この程度の規模の予期できない摩擦が生じる可能性がある任務を割り当てられる。もしも我々が人間レベルのAGIを構築できるとするなら、当然このようなタスクを実行できると期待できるだろう。

これら2つの専門的な仕事を成功させることはきわめて複雑であり、繊細さが求められるということを確認していこう。同じことはほとんどの人間の仕事にとっても言えると私は信じている。そして、他のAGIベースのエージェントを選んだとしても同様である。そこで、以下の議論は非常に似通ったものとなる。

ここでの私の目的は、いわゆるチューリングテストを、より広い観点から知能のテストを行う方法で代替することである。馬鹿なチャットボットですらチューリングテストをうまくこなすことができる。ECWやSLPに対して有能であることは、より堅牢なテストとなりうる。チューリングテストで要求される知能よりも汎用的なコンピタンスを確認できるだろう。

これを読んだ人の中には、私が以下で述べる研究の詳細な問題と領域は、「超知能」とは無関係だと言う人もいるかもしれない。超知能は独自の方法でものごとを進め、我々の理解を超えているのだ、と。けれども、そのような主張は、私が過去のブログ記事、人工知能の未来を予測する上での「7つのよくある誤り」で指摘した通りの罠に陥っているのである。この場合、その誤りとは十分に進んだテクノロジーを魔法であると見なすことだ。超知能はあまりにも超越的であるため我々には理解できず、それゆえに超知能に対する理性的な議論がまったく不可能になってしまうのだ。まぁ、私は魔法が出現するのをボーっと座って待っているつもりはない。魔法を出現させるために活発に活動することを好む。またそれがこの記事の目的だ。

おっと、それからもう一つ、この議論で私が選択した修辞的設定に関するメタ的なポイントを。その通り。EWCとSLPの両者共に、望みとあらば人間を殺害する機会が豊富にあるだろう。超知能の悪意に対して懸念を抱く警告者たちにとっても、飽くことのないその欲求を表現する場を与えられるものと思う。

ECW (高齢者ケアワーカー) は何をする必要があるか?

高齢者ケアワーカー (ECW) ロボットが、ある家で一人の老人、名前はロドニーおじさんの世話をする仕事を恒久的に任されたとしよう。ECWとロドニーさんの関わり合いと、ロドニーさんが年を取るに従い関わりがどう変化していくかを考えてみよう。

ほとんど言うまでもないかもしれないが、基本的な要求事項がいくつか挙げられる。ECWは、ロドニーさんあるいは彼の家の客を傷付けてはならない。ロドニーさんを悪いことから守らなければならず、ロドニーさんの頼みを実行しなければならない。ただし、何らかの状況により依頼を実行すべきでない場合 (後述) を除く、など。

アシモフのロボット3原則が、この基本事項をカバーしていると考える人もいるかもしれない。1942年、「ランアラウンド[Runaround]」というタイトルの短編で、SF作家のアイザック・アシモフはこの法則を述べたのである。

  • 第一条
    ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
  • 第二条
    ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
  • 第三条
    ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

そしてその後に続くシリーズでは、法則が相互に矛盾する場合の複雑な詳細、あるいはこれらの法則の解釈における本質的な曖昧さなどを通して、アシモフは次々と新しい物語を表現していったのだ。

今日、いかなるロボットもこれらの法則を守ることに成功する可能性はまったくないと判明している。その理由は、必要な知覚は難しく、常識を使用しなければならず、人々の行動を予測することは現在のAIの能力をはるかに超えているからである。これらの課題については本エッセイのパート3でもう少し扱う予定である。

しかし、何らかの方法により、ECWはすべきこととすべきではないことを判断するための行動規範を保持していなければならない。行動規範は、明示的に表現されECWの内部的な思考から利用可能なものかもしれないし、あるいはECWの製造方法における本質的な制約によって規定されているかもしれない。たとえば、今日購入できるいかなる自動食洗機であっても、そもそも洗浄サイクル中にリビングルームをウロついたり床に水をまくことはできない!

しかし、ECWは食洗機よりも先を見通した活動をする必要がある。そのためには、ECWはロドニーさんが誰であるかを知っていなければならず、ロドニーさんに関連する医療データにアクセスでき、また日常生活で必要となるあらゆる種類の意思決定に必要な情報を利用できなければならない。最低でも、ECWはロドニーさんが家に帰ってきたときに認識できる必要があり、また彼が年を取るにつれて変化する外見に追従する必要がある。ECWは、誰がロドニーさんであり、誰が家族のメンバーであるかを追跡し、また誰がいつ家に居るのかを知る必要がある。また、家族のメンバーとそうでない人の違いを見分ける必要もあり、家族のメンバーを個々に認識できなければならない。また、誰が友達で、誰が単なる知り合いで、誰が1度だけの訪問者であるか、誰が作業員など以外の定期的な訪問者であるのか、ドアのところに居る人が宅配業者であるか、それとも家の中に招くべきではない人であるかを判別できなければならない。

私が「ロボットであるとはいかなることか? [What Is It Like to Be a Robot?]」という記事で指摘した通り、我々の家庭用ロボットは、将来数十年の間に、我々人間よりも豊かなセンサからの入力を取得できるようになるだろう。家庭用ロボットは、我々には不可能なあらゆる方法を使って人間の存在を検知できるようになるはずだ。それであっても、ロボットは誰が誰であるかを、おそらく視覚を通して即座に認識することに長けていなければならない。しかし、完全な正面からの顔を見られない場合でも認識できる必要がある。実際には、ロボットたちは、人間と同じように、少量の情報の断片を素早く集めて推論する必要がある。たとえば、もし誰かが部屋から出てたくさんの人がいる別の部屋に入ったとして、1分後に似た服を着た人が部屋から出てきたとしたら、それだけで認識の鍵としては十分だろう。もしもECWが誰が誰であるかを認識できないとしたら、とても苛立たしいことになるだろう。そしてロボットは人を苛立たせるべきではない。特に、ロドニーおじさんを。彼はこれから先10年か20年の間ロボットと一緒に暮らしていくのだから。

これが人を苛立たせる機械の実例だ。私は30年以上、ある銀行で口座を持っており、現金を下ろすためにその銀行のATMカードをずっと使い続けている。カードをATMに入れると、毎回毎回今日はスペイン語を表示しますかという質問を受けるのだ。私はイエスと答えたことはないし、今後もイエスと答えることはないだろう。しかし、ATMは毎度同じ質問を繰り返すのだ。

ECWは、関わる人をこんなふうに苛立たせてはいけない。ある人物に関して変化しないことと頻繁に変化することの違いを理解し、いかなる種類の状況の変化が、以前には考えられなかった関わり方の変化をもたらすのかを理解しなければならない。その一方で、旧知のサービス員が1ヶ月間表れなかった後でやって来たとしたら、そしてECWがその人を呼んだのでないとしたら、おそらくECWは何故いらっしゃったのですかと聞いたほうが良いだろうと思う。人間の介護者は、その人の社会生活にまつわるあらゆる種類のものごとを知っている。ECWも同様であってほしいだろう。そうでなければ、ATMと同じく苛立たしいものになるだろう。

ECWは、人を苛立たせないために、またいかなる種類の社会的なエチケット違反をも引き起こさないように、家族関係のダイナミクスをモデル化する必要があるだろう。ロドニーさんが老いて弱るにつれて、ものごとが円滑に進むよう社会的なダイナミクスに立ち入る必要もあるだろう。ちょうど、優秀な人間の介護者であればそうするように。ECWは、ある日ロドニーさんの家を訪れた彼の娘に対して、今日はロドニーさんはご機嫌が悪いみたいですよ、と耳打ちするかもしれない。そしてその理由を説明するのだ - もしかしたら、いつもの薬の副作用かもしれないし、あるいは、彼が25年前に書いたブログ記事のテクノロジーに関する未来予測 3 があまりにも悲観的だったと指摘する誰かに反対して、キレて文句を言っているのかもしれない。それ以上の詳細な情報はまったく必要ないだろう。ECWは、適切な人に対して、適切な量の情報を与える必要がある。

ECWがこれを適切に実行するためには、誰が何を知っているか、誰が何を知るべきかをモデル化し、誰が既に正しい情報を知っているか、あるいは間違った、古い情報を持っているかを知らなければならない。

ロドニーさんは、ECWが働いている間にも変化していくだろう。より衰えて、ECWからの助けをより必要とするようになる。ECWは、ロドニーさんの状態変化に伴ってサービスを変更する必要があるだろう。それは、指令を受ける人の優先順位を変更することも含まれるかもしれない。

時間が経っても大人は大人のままだろうが、ロドニーさんの孫は無力な赤子から大学の卒業生に、あるいは医者にさえなるかもしれない。もしも、ECWが人間と同様に円滑な関係を築きたいのであれば、時間が経つにつれて孫たちとの関係の変化に順応する必要がある。人間の子供とその能力について多くのことを理解し、またどのように関わり合いを変化させるべきかを理解しなければならない。大学卒業生を赤子と同様に扱うことは適切ではないだろう。

しかし、ECWは実際に何を行う必要があるだろうか?

ロドニーさんが衰えるにつれて、ECWは日常生活のより多くの側面で責任を負うようになっていく。部屋の掃除をして、物を拾って捨てる必要があるだろう。その際、床の上に置かれたものを区別する必要もある。床にある使用済みのティッシュのごみと脱いだ靴下は、異なる扱いをしなければならない。

台所の高い棚に保管された物を取って、ロドニーさんに渡す必要も出てくるだろう。食事の調理を始めて、ロドニーさんが健康を保つには何を食べるべきかを判断できなければならない。

幼い子供が大人に何かを見せるときには、身体の動作による合図を使って大人の注意を適切な方向へ向けることを理解している。大人の視線が自然に横切る場所へと物を差し出すこともできる。大人がどこに注意しているかを知るために、大人の目を見ることもできる。また、もしも相手が見せた物に注目していない場合は、言葉を使って注意を引くことも知っている。

これをうまく行うためには、超人的な感覚があったとしても、ECWは人間がどのように世界を見ているかを「想像する」必要がある。それによって、どのような合図を使えば人間が最も理解しやすいかを知ることができる。

ECWが最初にロドニーさんの家で介助を始めた時には、ロドニーさんははっきりと喋ることができるだろう。しかし、年が経つと、彼の発話は曖昧になっていくかもしれない。ECWは、あらゆる種類のコンテキストと何らかの推測をもとに、ロドニーさんが何を伝えたがっているのかを理解しなければならない。これは非常にロドニーさん依存のものであり、多数の高齢者から集められた汎用的な巨大データセットから学習可能な情報ではないかもしれない。

ロドニーさんが名詞を思い出すのも難しくなったら、彼がECWに対して何を伝えようとしているのかを知るために、失われた言葉を補うための複合的な方法を取らなければならないだろう。簡単に聞こえるフレーズ、「そこにある赤いもの」でさえ、ECWが理解するには複雑である。現在のディープラーニング視覚システムは、色の一貫性 [color constancy] の扱いに難がある。(次のパートで扱う) 色の一貫性は、人間ベースの世界のオントロジー、話し言葉を共有するグループが他すべての話者が理解できると想定するフォーマルな命名規則において重大な意味を持つ。実際には、「赤」でさえ異なる光の条件のものでは極めて複雑に見える。- 人間は難なく色を扱うことができる。しかし本当のところ、色の認識は人間がまったく気付きもしない、多数の下位能力のうちの一つなのだ。

ECWは、ロドニーさんに何らかの仕事をやらせるかもしれない。年を取っても、彼が自分自身でものごとを行うことができるようにと - ロドニーさんが活動的でいることは重要である。そこで、ECWは、何をロドニーさんにやらせることが治療のためになるのか、何を支援する必要があるのかを判定できなければならない。

最終的には、ECWはロドニーさんがトイレの中でやることすべてを介助する必要があるだろう。ある時点で、ECWはトイレの中まで付いてきて、彼がシャンとしているかそうでないかを確認し、音声でアドバイスを与えるかもしれない。時間が経てば、ECWはトイレの中でロドニーさんの近くに寄り添って、必要であれば身体的な介助をする必要があるだろう。最終的には、トイレへの出入り、ついには拭き取りの支援が必要かもしれない。これよりも前に、ECWはロドニーさんがベットに寝起きする補助をしなければならないかもしれない。- 人間が一人でベッドから起き上がる能力を失なった場合、寝起き以外には問題がない場合でも、たいていの場合は家を離れ介護施設へ入らなければならなくなる。ECWは、おそらく何年もの間、一日二回の寝起きの介助以外の時間は休んでいても良いのだ。

身体的に接触し、支援を行い、あるいは衰弱した不安定な傷付きやすい人間の身体を持ち上げる場合には、複雑な物理的インタラクションが必要となる。そして、その身体はあまり合理的でないかもしれない弱まった人間の知能によってコントロールされているのだ。その際には、介護者との間で言葉によるコミュニケーションを取って不安を解消できる場合もある。何年か経つにつれて、言語による直接的なコミュニケーションは、どちらの側からも次第に困難になっていくだろう。そうなれば、どのような動き方が適切で、効果的で、また不安を与えないか、身体的なレベルのみでの独立した判断を下すことが必要とされるだろう。

ECWがロドニーさんと触れ合うようになれば、診断の機会は増加するだろう。ロドニーさんのベッドからの寝起きを介助する人間の介護者は、彼のパジャマが濡れていたら確実に気が付くだろう。あるいは、もっと悪い事故も起きるかもしれない。ここで、倫理的な問題が発生する。ロドニーさんは、ECWが気付いたことに気が付いたとしよう。そして彼は「子供や医者には伝えないでくれ」と言ったとする。どのような状況では、ECWはロドニーさんの意思を尊重するべきだろうか? あるいは、ロドニーさんの命令に背き、彼のプライバシーを侵害することが本当に彼のためになる時はいつだろうか?

初期バージョンのECW、つまりこのような介護ロボットが本当に本当に知的になる前には、これらの決断を下す際、直接的な知覚入力のみに頼る固定ルールの集合に依存する可能性が高いだろう。-そのため、彼らは融通が効かず非人間的に見えるかもしれない。ECWが人間レベルの知能を持ったときには、より繊細な方法でこのような決断を下すことができるようになり、2つの予期される帰結 - つまり、ロドニーさんの不調を彼の子供たちに伝えるか否か - に対する競合する要因を、どのように重み付けしたかを説明できるようになると期待できる。

これらすべてに加えて、ECWは自分自身のリソースを管理する必要もある。それには、バッテリーの充電、メンテナンススケジュール、ソフトウェアアップデート、ネットワークアクセス、クラウドサービスのアカウントなどが含まれ、もしもロドニーさんの財政状況が混乱している場合には、自身のサポート費用を支払う方法を検討する必要もあるだろう。それ以外にも、ECWにはたくさんのサイバー的・物理的なニーズがあるだろうが、それらの要求を満たす際にはロドニーさん自身のスケジュールを考慮する必要がある。ECWは、自身の継続的存在と健康状態を考慮する必要があるが、ロドニーさんに支援を提供するという主要ミッションに対してその重要性を比較しなければならない。

SLP (サービスロジスティクスプランナー) は何をする必要があるか?

サービスロジスティクスプランナー (SLP) は、物理的な身体を持っている必要はない。けれども、少なくとも、SLPは知的であるように見える必要がある。SLPは完全にクラウドの中に住んでいるかもしれないが。SLPは、人間であるとはいかなることか、または必要なタスクを遂行できるようになるため人間の世界とはいかなるものであるかをグラウンディングしている必要がある。

SLPのクライアント、つまり施設の計画を求める人々たちは、SLPと会話を通してコミュニケーションするだろう。ちょうど、現在の我々がAmazon EchoやGoogle Homeへ話しかけるように。あるいは、ドキュメント (ワード、パワーポイント、エクセル、pdf、スキャンされた画像、動画、ファイルなど) のやり取りでコミュニケーションするかもしれない。SLPは、詳細な仕様書、組織的な指令書、必要な物品一覧とその配置図、人員配置、消耗品の分析や施設計画内で予期される人員の行動分析等を返答するだろう。その後、クライアントやその他の関係者は、SLPとインタラクティブな質疑応答を行ない、様々な機能選定の理由、要件に対する変更や修正提案などを行う。もしもSLPが人間と同じくらい知的であれば、この質疑は自然に見えるだろうし、双方向のコミュニケーションも可能だろう4

既存の病院に新しい人工透析病棟を設計するタスクについて考えよう。

ほとんどの場合、SLPにはフロア計画の中で一定の空間が与えられるだろう。そして、SLPは人々の出入りのフロー、水道や電気などの導管の配置等を決定する。SLPは、空間内のすべての壁のレイアウト変更についても設計する必要があり、病院の入口や出口を変更する場合には、病院内の他の箇所における人間のフローにどのような影響を与えるのかを検討し、適切な病院内組織から承認を得なければならない。SLPは、新しくレイアウトされた空間内のどこに何の装置が配置されるか、人員に対する要求事項は何であるか、患者を受け入れ可能な時間をいつとするか、処置中に問題が発見された患者に対するフローはどうあるべきか、その患者を病院内の別の病棟へ移送する必要性はあるかなどを考慮しなければならず、また透析病棟のベッドや椅子のレイアウト (どれが使われるべきかも) を検討しなければならない。SLPは、おそらく病院のポリシーに関する他の文書を読み、1人の患者に何人の付き添い者を許容するべきか、透析中に付き添い者はどこに座れるか、また待合室のレイアウトはどうあるべきかを決定しなればならない。

SLPは、待合室に居る人々の退屈も考慮する必要があるだろうが、それは仕様書では言及されていないかもしれない。患者や付き添いの友人や親族などの異なる種類の人々の退屈さを考慮するため、人間についての十分な知識を備えていなければならない。軽食の提供 (付き添い者と人工透析前後の患者の両方に適したもの)、次の順番が来るのは誰か、透析の処置が終了するのは誰かなどの情報を提供する必要がある、などなど… あるレベルで、SLPは人間に対する理解が必要とされるだろう。つまり、恐怖、予期される範囲の感情、ストレスのある状況に置かれた人々がどのような反応をするかなどである。

SLPは、廊下の幅、ドアの開き方、病棟内の階段やスロープについても考慮しなければならない。これらの問題はさまざまな観点からの検討が必要である。設備の搬入・搬出方法、清掃スタッフの働き方、緊急時の医者や看護師のアクセス経路、患者の移動方法、閉じ込められていると感じさせることなく訪問者を適切に隔離する方法、などなど…

SLPは、休憩室、受付のデザイン、患者が期待するプライバシーについても考慮する必要がある。施設がスタッフや患者や訪問者にとってのストレス源ではなく、落ち着ける場所であるようにしなければならない。

病棟自体の外部では、病棟を訪れることが予想される患者のプロフィール、そしてその病院固有の立地のもとで患者たちがどのように病院へ、または病院から移動するかを考える必要があるだろう。交通状況が本当に最悪の日には、複数の患者の到着が遅れる可能性も想定しなければならない。SLPは、全員が時間通りに処置を受けられるようなポリシーを定める必要があるが、その一方で、適切なバックアップシステムも備えていなければならない。本人にまったく落ち度がないのに予約時間に遅れた患者に対して、処置を受けさせないということは受け入れがたいだろう。 - これは生死の問題なのだ。また、SLPは患者たちが受け入れ可能なバックアップの遅延、およびリスクはどの程度であるかを分析しなければならない。

SLPが新しい人工透析病棟を設計するタスクを与えられた時、これらの条件すべてを指示されるわけではないだろう。上記の問題すべてが重要であると知るために、SLPは人間についての十分な知識を備えている必要がある。そして、タスクをレビューする人間が推進する「価値工学」(すなわち、計画の削減) の間に、ECWは本当に重要な側面について反論できなければならない。

人間レベルの知能のデモンストレーションという目的のため、世界初の人工透析病棟を設計していると仮定していることを思い出してほしい。

SLPがアクセスする必要がある知識はたくさんあるだろう。そして、あらゆる決定においてたくさんのことを考慮に入れる必要があり、たくさんのトレードオフが必要だろう。いかなる人間の仕事でも、多くの妥協が必要とされるように。

最も重要なこととして、SLPは自分自身の考えを説明できる必要がある。SLPが設計した病院施設に対して、保険サービス提供の入札をしている保険会社は、特定の設計側面でどんな考慮がされているか具体的な質問をしたいと考えるだろう。保険会社の代理人は、スループットの考慮事項、病気と人工透析そのもの以外に起因する人的リスク、設計全体が防火基準を満たしていると判断した方法、選定された材料の安全基準などなど、提案された設計の全体に対する質疑を求めるだろう。

しかし、「待ってくれ! 」ディープラーニングの信奉者は言う。「これらすべての人間のような仕事をする必要はない。単に、世界中から集めた施設の事例を何千と見せて、それを学ばせればいいじゃないか! そうすれば、完璧なシステムを設計できるだろう。超人的AIの魔術スキルに疑問を呈するのは我々の役目ではない。」

しかし、これこそがこの事例のポイントなのだ。SLPが設計したシステムが人間にとって満足できるものであるためには、細部に至るまで極めて正確でなければならない。そして、この事例は世界最初の人工透析病棟の設計を仮定しているため、人工知能を訓練するための適切なデータがほとんど存在しないことを意味している。もしも何かが本当に超越的であるのなら、まったく新規のタスクを扱えなければならない。人間は歴史を通してそれを行ってきたのだから。

2つの新しいテスト

私は、チューリングテストの代替として、これら2つのテストケース、ECWとSLPを提案すると述べた。これらのテストに対してシンプルな測定基準が存在しないことを不満に思う人も居るかもしれない。

他のテストでは、測定基準が存在する。チューリングテストでは、人間の判定員の何パーセントが間違った二値判定を下してしまうかである。人気のロボットサッカー大会では、どちらのチームが勝利するかだ。DARPAグランドチャレンジでは、自律走行車がコースを完走するまでに要する時間である。

ECWとSLPは、はるかに微妙なタスクを遂行する。博士号を取得するために受験するべき単一の選択式テストが存在しないのと同じように、ECWやSLPの仕事ぶりは、何年にもわたって継続的に試して評価しなければ分からないだろう。

現実の世界へようこそ。これこそが、我々が汎用人工知能に到達してほしいと望む地点であり、我々の超知能が生きて働く場所なのである。

次のパート3 「人工知能には(まだ)できない7つのこと


  1. [原注1] ライト兄弟は、オットー・リリエンタールの滑空実験から大きな着想を得ている。彼は1886年に実験中の墜落事故で亡くなるまで、自身で設計したグライダーを用い5年間に2000回以上の滑空実験を実施した。リリエンタールが鳥を研究し鳥から着想を受けていたことは疑いがない。彼は1889年に、『Der Vogelflug als Grundlage der Fliegekunst』と題した書籍を出版し、その本は『飛行の基礎としての鳥類の飛行 [Birdflight as the Basis of Aviation] 』として英語へ翻訳された。Wikipediaによると、ジェイムズ・トービンの2004年の本「To Conquer The Air: The Wright Brothers and the Great Race for Flight」の70ページにこの影響に対する言及がある。「観察をもとに、鳥は翼末端の角度を変えることにより身体を左右に傾けているのだとウィルバーは結論付けた」 

  2. [原注2] イギリス、サウスハンプトンで最初の人力飛行が実施されたのは1961年であった。そして、人力飛行機のガッサマー・コンドルが、持続時間と制御性の証明として8の字旋回で1マイルを飛行するまでには、1977年を待たなければならない。1979年にはガッサマー・アルバトロスが、英仏海峡を横断し22マイル [約35km] 飛行した。[自転車レース選手の] ブライアン・アレンによって駆動され、平均高度は5フィート [約1.5m] であった。1988年、[同じく自転車レース選手] カネロス・カネロプーロスが駆動・操縦するMITのダイダロス航空機は、古代ギリシャ神話のイカロス伝説の再演として、クレタ島からサントリーニ島までの72マイル [約115km] を飛行する記録を樹立した。 

  3. [訳注] 拙訳 ロドニー・ブルックス氏の将来予測 

  4. [原注3] 人間は、2人の参加者が等位で無い場合でも、双方向の会話をすることに慣れている。- 親と3歳児、教師と生徒、など。それぞれが互いを尊重し、「下位の」個人からの洞察に対しても対話は開かれており、どちらの側も敬意を持ち、お互いが会話に参加していると感られる。超知能であっても、即座に人間に対する尊重を失うと考える理由はない。そして、初期バージョンのそれほど超越的でないシステムがそのような状況に陥った場合は、我々はそれを変更できるだろう。 

5
6
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
6