41
33

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

勘違いした意志決定をなくすには結局AIなのか、4つの事例から

Last updated at Posted at 2018-08-07

human-ai.jpeg

私のこれまでのブログポストの読者の方には、すでにお馴染みかもしれませんが、AI、機械学習、またはデータサイエンスといったものに対して、多くの人はOverestimate(過剰な期待)、またはUnderestimate(過小な期待)してしまいがちです。

最近では、AIに関するハイプがすごくて、つまりOverestimate(過剰な期待)がすごいので、例えば、AIが選挙やスポーツの試合の結果の予測に失敗したり、AIが人の顔の認識を間違ってしまったりというように、その期待が外れると、やっぱりAIはだめだ、まだまだ人間でないとだめだ、という方向へ一気に振れてしまうことになります。

たしかに現在AIと呼ばれているものには限界があります。そのうちの一つがバイアスの問題です。つまり、AIのアルゴリズムで予測モデルを作った時に使ったデータにバイアスが含まれている場合にはそのモデルが予測する結果にもバイアスが含まれてしまうというものです。例えば白人だけのデータをもとに病気を予測するモデルを作った場合、黒人の患者の病気の症状を予測する時には間違えることが多くなるかもしれません。こちらのバイアスに関しては、こちらの「 全てのプロダクトマネージャーが知っておくべき5つの機械学習の限界と対策」の中でも触れています。

それでは、逆に人間はそういったバイアスの問題がないのかと言ったら、これが結構またひどいものだったりするわけです。今日は、この件に関してハーバード・ビジネス・レビューが、「Want Less-Biased Decisions? Use Algorithms.」という記事の中で具体的な例を挙げながら説明していたので紹介したいと思います。

以下、要訳。


AlphaGo Zero等のニュースをにぎわすようなAIの進化の影で、実は、多くの組織では、昔からある機械学習や統計の手法、例えば、線形回帰、ロジスティック回帰、決定木といったアルゴリズムなどを使って、着実に、医療の診断や司法の判決から人材の採用や公共機関の資源の配分といった様々な分野で価値のあるサービスを提供し始めています。

それでは、こうしたアルゴリズムによる変革とは私達の社会にとって良いことなのでしょうか。現在、多くの批評家、学者、ジャーナリストはネガティブに捉えることが多いです。「Weapons of Math Destruction」、「Automating Inequality」、「The Black Box Society」といった本や、「Machine Bias」、「Austerity Is an Algorithm」、「Are Algorithms Building the New Infrastructure of Racism?」といったタイトルを見るだけでもこうしたAI分野の新しいテクノロジーに対するネガティブな反応をうかがい知ることができます。

理解しにくく、データによるバイアスが入り込んでいて、さらに説明責任を果たすことができない、そうしたアルゴリズムを大きな力をもった組織が手にするということに対する心配がその根底にはあるのでしょう。しかし、こうしたアルゴリズムの発展に対して私達はほんとうに心配するべきなのでしょうか。

ここで一つ考えるべきなのは、そうした批評の対象となっているシステムやサービスがアルゴリズム無しでどれだけうまく機能するのかということです。これこそが、実際にそうしたアルゴリズムを使っている人や、アルゴリズムに関連した政策を考える者に対しての最も適した質問となるべきでしょう。

アルゴリズムの性能や、それの持つバイアスがそれまでのものと比べてどうなのかということです。ただ単純にアルゴリズムに欠陥があるかどうかを質問するよりも、こうした欠陥は人間が持っている欠陥に比べてどうなのかといった質問をすべきなのです。

この質問に答えるための、過去何十年にも渡るアルゴリズムによる意志決定に関する研究の成果がすでにあります。このトピックに関するこうした調査によると、どれも同じような結論に行きつくことになります。それは、そうしたアルゴリズムは、それが置き換えることになる人間に比べてバイアスが少なく、より正確であるということです。

2002年にある経済学者のグループが住宅ローン業界でのローンの選定作業のアルゴリズムによる自動化のインパクトを調べました(リンク)。彼らが見つけたのはローン選定の自動化システムはそれまでの人間が行っていたものに比べて、より正確に貸し倒れを予測することができ、このよくなった正確さは、特にそれまではローンが貸し出されることがなかったような人達に対しての貸出が承認される可能性を高めることにつながりました。アルゴリズムのおかげで、それまでは家を買うためのローンを組むことすらできなかったような人たちが、ローンを使って家を買うことができるようになったのです。

同じような結論は、コロンビアのビジネススクールのBo Cowgillが、あるソフトウェアの会社の採用に応募してくる人達の選定作業の自動化による影響を調べた時にも出ています(リンク)。その会社ではどの応募者をインタビューするかを自動で選択するためにアルゴリズムを使い始めましたが、それまでの人によって行われていた選定作業に比べ、もっと違ったタイプの人材を選定することとなりました。人間に比べて、アルゴリズムはそれまでその会社ではいなかったようなタイプ、例えば個人的な紹介がなかったり、有名大学出身ではないといった候補者に対してもバイアスなく公平に選択することができるようになっていたのです。

ある有名なコンピューターサイエンティストと経済学者のチームがニューヨークでの裁判の前の保釈するかどうかの判断に使われているアルゴリズムを調べたところ、現在保釈するかどうかの判断を行っている判事に比べてはるかに公平な決定を下していることがわかりました(リンク)。それによって実際に勾留する率が41.9%減り、さらにそのことによる犯罪率の上昇も見られることがなかったのです。暴力犯罪を含む全ての犯罪の種類での勾留する率の減少が見られました。そして、このことはもちろん、保釈するかどうかの判断に人種による偏見が入ることを防ぐことで、人種間の格差を解消することに役立っていたのです。

ニューヨークタイムズマガジンは最近「アルゴリズムは子どもたちが注意が必要な時期かどうかを知らせてくれるか」という質問に対して答えるための長い調査記事を発表していました(リンク)。それによると、その答えはYesで、アルゴリズムはこうしたことを人間よりもはるかに正確に行うことができ、さらに、いくつかの公共機関による悪質な人種をもとにしたプロファイリングと違って、人種や出身に関するバイアスがより少ないということでした。

こうしたどのケースにおいても、そうしたAIのシステムやサービスの構築に関わったデータサイエンティストは、メディアの言う「問題」になるようなことをやっていたわけです。つまり彼らは、人間による先見というバイアスが入った過去データを使ってアルゴリズムをトレーニングしていたということになります。

しかしそれでは、なぜこうした、お金の貸出し、人材募集に対する応募のスクリーニング、司法裁判での保釈、公共機関の資源の分配といった様々な分野でアルゴリズムはバイアスを減らすことができたのでしょうか。たくさんのコメンテーターがこうしたアルゴリズムにはバイアスがあるといっていたにもかかわらずです。

人間はとんでもなくだめな意思決定者である

実は、別に隠された秘密でもなんでもないのは、ここで紹介してきたアルゴリズムも実はバイアスを持っているのです。ただ、もともと意思決定を行っていた人間が、彼らを置き換えたアルゴリズムよりもさらにはるかに大きなバイアスを持っていたということなのです。

それでは人間の意志決定に関する能力はそんなにだめなんでしょうか。私達は確かにバイアスを持っています。しかし、それでも何らかの点で私達人間こそは優れた意思決定者だと言えるのではないでしょうか。

残念ながら、何十年にも渡って行われてきた判断と意志決定における心理学の分野での研究によると、あらゆることに関して人間の持っている判断力の質というのは非常に悪いものなのです。

Paul Meehl Robyn Dawesなどによる研究によって少なくとも1950年代にはすでに、医療の分野での重要な結果を予測するということにおいて、とても簡単な数学のモデルのほうが専門家よりも優れているということが分かっています。

上記に紹介したいくつかのアルゴリズムの例は、それが置き換えることになる人間がそれまでに行っていた意志決定に比べて、正確さが増し、さらに制度的なバイアスを減らすことにも成功しました。これは経済学者が言うところの「パレート改善」というもので、一つの政策が代替策に比べて、重要な全ての結果で良い成果を出すというものです。

多くの批評家は現代の組織は公平性を犠牲にして業務の効率化と生産性の改善を追求していると言いますが、こうした例はそのようなトレードオフはないということを示しています。アルゴリズムは現実の世界ではより効率的でより公平な結果を生み出しているのです。

それでは、あなたがほんとうに心配するべきものとは何でしょうか。それは、矛盾に満ちて、バイアスがあり、驚くほどにひどい意志決定能力を持つ人間によって、あまりにも多くの重要な意志決定が現在も行われているという事実ではないでしょうか。

例えテクノロジーが制度的なバイアスと偏見的な差別という社会的な病巣を完全に解決することが出来なかったとしても、ここで見てきたような例は、少しづつでも確実にそれまでのシステムを改善することができるということを示しています。これはアルゴリズム絶対主義でも統計学の力に対し諸手を挙げての信仰を促すための議論でもありません。

もし使用しているアルゴリズムが、それまでのシステムに比べて許容できないレベルのバイアスを含んでいると証明されたのであれば、それまでのシステムを使い続ければいいだけの話です。しかしそういった真摯に真実を追求していこうとする態度は、制度的なバイアスを減らすためにはアルゴリズムを使うということが解決策の一部になりうるということを真剣に受け入れるべきであるということでもあるのです。

次にアルゴリズムの持つバイアスの危険に関するニュースを目にしたときは、人間の持つバイアスの危険も考えてみてください。


私は、アルゴリズムを効率的に使ってデータから意志決定に役立つ情報を抽出はするが、最終的な意志決定は人間が行っていくべきではないか、つまりAugmented Intelligenceという形でのAIがビジネスの改善には役立っていくのではないかというポジションです。

ですので、AIが最終的な意志決定を下すという点に関しては、議論の余地があると思います。しかし、そうはいっても、たしかにこうしたデータとアルゴリズムを使うことで、バイアスがないとか、正しいと思い込んでいる私達の下す意志決定よりもましな意志決定を行っていくことができるのではないかという点は賛成です。

AIの限界を正しく理解してそうしたテクノロジーを使いこなしていくことで、私達人間だけではなし得なかった、もしくはできたとしても非常に効率が悪かったようなことが、より正解に、さらにもっと効率的にできるようになっていくのではないでしょうか。

もう一つ重要な点が、欧米では現在AIに関しての議論には、本文の中でも触れていたバイアスの問題を含め「倫理」ということが頻繁に出てきて、さらに多くの人がそのことをすごく重要だととらえています。これは日本のように、倫理ということがどこか、社会の中のものすごく深い部分で文化的に共有できている世界と違って、特にリベラルな国では、つまり全てを科学的、もしくは哲学的に明文化していかなくてはいけない世界との違いなのかもしれません。AIであれ、データサイエンスであれ、これまで人間が培ってきた「倫理感」をもとに行ってきた意志決定に影響を及ぼす、もしくは置き換えようとするわけですから、当然といえば当然なのかもしれません。

このことは特にリベラル(自由)な世界の一員として、データ、AIに関連する仕事をしていくときはしっかりと意識しておくことだと思います。ちなみに、以前、日本と欧米の国家レベルのAI戦略を比べてみるの中でも触れましたが、こうした領域でリーダーシップを取るための国家間の競争、もしくは策略のようなものはすでにはじまっています。

データサイエンス・ブートキャンプ10月開催!

この10月の中旬に、Exploratory社がシリコンバレーで行っているトレーニングプログラムを日本向けにした、データサイエンス・ブートキャンプを東京で開催します。データサイエンスの手法を基礎から体系的に、プログラミングなしで学んでみたい方、そういった手法を日々のビジネスに活かしてみたい方はぜひこの機会に参加を検討してみてください。詳しい情報はこちらのホームページにあります!

41
33
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
41
33

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?