機械学習
2018-03-25

機械学習: グルーのパラドクス

機械学習とディープラーニングの違いも分からない自分が、前々から疑問に感じてたことのメモ。

限られたデータからの学習

最近の第三次ブームの人工知能。その技術に、コンピュータに既知のデータから何かを学習させるやつがある。そこで素朴に疑問に思ってること。ブームだということで猫も杓子も人工知能な感じがあって、何でもかんでも人工知能で解決できる的な雰囲気さえあるぉに感じるんだ。

実際、マーケティング分野みたいに機械学習に向いた分野もたくさんあるだろうとは思うし、そういう分野でどんどん活用すれば良いだろうと思うんだ。だけど…、そういった分野だとしても、限られた既知データからの学習にはリスクとゆうか限界もあるなって思ったんだ。

科学哲学

それは機械学習だけの問題ってわけぢゃなくて、人間がやるのも含めて、帰納的な推論全部に言えることなんだ。前に科学哲学のことを調べてたときに出会ったお話。科学哲学に詳しいわけぢゃないけど、こんなこと。理解が間違ってたらゴメンナサイ。

ヘンペルのカラス

生物学者が色んなカラスを調べて、調べた限りのカラスが全部黒かったという事実から、「すべてのカラスは黒い」と結論付けるのは正しいのか?というお話1。その学者が言えることは、厳密に言えば「私が調べた限りのカラスはすべて黒かった」ということだけで、調べなかった他のカラスについてまで黒いと結論づけること、逆にいえば「世の中に黒くないカラスは存在しない」と断言することはできないだろういうこと。実際、アルビノ(先天的な色素欠乏)で白いカラスはいるらしい。これは、与えられたデータの範囲の分析で与えられいないデータをも含めた範囲の結論を下すのは難しいよねってことさ。

グルーのパラドックス

いろいろなエメラルド(緑柱石)の色について、「エメラルドは緑色だ」という命題は成り立っている。でもそれだけじゃないだろうってことなんだ。「エメラルドはグルー色だ。ここで、グルー色とは時間に依存する色で、2201年12月31日までは緑色でそれ以降は青色である。」2というような命題も同時に成り立っていること。何が問題かって?つまり、与えられたデータを満足する仮説は一つとは限らないということなんだ。

黒体輻射のスペクトル

グルーのパラドクスを考えてて、ちょっと思い出したのは、黒体輻射のスペクトルを説明する物理学の数式。19世紀に産業で使われる炉の温度を直接には測れないから代わりに炉から発する光の色で温度を測定できないかっていう問題が起きて、温度と光のスペクトルを関連付ける数式が必要とされたんだ。

黒体輻射.png

その時、物理学者がそれぞれの仮説をもとに数式を考えたんだけど、それが部分的にしか当てはまらなくて困ってたらしぃ。

ウィーンの式
短波長側のデータと良く一致するけど、長波長側だと合わない。
レイリー・ジーンズの式
長波長側のデータとよく一致するけど、短波長側だと合わない。

物理学者たちは波長によらず全体を説明できる式を見つけられないでいた。そんな中でエネルギーの量子仮説に基づいて求められた「プランクの式」が全体を説明できることが分かったんだ。もちろんプランクの式はウィーンの式とレイリー・ジーンズの式の両方を近似関数として含んでいる。(これが量子力学の誕生につながったらしいけど、それはいいとして。)

この話に注目したのは、仮に部分的に良く一致する数式を持っているとしても、それを全体にも適用できるのかいうのは別問題だという例だなってことなんだ。全体のデータが与えられていれば検証のしようもあるげど、与えられたデータ(または入手できるデータ)が長波長側だけだったりしたら、レイリー・ジーンズの式が正解だと信じるだろうなって。

またはこうも言えるかもしれない。つまり、長波長側だけのデータを見る限りは、プランクの式が正解なのかレイリー・ジーンズの式が正解なのかが分からないってこと。与えられたデータを説明できる仮説は一つだけとは限らないという点で、グルーのパラドクスと似てるでしょ?

品質保証

「だから何だ?機械学習とは関係ないぢゃん」て思うかもしれない。だけど、ぼくが注目したのは、

学習に使った(少ない)データをもってして、(その後に与えられる)学習していないデータについてどれぐらい信憑性のあること語れるのか?

ってことなんだ。もっというと、

機械学習システム(またはそれを内包するシステム)は、何をもってその品質を保証できるんだろ?そもそも品質保証なんでできないんぢゃない?

ってこと。

ある機械学習システムが、いろんなエメラルドのデータを学習して「エメラルドは緑色だ」と結論づける3としても、実際には「グルー色」だった場合、システムが言う「緑色だ」というのを信じた客が、それをもとにビジネス判断を下した翌日にエメラルドが青になってて大損を食らって「何だこのシステムはっヽ(`Д´#)ノ ムキー!!」なんていうことがあるんぢゃないかって。機械学習システムの「品質保証」ってどうなってるんだろう?ってね。

システムの出力の正しさについては検証することなんてできないと思うんだよねっ。開発中のシステムのバグ出しも難しそぉだなって思う。

システムの限界、使う側の理解

まぁ、こりゃぁ、システム開発のお仕事をしてないズブズブの素人のぼくだから思う疑問かも知れないよねっ。だけど、現実のビジネスで機械学習を含むシステムを使う側としては、つまり自分が客の側だったらリスクかもなって思うこと。どんなシステムの発注なのかにもよるんだろぉけど。美容整形手術じゃないけど、客側の思い込みと店側が提供する現実のサービスの間の、認識のズレで、トラブルになりそうなことかもねって。場合によっては法的なトラブルになるかも。

何ができて何ができないのか、使う側がシステムの限界を理解しておくのは凄く大切だともう。長波長側のデータを与えられたて学習したシステムが出力する結論は、プランクの式でなくレイリー・ジーンズの式なのかもしれなくて、学習していない短波長側に適用すると痛い目にあう可能性があるということを理解しておくべきだということねっ。

特に、人事制度なんかにこの手の技術を応用する場合に、知識がない人事課の人たちが、よく分からないままにシステムを導入してしまって、有能な人材を低く見積もったり、逆に、無能な人材に高得点を与えてしまうような可能性が(使い方を間違うと)あるシステムであることに気づかないまま運用して、気づいたら仕事が出来る人がみんな退職してしまった…、なんてこともあり得るかもねっ。人事評価に限らずマーケティングみたいな領域でも、新しい事業分野に既存の事業分野で使ってるシステムをそのまま使ってたりすれば、痛い目に遭うかもねっ。(;・∀・)


  1. …というのは嘘で、このお話の本質は『論理的には、黒くない鳥を次々と調べていってそれがカラスでないという事実を確認することが、その対偶命題である「すべてのカラスは黒い」の信憑性を高めることになるのだけど、それって直感的にオカシクない?』ってことなんだ。正直言うと、ぼくのこの記事ではカラスの例え話の部分を都合よく使っただけです。(・・;) 

  2. 色の定義に日付を指定するのは不自然だけどこの例え話のオリジナルに倣っただけ。だけど実際、放射性物質とかであればその手の変色はあり得るかもしれないねっ。 

  3. 機械学習は連続量を扱うシステムだから「100%の断言」ということは無いとは思うけど。