さだまさしアドベントカレンダー15日目です。まさかここまで続いているとは思いませんでした。しかも記事のレベルが高すぎてどうかと思います。記事を眺めていると言語処理系や統計系の話題がおおいようなので、今日はちょっと違った方面から。
私、本職は「認知心理学」という分野の研究者をやっております。認知心理学という学問では、人間を廃人機械と見立てて、入出力関係、つまり感覚器(視覚とかですね)と知覚や行為(〜を見るとか、手を動かすとかですね)の関係をモデル化します。知覚を入力と捉えるか出力と捉えるか、という問題は置いといてください。
このモデル化にはいろんなやり方があるんですが、実証的なデータを集めるためには「実験」を行います。認知心理学の実験では、人間を廃人機械と見立てて、ひたすら延々と同じ課題(斜め線が出現したかしなかったか、とか、〇〇はあったか、とか)を繰り返します。ひどいやつだと一万回以上繰り返します。
そうして集められたデータには、やった人の個性とか頑張りとかが反映されているわけですが、そういうものは「ノイズ」として切り捨てられます。最後には平均値(最近では区間とか分布もちゃんとしようとしてる)がモノを言う、そういう辛辣な世界です。
そこで、本日はさだまさしファンのみなさまに、少しでも認知心理学という分野を知ってもらうべく、ひとつ実験を用意しました。
「さださがし」 http://kohske.github.io/sandbox/sadasagashi/
ありがちです・・・。「難しくないバージョン」から始めることをお勧めします。
これは視覚探索課題と言われるものの一種(というか亜種)です。「何かを探す」ということは、人間の極めて基本的な行為の一つです。視覚探索には山ほどモデルがあるわけですが、その詳細は置いといて、視覚探索では「ポップアウト」と呼ばれる現象があります。普通は邪魔する刺激(妨害刺激)が多いと、探すのに時間がかかるようになります。当たり前ですね。ですが、探そうとしなくても勝手に目立つような状況があります。それがポップアウトです。ポップアウトする刺激は、妨害刺激がいくつあろうが関係なく、一瞬で発見できます。目が勝手にそこに向かうわけです。
さて、問題はどういう刺激がポップアウトするかということです。もっともよく知られているの は、「特徴探索」と「結合探索」の違いです。邪魔するものと探すものが、一つの特徴(色、大きさ、形とか)によって区切られる場合、対象はポップアウトします。ooooooxooooo
という状況ですね。x
はポップアウトします。ですが、邪魔するものと探すものが、複数の特徴の組み合わせによって区切られる場合、探索は劇的に難しくなります。oxoXoOoxxOxO
と言う状況で、大きいX
を探すような場合です。この場合、大きさと形状の結合探索になっています。
さてさて、「さださがし」は果たして、特徴探索なのか、結合探索なのか。それは、あなたの頭の中で「さだまさし」がどう表現されているかに依存します。もしあなたが「さだまさし」と「非さだまさし」を境界とする世界にいきているなら、「さだまさし」はひとつのプリミティブな特徴であり、きっとポップアウトするでしょう。だから、「さださがし」難しいバージョンでも「さだまさし」はポップアウトして、探すのに時間はかからない。たぶんかからないと思う。かからないんじゃないかな。ま、ちょっと覚悟はしておけ・・・。一方、「さだまさし」がプリミティブな特徴ではなく、「人間」「歌手」「おっさん」等々の属性の結合としてあなたの頭の中で表現されているなら、ポップアウトしません。「さださがし」によって、あなたの頭の中のさだまさし表現形式をデコーディングできるということです1。
こんな簡単な実験でも、入出力関係のモデル化によって頭の中の情報処理過程をある程度推定することができます。このような知見は、最新のDNNなどに活かされているようです。NIPS2015ではCNNに「注意」を実装する試みが発表されていたようですが2、間違いなく「注意」はこのような実験の結果モデル化された概念と言えます。LTSMなどで動画を扱うようになれば、visionとauditionのモダリティ統合とかが必要になるわけですが、その手の概念も2〜3年したら出てくるでしょう(もしかしたらもうあるかもしれませんが)。その時にも、やはり人間の感覚統合モデルが参考になるに違いありません。このように、DNNの発展は、認知心理学系の知見を直接的に応用する舞台になるはずです。今後、DNNの開発と社会応用の中で認知心理学とか認知神経科学という分野はますます重要になってくるはずだし、そうならないといけないし、そうなるように頑張らないといけない。頑張ります。だれかDNN方面の人で、人間に興味があって、こういう話(ダイレクト脳系よりも、もうちょっと行動レベル)を一緒にやりたい人がいたら連絡ください。
HTML/JSはここに置いてあります。
https://github.com/kohske/kohske.github.com/tree/master/sandbox/sadasagashi
canvasが出てきて、ブラウザJSが超速になって、個人的にはHTML/JSは十分に普通の認知実験に耐えうるスペックになってると思います。しかもオンラインでできるのがいいですね。
Enjoy!!
-
この段落の内容は、はっきり言えば「嘘」なので真に受けないでください。 ↩
-
http://codinginparadise.org/ebooks/html/blog/ten_deep_learning_trends_at_nips_2015.html ↩