kaggle zillow challenge
ーtruncation
logerrorに対してtruncation、1, 99 percentileでの切り捨てを行う。
結果0.0762954。
続いて他の変数にもtruncationを追加。
追加したのは(finishedsquarefeet12、calculatedfinishedsquarefeet、taxamount)
精度は大きく下がってしまった(0.0762954 -> 0.1232041)
truncationを全く行わない場合:0.2457573。ますます悪くなる。
適度なtruncationが重要?ひとまずlogerrorのみにtruncationを行う。
ーnormalization
normalizationを追加:0.0762954 -> 0.0699197へ改善。normalizationはデフォで追加に。
ーextreme treeとのアンサンブル
extreme treeを使った結果との平均を取るアンサンブルを利用
結果:0.0699197 -> 0.0677271へ改善。
アンサンブルはやはり効果があると思われる。
今後もモデルの追加とstacking, blendingなどのテクニックを追加していくと良さそう。
しかしまだまだ最下位に近いので大きな改善を目指さないときつそうである。
Neuroscience-Inspired Artificial Intelligence
DeepMindのDemis Hassabisが主著者の論文。
ニューロサイエンスとAIの関係性と将来性について述べたもの。
しっかりと読んではいないが、主にDeepMindの研究紹介になっているもよう。
結論の部分が唯一印象に残っていて、
「ニューロサイエンスそれ自体はAIに解を与えるものではないが、そこで観測された現象に対する
アルゴリズム的な興味を与え、AI分野における研究指針を与えるという意味で有用」
というような事を書いているのが面白く感じた。
関連する話として、最近ではCVPR2017であった講演
James J. DiCarlo, The Science of Natural intelligence (NI): Reverse Engineering Primate Visual Perception
にて、画像を一瞬見せてそれが何か分類させるタスクを人にさせた所、
タスクの難易度が上がるほど分類精度を上げるために画像を見せる時間を上げる必要がある事が分かったそうである。
この事実は聴衆をインスパイアしたそうで質問者が殺到していた。
今後はこれに関する研究が増えるのかもしれない。
ただ、すでに幾人かの研究者が同じCVPRで関連研究を提案していた。
例えばアルゴリズムにフィードバック構造をつける事でタスク(の難易度等)に応じて
適応的に推論プロセスを発展させていける構造が提案されている。
ーFeedback Networks、http://feedbacknet.stanford.edu/
ゲームとAIとヒューマンインタラクション
現状のゲームベースの研究でメインなのはAIと環境とのインタラクションな気がしている。
実際学習モデルも環境からのフィードバックを元に行動を決定したりしている。
この環境の部分をもっと直接的に人に変える事はまだまだ難しいのだろうか。
例えばデータに関していえばMMOなどのたくさんの人とAIが入り混じる環境を用いればもっと効率よく
正解データが作り出せる期待がある。
正解データが大量に作り出せる土壌がそろえば、研究はかなりやりやすくなるので、
AIのヒューマンインタラクションをもっと広い土壌で学習できないだろうか。
現状は文書ベースの会話のみに終始しており、ゲーミフィケーションもあまり
聞いたことがない(知らないだけだと思うが)。