Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
262
Help us understand the problem. What is going on with this article?
@shionhonda

2019年のおもしろかったDL/ML論文10選

はじめに

2019年も終わりということで, 深層学習・機械学習分野の論文で年間ベスト的なものを選ぶ企画がいくつか出ています.

私も便乗して, 2019年の論文からおもしろかったものを10本選んで振り返ってみたいと思います.
お正月休みに読んでみてはいかがでしょうか:mouse::bamboo:

ちなみに, 私は大学院でAI創薬を研究している修士2年の学生です.
普段は研究に必要な文献の他, TwitterやRedditで話題になった論文を読んでいます. 数えてはいませんが, 1年に100本程度は読んでいると思います.
今回の10選も応用寄りではありますが, なるべく広い分野から選んだつもりです.

論文10選(公開順)

普段から読んだ論文は簡単にまとめてTweetしているので, それを使って公開日順に振り返っていきます.
対象はおおまかに「2019年に公開された論文」と「2019年に学会・雑誌で発表されたもの」とします. StyleGANなどは無意識のうちに「2018年っぽさが強い」ので候補から除きました.
評価基準は厳密には言語化できませんが,

  • 新しい知見が得られたか
  • 発想・問題意識の斬新さ
  • 結果の強さ・応用可能性

といったところを意識しています. とはいえ, もちろん主観的です.

Invertible Residual Networks

  • 著者: Jens Behrmann, Will Grathwohl, Ricky T. Q. Chen, David Duvenaud, Jörn-Henrik Jacobsen
  • リンク: https://arxiv.org/abs/1811.00995
  • 公開: 2018/11/2
  • 採録: ICML 2019

「ResNetにスペクトル正規化を入れると不動点反復で逆像が求まる」→「Flowに使える」という理論に根ざした発想が, 個人的な評価ポイントです. また, log-detを求める部分でも様々な計算上のトリックを使っていて, 性能の高さと相まって質の高さを感じさせる論文でした.
なお, その後, log-detの推定を不偏推定に改善したResidual Flowが同チームから発表され, NeurIPS 2019に採択されました.

Flowベース生成モデルについては過去にこちらでまとめているので, 興味のある方はご覧ください.

Unsupervised Inductive Graph-Level Representation Learning via Graph-Graph Proximity

  • 著者: Yunsheng Bai, Hao Ding, Yang Qiao, Agustin Marinovic, Ken Gu, Ting Chen, Yizhou Sun, Wei Wang
  • リンク: https://arxiv.org/abs/1904.01098
  • 公開: 2019/4/1
  • 採録: IJCAI 2019

グラフの教師なし表現学習方法を提案した論文です. いろいろなアーキテクチャ・学習方法が考えられますが, 本論文ではGraph Isomorphism NetworkとGraph Edit Distanceを使っています. Figure 2が美しく, かつ直感的で好きなポイントです.
グラフの表現学習といえば, 2019年は他にもPre-training GNNsDeep Graph InfoMaxがあったと記憶しています.

SinGAN: Learning a Generative Model from a Single Natural Image

SinGANは1枚の画像から似た画像の生成や動画化, HarmonizationなどができるGANで, 応用上の価値が非常に高いと思いました. また, GANのモード崩壊が問われないような問題設定を考えていて, GANの使い方が巧みだと思いました.
いろいろ遊んでみた結果をこちらにまとめているので, 興味のある方はご覧ください.

Unified Language Model Pre-training for Natural Language Understanding and Generation

  • 著者: Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou, Hsiao-Wuen Hon
  • リンク: https://arxiv.org/abs/1905.03197
  • 公開: 2019/5/8
  • 採録: NeurIPS 2019

ELMo, BERT, GPT-2などの事前学習済み言語モデルが乱発し始めた頃に, いち早く言語モデルをまたいだ事前学習方法を提案・実践した論文です. GLUEのようなタスクと要約が同じモデルで実行できるのはそれだけでも便利ですし, それぞれの性能が個別の言語モデルで学習したものよりも高かったということなので, こちらも応用上の価値の高い論文だと思います.
その後に登場したT-5もこのようなアイディアに基づいているのではないかと予想しています(論文をちゃんと読んだわけではないので, 間違っていたら教えてください).

Putting An End to End-to-End: Gradient-Isolated Learning of Representations

  • 著者: Sindy Löwe, Peter O'Connor, Bastiaan S. Veeling
  • リンク: https://arxiv.org/abs/1905.11786
  • 公開: 2019/5/28
  • 採録: NeurIPS 2019 (Honorable Mention Outstanding New Directions Paper Award)

洒落の利いたタイトルが目立ちますが, 現在までの系列の埋め込みと未来の潜在表現の間の相互情報量を各層で最大化するという方法で, 誤差逆伝播をせずに学習ができるというすごい論文です.
脳は全体での誤差逆伝播を行っていないこと, 高度にモジュール化されていて局所的に学習していることなどから着想を得ているそうで, "NeurIPS"らしい論文と言えますね.

先程のDeep Graph InfoMax然り, 相互情報量最大化による表現学習が最近流行っている気がしますが, こちらのスライドでまとめてありました. ありがたいです.

Generating Diverse High-Fidelity Images with VQ-VAE-2

VQ-VAE-2は, 基本的には2017年にDeepMindのスター研究者チームから発表されたVector Quantised-VAEの改良版なのですが, VAEでBigGANに匹敵する生成画像の品質を実現したのはかなり印象的でした.
潜在変数を離散的にしてノイズに強くするという発想はStyleGANにも通じているのではないでしょうか.

VAEについては過去にこちらでまとめているので, 興味のある方はご覧ください.

Weight Agnostic Neural Networks

NAS (Neural Architecture Search) が流行っていたところに, 「重みを学習せずアーキテクチャの最適化のみでタスクを解く」という斬新な試みを実践してみせたのがWANNです. 実際, ニューラルネットの性能はアーキテクチャと重みの最適化という2つの要素から構成されているはずで, 従来のハイパーパラメータ探索ではこれらを混同して最適化してしまっていたので, 前者のみに注目した研究は重要だと思います.
公式ページに, 共有された重みの値を変えたときのエージェントの振る舞いの変化を観察できるデモがあるので, ぜひ遊んでみてください.

こちらも元論文を読んでいないので恐縮ですが, ICLR 2019のBest Paper Awardに選ばれた宝くじ仮説の論文は関係が深そうです.

Emergent Tool Use From Multi-Agent Autocurricula

  • 著者: Bowen Baker, Ingmar Kanitscheider, Todor Markov, Yi Wu, Glenn Powell, Bob McGrew, Igor Mordatch
  • リンク: https://arxiv.org/abs/1909.07528
  • 公開: 2019/9/17
  • 採録: ICLR 2020

こちらは, かくれんぼという(囲碁やポーカーよりも)視覚的にわかりやすく協調が必要なチーム対戦型ゲーム環境を用意して, そこでエージェントを自己対戦させたときの戦略の創発を観察するという論文です. 「エージェントが自ら戦略を学ぶ」というのがいかにも人工知能らしくて気に入っています.

公式ブログでは, 動画を見るだけでもだいたい何をやってるのかがわかるようになっています. エージェントのデザインがかわいいところも良いですね.

NGBoost: Natural Gradient Boosting for Probabilistic Prediction

  • 著者: Tony Duan, Anand Avati, Daisy Yi Ding, Sanjay Basu, Andrew Y. Ng, Alejandro Schuler
  • リンク: https://arxiv.org/abs/1910.03225
  • 公開: 2019/10/8
  • 採録: 未定

NGBoostは, Kaggleなどのデータ解析コンペで人気の勾配ブースティングで目的関数の分布をモデリングできるようにした論文です. 回帰問題で信頼区間が推定できるのは実用上かなり有用だと思います. 提案手法の新しい要素は勾配として自然勾配を利用することくらいなのですが, 難しそうな微分幾何の概念が実応用に直結している点が魅力的に感じました.

本論文については, AI-SCHOLARにて解説記事を書きました.

Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model

  • 著者: Julian Schrittwieser, Ioannis Antonoglou, Thomas Hubert, Karen Simonyan, Laurent Sifre, Simon Schmitt, Arthur Guez, Edward Lockhart, Demis Hassabis, Thore Graepel, Timothy Lillicrap, David Silver
  • リンク: https://arxiv.org/abs/1911.08265
  • 公開: 2019/11/19
  • 採録: Nature

囲碁でプロ棋士に勝利したことで有名な, DeepMindによるAlphaGoシリーズの続編です. 今度はルールを自ら学習しながら囲碁・チェス・将棋でAlphaZeroに勝利しました. さらに, AlphaGoシリーズでは対応できなかった視覚的に複雑なゲーム「Atari 2600」で従来の最強モデルであるR2D2を超えるスコアを達成しました. この成功は, AlphaGoシリーズの手法に環境のダイナミクスを予測させるモデルベース強化学習を取り入れることで実現しました. このように, 各タスクでの性能が上がり, しかも解けるタスクが増えるというのは, 聞くだけでもワクワクしてしまう話ですね.

本論文については, AI-SCHOLARにて解説記事を書きました.

おまけ: おもしろそうだけど読みきれなかった論文

ここまでで触れられなかったものの, 紹介記事を読んで興味を持った論文を備忘録として挙げておきます.

  • Adversarial Examples Are Not Bugs, They Are Features (NeurIPS 2019)
  • Are We Really Making Much Progress? A Worrying Analysis of Recent Neural Recommendation Approaches (RecSys 2019 Best Paper Award)
  • EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (ICML 2019)

おわりに

改めて1年を振り返ってみて, 目覚ましい進歩があったことが再確認できました. しかし, きっとこれは氷山の一角で, 他にも私の知らない素晴らしい研究が無数にあるはずです. それでも, 1年前と比べて自分の視野が広がったのは素直に嬉しいです.

また, こうやって選んでみると, おもしろいと感じる論文はNeurIPS採択であることが多いことがわかりますね. チケットの争奪戦が熾烈なようですが, いつか参加してみたいものです.

来年はタブレット端末を買って賢く文献管理をしつつ, 実装により力を入れていきたいと思います.

262
Help us understand the problem. What is going on with this article?
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
shionhonda
個人ブログに移行しました。ぜひご覧ください。 ご支援はこちらにお願いします。 http://amzn.asia/7FtMANj

Comments

No comments
Sign up for free and join this conversation.
Sign Up
If you already have a Qiita account Login
262
Help us understand the problem. What is going on with this article?