3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

NLP:深層学習(RNN~GPT3まで)モチベーションを整理する

Last updated at Posted at 2021-07-18

はじめに

近年では自然言語処理分野で深層学習を利用することがすっかり当たり前になりました。
ここではその歴史的な流れをざっくり理解するべく代表的なネットワークの要点をまとめることにしました。

ゴール

各深層学習のネットワークがどのような課題解決をするために提案されてきたかを把握することです。
以下項目を短く記述していきます。

  • 提案年度
  • モチベーション
  • (例)※イメージの補助として必要な場合に記載
  • 元文献
    を記述していきます。
    元論文へアクセスする際の一助になれば幸いです。

※このネットワークも欠かせないよ!ここ間違っているよ!などありましたら教えて頂けますと幸いです!

◆RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)

  • 提案年度:1990
  • モチベーション:時系列データ(文章、音声、センサーデータなど)を取り扱うため、過去情報を参照しながら学習し、予測で用いたい。
  • 元文献:Finding Structure in Time

◆LSTM(Long Short-Term Memory ,長・短期記憶)

  • 提案年度:1997
  • モチベーション:RNNでは古い情報を保持することが出来なかった。そこでforget gateというゲートをネットワーク上に持たせ(厳密にはforget gate, input gate, output gateの3種類)、適度に忘れながら学習することで古いけど重要な情報を保持することが出来るようになった。
  • 元文献:Long Short-Term Memory

◆GRU(Gated Recurrent Unit)

◆Word2ve(continuous bag-of-words model, CBOW, continuous skip-gram model,SG,単語分散表現)

  • 提案年度:2013
  • モチベーション:単語の周辺情報を用いて単語を固定長のベクトルで表現するために提案。これにより、単語同士の足し算、引き算などの計算が可能となった。
  • 元文献:Efficient Estimation of Word Representations in Vector Space
  • :「パリ」- 「フランス」+ 「日本」= 「東京」、が行えるようになった。

◆Seq2Seq(encoder-decoderモデル)

  • 提案年度:2014
  • モチベーション:RNNなどでは時系列情報を扱えるようになったが、機械翻訳や質疑応用などでは入力と出力で入力の長さが異なるタスク(以下例を参照)への対応が困難であった。そこで、encoder,decoderの大きく2部構成のネットワークを提案。encoder側で入力情報を固定長のベクトル(context vector,文脈ベクトル)に変換(encode)し、出力の形式に変換(decode)することで、入力と出力で入力の長さが異なるタスクにも対応できるようになった。
  • 元文献:Sequence to Sequence Learning with Neural Networks
  • :【機械翻訳タスク】入力文:I eat cake (3語)→ 出力文:私 は ケーキ を 食べる(5語)など)、に対応

◆Attention付Seq2Seq

  • 提案年度:2014
  • モチベーション:前述のencoder decoderモデルでは、入力文が長かろうが短ろうが全て固定長の文脈ベクトルに情報を押し込んでおり、入力文が長くなると精度が落ちる課題があった。そこで、前述のencoder-decoderモデルにattention機構を加えることで、入力文中の単語と出力文中の単語の対応関係を”重み付け”により表現することが可能に。以下例のような単語の対応付けが可能となった。
  • 元文献:Neural Machine Translation by Jointly Learning to Align and Translate
  • :【機械翻訳タスク】入力文:I eat cake の時、「cake」という単語を「ケーキ」と翻訳する場合、入力文の「cake」の重みが大きくなる。ちなみに重みの値を可視化することで単語中の注目箇所のハイライトも可能となった。

◆Transformer

  • 提案年度:2017
  • モチベーション:これまでの提案手法ではネットワーク内部に過去のデータを参照しながら学習する再帰型ネットワーク(LSTMなど)を持っている関係上、並列計算が行えない課題があった。そこで、再帰型ネットワークを取っ払い、attention(厳密にはself-attention, Target-Source‐Attention)のみを用いるencoder-decoderモデルを提案した。これにより並列計算が可能となり高速化が可能となった。精度面についても機械翻訳タスク(英語-フランス語)において高い性能を示す結果を示した。
  • 元文献:Attention Is All You Need

◆BERT

  • 提案年度:2018
  • モチベーション:これまでの手法ではタスク毎に大量のデータセットを準備し、学習をする必要があった。そこで、Transformerのencoder部分を用いて、wikipediaなどの巨大なコーパスで事前学習モデルを構築し、タスク毎にデータセットでファインチューニング(転移学習)をすることで、11種類のタスクで当時最高性能を記録した。
  • 元文献:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

◆GPT-3

  • 提案年度:2020
  • モチベーション:BERTでは転移学習で色んなタスクで高い性能を記録したが、転移学習用にデータセットを準備するのはコストがかかる。一方、人間は2,3のタスクのサンプルを示せば内容を把握し、問題が解くことができる。そこで、過去提の事前学習モデルから更にパラメータ数を増やした言語モデルを構築し、タスクの記述と2,3のサンプルを示すことで、そのタスクに対応するFew shot learning(転移学習は行わない)の言語モデルを提案。タスクによっては、転移学習には及ばない場合もあるが、人間に近い文章生成結果を出力することで話題に。
  • 元文献:Language Models are Few-Shot Learners

所感

歴史を俯瞰してみると、過去の課題に向き合い、着々と課題解決しながら進化を遂げている過程が見えてきた。とりわけ2014年付近で提案されてきた手法の課題が2017年のTransformerで解決の糸口が見つかり、更に2018年のBERTで一気に花開いた印象。今後更にどのようなモデルが提案されてくるのか楽しみである。

参考文献

3
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?