0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

Sequence to Sequence Learning with Neural Networksを読んだ

Last updated at Posted at 2018-07-03

-PDF

1.どんなもの

DNNは固定された次元ベクトルの入力を受け取る→既知ではないベクトルを扱えない
1つのLSTMを使用して入力シーケンスを一度に1タイムステップずつ読み取って大きな固定次元ベクトル表現を取得、別のLSTMを使用してそのベクトルから出力シーケンスを抽出する
スクリーンショット 2018-07-03 12.12.26.png

2.先行研究と比べてどこがすごいか

原文の言葉を逆転させることで、長い文章の学習を容易にした

3.技術や手法のキモはどこにあるか

入力系列を固定長のベクトルにEncodeするLSTMと,そのベクトルを出力可変長系列に変換する別のLSTMから構成

4.どうやって有効だと検証したか

データセット:WMT-14 English to French dataset
評価:BLEU
モデル:4層のLSTMで各層1000cell及び1000のembedding

スクリーンショット 2018-07-03 12.31.32.png

SMTと組み合わせた結果
スクリーンショット 2018-07-03 12.38.52.png

多分似た意味は近くに存在してるって言いたい

スクリーンショット 2018-07-03 12.40.14.png

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?