1.どんなもの
DNNは固定された次元ベクトルの入力を受け取る→既知ではないベクトルを扱えない
1つのLSTMを使用して入力シーケンスを一度に1タイムステップずつ読み取って大きな固定次元ベクトル表現を取得、別のLSTMを使用してそのベクトルから出力シーケンスを抽出する
2.先行研究と比べてどこがすごいか
原文の言葉を逆転させることで、長い文章の学習を容易にした
3.技術や手法のキモはどこにあるか
入力系列を固定長のベクトルにEncodeするLSTMと,そのベクトルを出力可変長系列に変換する別のLSTMから構成
4.どうやって有効だと検証したか
データセット:WMT-14 English to French dataset
評価:BLEU
モデル:4層のLSTMで各層1000cell及び1000のembedding
多分似た意味は近くに存在してるって言いたい