1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
End-To-End Memory Networks
Abstract
訳文
おそらく大規模な外部記憶上のリカレントアテンションモデルを持つニューラルネットワークを導入する. このアーキテクチャは Memory Network (Weston et al., 2015) の一形態であるが, その仕事のモデルとは異なり, エンドツーエンドで訓練されるため, 訓練中の教師が大幅に少なく, 現実的な設定でより一般的に適用可能である. また,RNNsearch を,出力シンボルごとに複数の計算ステップ (ホップ) が実行される場合への拡張と見ることもできる.このモデルの柔軟性により, (合成的な) 質問応答や言語モデリングのような多様なタスクに適用することができる. 前者については, 我々のアプローチはメモリネットワークと競合するが, より少ない教師である. 後者については, Penn TreeBank と Text8 のデータセットにおいて, 我々のアプローチは RNN や LSTM に匹敵する性能を示している. どちらの場合も, 複数の計算ホップという重要な概念が結果を向上させることを示す.
原文
We introduce a neural network with a recurrent attention model over a possibly large external memory. The architecture is a form of Memory Network (Weston et al., 2015) but unlike the model in that work, it is trained end-to-end, and hence requires significantly less supervision during training, making it more generally applicable in realistic settings. It can also be seen as an extension of RNNsearch to the case where multiple computational steps (hops) are performed per output symbol. The flexibility of the model allows us to apply it to tasks as diverse as (synthetic) question answering and to language modeling. For the former our approach is competitive with Memory Networks, but with less supervision. For the latter, on the Penn TreeBank and Text8 datasets our approach demonstrates comparable performance to RNNs and LSTMs. In both cases we show that the key concept of multiple computational hops yields improved results.