1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
Memory Networks
Abstract
訳文
メモリネットワークと呼ばれる新しい学習モデルのクラスを説明する. メモリネットワークは, 推論の要素と長期記憶の要素を組み合わせて推論を行い, それらを共同で使用する方法を学習する. 長期記憶は読み書きが可能であり, 予測に利用することを目的としている. 本研究では, これらのモデルを, 長期記憶が (動的な) 知識ベースとして効果的に機能し, 出力はテキストによる応答で, ある質問応答の文脈で研究する. 本研究では, 大規模な QA タスクと, 模擬世界から生成された小さいがより複雑な玩具タスクを用いて, これらのモデルを評価した. 後者では, 動詞の意味を理解することを必要とする問題に答えるために, 複数の支持文を連結することで, このようなモデルの推論力を示す.
原文
We describe a new class of learning models called memory networks. Memory networks reason with inference components combined with a long-term memory component; they learn how to use these jointly. The long-term memory can be read and written to, with the goal of using it for prediction. We investigate these models in the context of question answering (QA) where the long-term memory effectively acts as a (dynamic) knowledge base, and the output is a textual response. We evaluate them on a large-scale QA task, and a smaller, but more complex, toy task generated from a simulated world. In the latter, we show the reasoning power of such models by chaining multiple supporting sentences to answer questions that require understanding the intension of verbs.