1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
Abstract
訳文
我々は, 外部記憶資源と結合させることで, ニューラルネットワークの能力を拡張した. このニューラルネットワークはアテンションプロセスによって相互作用することができる. 組み合わせたシステムは, チューリングマシンやフォン・ノイマンのアーキテクチャに似ているが, エンドツーエンドで微分可能であり, 勾配降下法を用いて効率的に学習することができる. 予備的な結果は, ニューラルチューリングマシンが入力と出力の例からコピー, ソート, 連想想起などの単純なアルゴリズムを推論できることを示している.
原文
We extend the capabilities of neural networks by coupling them to external memory resources, which they can interact with by attentional processes. The combined system is analogous to a Turing Machine or Von Neumann architecture but is differentiable end-to-end, allowing it to be efficiently trained with gradient descent. Preliminary results demonstrate that Neural Turing Machines can infer simple algorithms such as copying, sorting, and associative recall from input and output examples.