@pesuchin
2017-07-20
突然の編集リクエストで驚かせてしまい、気を悪くされてしまった場合は申し訳ございません。この記事のAttentionのコードの部分ですが、最終的に順方向のAttention(att_f)と逆方向のAttention(att_b)を算出していると理解しています。ですが、今のコードだとatt_bが順方向のEncoderの中間ベクトルを使って計算されているため、att_fの値と同じになってしまうように見受けられますが、こちらはこれで実装として合っているのでしょうか。私の勘違いであれば申し訳ございません。