diff --git a/chapter_attention-mechanisms/bahdanau-attention.md b/chapter_attention-mechanisms/bahdanau-attention.md index b8c09b857..718f4661e 100644 --- a/chapter_attention-mechanisms/bahdanau-attention.md +++ b/chapter_attention-mechanisms/bahdanau-attention.md @@ -97,7 +97,7 @@ class AttentionDecoder(d2l.Decoder): 首先,初始化解码器的状态,需要下面的输入: 1. 编码器在所有时间步的最终层隐状态,将作为注意力的键和值; -1. 上一时间步的编码器全层隐状态,将作为初始化解码器的隐状态; +1. 最终时间步的编码器全层隐状态,将作为初始化解码器的隐状态; 1. 编码器有效长度(排除在注意力池中填充词元)。 在每个解码时间步骤中,解码器上一个时间步的最终层隐状态将用作查询。 @@ -458,4 +458,4 @@ d2l.show_heatmaps(attention_weights[:, :, :, :len(engs[-1].split()) + 1], :begin_tab:`paddle` [Discussions](https://discuss.d2l.ai/t/11842) -:end_tab: \ No newline at end of file +:end_tab: