facebook 摘要生成阅读笔记(二) Abstractive Sentence Summarization with Attentive Recurrent Neural Networks

整体流程与第一篇差不多,只是在encoder和decoder加入了RNN

Encoder:

1.

ai=xi+li  

ai=词向量+词在序列中的位置信息(相当于一个权重,[M, 1])

2.

常见的求注意力权重的方法

  a. ht-1:RNN输出

扫描二维码关注公众号,回复: 3236330 查看本文章

3.

  注意力累加


Decoder:

  本文介绍了两种Decoder,均用到了LSTM,最后输出的是K个最大词的概率,求概率求的是对整个词库分配概率,如果生成词时不依赖词库,输出长度[V,1],V表示词库大小;依赖输入句子,那么就是对整个输入句子的每个词分配概率,输出[M,1],M表示词的长度

1.

2.

猜你喜欢

转载自www.cnblogs.com/callyblog/p/9662434.html