【王小草NLP相关论文积累】语言的生成

注:本文内容非作者笔记,是作者平时看公众号的论文推送与介绍(比如paperweekly, 哈工大SCIR等),觉得不错的,有空可以精度的NLP相关的论文,将他们复制整理在本文中,以便之后有需要时回顾。

本文的论文主要是自然语言生成相关的论文。


来源:哈工大SCIR
推荐人:孙卓(研究方向:文本生成)
论文题目: Review Networks for Caption Generation
作者: Zhilin Yang, Ye Yuan, Yuexin Wu, Ruslan Salakhutdinov, William W. Cohen
出处: NIPS 2016
论文主要相关:review network、描述生成
简评:传统的encoder-decoder模型有以下两个问题:一、其attention机制是以顺序的方式作用,缺少全局建模能力;二、在decoder进行到某t时刻时,产生的token仅仅基于当前attention的结果,无法参考未来attention结果信息的问题。考虑到这些问题,本文提出了一种新型的模型。
与传统的带有attention的encoder-decoder模型相比,本文提出的模型包含三个部分:encoder、reviewer、decoder。其中的reviewer在encoder端的隐层上进行多次的基于attention的review操作,得到一些thought向量(f1~fTr),这些thought向量(f1~fTr)被用来在decoder端进行attention,其中基于attention的review操作的步数Tr为超参数。本文提出了两种reviewer:attentive input reviewer和attentive output reviewer。除此之外,本文也使用了discriminative supervision(预测在caption中出现的词),可以使reviewer学习到的thought向量更趋近于预测到图片中出现的词。论文结构清晰,其思考方式值得借鉴。
论文链接:
https://arxiv.org/pdf/1605.07912.pdf
源代码链接:
https://github.com/kimiyoung/review_net


猜你喜欢

转载自blog.csdn.net/sinat_33761963/article/details/80162533
今日推荐