A Graph-to-Sequence Model for AMR-to-Text Generation读书笔记

发表于ACL2018

AMR-to-Text以往的方法使用seq2seq模型,利用深度优先搜索将AMR变成序列,再利用LSTM模型编码,采用Encoder-Decoder方法得到Text。这类方法会损失AMR结构信息,某些相邻结点在序列中可能距离很远,不利于信息传递。

本文使用图上的LSTM对每个结点编码,再利用Encoder-Decoder方法得到Text。采用多步信息传递,每步传递时,每个结点接收从相邻结点传递的信息,更新自己的信息。更新机制类似LSTM。可以看出,该方法很类似GCN,不过采用了LSTM的门机制和遗忘机制。

另外,在生成时为了解决时间、人名等生成问题,采用Copy机制,利用一个门机制控制生成的单词是使用生成还是复制。

猜你喜欢

转载自blog.csdn.net/sjh18813050566/article/details/86664420
今日推荐