Development of Neural Network Models in Text Summarization - 4

本系列博文主要介绍了在文本摘要领域神经网络模型的一些发展,主要基于如下几类模型:

  • Basic Encoder-Decoder model
  • Encoder-Decoder + Attention
  • Deep Reinforced model
  • Bert based model
  • GAN based model
  • Consideration

Consideration

EMNLP 2018 《On the Abstractiveness of Neural Document Summarization》

基于Encoder-Decoder的抽象式摘要模型已经可以取得不错的效果,作者在本文中希望通过计算摘要中不同单元(unit)和文档之间的交叠来判断它的抽象性(Abstractivenes)。经过实验发现,许多的抽象式模型生成的摘要的抽象性趋近于抽取式模型的效果,并且作者只使用简单的copy机制也可以得到相对较好的结果。

通过本文作者提出,源文档中的信息对于两种摘要模型的效果都起着重要的作用,若能更好的利用源文档中已有的信息,往往可以生成质量更高的摘要。

为了验证摘要的抽象性,作者在最长公共子序列(longest common subsequence)、n-grams和全句三个层级上计算摘要和源文档的交叠率。

文中所涉及的基准模型有:

  • basic Seq2Seq model
  • pointer-generator system
  • graph-based attention system
  • Distraction system
  • Deep reinforced model

所采用的数据集为CNN/Daily Mail。


在这里插入图片描述

从关于交叠率的实验结果中可以看出,pointer-generator模型和Reinforced model的值最大,这是pointer network的原理以及Reinforced model依赖的intra-attention机制所导致的结果。

虽然其他的模型的sentence的交叠率较低,但是从unigram的值可以看出生成的摘要中的词大部分还是来源于源文档。另外虽然graph-based model的值很低,但是它所产生的摘要表述的内容有时和源文档并不一致。

从中可以看出,上述的模型本质上还是严重依赖于直接从源文档中复制部分内容组成结果,摘要的抽象性并不高。

因为使用了pointer-generator model加上直接从注意力分布采样的方式建立一个简单的模型,验证仅从源文档中复制部分词或句子的方式能否得到好的摘要,模型的目标是最大化参考摘要中所包含词的似然函数值。

扫描二维码关注公众号,回复: 9095609 查看本文章

在这里插入图片描述

从ROUGE分数中可以看出,这种简单模型的效果和Lead-3差不多,再引入coverage机制后又可以一定程度的提升模型效果。


在这里插入图片描述

而且人工评判在信息量(informativeness,INF)、相关性(relevance,REL)和连贯性(coherence,COH)中的结果可以看出,采用单纯复制的方式得到的摘要并不差于其他的模型。

总结

现在的抽象式模型所生成的摘要本身的抽象性并不高,它们还是很大部分依赖于直接从源文档中复制某些内容,因此如何在保证语法正确、可读性良好和连贯性良好的基础上,提高生成摘要的抽象性,仍然是一个待解决的问题。


ROUGE

ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是文本摘要任务最常用、也最受到认可的指标,它是一个指标集合,包括一些衍生的指标,最常用的有ROUGE-n,ROUGE-L,ROUGE-SU:

  • ROUGE-n:该指标旨在通过比较生成的摘要和参考摘要的n-grams(连续的n个词)评价摘要的质量。常用的有ROUGE-1,ROUGE-2,ROUGE-3
  • ROUGE-L:不同于ROUGE-n,该指标基于最长公共子序列(LCS)评价摘要。如果生成的摘要和参考摘要的LCS越长,那么认为生成的摘要质量越高,不足之处在于,它要求n-grams一定是连续的
  • ROUGE-SU:该指标综合考虑uni-grams(n = 1)和bi-grams(n = 2),允许bi-grams的第一个字和第二个字之间插入其他词,因此比ROUGE-L更灵活。

ROUGE作为自动评价指标,它和人工评定的相关度较高,在自动评价摘要中能给出有效的参考。但另一方面,从以上对ROUGE指标的描述可以看出,ROUGE基于字的对应而非语义的对应,生成的摘要在字词上与参考摘要越接近,那么它的ROUGE值将越高。但单一的使用ROUGE进行评估摘要的好坏也存在一些问题,ROUGE分数高的摘要可读性不一定好,因此才有了上面的结合强化学习的训练方式。


Baseline Models

Extractive model

Lead-3

SummmaRuNNer:

[Nallapati et al., 2017] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, pages 3075–3081, 2017.

Refresh:

[Narayan et al., 2018] Shashi Narayan, Shay B Cohen, and Mirella Lapata. Ranking Sentences for Extractive Summarization with Reinforcement Learning. arXiv preprint arXiv:1802.08636, 2018.

DeepChannel:

[Shi et al., 2018] Jiaxin Shi, Chen Liang, Lei Hou, Juanzi Li, Zhiyuan Liu, and Hanwang Zhang. DeepChannel: Salience Estimation by Contrastive Learning for Extractive Document Summarization. CoRR, 2018.

rnn-exl+RL:

[Chen and Bansal, 2018] Yen-Chun Chen and Mohit Bansal. Fast abstractive summarization with reinforce-selected sentence rewriting. arXiv preprint arXiv:1805.11080, 2018.

M A S K L M g l o b a l MASK-LM^{global} :

[Chang et al., 2019] Ming-Wei Chang, Kristina Toutanova, Kenton Lee, and Jacob Devlin. Language Model Pre-training for Hierarchical Document Representations. arXiv preprint arXiv:1901.09128, 2019.

NeuSUM:

[Zhou et al., 2018] Qingyu Zhou, Nan Yang, Furu Wei, Shaohan Huang, Ming Zhou, and Tiejun Zhao. Neural document summarization by jointly learning to score and select sentences. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, ACL 2018, Melbourne, Australia, July 15-20, 2018, Volume 1: Long Papers, pages 654–663, 2018

Abstractive model

PoniterGenerator+Coverage:

[See et al., 2017] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, ACL, pages 1073–1083, 2017.

ML+RL+intra-attn:

[Paulus et al., 2018] Romain Paulus, Caiming Xiong, Richard Socher, and Palo Alto. A deep reinforced model for abstractive summarization. ICLR, pages 1–13, 2018.

inconsistency loss:

[Hsu et al., 2018] Wan-Ting Hsu, Chieh-Kai Lin, Ming-Ying Lee, Kerui Min, Jing Tang, and Min Sun. A unified model for extractive and abstractive summarization using inconsistency loss. arXiv preprint arXiv:1805.06266, 2018.

Bottom-Up Summarization:

[Gehrmann et al., 2018] Sebastian Gehrmann, Yuntian Deng, and Alexander M Rush. Bottom-up abstractive summarization. arXiv preprint arXiv:1808.10792, 2018.

DCA:

[Celikyilmaz et al., 2018] Asli Celikyilmaz, Antoine Bosselut, Xiaodong He, and Yejin Choi. Deep Communicating Agents for Abstractive Summarization. arXiv preprint arXiv:1803.10357, 2018.


在整个过程中参考了很多网上的资料,由于忘记保存链接,这里就给出参考资料地址了,衷心感谢他人的付出~

发布了267 篇原创文章 · 获赞 91 · 访问量 19万+

猜你喜欢

转载自blog.csdn.net/Forlogen/article/details/99642702
今日推荐