原文链接
问题类型
转化为抽取式摘要生成任务:从原来标题中提取出若干更短的标题,更能促成成交转化。
传统
传统抽取式压缩方法分两步执行:
- 分词,NER,调词权重
- 限制性优化(如
knapsack
或者ILP
)
种类
- 贪心方法
- 基于图
- 受限优化
从词抽取角度出发,有
AttSum
方法解决extractive query-focused document summarization的问题。当给定一个query之后,模型会学到query的相关度,
不足
原始方法的缺点:
- 人工标注大量数据
- 没有考虑
CVR
改进点
两个有attention
的NN,一个用来编辑短标题和原始标题,另一个对用户的搜索词进行建模。
两个网络在词向量编码上完全相同,在对优化原始标题attention的分布问题上也完全相同。