对话系统论文集(20)-阅读state tracking笔记

论文《Global-Locally Self-Attentive Encoder for Dialogue State Tracking》
论文Sequicity: Simplifying Task-oriented Dialogue Systems with Single
Sequence-to-Sequence Architectures


第一篇
在这里插入图片描述
输入是: X R n × d e m b X ∈ R^{n×d_{emb}} n是一句话的单词个数
输出是:
模型框架:global LSTM+local LSTM ->global attn + local attn
global是slot之间
local是slot自己的value信息

生成的是state的信息,与要产生的action没有关系。


第二篇
先生成B(就是槽值对),
然后生成回复(KB结果结合之前的生成)使用encoder-decoder
数据集不是dstc2

猜你喜欢

转载自blog.csdn.net/yagreenhand/article/details/89358690
今日推荐