做实验2

最近基本零进展。出现的问题:
1)GAN训练不好:
2)multi-gpu没有弄好,
应该:把所有的model和loss集成到一个class下。

计划:
1)GAN为什么会collapse:
–》观察:
G使用sample生成结果,reward一直是<0.2。
D对于loss_fake,在5个epoch之后稳定在0.5。无法判断G的回答是否有用。于是collapse。
G预训练结果不好。是一个问题。
–》发现seqgan的数据集是初始N(0,1),使用lstm生成的长度为20的句子。所以用在dialogue上不好用,是肯定的。
所以我应该去看lijiwei的代码,因为他是用在dialogue而且是对seqgan改动的初期。
-》
使用李纪为的方法,batch_size=128,尽力对G预训练好一些,在GAN中,D5G1,G训练时加入teacher-forcing,learning-rate使用1e-3.clip_grad_norm_使用5
发现问题,对D的train,D5中每次sample得到的是不同的batch数据。
进行teacher-forcing。

DP-GAN介绍说很容易D训练太好,无法梯度回传,和我的 情况不一样啊?

GAN的问题:
比如“西瓜汁好喝!”,我稍微改一下“西瓜汁好喝吗?”,尾巴动一点,整个意思都变了。GAN 局部信息重构到底是靠死记硬背训练样本,还是靠神经网络插值“生成”出来的?针对自然语言这种细节敏感的问题,GAN 不是一个首选方案,不然 n-gram 的 LM 也不会活到今天。
G来生成图像也相对容易,因为图像的结构化特征比较明显,就是用CNN可以较好提取的结构特征,但是语言的长程相关提取出来就比较难。语言应用需要对语言系统的整体结构特征进行提取,所以其应用落地就复杂一些。
GAN的梯度回传不好,参考Lan G的演讲。NLP的action space太大。

想法:
confirm在以前是什么样子,我能做什么改善。?
在dstc2数据集中,confirm是寻求确认,affirm是确认,request是要求店家的电话号码,thankyou/buy是对话结束。inform是询问。

猜你喜欢

转载自blog.csdn.net/yagreenhand/article/details/89093381
今日推荐