创新实训(12)——基于seq2seq和attention的文档自动摘要(续)

前言

前天,在colab上跑了一个有关自动摘要的神经网络模型,当时是晚上跑的,想让他跑一晚上,结果早晨起来发现,掉线了,跑到了一半,功亏一篑。
然后第二天白天,又跑了一白天
到下午的时候终于
在这里插入图片描述
50轮完成。
和刚开始相比:
在这里插入图片描述
从三十几轮开始,损失率越来越高,一点都没收敛,可能是学习率太高的缘故。
明天白天调一下参数在跑一次。

但总算有个模型可以用了,我们找一句话尝试一下这个模型怎么样。
在这里插入图片描述好大啊
结果:
在这里插入图片描述
一点效果都没有,白费这么长时间,坑好大啊

猜你喜欢

转载自blog.csdn.net/baidu_41871794/article/details/106724428
今日推荐