动手学深度学习task4

机器翻译 与seq2seq

由于机器翻译任务中输入输出都是不定长序列,我们可以使用编码器—解码器(encoder-decoder)或者seq2seq模型 。

在这里插入图片描述

注意力机制

attention模仿人类注意力,能让模型更关注数据的局部。

发布了5 篇原创文章 · 获赞 0 · 访问量 49

猜你喜欢

转载自blog.csdn.net/u012302260/article/details/104398275
今日推荐