Attention使用注意力机制的seq2seq 动手学深度学习v2

1. Attention使用注意力机制的seq2seq

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

2. Attention使用注意力机制的seq2seq 代码实现

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. Q&A

    1. attention在搜索的时候,是在当前句子搜索。
    1. 一般都是在decoder加入注意力机制?不一定的,BERT就是在encoder中加入attention。
    1. 图像attention,就是从图片抽取patch,也就一小块一小块,作为attention。

参考

https://www.bilibili.com/video/BV1v44y1C7Tg?p=1

猜你喜欢

转载自blog.csdn.net/zgpeace/article/details/124778059