标签(空格分隔): 文章阅读
1. Introduction
不是所有的节点都有有用信息,所以引入注意力模型。
注意力机制利用全局背景信息
对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。
本文的GCA-LSTM,将初始背景信息送给每一个step。
ST-LSTM
S for Spatial
T for Temporal
)
标签(空格分隔): 文章阅读
不是所有的节点都有有用信息,所以引入注意力模型。
注意力机制利用全局背景信息
对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。
本文的GCA-LSTM,将初始背景信息送给每一个step。
S for Spatial
T for Temporal
)