Global Context-Aware Attention LSTM

标签(空格分隔): 文章阅读


1. Introduction

不是所有的节点都有有用信息,所以引入注意力模型
注意力机制利用全局背景信息
对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。
本文的GCA-LSTM,将初始背景信息送给每一个step。

ST-LSTM

S for Spatial
T for Temporal

joints)

STLSTM

猜你喜欢

转载自blog.csdn.net/u013608336/article/details/78270586
今日推荐