GRU--

RNN没有机制去关注某些地方,或者不关注某些地方。 

门控神经网络,通过一些gating单元使得我们在构造隐藏状态的时候可以选择重要的,忘记不重要的。同注意力机制。

更新门:发现一个数据比较重要,想要尽量用它去更新隐藏状态。

遗忘门(重置门):发现一个到目前为止不重要的,可能是输入,或者是隐藏状态里的一部分。

上图表示一个层, 有一个输入:X_{t};一个隐藏状态H_{t-1}.

 候选隐状态:去掉R_{t},隐状态计算方法同RNN。

:按元素乘法的意思。

如果R_{t}的元素靠近0,的结果就会靠近0.

 真正的隐状态是Z_{t}按元素点乘上一次的隐状态+(1-z_{t})点乘候选隐藏状态。

如果Z_{t}=0:基本就回到了RNN的状态。不去看过去的状态,只看现在的状态。

猜你喜欢

转载自blog.csdn.net/qq_45828494/article/details/127059710
GRU