RNN隐藏层的两种计算方法GRU和LSTM

本篇文章主要介绍两种RNN的隐藏层信息计算方法GRU(Gated Recurrent Units)和LSTM(Long-Short-Term-Memories),这两种隐藏层的计算方法通过引入门(Gate) 的机制来解决RNN的梯度消失问题,从而学习到长距离依赖。

这里说的隐藏层计算方法指的是如何计算下个时刻的隐藏层信息,标准RNN中计算 方法是:



LSTMGRU可以理解为计算ht的另一种方法。

LSTM

这篇文章详细 地解释了LSTM各个门的物理含义, 以及LSTM计算隐藏层的方法,这里简要的进行总结, 下图是LSTM网络的示意图,图中各个符号的含义参考原文LSTM RNN

某个时刻LSTM计算隐藏层的方法参考下图:LSTM 单元



GRU

GRU可以看成是LSTM的变种,GRULSTM中的forget gateinput gateupdate gate来替代。 把cell state和隐状态htht进行合并,在计算当前时刻新信息的方法和LSTM有所不同。 下图是GRU更新htht的过程:GRU

 具体更新过程如下

猜你喜欢

转载自blog.csdn.net/u011734144/article/details/80284033
今日推荐