【神经网络】LSTM

1.什么是LSTM

        长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

        LSTM区别于RNN地方,主要就在于它在算法中加入了一个判断信息有用与否的"处理器",这个处理器作用的结构被称为cell。一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。

2.LSTM的优势

2-1 LSTM架构

        相比于RNN,LSTM的结构增加了三个门“遗忘门”、“输入门”、“输出门”。LSTM靠着一些“门”结构让信息有选择地影响循环神经网络中每个时刻的状态,所谓“门”结构,就是使用一个sigmoid的全连接层和一个按位做乘法的操作,这两个结合起来就是一个“门”结构。之所以叫“门”结构是因为使用sigmoid作为激活函数的全连接神经网络会输出一个0到1之间的数值,描述当前输入的有多少信息量可以通过这个结构。当门全打开时(sigmoid全连接层输出为1时),全部信息都能通过;当门全部关上时(sigmoid全连接层输出为0时),任何信息不能通过。如下图为LSTM的整体结构图,其中黄色的框代表的是激活函数,其中σ代表sigmoid函数(0-1之间),tanh自然就是tanh函数(-1-1之间);粉色的圆圈代表的是向量之间的运算。 

如下图为LSTM的内部结构图。

    图中ca2e01a80a0220069168f9b012ff4216.png代表遗忘门,cf5bcb9803a46fb739b2800951c1c319.png代表输入门,3091516090d9993be68608a46fdd16f3.png代表输出门。C是memroy cell,存储记忆信息。681ac60ef0697ba97c40ebbbff9872d3.png代表上一时刻的记忆信息,3802974735f2ec4406ecb0f40bb75db7.png代表当前时刻的记忆信息,h是LSTM单元的输出,5a90fed5f45bb9b10a9202b28941df7a.png是前一刻的输出。

2-2 LSTM结构

2-2-1 细胞状态

        LSTM的关键是细胞状态(直译:cell state),表示为 Ct ,用来保存当前LSTM的状态信息并传递到下一时刻的LSTM中。当前的LSTM接收来自上一个时刻的细胞状态C_{t-1} ,并与当前x_{t}LSTM接收的信号输入x_{t} 共同作用产生当前LSTM的细胞状态C_{t} 。      

        在LSTM中,采用专门设计的“门”来引入或者去除细胞状态 Ct 中的信息。门是一种让信息选择性通过的方法。有的门跟信号处理中的滤波器有点类似,允许信号部分通过或者通过时被门加工了;有的门也跟数字电路中的逻辑门类似,允许信号通过或者不通过。这里所采用的门包含一个sigmod神经网络层和一个按位的乘法操作。

2-2-2遗忘门 

       遗忘门决定了细胞状态C_{t-1} 中的哪些信息将被遗忘。 遗忘门由一个sigmod神经网络层和一个按位乘操作构成。

        遗忘门包含一个sigmod神经网络层(黄色方框,神经网络参数为W_{f}b_{f}),接收t时刻的输入信号x_{t}t-1时刻LSTM的上一个输出信号h_{t-1},这两个信号进行拼接以后共同输入到神经网络层sigmod中,然后输出信号f_{t} ,f_{t}是0-1到之间的数值,并与C_{t-1}相乘来决定C_{t-1}中的哪些信息将被保留,哪些信息将被舍弃。具体公式如下:

        C_{t-1}= [0.5,0.6,0.7],h_{t-1} = [0.3,0.8,0.69],x_{t} = [0.2,1,3,0.7] ,那遗忘门的输入信号就是h_{t-1}x_{t}的组合,[h_{t-1},x_{t}] = [0.3,0.8,0.69,0.2,1.3,0.7],然后通过sigmod神经网络层输出每个元素都是处于0-1之间的向量f_{t} = [0.5,0.1,0.8]C_{t-1}按位相乘。

 2-2-3 输入门

        输入门的作用与遗忘门相反,它将决定新输入的信息x_{t}h_{t-1}中哪些信息将被保留。输入门包含两部分,一个是sigmod神经网络层(神经网络参数为W_{i}b_{i})和一个tanh神经网络层(神经网络参数为W_{c}b_{c})

        sigmod神经网络层的作用很明显,跟遗忘门一样,它接收 h_{t-1}x_{t}作为输入,然后输出一个0到1之间的数值i_{t}来决定哪些信息需要被更新; 

        Tanh神经网络层的作用是将输入的 h_{t-1}x_{t}整合,然后通过tanh神经网络层来创建一个新的状态候选向量\tilde{C_{t}}\tilde{C_{t}}的值范围在-1到1之间。 

        输入门的输出由上述两个神经网络层的输出决定i_{t} 与\tilde{C_{t}}相乘来选择哪些信息将被新加入到  时刻的细胞状态C_{t}中。 

2-2-4 细胞状态更新

        通过遗忘门和输入门,将可以细胞状态 Ct更新。

        细胞状态更新公式如下: 

     将遗忘门的输出f_{t} 与上一时刻的细胞状态C_{t-1}相乘来选择遗忘和保留一些信息,将输入门的输出与从遗忘门选择后的信息加和得到新的细胞状态 C_{t}。这就表示t时刻的细胞状态C_{t}已经包含了此时需要丢弃的t-1时刻传递的信息和t时刻从输入信号获取的需要新加入的信息i_{t}*\tilde{C_{t}}。 C_{t}将继续传递到t+1时刻的LSTM网络中,作为新的细胞状态传递下去。  

2-2-5 输出门

        输出门用来控制单元状态C_{t}有多少输入到LSTM的当前输出h_{t}。由sigmod神经网络层tanh激活函数以及按位乘操作组成。

         h_{t-1}x_{t}作为输入,经过sigmod的神经网络层(神经网络层的网络参数为W_{0}b_{0}),然后输出一个0到1之间的数值o_{t}; 

            C_{t}经过一个tanh激活函数,此处需要注意的是(tanh是作为激活函数而不是神经网络层)得到一个在-1到1之间的树枝,并与o_{t}相乘得到输出信号h_{t}。之后h_{t}作为下一时刻的输入信号传递到下一阶段。

3.后记

        LSTM通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息;而不像普通的RNN那样只能够“呆萌”地仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说,尤其好用。但也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多。

猜你喜欢

转载自blog.csdn.net/weixin_44750512/article/details/128838455