解决循环神经网络中梯度消失

解决单复数问题—网络深度太深,后面层的输出误差很难影响前面层的计算-----梯度消失
导数值很大或者出现NaN-----梯度爆炸-----梯度修剪

解决梯度消失的方法

1.GRU单元

在这里插入图片描述

2. 长短时间记忆(LSTM)

在这里插入图片描述
GRU的优点:更加简单的模型,更容易创建一个更大的网络,只有两个门,在计算性能上运行的更快,可以扩大模型的规模
LSTM优点:更加灵活和强大,因为有三个门

猜你喜欢

转载自blog.csdn.net/shenzhiping12/article/details/93771665
今日推荐