【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)

1 激活函数

1.1 sigmoid

在这里插入图片描述

1.2 tanh

在这里插入图片描述
优缺点:
在这里插入图片描述
引入更简单更高效的函数:

1.3 ReLU函数

在这里插入图片描述
softplus导数正好为sigmoid。

在这里插入图片描述

1.4 ReLU函数的变种

在这里插入图片描述

2 Dropout

2.1 原理

在这里插入图片描述
最后一种方法太耗时。
在这里插入图片描述
去掉神经元的同时,输入输出也要去掉。-》得到一个子网络。
训练的时候都会在神经网路中抽样。

在这里插入图片描述
r1,r2,r3 取0 or 1.
在这里插入图片描述
Dropout可以与其他方法混合使用。

2.2 实验

在这里插入图片描述
在这里插入图片描述
用dorpout之后,units(参数量)明显增大。
在这里插入图片描述
在这里插入图片描述
+L2正则以此类推。

在这里插入图片描述
在这里插入图片描述
CNN草图:真草图!
在这里插入图片描述
在CNN和max pooling基础上,在全连接层加入dropout后效果更佳。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在6层神经网路上加入dropout,同理。

2.3 作者重点分析的一些特点

在这里插入图片描述
学习到更通用的特征。
在这里插入图片描述
大量的神经元都没有被激活,位于0周围。
在这里插入图片描述
左图过拟合。右图控制期望神经元数量(左图控制神经元数量)。
在这里插入图片描述
在这里插入图片描述
这张图说明dropout的权值缩放效果很好。

发布了936 篇原创文章 · 获赞 256 · 访问量 11万+

猜你喜欢

转载自blog.csdn.net/weixin_43838785/article/details/105440914
今日推荐