机器学习_李宏毅笔记简记3

P9 Tips for Deep Learning

神经网络的表现(只有在training data上表现好,testing data上表现不好才叫overfitting,在training data上表现好再考虑下一步testing data,分别有不同的处理办法)

在这里插入图片描述在这里插入图片描述


For training data

1. New activation function(新的激活函数)

Vanishing Gradient Problem(梯度消失)

产生原因:(前面变化慢,后面变化快,前面还是随机的时候后面已经收敛了)

在这里插入图片描述

利用sigmod激活函数举例:(每通过一次sigmod,衰减就会变小,对后面几乎无影响了)

在这里插入图片描述

解决办法:改用新的激活函数ReLU

在这里插入图片描述

终极解决办法:让network自动学习激活函数:Maxout

在这里插入图片描述在这里插入图片描述

2.Adaptive Learning Rate(自适应学习率)

Adagrad

在这里插入图片描述

RMSProp(给一个概率α,倾向于相信以前的运动轨迹还是现在的)

在这里插入图片描述

Adam(RMSProp + Momentum )

Momentum

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

For testing data(前提是你已经在training data已经得到了很好的结果了)

1. Early Stopping

在这里插入图片描述在这里插入图片描述

扫描二维码关注公众号,回复: 12919737 查看本文章

2. Regularization

L2 regularization(成比例下降)

在这里插入图片描述在这里插入图片描述在这里插入图片描述

L1 regularization: (减去一个固定值)

在这里插入图片描述在这里插入图片描述

3. Dropout

如何做Dropout?(训练时每一个Neuron以概率p不用,测试时乘以(1 - p)%)

在这里插入图片描述
在train的时候,每一次update参数之前,对network里面的每个neural(包括input),做sampling(抽样)。 每个neural会有p%会被丢掉,跟着的weight也会被丢掉。
在这里插入图片描述
你在training 时,performance会变的有一点差(某些neural不见了),加上dropout,你会看到在testing set会变得有点差,但是dropout真正做的事就是让你testing 越做越好
在这里插入图片描述
在这里插入图片描述

为什么Dropout会有用

在这里插入图片描述在这里插入图片描述

testing时为什么要乘以(1-p)%

在这里插入图片描述

还是在解释为什么要乘以(1-p)%(Dropout is a kind of ensemble,平均起来?这样做近似等于训练了 2 M 2 ^ M 2M个Neuron,把所有都考虑了)

在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

P10 Backpropagation

不清楚也没关系,只用知道这是有效计算梯度的方式

别人优秀的笔记

LeeML-Notes

20年课程网页

【2020春季】李宏毅机器学习(全) - 视频学习

猜你喜欢

转载自blog.csdn.net/weixin_43154149/article/details/114841281
今日推荐