吴恩达深度学习(笔记+作业)·第二课·第二周 优化算法(快速训练模型)

目录

一、Mini-batch梯度下降法

二、指数加权平均(Exponentially weighted averages)

三、Momentum(动量)梯度下降法

四、RMSprop算法(root mean square prop)

五、Adam优化算法(adaptive moment estimation)(Momentum+RMSprop)

六、学习率衰减

七、局部最优问题 

作业


一、Mini-batch梯度下降法

 

 

 最好选择不大不小的mini-batch,这样的效率的是最好的!

 一般多尝试几个值,找到最合适的那一个!

二、指数加权平均(Exponentially weighted averages)

 滤波器?时间序列里的指数平滑

 

 

 

 三、Momentum(动量)梯度下降法

 

 

 四、RMSprop算法(root mean square prop)

适用于不同深度学习的结构

 这样即便使用一个比较大的α(学习率)也不会出现太大的摆动!

五、Adam优化算法(adaptive moment estimation)(Momentum+RMSprop)

适用于不同深度学习的结构

 

 

 六、学习率衰减

 

 七、局部最优问题 

 

 作业

 

 

 

 【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第二周作业

猜你喜欢

转载自blog.csdn.net/weixin_44917390/article/details/119836328