0.0 目录-深度学习第二课《改善神经网络》-Stanford吴恩达教授

目录

《改善神经网络》 笔记列表
Week 1 深度学习的实用层面
Week 1 传送门 —> [1.1 训练/开发/测试集]
[1.2 偏差/方差]
[1.3 机器学习基础]
[1.4 正则化]
[1.5 为什么正则化可以减少过拟合]
[1.6 Dropout 正则化]
[1.7 理解 Dropout]
[1.8 其他正则化方法]
[1.9 归一化输入]
[1.10 梯度消失与梯度爆炸]
[1.11 神经网络的权重初始化]
[1.12 梯度的数值逼近]
[1.13 梯度检验]
[1.14 关于梯度检验实现的注记]
Week 2 优化算法
Week 2 传送门 —> [2.1 Mini-batch 梯度下降]
[2.2 理解 mini-batch 梯度下降法]
[2.3 指数加权平均]
[2.4 理解指数加权平均]
[2.5 指数加权平均的偏差修正]
[2.6 动量梯度下降法]
[2.7 RMSprop]
[2.8 Adam 优化算法]
[2.9 学习率衰减]
[2.10 局部最优的问题]
Week 3 超参数调试、Batch正则化和程序框架
Week 3 传送门 —> [3.1 调试处理]
[3.2 为超参数选择合适的范围]
[3.3 超参数训练的实践: Pandas vs. Caviar]
[3.4 正则化网络的激活函数]
[3.5 将 Batch Norm 拟合进神经网络]
[3.6 Batch Norm 为什么奏效]
[3.7 测试时的 Batch Norm]
[3.8 Softmax 回归]
[3.9 训练一个 Softmax 分类器]
[3.10 深度学习框架]
[3.11 TensorFlow]
采访 大牛采访
传送门 —> Yoshua
Yuanqing Lin
发布了187 篇原创文章 · 获赞 7 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_36815313/article/details/105369644