Tensorflow2.0 入门与实战学习笔记(一、二)-优化函数、学习率、反向传播

目录

理论知识

1.1多层感知器

1.2梯度下降法

1.3 学习速率-超参数(手工可配置)

1.4 反向传播算法

1.5 优化函数

RMSprop

1.6 网络优化与超参数的选择

1.6.1 如何选择超参数

采用dropout防止过拟合

为什么说Dropout可以解决过拟合?

1.7 实战


理论知识

1.1多层感知器

1.2梯度下降法

1.3 学习速率-超参数(手工可配置)

不合适的学习速率

局部极值点

1.4 反向传播算法

1.5 优化函数

  • SGD 随机梯度
  • adam优化器

常见参数

RMSprop

代码实现

1.6 网络优化与超参数的选择

1.6.1 如何选择超参数

那么如何提高网络的拟合能力

注意:
单层的神经元个数,不能太小,太小的话,会造成信息瓶颈,使得模型欠拟合

13W个可训练参数

结果提高了

从正确率来看

  • 欠拟合:测试和训练数据分都低
  • 过拟合:在测试数据上得分比较低,在训练数据分比较

采用dropout防止过拟合

随机森林和集成方法

AlexNet论文中提到

为什么说Dropout可以解决过拟合?

参数选择

因此我们参数训练原则

然后,抑制过拟合---容量上没问题

抑制过拟合 最好的办法是增加训练数据

调整参数-经验

构建网络总原则

总原则:保证神经网络容量足够拟合数据

一、增大网络容量,直到过拟合

二、采取措施抑制过拟合

三、继续增大网路容量,直到过拟合

1.7 实战

如何在网络中添加droupout层

减少网络规模也是一种方法

猜你喜欢

转载自blog.csdn.net/qq_37457202/article/details/107761309
今日推荐