百面机器学习(9)前向神经网络

目录

01 多层感知机与布尔函数

02 深度神经网络中的激活函数

03 多层感知机的反向传播算法

04 神经网络训练技巧

05 深度卷积神经网络

06 深度残差网络


01 多层感知机与布尔函数

02 深度神经网络中的激活函数

(1)常用激活函数及其导数:

(2)为什么sigmoid和tanh激活函数会导致梯度消失?
(3)Relu相对于sigmoid和tanh优点是什么?有什么局限性和改进方法?
 

03 多层感知机的反向传播算法

(1)多层感知机的平方误差和交叉熵损失函数

(2)推导各层参数更新的梯度计算公式

(3)平方误差损失函数和交叉熵损失函数分别适用什么场景?

04 神经网络训练技巧

过拟合:参数庞大,但是数据太少

解决方法:数据集增强,参数惩罚,模型集成(最高效:dropout)

手调参数:学习率,权重衰减系数,dropout比例

BN:加速收敛,提升泛化

(1)神经网络训练时,是否可以把所有参数初始化为0

不可以,随机性。不然无法传播。

(2)dropout可以抑制过拟合的原因?

每次随意丢弃神经元,相当于每次训练的都是不一样的网络。

轻量级的集成

(3)BN动机和原理?批量归一化

05 深度卷积神经网络

图像处理,深度学习,NLP

(1)卷积操作的本质特性包括稀疏交互和参数共享,解释

稀疏交互:

(2)常用的池化操作?池化的作用?

均值池化、最大池化

作用:减少参数,平移/旋转/伸缩不变性

06 深度残差网络

(1)ResNet的提出背景和核心理论?
解决或环节深层神经网络中的梯度消失问题。

猜你喜欢

转载自blog.csdn.net/weixin_41770169/article/details/93777642