常见的深度学习面试题及解答

1. 在训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?

  不能说明这个模型就是无效的,造成模型不收敛的原因有很多,可能经过调整,模型效果很好。

原因:

  • 数据分类的标注不准确,样本的信息量太大导致模型不足以fit整个样本空间。
  • 学习率设置的太大容易产生震荡,太小会导致不收敛。
  • 可能复杂的分类任务用了简单的模型。
  • 数据没有进行归一化的操作。

https://blog.csdn.net/weixin_35479108/article/details/96981548

2. 什么是梯度消失?

  神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类或识别准确率反而下降了。这种现象叫做消失的梯度问题。

3. 图像处理中锐化和平滑的操作?

  锐化就是通过增强高频分量来减少图像中的模糊,在增强图像边缘的同时也增加了图像的噪声。
  平滑与锐化相反,过滤掉高频分量,减少图像的噪声是图片变得模糊。

4. Relu比Sigmoid的效果好在哪里?

  Sigmoid的导数只有在0的附近时有较好的激活性,而在正负饱和区域的梯度趋向于0,从而产生梯度弥散的现象,而relu在大于0的部分梯度为常数,所以不会有梯度弥散现象。Relu的导数计算的更快。Relu在负半区的导数为0,所以神经元激活值为负时,梯度为0,此神经元不参与训练,具有稀疏性。

5. 请你简要描述一下,VGG使用3*3卷积核的优势是什么?

  2个3*3的卷积核串联和5*5的卷积核有相同的感知野,前者拥有更少的参数。多个3*3的卷积核比一个较大尺寸的卷积核有更多层的非线性函数,增加了非线性表达,使判决函数更具有判决性。

https://www.cnblogs.com/zhangyang520/p/10969960.html

发布了378 篇原创文章 · 获赞 43 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/weixin_43283397/article/details/105130298