人工智能、深度学习、机器学习常见面试题56~70

56. 已知:

  - 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。
  - 每一个神经元都有输入、处理函数和输出。
  - 神经元组合起来形成了网络,可以拟合任何函数。
  - 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型

  给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?

  A. **加入更多层,使神经网络的深度增加**

  B. 有维度更高的数据

  C. 当这是一个图形识别的问题时

  D. 以上都不正确
  解析:A,更多层意味着网络更深。没有严格的定义多少层的模型才叫深度模型,目前如果有超过2层的隐层,那么也可以及叫做深度模型。
 

57. 训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。这么说是对,还是不对?

A.对

B.不对


   解析:对。训练CNN时,可以进行这些操作。当然也不一定是必须的,只是data augmentation扩充数据后,模型有更多数据训练,泛化能力可能会变强。
 

58. 下面哪项操作能实现跟神经网络中Dropout的类似效果? 

A.Boosting

B.Bagging

C.Stacking

D.Mapping


   解析:B。Dropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,从而实现模型参数的高度正则化。
 

59. CNN的卷积核是单层的还是

猜你喜欢

转载自blog.csdn.net/ccsss22/article/details/126324432