机器学习面试题汇总(集成学习相关)
集成学习面试题
1.什么是集成学习算法?
2.集成学习主要有哪几种框架?
3.简单介绍一下bagging,常用bagging算法有哪些?
4.简单介绍一下boosting,常用boosting算法有哪些?
5.boosting思想的数学表达式是什么?
6.简单介绍一下stacking,常用stacking算法有哪些?
7.你意识到你的模型受到低偏差和高方差问题的困扰,应该使用哪种算法来解决问题呢?为什么?
8.简述一下随机森林算法的原理
9.随机森林的随机性体现在哪里?
10.随机森林为什么不容易过拟合?
11.你已经建了一个有10000棵树的随机森林模型。在得到0.00的训练误差后,你非常高兴。但是,验证错误是34.23。到底是怎么回事?你还没有训练好你的模型吗?
12.如何使用随机森林去弥补特征向量中的缺失值
13.如何使用随机森林对特征重要性进行评估?
14.随机森林算法训练时主要需要调整哪些参数?
15.随机森林为什么不能用全样本去训练m棵决策树?
16.随机森林算法有哪些优缺点
17.简述一下Adaboost原理
18.AdaBoost的优点和缺点
19.为什么Adaboost对噪声敏感?
20.Adaboost和随机森林算法的异同点
集成学习面试题二
1.简述GBDT原理
2.GBDT常用损失函数有哪些?
3.GBDT中为什么要用负梯度来代替残差计算?
4.GBDT如何用于分类?
5.GBDT中的决策树是分类树还是回归树?
6.如何使用GBDT构建特征?
7.为什么GBDT不适合使用高维稀疏特征?
8.GBDT通过什么方式减少误差?
9. GBDT如何进行正则化?
10.GBDT里的G代表什么,体现在哪里?
11.GBDT需要调试的参数有哪些?
12.GBDT算法的优缺点有哪些?
13.Xgboost/GBDT在调参时为什么树的深度很少就能达到很高的精度,而随机森林需要的深度相对较高?
14.为什么Xgboost要用泰勒展开,优势在哪里?
15.Xgboost如何寻找最优特征?
16.Xgboost采样是有放回还是无放回的呢?
17.XGBoost训练通常调整的参数有哪些?
18.XGBoost中的树是如何剪枝?
19.XGBoost如何解决缺失值问题?
20.XGBoost和GBDT的区别
面试题答案总结请扫描小程序码在面试题相关小程序中查看:
获取更多校园招聘资讯请关注校园招聘公众号校招辅助(xiaozhaofuzhu):