【持续更新】机器学习常见面试题

统计学习的核心步骤

模型、策略、算法


如何解决正负样本不平衡


特征选择的方法


过拟合的解决方法


在模型的训练迭代中,怎么评估效果


L1和L2

1. L2惩罚项是怎么减小Overfitting的?L1,L2等范数的通式是什么?他们之间的区别是什么?在什么场景下用什么范数?L1在0处不可导,怎么处理?

2. L1 与 L2 的区别以及如何解决 L1 求导困难?


如何用尽可能少的样本训练模型同时又保证模型的性能


svm的原理、优缺点、适用场景

用拉格朗日公式推导SVM kernel变换


LR的推导


bagging、adaboost、boosting


决策树原理、优缺点、适用场景

决策树处理连续值的方法


rf, gbdt, xgboost的区别


CART算法及如何剪枝


EM算法的原理


kNN的原理


k-means的原理(会写代码)优缺点及改进

EM与k-means关系


朴素贝叶斯与贝叶斯网络原理、优缺点、适用场景


深度学习相关

神经网络(CNN、KNN、DNN)的推导和原理


PCA主成分分析


Apriori算法


推荐系统(UserCF、itemCF)


梯度下降、牛顿法、各种随机搜索算法(基因、蚁群等等)

猜你喜欢

转载自blog.csdn.net/u011545382/article/details/77775560