版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_32146369/article/details/89046788
选模型:
- 用k折交叉验证来选取效果最好的模型。
选超参数:
- 确定了模型之后用GridSearch找到这个模型最好的超参数。
模型融合:
Bagging:
- 每次取数据集的一个子集训练模型
- 分类就用这些模型的结果投票
- 回归就对这些模型取均值
Stacking:
- 用多种预测器的结果训练
Boosting:
- 用XGboost计算feature importance
- 用GridSearch找最佳参数