sklearn与XGBoost

sklearn与XGBoost
  1 在学习XGBoost之前
    1.1 机器学习竞赛的胜利女神
    1.2 xgboost库与XGB的sklearn API
    1.3 XGBoost的三大板块
  2 梯度提升树
    2.1 提升集成算法:重要参数n_estimators
    2.2 有放回随机抽样:重要参数subsample
    2.3 迭代决策树:重要参数eta
  3 XGBoost的智慧
    3.1 选择弱评估器:重要参数booster
    3.2 XGB的目标函数:重要参数objective
    3.3 求解XGB的目标函数
    3.4 参数化决策树 :参数alpha,lambda
    3.5 寻找最佳树结构:求解 与
    3.6 寻找最佳分枝:结构分数之差
    3.7 让树停止生长:重要参数gamma
  4 XGBoost应用中的其他问题
    4.1 过拟合:剪枝参数与回归模型调参
    4.2 XGBoost模型的保存和调用
      4.2.1 使用Pickle保存和调用模型
      4.2.2 使用Joblib保存和调用模型
    4.3 分类案例:XGB中的样本不均衡问题
    4.4 XGBoost类中的其他参数和功能
  XGBoost结语

猜你喜欢

转载自www.cnblogs.com/tianqizhi/p/10556984.html