xgboost.XGBClassifier参数

打*参数为重要
XGBClassifier(
1.silent=0#设置成1则没有运行信息输出,默认为0.是否在运行时打印消息
2.*learning_rate=0.1#学习率,过大收敛不了,小了收敛慢
3.*min_child_weight=1#叶子里面h的和,h就是二阶导不清楚的看看xgboost原理,该参数越小越容易过拟合
4.*max_depth=6, # 构建树的深度,越大越容易过拟合,可以用CV函数来进行调优
5.gamma=0, # 树的叶子节点上作进一步分区所需的最小损失减少,越大越保守,一般0.1、0.2这样子
6.subsample=1, # 随机采样训练样本 训练实例的子采样比,典型值的范围在0.5-0.9之间。
7.max_delta_step=0,#最大增量步长,我们允许每个树的权重估计
8.colsample_bytree=1, # 生成树时进行的列采样 同subsample,一般在0.5-0.9
9.reg_lambda=1#控制模型复杂度的权重值的L2正则化项参数,越大越不容易过拟合
10.reg_alpha=0, # L1 正则项参数
11.n_estimators=100, #树的个数
12.objective= ‘multi:softmax’, #多分类的问题 指定学习任务和相应的学习目标
13.num_class=10, # 类别数,多分类与 multisoftmax 并用
14.seed=1000 #随机种子
15.scale_pos_weight=1, #如果取值大于0的话,在类别样本不平衡的情况下有助于快速收敛。平衡正负权重
16.nthread=4,# cpu 线程数 默认最大,没事你就别管他了

猜你喜欢

转载自blog.csdn.net/starmoth/article/details/84575432