(一)XGBoost入门

import xgboost as xgb
# 读数据
dtrain = xgb.DMatrix('xxx/xgboost/demo/data/agaricus.txt.train')
dtest = xgb.DMatrix('xxx/xgboost/demo/data/agaricus.txt.test')
# 定义参数
#在运行XGboost之前,我们必须设置三种类型的参数:general parameters, booster parameters and task parameters.。
"""
1.max_depth [default = 6](Parameters for Tree Booster)
树的最大深度,增加此值将使模型更复杂/可能过度拟合。0表示没有限制,深度增长策略需要限制。
范围:[0,∞]
2.eta [默认= 0.3,别名:learning_rate](Parameters for Tree Booster)
更新中使用的步长缩小以防止过度拟合。在每个提升步骤之后,我们可以直接获得新功能的权重。并且eta实际上缩小了特征权重以使增强过程更加保守。
范围:[0,1]
3.silent [default=0](General Parameters)
0表示打印运行消息,1表示静默模式
4.objective [default=reg:linear](Learning Task Parameters)
binary:logistic"  二元分类的逻辑回归,输出概率
"""
param = {'max_depth':2, 'eta':1, 'silent':1, 'objective':'binary:logistic' }
#Command Line Parameters: 提升的轮次数
num_round = 2
#训练
bst = xgb.train(param, dtrain, num_round)
# 预测
preds = bst.predict(dtest)
preds
array([0.28583017, 0.9239239 , 0.28583017, ..., 0.9239239 , 0.05169873,
       0.9239239 ], dtype=float32)

参考https://xgboost.readthedocs.io/en/latest/index.html

猜你喜欢

转载自blog.csdn.net/hao5335156/article/details/81172505