一、XGBoost算法

一、Xgboost模型参数

         Xgboost模型有3种类型的参数:通用参数、辅助参数和任务参数。通用参数确定上升过程中上升模型类型,常用树或线性模型;辅助参数取决于所选的上升模型;任务参数定义学习任务和相应的学习目标。

Xgboost模型中,常用参数说明如下:
(1)Xgboost:设置需要使用的上升模型。可选gbtree(树)或gblinear(线性函数),默认为gbtree。

(2)nthread:Xgboost运行时的并行线程数,默认为当前系统可以获得的最大可用线程数。

(3)eta:收缩步长,即学习速率,取值范围是,默认为0.3。在更新叶子节点的时候,权重乘以eta,以避免在更新过程中的过拟合。
(4)max_depth:每棵树的最大深度,取值范围,默认为6。树越深,越容易过拟合。
(5)subsample:训练的实例样本占整体实例样本的比例,取值范围是(0,1],默认为1。值为0.5时意味着Xgboost随机抽取一半的数据实例来生成树模型,这样能防止过拟合。
(6)colsample_bytree :在构建每棵树时,列(特征)的子样本比,参数值的范围是(0,1]。
(7)objective:默认为reg:linear;
(8)seed:随机数种子,为确保数据的可重现性,默认为0。

猜你喜欢

转载自blog.csdn.net/weixin_39541558/article/details/80746084