机器学习_Xgboost+对比

【1】参数解释:https://www.cnblogs.com/zhangbojiangfeng/p/6428988.html

【2】实战:https://www.jianshu.com/p/5709fa18cdb4

【3】原理:http://blog.csdn.net/github_38414650/article/details/76061893

【4】调参步骤:http://blog.csdn.net/hx2017/article/details/78064362

【5】对比:http://blog.csdn.net/panda_zjd/article/details/71577463?utm_source=itdadao&utm_medium=referral

【6】https://mp.weixin.qq.com/s/duYCl9WcUjRj0nlL258b-g?scene=25#wechat_redirect这篇写的比较好。

        eta学习率的解释:你可以是几个回归树的叶子节点之和为预测值,也可以是加权,比如第一棵树预测值为3.3,label为4.0,第二棵树才学0.7,….再后面的树还学个鬼,所以给他打个折扣,比如3折,那么第二棵树训练的残差为4.0-3.3*0.3=3.01,这就可以发挥了啦,以此类推,作用是啥,防止过拟合,如果对于“伪残差”学习,那更像梯度下降里面的学习率

猜你喜欢

转载自blog.csdn.net/m0_38034312/article/details/79583629