先整理一下非常好的几个参考资料:
1. 算法简介
XGBoost是一种决策树模型,利用梯度下降来对树进行求解,他的与众不同之处在于使用了二阶泰勒展开以及正则化来对普通的梯提升树(GBDT)进行优化。
(引用自第二个参考资料)
对这个模型的目标函数是每个样的的损失函数值的和加上正则项就是整个目标函数,目标函数的返回值越小,则模型表现越好。
其中L部分为常数的原因是,新的模型是在原有模型的基础上迭代,即原有模型已经确定了,那原模型的损失函数就是常量了。
陈天奇论文中的公式是这样的
在这里的一个转换是这样的,原先算的是每个点的预测值求和。实际上,一个叶子上的所有样本的预测值实际上预测值都是一样的,所以最终就转换为了,所有叶子的预测值求和(叶子的预测值为叶子内部所有样本的预测求和)