机器学习的一般模型
obj(θ)=L(θ)+Ω(θ)
目标函数等于损失函数加正则项。在boost中,为弱学习器的级联。约定训练集为X,个数为N,维度为M,
xi
为第i个样本,
yi
为第i个样本的标签,
y^(0)i=0y^(1)i=y^(0)i+f1(xi)y^(2)i=y^(1)i+f2(xi)y^(3)i=y^(2)i+f3(xi)......y^(t)i=y^(t−1)i+ft(xi)
其中
y^(t)i
为第i个数据的第t级输出,
ft(xi)
为第i个样本被第t级学习器拟合的残差。
有:
objti(ft,xi)=L[yi,y^(t)i]+Ω(ft)+constant
将L在
y^(t−1)i
处taylor展开,得:
L[yi,y^(t)i]=L[yi,y^(t−1)i]+gift(xi)+12hif2i(xi)gi=∂L[yi,y^(t−1)i]∂y^(t−1)ihi=∂2L[yi,y^(t−1)i]∂(y^(t−1)i)2
定义
ft(xi)=wq(xi)
,其中
wq(xi)
为
xi
落入的叶子节点的值(score),编号为q,值就是
wq
。对于落入相同叶子结点的,
wq(xi)
的值相等。
对于所有的样本,有:
objt(ft)=∑i=0N−1(L[yi,y^(t)i])+Ω(ft)+constantΩ=γT+λ∑q=0T−1w2q
则有:
L[yi,y^(t)i]=L[yi,y^(t−1)i]+gift(xi)+12hif2i(xi)objt(ft)=∑i=0N−1{gift(xi)+12hif2(xi)}+γT+λ12∑q=0T−1w2q+constantobjt(ft)=∑q=0T−1{∑i∈Iqgiwq+12∑i∈Iqhiw2q+12λw2q}+γT+constantobjt(ft)=∑q=0T−1{Gqwq+12(Hq+λ)w2q}+γT
当树生成了之后,最优的
w∗q=−GqHq+λ
,此时
obj(ft)=−G2q2(Hq+λ)+γT
。对于不同的树有不同的损失,去最优,为了避免对所有的可能得树都进行生成后的比较,对分裂的叶子节点采用贪心算法:
Gain=G2LHL+λ+G2RHR+λ−(GL+GR)2HL+HR+λ−γ
遍历所有节点,选择增益最大值和属性作为分裂点。
即拟合残差时使用模型
y^(t)i=y^(t−1)i+ft(xi)
而加入使用的时候,在实际应用中,引入学习率,有模型:
y^(t)i=y^(t−1)i+ηft(xi)
每次都不完全拟合残差,以防止过拟合。
例如,用
Li=12(yi−y^i)2
作为损失函数,假设已经建立好了t-1颗树,则第t颗树
有:
gi=∂L[yi,y^(t−1)i]∂y^(t−1)i=yi^(t−1)−yihi=∂2L[yi,y^(t−1)i]∂(y^(t−1)i)2=1
但是前面的t-1颗树,都有
y^(t−1)i=y^(t−2)i+ηft−1(xi)
,由此计算
y^(t−1)i
。
然后,通过最大增益生成树
ft
。