【算法2】Logistic回归

    关于Logistic回归,在《【R】基于Logistic回归的初始信用评级》做过粗略的介绍,看此文时可结合该文章,帮助理解。这里借鉴李航老师的《统计学习方法》 再补充一下。

1 logistic分布

    在统计学中,研究任何对象,都应该先摸透该对象的数据服从什么样的分布。在个人看来,数据的不同分布使得数据具有不同的性质,也就需要采用不同的技术进行研究。那么,logistic回归也不例外。
    设 L是连续随机变量,L服从逻辑斯谛分布是指L 具有下列分布函数和密函数:
F ( l ) = P ( L < = l ) = 1 ( 1 + e ( l u ) / r ) F(l)=P(L <=l)=\frac{1}{(1+e^{-(l-u)/r})}
f ( l ) = F ( l ) = P ( L < = l ) = e ( l u ) / r r ( 1 + e ( l u ) / r ) 2 f(l)=F^\prime(l)=P(L <=l)=\frac{e^{-(l-u)/r}}{r(1+e^{-(l-u)/r})^2}
公式中, u u 为位置参数, r > 0 r > 0 为形状参数。
     l o g i s t i c logistic 分布的密度函数 f ( l ) f(l) 和 分布 函数 F ( l ) F(l) 的 图形下图。分布函数是一个 l o g i s t i c logistic 函数,图形是 一条S形曲 ( s i g m o i d c u r v e ) ( sigmoid curve) ,点 ( u , 1 2 ) (u,\frac{1}{2}) 为中心对称。
在这里插入图片描述
    曲线值阈为 ( 0 1 ) (0,1) ,在点 ( u , 1 2 ) (u,\frac{1}{2}) 附近变化快,离中心点越远,变化趋于平缓。

2 binomial logistic 回归

     b i n o m i a l l o g i s t i c binomial logistic 回归模型是一类二分类模型,由条件概率分布 P ( Y L ) P(Y|L) 表示,形式为参数化的逻辑斯谛分布。这里,随机变量 L L 取值为实数,随机 变量 Y Y 取值为 1 或 0。通过监督学习的方法来估计模型参数。二项逻辑斯回归模型 是如下的件率布:

P ( Y = 1 l ) = e x p ( w l + b ) 1 + e x p ( w l + b ) P(Y=1|l)=\frac{exp^{(wl+b)}}{1+exp^{(wl+b)}}
P ( Y = 0 l ) = 1 1 + e x p ( w l + b ) P(Y=0|l)=\frac{1}{1+exp^{(wl+b)}}
这里, l R n l ∊ R^n 是 输入, Y [ 0 , 1 ] Y ∊{ [0, 1]} 是 输出, w R n w ∊ R^n b R b ∊ R 是 参数, w w 称为 权值 向量, b b 称为 偏 置, w l w· l w w l l 的内积。
    探索 l o g i s t i c logistic 回归模型的特点。一个事件的几率 o d d s ( odds) 是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是 p 那么该事件的几率是,该事件的对数几率 l o g o d d s ( log odds) l o g i t logit 函数是
l o g i t ( p ) = l o g p 1 p logit(p)=log\frac{p}{1-p}
l o g i s t i c logistic 而言,由二项逻辑斯回归模型
l o g i t ( p ) = l o g p ( Y = 1 l ) 1 p ( Y = 1 l ) = w l . logit(p)=log\frac{p(Y=1|l)}{1-p(Y=1|l)}=wl.
也可以这样来解读,在 b i n o m i a l l o g i s t i c binomial logistic 回归模型中输出 Y = 1 Y=1 的对数几率是输入 l l 的线性函数。将 w l wl 转化为概率则有:
P ( Y = 1 l ) = e x p ( w l ) 1 e x p ( w l ) . P(Y=1|l)=\frac{exp^{(wl)}}{1-exp^{(wl)}}.
这就是 b i n o m i a l l o g i s t i c binomial logistic 回归模型。

3 参数的估计

     l o g i s t i c logistic 回归模型学习时,存在的训练数据集 D ( l 1 y 1 ) , ( l 2 y 2 ) , , ( l N , y N ) D ={( l1, y1),( l2, y2),…,( l_N, y_N)} , 其中, l i R n l_i ∊ R^n y i [ 0 , 1 ] y_i ∊[ 0, 1] ,可以应用极大似 然估计法估计模型参数 w w ,从而得到 l o g i s t i c logistic 回归模型。设:
P ( Y = 1 l ) = Ψ ( l ) , P ( Y = 0 l ) = 1 Ψ ( l ) P(Y=1|l)=\varPsi(l) ,P(Y=0|l)=1-\varPsi(l)
得似然函数:
i = 1 N [ Ψ ( l i ) ] y i [ 1 Ψ ( l i ) ] 1 y i \prod_{i=1}^N [\varPsi(l_i)]^{y_i}[1-\varPsi(l_i)]^{1-y_i}

得对数似然函数:
L G ( w ) = k = 1 N [ y i l o g Ψ ( l i ) + ( 1 y i ) l o g ( 1 Ψ ( l i ) ) ] LG(w)=\sum_{k=1}^N [y_ilog\varPsi(l_i)+(1-y_i)log(1-\varPsi(l_i))]
= k = 1 N [ y i l o g Ψ ( l i ) 1 Ψ ( l i ) + l o g ( 1 Ψ ( l i ) ) ] =\sum_{k=1}^N [y_ilog\frac{\varPsi(l_i)}{1-\varPsi(l_i)}+log(1-\varPsi(l_i))]
= k = 1 N [ y i ( w l i ) l o g ( 1 + ( w l i ) ) ] =\sum_{k=1}^N [y_i(w*l_i)-log(1+(w*l_i))]
求解 L G ( w ) LG(w) 的极大值,得到 w w 的估计值 w ^ \widehat{w} 。这样合理的将问题转化为了以对数似然函数作为目标函数最优问题。 l o g i s t i c logistic 回归学习 中通常采用的方法是 梯度下降法、拟牛顿法。

4 multiterm logistic回归

    对于多项逻辑回归 m u l t i t e r m l o g i s t i c multiterm logistic ),说的是当Y的输出不在只是二分类 [ 0 , 1 ] [0,1] ,而是形如 [ a , b , c , . . . . . . , f , g , . . . . . . ] [a,b,c,......,f,g,......] 的多分类离散型。现在在这里不过多阐述,后期有时间会补上。

发布了39 篇原创文章 · 获赞 42 · 访问量 4863

猜你喜欢

转载自blog.csdn.net/weixin_41774099/article/details/101800284