逻辑斯谛回归模型( Logistic Regression,LR)

1. Logistic Regression 模型

1.1 logistic 分布

定义:设 X X 是连续随机变量, X X 服从 logistic 分布是指 X X 具有下列分布函数和密度函数:

F ( x ) = P ( X x ) = 1 1 + e ( x μ ) / γ F(x) = P(X \leq x) = \frac{1}{1+e^{{-(x-\mu)} / \gamma}}

f ( x ) = F ( x ) = e ( x μ ) / γ γ ( 1 + e ( x μ ) / γ ) 2 f(x)=F'(x)= \frac {e^{{-(x-\mu)} / \gamma}}{\gamma {(1+e^{{-(x-\mu)}/\gamma})}^2}

式中 μ \mu 为位置参数, γ > 0 \gamma > 0 为形状参数

在这里插入图片描述
分布函数 F ( x ) F(x) 是一条S形曲线 sigmoid curve,曲线以点 ( μ , 1 2 ) (\mu, \frac{1}{2}) 为中心对称,即满足: F ( x + μ ) 1 2 = F ( x + μ ) + 1 2 F(-x+\mu)-\frac{1}{2} = -F(x+\mu)+\frac{1}{2}

形状参数 γ \gamma 的值越小,曲线在中心附近增长越快

1.2 二项逻辑斯谛回归模型

binomial logistic regression model 是一种分类模型,由条件概率分布 P ( Y X ) P(Y|X) 表示, 形式为参数化的逻辑斯谛分布。这里,随机变量 X X 的取值为实数,随机变量 Y Y 取值为 1 或者 0。用监督学习的方法来估计模型参数。

二项逻辑斯谛回归模型具有下面条件概率分布:

P ( Y = 1 x ) = e x p ( w x + b ) 1 + e x p ( w x + b ) P(Y=1|x) = \frac{exp(wx+b)}{1+exp(wx+b)}

P ( Y = 0 x ) = 1 1 + e x p ( w x + b ) P(Y=0|x) = \frac{1}{1+exp(wx+b)}

w w 是权值向量, b b 是偏置, w x w· x w w x x 的内积(内积,对应位置相乘,再加总)

按照上面式子,可以求得 P ( Y = 1 x ) P(Y=1|x) P ( Y = 0 x ) P(Y=0|x) ,LR模型将实例 x x 分到概率较大的那一类。

事件的几率(odds)是指该事件发生的概率 p p 比上 不发生的概率 1 p 1-p ,该事件的对数几率即 l o g i t ( p ) = l o g p 1 p logit(p) = log\frac{p}{1-p}

对于LR来讲, l o g P ( Y = 1 x ) 1 P ( Y = 1 x ) = w x log \frac{P(Y=1|x)}{1-P(Y=1|x)} = w· x ,就是说, Y = 1 Y=1 的对数几率是输入 x x 的线性函数

1.3 模型参数估计

LR模型学习时,对于给定的训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} , 其中, x i R n , y i { 0 , 1 } x_i \in R^n, \quad y_i \in \{0,1\} , 应用极大似然估计,得到 LR 模型

假设: P ( Y = 1 x ) = π ( x ) , P ( Y = 0 x ) = 1 π ( x ) P(Y=1|x)=\pi(x), \quad\quad P(Y=0|x)=1-\pi(x)

似然函数为: i = 1 N [ π ( x i ) ] y i [ 1 π ( x i ) ] 1 y i \prod_{i=1}^N [\pi(x_i)]^{y_i} [1-\pi(x_i)]^{1-y_i}

对数似然函数:
L ( w ) = i = 1 N [ y i l o g π ( x i ) + ( 1 y i ) l o g ( 1 π ( x i ) ) ] = i = 1 N [ y i l o g π ( x i ) 1 π ( x i ) + l o g ( 1 π ( x i ) ) ] = i = 1 N [ y i ( w x i ) l o g ( 1 + e x p ( w x i ) ) ] \begin{aligned} L(w) &= \sum_{i=1}^N [y_ilog\pi(x_i)+(1-y_i)log(1-\pi(x_i))] \\ &= \sum_{i=1}^N[y_ilog \frac{\pi(x_i)}{1-\pi(x_i)}+log(1-\pi(x_i))]\\ &=\sum_{i=1}^N[y_i(w•x_i)-log(1+exp(w•x_i))] \end{aligned}
L ( w ) L(w) 求极大值,得到 w w 的估计值。

1.4 多项逻辑斯谛回归

上面介绍的是两类分类LR模型,可以推广到多类分类。

假设离散随机变量 Y Y 的取值集合是 { 1 , 2 , . . . , K } \{1,2,...,K\} , 那么多项LR模型是:

P ( Y = k x ) = e x p ( w k x ) 1 + k = 1 K 1 e x p ( w k x ) , k = 1 , 2 , . . . , K 1 P(Y=k|x) = \frac{exp(w_k•x)}{1+\sum_{k=1}^{K-1}exp(w_k•x)}, \quad k=1,2,...,K-1

P ( Y = K x ) = 1 1 + k = 1 K 1 e x p ( w k x ) P(Y=K|x)=\frac{1}{1+\sum_{k=1}^{K-1}exp(w_k•x)}

这里, x R n + 1 , w k R n + 1 x \in R^{n+1},\quad w_k \in R^{n+1} (把 w x + b w•x+b 合并写做 w x w•x ,所以 n n 维变成 n + 1 n+1 维)

发布了599 篇原创文章 · 获赞 473 · 访问量 10万+

猜你喜欢

转载自blog.csdn.net/qq_21201267/article/details/104046635
今日推荐