逻辑回归算法原理

http://ihoge.cn/2018/LR.html

逻辑回归模型

逻辑回归也被称为对数几率回归,算法名虽然叫做逻辑回归,但是该算法是分类算法,个人认为这是因为逻辑回归用了和回归类似的方法来解决了分类问题。

逻辑回归模型是一种分类模型,用条件概率分布的形式表示 P ( Y | X ) ,这里随机变量 X 取值为 n 维实数向量,例如 x = ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) ,Y 取值为 0 或 1。即:

P ( Y = 1 | x ) = exp ( w x + b ) 1 + exp ( w x + b )

P ( Y = 0 | 0 ) = 1 1 + exp ( w x + b )

或:

ϕ ( x ) = 1 1 + e w T x b

假设有一个二分类问题,输出为 y { 0 , 1 } ,二线性回归模型 z = w T x + b 是个实数值,我们希望有一个理想的阶跃函数来帮我什么实现z值到0/1值的转化,于是找到了Sigmoid函数来代替:

g ( z ) = 1 1 + e z

有了 Sigmoid 函数之后,由于其值取值范围在[0,1]。就可以将其视为类 1 的后验概率估计 p ( y = 1 | X ) 。说白了,就是如果有了一个测试点 x,那么就可以用Sigmoid函数算出来的结果当作该点 x 属于类别 1 的概率大小。

于是,非常自然地,我们把 Sigmoid 函数计算得到的值大于等于0.5的归为类别1,小于0.5的归为类别0:

逻辑函数的损失函数

接下来要做的就是根据给定的训练集,把参数 w 给求出来了。要找参数 w,首先就得把代价函数(Cost Function)给定义出来,也就是目标函数。

我们第一个想到的自然是模仿线性回归的做法,利用误差平方和来当代价函数:

J ( θ ) = 1 2 m i = 0 m ( ϕ ( x i ) y i ) 2

这时将预测函数 g ( z ( i ) ) = 1 1 + e x ( i ) 代入损失函数的话,会发现这是一个非凸函数,这意味着代价函数有着许多的局部最小值,这不利于我们求解:


那么我们不妨来换一个思路解决这个问题。前面,我们提到了 ϕ(z) 可以视为类1的后验估计,所以我们有:

其中 p ( y = 1 | x ; w ) 表示给定 w,那么 x 点 y=1 的概率大小。于是上面两式可以写成一般形式:

注:以上的过程说明,最大似然估计与误差平方和等价!这就是为什么逻辑回归的损失函数可以用最大似然函数进行估计的原因。

接下来我们就要用极大似然估计来根据给定的训练集估计出参数 w:

为了简化运算,我们对上面这个等式的两边都取一个对数:

我们现在要求的是使得 l(w) 最大的 w。没错,我们的代价函数出现了,我们在 l(w) 前面加个负号不就变成就最小了吗?不就变成我们代价函数了吗?

为了更好地理解这个代价函数,我们不妨拿一个例子的来看看:

也就是说:

下面是函数图:

从图中不难看出,如果样本的值是1的话,估计值 ϕ(z) 越接近1付出的代价就越小,反之越大;同理,如果样本的值是0的话,估计值 ϕ(z) 越接近0付出的代价就越小,反之越大。

逻辑回归的模型求解

在开始梯度下降之前,要这里插一句,Sigmoid function 有一个很好的性质就是 :

ϕ ( z ) = ϕ ( z ) ( 1 ϕ ( z ) )

这个后续会用到。

还有,我们要明确一点,梯度的负方向就是代价函数下降最快的方向:这里来解释下。借助泰勒公式展开,有:

其中,f′(x) 和 δ 为向量,那么这两者的内积就等于:

当 θ=π 时,也就是 δ 在 f′(x) 的负方向上时,取得最小值,也就是下降的最快的方向了。
于是有:

即:

其中, w j 表示第 j 个特征的权重;η 为学习率,用来控制步长。 重点来了:

所以,在使用梯度下降法更新权重时,只要根据下式即可:

此式与线性回归时更新权重用的式子极为相似,也许这也是逻辑回归要在后面加上回归两个字的原因吧。当然,在样本量极大的时候,每次更新权重会非常耗费时间,这时可以采用随机梯度下降法,这时每次迭代时需要将样本重新打乱,然后用下式不断更新权重:

也就是去掉了求和,而是针对每个样本点都进行更新。

猜你喜欢

转载自blog.csdn.net/qq_41577045/article/details/80302991