CS229机器学习个人笔记(3)——Logistic Regression+Regularization

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zpalyq110/article/details/78012858

1.Classification

Logistic Regression其实就是Classification,但是由于历史原因名字被记作了逻辑回归。它与线性回归的区别在于 hθ(x) 被限制在了0与1之间,这是通过下面的S函数(Sigmoid function)实现的: g(z)=11+ez
其中: z=θTx
此时我们的假设函数 hθ(x)=g(θtx)=11+eθTx

2.Cost Function

线性回归中的损失函数是:

J(θ0,θ1θn)=12mi=1m(hθ(x(i))y(i)))2

其中: hθ(x)=θ0+x1θ1+x2θ2++xnθn
线性回归损失函数有很明显的实际意义,就是平方损失。而逻辑回归却不是,它的预测函数 hθ(x) 明显是非线性的,如果类比的使用线性回归的损失函数于逻辑回归,那 J(θ) 很有可能就是非凸函数,即存在很多局部最优解,但不一定是全局最优解。我们希望构造一个凸函数,也就是一个碗型函数做为逻辑回归的损失函数。
这里写图片描述
这里写图片描述
这里写图片描述
注: 虽然得到的梯度下降算法表面上看上去与线性回归的梯度下降算法一样, 但是这里的 hθ(x)=g(θTX) 与线性回归中不同, 所以实际上是不一样的。 另外, 在运行梯度下降算法之前,进行特征缩放依旧是非常必要的。

具体求导公式的推导:
这里写图片描述

3.Multiclass Classification-One-vs-all

这里写图片描述

4.Regularization

线性回归中的Overfitting与Underfitting:
这里写图片描述

逻辑回归中的Overfitting与Underfitting:

这里写图片描述

Overfitting:高偏差
Underfitting:高方差
下图很直观的展现出偏差与方差的区别:
这里写图片描述

怎么来解决过拟合的问题?简单来说造成过拟合是因为次数高的项存在,那么只要减小相应的系数 θ 就能避免过拟合。

对于线性回归:

这里写图片描述

对于逻辑回归:
这里写图片描述

猜你喜欢

转载自blog.csdn.net/zpalyq110/article/details/78012858