注意:
建议有条件的童鞋去Coursera上学习,不仅免费还精心准备了很多联系帮助理解,以下是链接(看视频需要翻墙):
https://www.coursera.org/learn/machine-learning/
逻辑回归的代价函数
上一章已经说明了逻辑回归解决的是什么类型的问题,以及拟合函数的形式。接下来就看看如何得到
在前面两周的笔记中已经知道了线性回归的代价函数:
如果在逻辑回归问题中,我们继续使用上述的代价函数
这个设计过程理解吗?
当
当
这样,我们就得到了一个形状是凸函数的代价函数了。有没有很神奇的感觉呢?(⊙o⊙)
如果有“每一句话我都理解,但是合到一起就有点不清白了”这样的感觉也没关系。可以先试着回忆一下代价函数是用来做什么的?其含义又是什么?(含义就是拟合函数的预测值与实际值得偏差)如果还是有些不清楚,这也不要紧,并不影响我们对这个算法的应用。
简化代价函数
不管是手写还是敲代码,我觉得写一个分段函数出来还是挺烦人的哈。下面,更加神奇的事情就要发生了!!!我们要把上面的代价函数用一行式子写出来!!!★~★
好神奇吧~~接下来我们就可以顺利的写出函数
注:这里除的是
梯度下降算法计算最优的特征向量
嗯……还记得第一章说的梯度下降算法吗?
在逻辑回归中只用照搬就好了,所以说这一章也没有多大难度(^__^)
如果觉得求
想直接用向量表示也没问题:
当然这里所说的梯度下降算法是最容易理解的一种方法,其实还有很多求最优解的算法。而且,很多算法都不需要我们自己去尝试选择
小结
逻辑回归主要部分就差不多了,下一章分享过拟合(Over Fitting)问题。