吴恩达机器学习(第二章)----线性回归

线性回归要做的主要包含代价函数梯度下降。

一、基本解释

线性回归的过程其实就是我们在选择好某个类型的函数之后去不断的拟合现有的数据,那么什么情况下我们这个函数是最符合,最贴近我们这些数据的呢?就是在代价函数的值最小的时候。

二、代价函数

假设要拟合的函数是h(x)=h(x)=\Theta _0x_0+\Theta_1x_1...----(1) 

x0固定是1因此第一项表示常数。

\frac1{2m}\sum_{i=1}^{m}{(h(x^i )-y^i)^2}---(2)(m为数据的条数)

代价指的就是h(x)与真实的y相差得多少。即求与真实值之间的差别的和的平均值。所以求代价函数的最小值就是求上面式子的最小值。

三、梯度下降 

梯度下降是求代价函数最小值的一种方法。

\Theta_j=\Theta_j-\alpha \frac{ \partial} {\partial \Theta_j}J(\Theta_1...\Theta_n)---(3)j=(1..n),α为梯度下降的速率,α越大,下降的幅度就越大(太大会导致无法得到最小值,太小又会收敛的太慢,所以要找合适的值)

J(Θ0...Θn)表示的是代价函数。

对每一个θ做这样的运算。

第一幅为正常收敛,第二幅就是α太大导致无法收敛 

\frac{\partial }{\partial \theta_j}J(\theta_0...\theta_n)=\frac{1}{m}\sum_{i=1}^{m}{(h(x^i)-y^i)x^i}---(4)

循环运行式子(3)求得θ

猜你喜欢

转载自blog.csdn.net/naocanmani/article/details/83416332