机器学习(二)——单变量线性回归

前言:

    吴恩达第二章单变量线性回归笔记

模型描述:

字符表示:

m=数据集数量

x=input(自变量)

y=output(因变量)

给出一定量的数据集关于,构建出相应(x,y)的位置.根据算法得到相应的拟合函数(即下图蓝线)

代价函数:

Hypothesis(目标拟合函数):

H_\Theta (x)=\Theta _0+\Theta _1x

Parameters(参数):

\Theta _0 \Theta _1

CostFunction(计算误差):

J(\Theta _0,\Theta _1)=\frac{1}{2m}\sum_{i=1}^m (h\Theta (x^{i})-y^{i})^{2}

Goal(目标):

\min J(\Theta _0,\Theta _1)

由     J(\Theta _0,\Theta _1)=\frac{1}{2m}\sum_{i=1}^m (h\Theta (x^{i})-y^{i})    我们可以绘制出如下等高线图

三个坐标分别为\Theta_0  \Theta_1   J(\Theta _0,\Theta _1)

如何获得\min J(\Theta _0,\Theta _1)? 梯度下降算法

重复以下步骤

repeat until convergence{

    \Theta _j:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

    for(j=0 and j=1)

}

Correct Simultaneous update(正确的更新方式):

temp_0:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

temp_1:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

\Theta _0=temp_0

\Theta _1=temp_1

α:为learning rate,用来控制下降时的速率

\Theta _0 \Theta _1应同时更新

根据高等数学下偏导数知识:

\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _0}=\frac{1}{m}\sum_{i=1}^m(h_\Theta (x^{i})-y^{i})

\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _1}=\frac{1}{m}\sum_{i=1}^m(h_\Theta (x^{i})-y^{i})x^{i}

总结:

  1. 根据该算法,一步一步算出误差最小时的\Theta _0 和 \Theta _1,来得到理想的拟合函数。理想状态下当J(\Theta _0,\Theta _1)取最小值时,误差时最小的,即当\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _0} 和  \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _1} 两者为0的时候取到最小值。
  2. 由于该算法是一个个测试\Theta _0\Theta _1,逐渐最低点走,因此α的取值相当重要。
    1. 若α太大,可能会导致离最低点越来越远。
    2. 若α太小,得到最低点用的时间可能会很长
发布了22 篇原创文章 · 获赞 0 · 访问量 602

猜你喜欢

转载自blog.csdn.net/SampsonTse/article/details/103701488