(吴恩达机器学习)单变量线性回归

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/up_XCY/article/details/85454005

单变量线性回归:

所谓单变量线性回归其实就是一元线性函数方程---Y=AX+B

                h为假设函数,x为自变量(输入的数据),y为因变量(输出的结果)。

   

由训练集(一大堆数据)的出假设函数或者给出θo与θ1得出假设函数:

代价函数
目标:寻找一个theta_1, theta_0 使得预测值接近训练集中的样本
方法:预测值与实际值求差的平方,对于所有样本的该值进行求和,最后除以2m(1/2为简化计算),形成代价函数。最小化该代价函数,得到对应的theta_0和theta_1.
平方误差——解决回归问题的最常用手段

平方误差代价函数:

猜你喜欢

转载自blog.csdn.net/up_XCY/article/details/85454005