机器学习---线性回归(二)

第一个学习算法:线性回归

m=训练样本的数量

x=输入变量/特征

y=输出变量/预测的目标变量

(x,y)——一个训练样本

(x1,y1)——样本的第多少行

房价数据集——学习算法——输出一个函数h(假设函数:把房子大小作为输入变量x,试着输出房价即输出变量y)

有了一些自变量、因变量的数据,拿一个数学函数Model(模型)去拟合(适配)这些数据,以便之后能根据这个模型,在自变量(条件)给出后,预测因变量的值。

代价函数:

目标:寻找一个θ1, θ0 使得预测值接近训练集中的样本

方法:预测值与ground truth求差的平方,对于所有样本的该值进行求和,最后除以2m(1/2为简化计算),形成代价函数。最小化该代价函数,得到对应的θ0和θ1

平方误差——解决回归问题的最常用手段

公式:

 

公式代表的含义:对所有的训练样本进行求和,将第i号对应的预测结果【也就是hθ(x)】减去第i号房子的实际价格,所得的差的平方相加得到总和,在除以样本数,并求出最小值。

因此,我们最重要找出来的就是找到对应的θ0和θ1

知识回顾:

假设函数:

 

2个参数:

 

代价函数:

 

优化目标:

 

把我们的假设函数简化一下:假设θ_0=0,那么就只剩下θ_1一个参数,我们的优化目标就变成了尽量减少J(θ_1)的值

 

用图像表示就是:

 

 

当θ_1=0时,y=0,体现在左图上就是深蓝色的线条

当θ_1=1时,y=x,体现在左图上就是浅蓝色的线条

当θ_1=0.5时,y=0.5x,体现在左图上就是粉红色线条

 

将所有的θ_1对应的J(θ_1)值的点在右图上标记出来,并且连成一条线,这条线就是右图中红色的函数曲线,也是J代价函数的直观效果

另外我们还开设了一个机器学习群,加我微信备注【免费】带领大家每天共读吴恩来的机器学习!!!

猜你喜欢

转载自www.cnblogs.com/t198520/p/10578660.html