机器学习笔记之四——线性回归原理以及推导

一元线性回归:

  对于样本[(x1,y1),(x2,y2),……(xn,yn)],xi为特征,yi为标签。(字幕i代表下标)

  假定y与x有:   

                    y = f(xi) = w*xi + b

   确定参数w和b的值的关键在于如何衡量f(x)与y之间的差距,即

             

    ** 基于均方误差最小化来进行模型求解的方法成为“最小二乘法”。与之前所讲的梯度下降法同属一类。

    求解上式的过程被称为线性回归模型的最小二乘“参数估计”。

    过程如下:

   

 具体推导过程……懒得推……

多元线性回归的推导

    多元线性回归的推导与一元线性回归有所不同,可以使用代数表示和矩阵表示两种方法来推导。

   我们简述一下矩阵推导过程:

   对于多元变量x,有假设函数:

             f(xi) = w的转置 * xi + b (w、xi、b均为向量)

  则有如下推导表示:

  

梯度下降法在之前的一片记录过,之后还会对BGD和SGD进行一次记录。

猜你喜欢

转载自blog.csdn.net/qq_35946969/article/details/84950367