Andrew Zhang
Tianjin Key Laboratory of Cognitive Computing and Application
Tianjin University
Nov 25, 2015
本来以为线性回归是一个特简单的东西,最近遇到很多基于线性回归的东西,才意识到我的无知。为了记录最近的学习历程,还是从线性回归开始系统总结一下吧。
一、线性回归
在实际问题中,在考虑变量
其中
接下来,目标就是对于训练数据集
这里采用最小二乘是因为最小二乘得到的参数
二、梯度下降法
最小二乘是无约束优化的凸问题,属于最简单的凸优化问题,有很多的数值求解的方法,参考参考博客[1]。本文介绍梯度下降法求解最小二乘优化问题。
在梯度法中参数
其中
公式(2-2)带入公式(2-1)得到
采用公式(2-3)的方法被称为批梯度下降法。由于批梯度下降法对与每一次
并且往往公式(2-4)的收敛效率要远远高于(2-3),可以更早的达到收敛。
三、最小二乘的概率解释
在参考博客3中说了线性规划的最小二乘属于广义线性模型,并进行了推导,得到了
在这里我们看一种更简单点的解释,假设输出y与输入x服从如下等式
由于对于取样的每个样本都是独立同分布的,假设误差项
则对于每一个取样样本有
由公式(3-2)得
公式(3-3)便是样本
似然函数为:
对数似然函数为:
化简公式(3-5)得
刨除公式(3-6)的常数部分,极大化似然函数(3-6)等价于极小化其中的
四、矩阵求解最小二乘
把所有的样本
目标是求解
即
这里假设
所以有最小二乘的矩阵形式解—公式(4-4)
五、矩阵求解的SVD解释
在第四部分已经得到
假设
其中
带入公式4-4可得
对于公式5-2,可以发现想要得到矩阵
并且,根据SVD的几何意义,我们知道
六、参考博客
1、最优化方法—无约束极值问题的解法
(http://blog.csdn.net/zhangzhengyi03539/article/details/49705305)
2、最优化方法—一维搜索
(http://blog.csdn.net/zhangzhengyi03539/article/details/49704893)
3、ML—广义线性模型(GLM)
(http://blog.csdn.net/zhangzhengyi03539/article/details/46834379)
4、你应该知道的7种回归技术