一、前言
作为回归问题中最简单的线性回归应该是机器学习入门最应该掌握和熟悉的算法。在用最小二乘法来求解线性回归的时候, 如果
X不满秩, 则二乘法存在多个解,并存在过拟合的情况。为了避免出现这些情况,对普通的线性回归进行正则化。其中使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。
二、线性回归
1.最小二乘估计
假设数据集
D=(x1,y1),(x2,y2),...,(xn,yn),其中
xi=(xi1,xi2,...,xid)T,线性回归试图通过线性组合对该数据集进行拟合,模型可表示为:
f(x)=ω1x1+ω2x2+...+ωdxd+b⇒f(x)=ωTx+b
其中
ω=(ω1,ω2,...,ωd)T,
b可看作
ω0x0,令
x0=1。将
b纳入
ω,形成新的
ω,则有:
f(x)=ω0+ω1x1+ω2x2+...+ωdxd⇒f(x)=ωTx
最优的模型使所有样本
xi作为输入时产生的输出都能尽可能地接近
yi。因此,对于矩阵
X=(x1,x1,...,xn)T,采用最小二乘估计(LSE,Least Square Estimate),以均方误差作为损失函数:
J(ω)=N1i=1∑N∥∥yi−ωTxi∥∥2=N1(Y−Xω)T(Y−Xω)=N1(YT−ωTXT)(Y−Xω)=N1(YTY−ωTXTY−YTXω+ωTXTXω)=N1(YTY−2ωTXTY+ωTXTXω)
该损失函数关于
ω求偏导,得:
∂ω∂J(ω)=N1(−2XTY+2XTXω)=0⇒ω∗=(XTX)−1XTY
2.极大似然估计(频率派)
训练数据与模型预测的数据存在误差
ε,假设该噪声符合高斯分布
ε∼N(0,σ2),则模型可表示为:
y=ωTx+ε
因此,在给定参数
x和
ω时,
y∣x,ω∼N(ωTx,σ2),则似然函数:
L(ω)=logi=1∏NP(yi∣xi,ω)=i=1∑NlogP(yi∣xi,ω)=i=1∑Nlog(2π
σ1e−2σ2(yi−ωTxi)2)=i=1∑N(log2π
σ1−2σ2(yi−ωTxi)2)
似然函数最大化,即极大似然估计(MLE,Maximum Likelihood Estimation)得到的
ω即为模型的解:
ω
=argωmaxL(ω)=argωmaxi=1∑N−2σ21(yi−ωTxi)2=argωmini=1∑N(yi−ωTxi)2
由此可以看出最大化
L(ω)等价于最小化
J(ω),即证得最小二乘法实际上是在假设误差项满足高斯分布情况下使似然函数最大化。
三、岭回归
1.正则化的最小二乘估计
岭回归是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。损失函数的表现形式为:
J(ω)=i=1∑N∥∥yi−ωTxi∥∥2+λ∥ω∥22=(Y−Xω)T(Y−Xω)+λωTω=(YT−ωTXT)(Y−Xω)+λωTω=YTY−ωTXTY−YTXω+ωTXTXω+λωTω=YTY−2ωTXTY+ωT(XTX+λI)ω
该损失函数关于
ω求偏导,得:
∂ω∂J(ω)=−2XTY+2(XTX+λI)ω=0⇒ω∗=(XTX+λI)−1XTY
其中,
XTX为半正定矩阵,
I为对角矩阵,则
XTX+λI是正定矩阵,是可逆的,因此在
XTX不可逆,通常的线性回归无法求解
ω时,岭回归课对
ω进行求解。
λ>0是控制模型复杂度的因子(可看作收缩率的大小),
λ越大,收缩率越大,那么系数对于共线性的鲁棒性更强。
2.最大后验概率(贝叶斯派)
在训练数据与模型预测的数据存在的误差
ε符合高斯分布
ε∼N(0,σ2)的情况下,假定参数
ω也服从一个高斯分布,即
ω∼N(0,σ02),则:
P(ω)=2π
σ01e−2σ02∥ω∥2
在给定参数
x和
ω时,
y∣x,ω∼N(ωTx,σ2),有:
P(y∣ω)=2π
σ1e−2σ2(y−ωTx)2
根据最大后验概率估计(MAP,Maximum A Posteriori)得到的
ω即为模型的解:
ω
=argωmaxlogP(ω∣y)=argωmaxlogP(y)P(y∣ω)P(ω)=argωmaxlogP(y∣ω)P(ω)=argωmax(log2πσ0σ1−(2σ02∥ω∥2+2σ2(y−ωTx)2))=argωmin(y−ωTx)2+2σ02σ2∥ω∥2
经过MAP:
ω
=argωmini=1∑N(yi−ωTxi)2+2σ02σ2∥ω∥22
由此可以看出最大化后验概率
P(ω∣y)等价于最小化
J(ω),即证得正则化的最小二乘法实际上是在假设误差项和先验均满足高斯分布情况下使后验概率最大化。
四、总结
本文依次从普通的最小二乘估计、最大似然估计、正则化的最小二乘估计及最大后验概率的角度对线性回归模型进行推导。由此可证得最小二乘估计LSE可与极大似然估计MLE(噪声符合高斯分布为前提)等价,正则化的最小二乘估计RSLE可与最大后验概率估计MAP(噪声和先验符合高斯分布为前提)等价。最大后验概率估计较最大似然估计而言,增加一个假定服从高斯分布的先验知识。
参考资料
[1]机器学习-白板推导系列(三)-线性回归(Linear Regression)
[2]线性回归详解
[3]岭回归
[4]线性回归(频率学派-最大似然估计)与岭回归(贝叶斯角度-最大后验估计)的概率解释