线性回归(理论篇)

线性回归(理论篇)

线性模型

线性模型(Linear Model)是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型。给定一个n维样本 x = [ x 1 , x 2 , · · · , x n ] T ,其线性组合函数为:

h θ ( x ) = θ 1 x 1 + θ 2 x 2 + · · · + θ n x n + b = ( θ ; b ) T ( x ; 1 )

线性回归

给定数据集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , · · · , ( x N , y N ) ,其中 x 是一个m维向量, y i 。 线性回归(linear regression)试图用一个线性模型以尽可能准确地预测实值输出值。

极大似然估计

y i ^ 表示第i样本的预测值,则估计误差:

ε i = y i ^ y i

根据中心极限定理,误差 ε i 是独立同分布的,且符合均值为0方差为 σ 2 的高斯分布。则:
p ( ε i ) = 1 2 π σ e x p ( ε i 2 2 σ 2 )

p ( y i | x i , θ ) = 1 2 π σ e x p ( ( y i θ T x i ) 2 2 σ 2 )

采用极大似然估计时,似然函数为:

L ( y 1 , y 2 , · · · , y N | x 1 , x 2 , · · · , x N , θ ) = N p ( y i | x i , θ ) = N 1 2 π σ e x p ( ( y i θ T x i ) 2 2 σ 2 )

对数似然函数为:

l ( y 1 , y 2 , · · · , y N | x 1 , x 2 , · · · , x N , θ ) = l o g L ( y 1 , y 2 , · · · , y N | x 1 , x 2 , · · · , x N , θ ) = N l o g ( 1 2 π σ e x p ( ( y i θ T x i ) 2 2 σ 2 ) ) = N l o g 1 2 π σ 1 σ 2 1 2 N ( y i θ T x i ) 2

J ( θ ) = 1 2 N ( θ T x i y i ) 2

则求 l ( y 1 , y 2 , · · · , y N | x 1 , x 2 , · · · , x N , θ ) 最大即求: J ( θ ) 最小。 J ( θ ) 称为线性回归的目标函数。

参数解析解

J ( θ ) 求导得:

J ( θ j ) θ j = N ( x i j 2 θ j x i j y i ) = ( x 1 j x 2 j x N j ) ( x 1 j x 2 j x N j ) θ j ( x 1 j x 2 j · · · x N j ) ( y 1 y 2 y N )

其中 j 1 , 2 , · · · , M x i j 表示第i个样本的第j维。令倒数等于0,并写出矩阵形式得:
( x 11 x 21 · · · x N 1 x 12 x 22 · · · x N 2 x 1 N x 2 N · · · x N N ) ( x 11 x 12 · · · x 1 N x 21 x 22 · · · x 2 N x N 1 x N 2 · · · x N N ) ( θ 1 θ 2 θ N ) ( x 11 x 21 · · · x N 1 x 12 x 22 · · · x N 2 x 1 N x 2 N · · · x N N ) ( y 1 y 2 · · · y N ) = 0

即:
X T X θ X T Y = 0

使用最小二乘法得到解析解:
θ = ( X T X ) 1 X T Y

为了防止过拟合或者 X T X 不可逆,增加 λ 扰动:
θ = ( X T X + λ I ) 1 X T Y

线性回归的复杂度惩罚因子

  1. 增加L1正则的目标函数为(lasso):
    J ( θ ) = 1 2 N ( θ T x i y i ) 2 + λ M | θ j |

    通常L1正则求解出的参数是稀疏的。
  2. 增加L2正则的目标函数为(rige):
    J ( θ ) = 1 2 N ( θ T x i y i ) 2 + λ M θ j 2
  3. L1与L2正则混合的目标函数为(ElasticNet):
    J ( θ ) = 1 2 N ( θ T x i y i ) 2 + ρ M | θ j | + ( 1 ρ ) M θ j 2

猜你喜欢

转载自blog.csdn.net/chuqidecha/article/details/80427613