(吴恩达机器学习)线性回归代价函数推导

多元线性回归的代价函数推导

决策函数:

h θ ( x ) = θ 1 x 1 + θ 2 x 2 + . . . + θ n x n = i = 1 n θ i x i = θ T x

令有m个样本,对于每个样本:

y ( i ) = h θ ( x ( i ) ) + ϵ ( i ) …………….(1)

ϵ ( i ) 表示真实值与预测值之间的误差,我们通常认为 ϵ ( i ) 是独立并具有相同的分布,并且服从均值为0方差为 θ 2 的高斯分布。

于是:

p ( ϵ ( i ) ) = 1 2 π σ e x p ( ( ϵ ( i ) ) 2 2 σ 2 ) ……(2)

将(1)代入(2)可得:

p ( y ( i ) | x ( i ) ; θ ) = 1 2 π σ e x p ( ( y ( i ) θ T x ( i ) ) 2 2 σ 2 )

故似然函数为:

L ( θ ) = i = 1 m 1 2 π σ e x p ( ( y ( i ) θ T x ( i ) ) 2 2 σ 2 )

为方便求导变为对数似然:

l n L ( θ ) = l n i = 1 m 1 2 π σ e x p ( ( y ( i ) θ T x ( i ) ) 2 2 σ 2 )

= m . l n 1 2 π σ 1 σ 2 . 1 2 i = 1 m ( y ( i ) θ T x ( i ) ) 2

此时我们需要求得参数 θ ^ 使似然函数 L ( θ ) 最大:

J ( θ ) = 1 2 i = 1 m ( y ( i ) θ T x ( i ) ) 2 (最小二乘法)

由化简后的式子可知,上式越小,似然函数越大

在吴恩达的课程中将代价函数写为:

J ( θ ) = 1 2 m i = 1 m ( y ( i ) θ T x ( i ) ) 2

方便计算

猜你喜欢

转载自blog.csdn.net/qq_39494028/article/details/81611217