机器学习&Day7

第六篇被我误删了,csdn这点很不好,恢复还得经过管理权限。。。
这里写图片描述
也不打算重写了,反正也没人看也是我自己看当作复习用哈哈哈。
然后呢今天是正则化
一:过拟合问题
如果我们有太多的特征,然后假设的函数非常好的拟合了每一个数据使得代价函数的值趋于0,但是此函数却不能泛化于新的预测,称之为过拟合。(同样与此相对的有欠拟合)
这里写图片描述
图中第一个为欠拟合(underfitting)第三个为过拟合(overfitting)
对于此问题我们也有解决办法
1:减少特征数量
2:正则化(保存所有的特征,但是要去减少参数 θ j 的值或者范围)
为了使得参数的范围变小防止过拟合问题,此时的代价函数将变为:
J ( θ ) = 1 2 m [ i = 1 m ( h θ ( x ( i ) ) y ( i ) ) 2 + λ j = 1 n θ j 2 ]
所以正则化后的梯度下降为
repeat{
θ 0 := θ 0 α 1 m i = 1 m ( h θ ( x ( i ) ) y ( i ) ) x 0 ( i )
θ j := θ j ( 1 α λ m ) α 1 m i = 1 m ( h θ ( x ( i ) ) y ( i ) ) x j ( i )
}
正规方程则变为:
θ = ( X T X + λ ( 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 ) ) 1 X T y
最后一个为logistic回归的在正则化
与梯度下降相同只是 h θ ( x ) = 1 1 + e θ T x
然后这里的代价函数变为了:
J ( θ ) = [ 1 m i = 1 m y ( i ) l o g ( h θ ( x ( i ) ) ) + ( 1 y ( i ) ) l o g ( 1 h θ ( x ( i ) ) ] + λ 2 m j = 1 m θ j 2

猜你喜欢

转载自blog.csdn.net/qq_42496432/article/details/81777203