机器学习(12) 线性回归、逻辑回归的正则化算法

1 线性回归的正则化

1.1 代价函数

训练集(Training Set)

m个样本

假设函数

正则化后的代价函数

目标

对于线性回归(的求解),我们之前运用了两种学习算法,一种基于梯度下降,一种基于正规方程。

1.2 梯度下降法

Repeat {

}

迭代式子的观察:

  1. \theta_j\left ( 1-\alpha \frac{\lambda }{m} \right )因为样本数量m比较大,而学习速率α通常又比较小,所以1-\alpha \frac{\lambda }{m}<1,且接近于1。
  2. \alpha \frac{1}{m}\sum_{i=1}^{m}({h_{\theta}(x^{(i)})-y^{i}}){x_{j}^{(i)}}跟以前的线性回归一样。

1.3 正规方程法

输入特征向量输出特征向量

样本的输入特征矩阵

正规方程的解为:

其中(n+1)×(n+1)的矩阵,是在单位矩阵之上在第一行前插入一个全0的行向量,在第一列前面插入一个全0的列向量。

2 逻辑回归的正则化

2.1 代价函数

逻辑回归也有过拟合的问题:

假设函数

逻辑函数

代价函数

正则化项

正则化后的代价函数

2.2 梯度下降法

Repeat {

i

}

2.3 示例:【Python】非线性逻辑回归——二分类(正则化)

机器学习(9)

猜你喜欢

转载自blog.csdn.net/luyouqi11/article/details/132087151