版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zhq9695/article/details/82805097
目录
5. 多项式回归方程(Polynomial Regression)
学习完吴恩达老师机器学习课程的多变量线性回归,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。
0. 前言
多元线性回归(Multivariate Linear Regression)是多个变量的线性回归函数。初始作如下定义:
- --- 特征的数量
- --- 第 个样本
- --- 第 个样本的第 个特征
1. 假设函数(Hypothesis)
用一线性函数拟合样本数据集,与单变量线性回归不同的是,其中的变量 有多个,给出如下定义:
我们可定义 ,则可将 和 写成 和 ,则 可定义成如下:
2. 代价函数(Cost Function)
3. 梯度下降(Gradient Descent)
4. 特征缩放(Feature Scaling)
假设多元线性回归中的两个变量 ,由于它们的取值范围相差甚远,会造成梯度下降的收敛速度慢,可将其归一化于 之间,可加快梯度下降的收敛。有时,可采用均值归一化(Mean normalization),给出定义如下:
其中, 为均值, 为取值范围的最大值减去最小值。
注:不一定需要归一化至 ,只需要几个变量的取值范围相对合适接近,即可。
5. 多项式回归方程(Polynomial Regression)
对于 ,可令 ,再采用多元梯度下降即可。但对于这种情况,不同变量之间的取值范围可能相差很大,特征缩放是必要的。有时也可采用平方根进行拟合,。