吴恩达——机器学习 局部加权回归(Loess)

先介绍参数学习方法和非参数学习方法:

参数学习方法:有固定数目的参数, 比如线性回归和逻辑回归中的\theta

非参数学习方法:参数的数目会随着训练集的大小呈线性增长,比如局部加权回归

局部加权回归(Locally Weighted Regression, Loess)

如果有一个类似下图的数据集(图片来源:https://blog.csdn.net/qsczse943062710/article/details/55657700):

采用线性回归会出现欠拟合(underfitting),这种情况下,Loess可以很好地解决这个问题。

与线性回归对比:

线性回归的目标是最小化\sum \left ( y^{\left ( i \right )} -\theta ^{T}x^{\left ( i \right )}\right )^{2}

Loess的目标是最小化\sum \omega ^{\left ( i \right )}\left ( y^{\left ( i \right )} -\theta ^{T}x^{\left ( i \right )}\right )^{2}, 其中\omega ^{\left ( i \right )}=exp\left ( - \frac{\left ( x^{\left ( i \right )}-x \right )^{2}}{2\iota ^{2}} \right )

\omega的作用是使预测点的临近点在最小化目标函数中贡献大:

\begin{vmatrix} x^{\left ( i \right )}-x \end{vmatrix} small \Rightarrow \omega ^{\left ( i \right )}\approx 1

\begin{vmatrix} x^{\left ( i \right )}-x \end{vmatrix}large\Rightarrow \omega ^{\left ( i \right )}\approx 0

Loess更加注重临近点的精确拟合。

\iota控制全职随距离下降的速率。

缺点:并不能解决欠拟合和过拟合问题;当数据量很大时,要对每个带预测数据拟合一次,代价大

猜你喜欢

转载自blog.csdn.net/lekusun9671/article/details/82345598