深刻理解机器学习的: 目标函数,损失函数和代价函数

对于目标函数,损失函数和代价函数,重要的是理解。

基本概念:
在机器学习中,对于目标函数、损失函数、代价函数等不同书上有不同的定义。这里取如下定义
损失函数:计算的是一个样本的误差
代价函数:是整个训练集上所有样本误差的平均
目标函数:代价函数 + 正则化项

理解之间的差异
为了方便理解,现举例说明:
在这里插入图片描述

上面三个图的曲线函数依次为 f 1 ( x ) , f 2 ( x ) , f 3 ( x ) f1(x),f2(x),f3(x) ,图中的 x 代表样本数据点,蓝线代表用来拟合数据点的函数,这三个函数分别来拟合同一批样本数据点。我们给定x,这三个函数都会输出对应的一个 f ( x ) f(x) ,这个输出的 f ( x ) f(x) 与真实值Y可能是相同的,也可能是不同的,为了表示我们拟合的好坏,我们就用一个函数来度量拟合的程度。这个函数就称为损失函数(loss function),或者叫代价函数(cost function).

L ( y , f ( x ) ) = ( y f ( x ) ) 2 L(y, f(x)) = (y-f(x))^2

一般来说,损失函数越小,就代表模型拟合的越好。但是我们的目标不是让它越小越好,还要考虑一个概念叫风险函数(risk function)。风险函数是损失函数的期望,这是由于我们输入输出的(x,y)遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集, f ( x ) f(x) 关于训练集的平均损失称作经验风险(empirical risk),所以我们的目标就是最小化经验风险。公式表达如下: 1 N i = 1 N L ( y i , f ( x i ) ) \frac{1}{N}\sum_{i=1}^{N}L(y_i, f(x_i))

到这里完了吗?还没有。如果到这一步就完了的话,那我们看上面的图,那肯定是最右面的 f 3 ( x ) f3(x) 的经验风险函数最小了,因为它对历史的数据拟合的最好嘛。但是我们从图上来看它肯定不是最好的,因为它过度学习历史数据,导致它在真正预测时效果会很不好,这种情况称为过拟合(over-fitting),为什么会造成这种结果?大白话说就是它的函数太复杂了,都有四次方了,这就引出了下面的概念,我们不仅要让经验风险最小化,还要让结构风险最小化。

这个时候就定义了一个函数J(f),这个函数专门用来度量模型的复杂度,在机器学习中也叫正则化(regularization),常用的有L1, L2范数。到这一步我们就可以说我们最终的优化函数是: m i n 1 N i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) min\frac{1}{N}\sum_{i=1}^{N}L(y_i, f(x_i)) + λJ(f)

即最优化经验风险和结构风险,而这个函数就被称为目标函数

继续下一篇 利用BP神经网络逼近函数(Python)
参考资料
https://blog.csdn.net/qq_14845119/article/details/80787753
https://blog.csdn.net/ganzhantoulebi0546/article/details/79617642
https://blog.csdn.net/qq_28448117/article/details/79199835
https://www.jiqizhixin.com/articles/2018-06-21-3
https://blog.csdn.net/zynash2/article/details/80283396
https://blog.csdn.net/zhangjunp3/article/details/80467350
https://www.cnblogs.com/lliuye/p/9549881.html
https://www.zhihu.com/question/52398145

发布了36 篇原创文章 · 获赞 42 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/weixin_28710515/article/details/89335325