02 -- 6损失函数&7正则化惩罚项;8Softmax分类器

例如SVM损失函数:

根据上例,求出损失值。

用损失函数可以衡量,当前这个模型的效果到底是怎么样的,从例子中得到的损失函数我们可以看出,对car分类效果好,对frog分类效果很差。

损失函数公式:

N代表N张图像。

7.正则化惩罚项

我们可以看出,W1和W2使得x的最终得分值是一样的,那么w1和w2真的就一样么?

虽然w1和w2使得最终得分值是一样的,但是w1只关注于一个像素点,其他像素点等于任何值跟我最终的结果都没有任何关系。w2模型关注于所有的像素点,综合考虑了所有的像素点。

我们希望得到的是二号模型,一号模型容易产生过拟合。

那么怎么样才能得到w2模型呢?

我们需要在损失函数上加入一个正则化惩罚项!

如下是惩罚项的其中一种算法:

我们用以上算法算出正则化惩罚项之后,将正则化惩罚项加入到损失函数中,那么可以看出W1的损失函数会比W2的损失函数要大。所以损失函数终极版为:

损失函数终极版:

8--Softmax分类器

我们现在已经知道了怎么去评价一个模型,我们现在需要将得分值转化为概率值,这样就可以分为一类别,二类别.........。

Sigmod函数

Sigmod函数的取值范围为负无穷到正无穷。

Sigmod函数可以将负无穷到正无穷上的值映射到0~1上,0~1上的值就相当于概率值。

Softmax分类器:

Softmax的输出(归一化的分类概率)

损失函数:交叉熵损失(cross-entropy loss)

  :被称作softmax函数

其输入值是一个向量,向量中元素为任意实数的评分值。

输出一个向量,其中每个元素在0到1之间,且所有元素之和为1。

Softmax实例

首先,先做一个e的x次方操作,e的3.2次方为24.5,e的5.1次方为164.0,e的-1.7次方为0.18。

第二,将得分值映射成为概率值。24.5/24.5+164.0 = 0.13。所以概率值为0.13。

第三,用log函数求损失值,对正确分类的概率值进行计算损失值,概率越接近1损失值越小,概率越接近0损失值就越大。

以上就介绍了,如何用概率值来计算损失值。

SVM和Softmax损失函数对比

Softmax损失函数公式为:

SVM损失函数公式为:

两个损失函数的差异:

Softmax分类器是一个永远都不知道满足的分类器,他永远都会得出损失值的。

猜你喜欢

转载自blog.csdn.net/qq_41858768/article/details/81094194
02