例如SVM损失函数:
根据上例,求出损失值。
用损失函数可以衡量,当前这个模型的效果到底是怎么样的,从例子中得到的损失函数我们可以看出,对car分类效果好,对frog分类效果很差。
损失函数公式:
N代表N张图像。
7.正则化惩罚项
我们可以看出,W1和W2使得x的最终得分值是一样的,那么w1和w2真的就一样么?
虽然w1和w2使得最终得分值是一样的,但是w1只关注于一个像素点,其他像素点等于任何值跟我最终的结果都没有任何关系。w2模型关注于所有的像素点,综合考虑了所有的像素点。
我们希望得到的是二号模型,一号模型容易产生过拟合。
那么怎么样才能得到w2模型呢?
我们需要在损失函数上加入一个正则化惩罚项!
如下是惩罚项的其中一种算法:
我们用以上算法算出正则化惩罚项之后,将正则化惩罚项加入到损失函数中,那么可以看出W1的损失函数会比W2的损失函数要大。所以损失函数终极版为:
损失函数终极版:
8--Softmax分类器
我们现在已经知道了怎么去评价一个模型,我们现在需要将得分值转化为概率值,这样就可以分为一类别,二类别.........。
Sigmod函数
Sigmod函数的取值范围为负无穷到正无穷。
Sigmod函数可以将负无穷到正无穷上的值映射到0~1上,0~1上的值就相当于概率值。
Softmax分类器:
Softmax的输出(归一化的分类概率)
损失函数:交叉熵损失(cross-entropy loss)
:被称作softmax函数
其输入值是一个向量,向量中元素为任意实数的评分值。
输出一个向量,其中每个元素在0到1之间,且所有元素之和为1。
Softmax实例
首先,先做一个e的x次方操作,e的3.2次方为24.5,e的5.1次方为164.0,e的-1.7次方为0.18。
第二,将得分值映射成为概率值。24.5/24.5+164.0 = 0.13。所以概率值为0.13。
第三,用log函数求损失值,对正确分类的概率值进行计算损失值,概率越接近1损失值越小,概率越接近0损失值就越大。
以上就介绍了,如何用概率值来计算损失值。
SVM和Softmax损失函数对比
Softmax损失函数公式为:
SVM损失函数公式为:
两个损失函数的差异:
Softmax分类器是一个永远都不知道满足的分类器,他永远都会得出损失值的。