第3课 线性分类器损失函数与最优化

  回顾上一节课,我们了解视觉识别,特别是图像分类,这确实是一个非常困难的问题,因为我们必须考虑到这些可能的变化,并使得当我们在识别这些类型时,分类器能够在面对这些变化时具有鲁棒性,例如对猫的识别,似乎存在着难解决的问题,我们仅需要知道如何解决这些问题,同时我们还必须能够在成千上万的其他类型中解决这些问题,而且这种方法能够基本达到甚至是稍微高于人类识别的准确率,这种技术还可能在手机上实时使用,这种技术在近几年开始有重要突破。

  这节课时主要讲述了线性分类器的理解方式,包括linearSVM和softmax,讲解了最小化损失函数用的方法:梯度下降,以及梯度计算需要注意的一些问题。

  对于图像分类和视觉识别的问题,我们不能够明确地用固定参数对分类器进行设置,必须用数据来进行训练,所以我们采用不同的训练集,采用验证集来调整超参数,并采用了一个测试集。我们了解最近邻分类器和KNN分类器,还有参数多态方法。讲授者写了一个线性函数,从图像得到一个1行10列的分数矩阵,f=Wx,可以理解为分类器与模板的匹配情况,或者将图片看成在高维度区域,线性分类器对这些区域进行染色。我们对每一张图片都进行随机选择权值设置,然后通过f函数进行评分,所以我们得到不同的权值在不同的图片上的作用效果,可能理想也可能糟糕,我们尽力去找到一些权值,能够使得数据集中的数据和识别的类型相一致,但是现在说的好和坏没有明显的界限。因此,我们有了损失函数,要使得它的值最小,我们要找到合适的W,使得到的损失最小。

猜你喜欢

转载自www.cnblogs.com/BlueBlue-Sky/p/9226456.html