一文看尽目标检测:从YOLO v1到v3的进化之路

640?wx_fmt=png


本文转载自:

http://www.mamicode.com/info-detail-2314392.html


导语:如今基于深度学习的目标检测已经逐渐成为自动驾驶、视频监控、机械加工、智能机器人等领域的核心技术,而现存的大多数精度高的目标检测算法,速度较慢,无法适应工业界对于目标检测实时性的需求,这时 YOLO 算法横空出世,以近乎极致的速度和出色的准确度赢得了大家的一致好评。基于此,我们选择 YOLO 算法来实现目标检测。YOLO 算法目前已经经过了 3 个版本的迭代,在速度和精确度上获得了巨大的提升,我们将从 YOLO v1 开始讲起,直至目前最新的版本 YOLO v3。


1. YOLO V1 一步检测的开山之作


相对于传统的分类问题,目标检测显然更符合现实需求,因为往往现实中不可能在某一个场景只有一个物体,因此目标检测的需求变得更为复杂,不仅仅要求算法能够检验出是什么物体,还需要确定这个物体在图片哪里。 


在这一过程中,目标检测经历了一个高度的符合人类的直觉的过程。既需要识别出目标的位置,将图片划分成小图片扔进算法中去,当算法认为某物体在这个小区域上之时,那么检测完成。那我们就认为这个物体在这个小图片上了。而这个思路,正是比较早期的目标检测思路,比如 R-CNN。 


后来的 Fast R-CNN,Faster R-CNN[16] 虽有改进,比如不再是将图片一块块的传进 CNN 提取特征,而是整体放进 CNN 提取特征图后,再做进一步处理,但依旧是整体流程分为区域提取目标分类两部分(two-stage),这样做的一个特点是虽然确保了精度,但速度非常慢,于是以 YOLO(You only look once)为主要代表的这种一步到位(one-stage)即端到端的目标检测算法应运而生了。


1.1 YOLO v1 基本思想


YOLO v1 的核心思想在于将目标检测作为回归问题解决 ,YOLO v1 首先会把原始图片放缩到 448×448 的尺寸,放缩到这个尺寸是为了后面整除来的方便。然后将图片划分成 SxS 个区域,注意这个区域的概念不同于上文提及将图片划分成 N 个区域扔进算法的区域不同。上文提及的区域是将图片进行剪裁,或者说把图片的某个局部的像素输入算法中,而这里的划分区域,只的是逻辑上的划分。 


如果一个对象的中心落在某个单元格上,那么这个单元格负责预测这个物体。每个单元格需要预测 B 个边界框(bbox)值(bbox 值包括坐标和宽高),同时为每个 bbox 值预测一个置信度(confidence scores)。 此后以每个单元格为单位进行预测分析。 


这个置信度并不只是该边界框是待检测目标的概率,而是该边界框是待检测目标的概率乘上该边界框和真实位置的 IoU(框之间的交集除以并集)的积。通过乘上这个交并比,反映出该边界框预测位置的精度。如下式所示:


640?wx_fmt=png


每个边界框对应于 5 个输出,分别是 x,y,w,h 和置信度。其中 x,y 代表边界框的中心离开其所在网格单元格边界的偏移。w,h 代表边界框真实宽高相对于整幅图像的比例。x,y,w,h 这几个参数都已经被限制到了区间 [0,1] 上。除此以外,每个单元格还产生 C 个条件概率,。注意,我们不管 B 的大小,每个单元格只产生一组这样的概率。

640?wx_fmt=png

图一:YOLO预测图示


在 test 的非极大值抑制阶段,对于每个边界框,按照下式衡量该框是否应该予以保留。


640?wx_fmt=png


这就是每个单元格的个体分类置信度得分(class-specific confidence scores),这即包含了预测的类别信息,也包含了对 bbox 值的准确度。 我们可以设置一个阈值,把低分的 class-specific confidence scores 滤掉,剩下的留给给非极大值抑制,得到最终的标定框。 


在 PASCAL VOC 进行测试时,使用 S=7, B=2。由于共有 20 类,故 C=20。所以,网络输出大小为 7×7×30。


1.2 网络模型结构


640?wx_fmt=png

图二:网络框架


该网络结构包括 24 个卷积层,最后接 2 个全连接层。Draknet[13] 网络借鉴 GoogleNet 的思想,在每个 1x1 的卷积层之后再接一个 3x3 的卷积层的结构替代 GoogleNet 的Inception 结构。论文中还提到了更快版本的 Yolo,只有 9 个卷积层,其他则保持一致。


1.3 损失函数


YOLO v1 全部使用了均方差(mean squared error)作为损失(loss)函数。由三部分组成:坐标误差、IOU 误差和分类误差。 


考虑到每种 loss 的贡献率,YOLO v1给坐标误差(coordErr)设置权重λcoord=5。在计算 IoU 误差时,包含物体的格子与不包含物体的格子,二者的 IOU 误差对网络 loss 的贡献值是不同的。若采用相同的权值,那么不包含物体的格子的置信度值近似为 0,变相放大了包含物体的格子的置信度误差,在计算网络参数梯度时的影响。为解决这个问题,YOLO 使用 λnoobj=0.5 修正(置信度误差)iouErr。(此处的‘包含’是指存在一个物体,它的中心坐标落入到格子内)。 


对于相等的误差值,大物体误差对检测的影响应小于小物体误差对检测的影响。这是因为,相同的位置偏差占大物体的比例远小于同等偏差占小物体的比例。YOLO 将物体大小的信息项(w 和 h)进行求平方根来改进这个问题,但并不能完全解决这个问题。 


综上,YOLO v1 在训练过程中 Loss 计算如下式所示:


640?wx_fmt=png

在激活函数上:

640?wx_fmt=png

在最后一层使用的是标准的线性激活函数,其他的层都使用 leaky rectified 线性激活函数。


1.4 总结


YOLO v1 作为一步检测的开山之作,最大的特点就是速度快。其将物体检测作为回归问题进行求解,使用单个网络完成整个检测的方法,大大提升了同类目标检测算法的速度,并且实现了召回率低,表现为背景误检率低的有点。YOLO v1 可以获取到图像的整体信息,相比于 region proposal 等方法,有着更广阔的“视野”。对其种类的物体,训练后识别效果也十分优异,具有很强的泛化能力。 


但是 YOLO v1 的精准性和召回率相对于 fast rcnn 比较差。其对背景的误判率比 Fast RCNN 的误判率低很多。这说明了 YOLO v1 中把物体检测的思路转成回归问题的思路有较好的准确率,但是对于 bounding box 的定位不是很好。


2. YOLO v2/YOLO9000 更准、更快、更强


YOLO v1 对于 bounding box 的定位不是很好,在精度上比同类网络还有一定的差距,所以 YOLO v2 对于速度和精度做了很大的优化,并且吸收了同类网络的优点,一步步做出尝试。 


YOLO v2 在 v1 基础上做出改进后提出。其受到 Faster RCNN 方法的启发,引入了 anchor。同时使用了 K-Means 方法,对 anchor 数量进行了讨论,在精度和速度之间做出折中。并且修改了网络结构,去掉了全连接层,改成了全卷积结构。在训练时引入了世界树(WordTree)结构,将检测和分类问题做成了一个统一的框架,并且提出了一种层次性联合训练方法,将 ImageNet 分类数据集和 COCO 检测数据集同时对模型训练。


2.1 更准


YOLO v2 对每批数据都做了一个归一化预处理。通过在每一个卷积层后添加batch normalization,极大的改善了收敛速度同时减少了对其它正则方法的依赖(舍弃了dropout优化后依然没有过拟合),使得 mAP 获得了 2% 的提升。(mAP:平均精度均值(mean Average Precision)) 


YOLO v1 在分辨率为 224×224 的图片上进行预训练,在正式训练时将分辨率提升到 448×448,这需要模型去适应新的分辨率。但是 YOLO v2 是直接使用 448×448 的输入,随着输入分辨率的增加,模型提高了 4% 的 mAP。


在预测框的数量上,由于 YOLO v2 将网络的输入分辨率调整到 416×416,保证为多次卷积后,下采样率为 32,得到 13×13 的特征图(feature map)。在这上面使用 9 种 anchor boxes[7],得到 13×13×9=1521 个,这比 YOLO v1 大多了。 


YOLO v1 利用全连接层的数据完成边框的预测,会导致丢失较多的空间信息,使定位不准。在 YOLO v2 中作者借鉴了 Faster R-CNN 中的 anchor 思想,来改善全连接层带来的影响。 


Anchor 是 RPN(region proposal network)网络在 Faster R-CNN 中的一个关键步骤,是在卷积特征图上进行滑窗操作,每一个中心可以预测 9 种不同大小的候选框。 


为了引入 anchor boxes 来预测候选框,作者在网络中去掉了全连接层。并去掉了最后的一个池化层以确保输出的卷积特征图有更高的分辨率。然后,通过缩减网络,让图片输入分辨率为 416 * 416,目的是为了让后面产生的卷积特征图宽高都为奇数,这样就可以产生一个中心框(center cell)。


作者观察到,大物体通常占据了图像的中间位置,可以只用中心的一个框来预测这些物体的位置,否则就要用中间的 4 个格子来进行预测,这个技巧可稍稍提升效率。最后,YOLO v2 使用了卷积层降采样(采样因子为 32),使得输入卷积网络的 416 * 416 图片最终得到 13 * 13 的卷积特征图(416/32=13)。 


没有 anchor boxes 的情况下,模型召回率(recall)为 81%,mAP 为 69.5%;加入 anchor boxes,模型召回率为 88%,mAP 为 69.2%。这样看来,准确率只有小幅度的下降,而召回率则提升了 7%。 


在使用 anchor 的时候作者遇到了两个问题,第一个是 anchor boxes 的宽高维度往往是精选的先验框(hand-picked priors)也就是说人工选定的先验框。虽然在训练过程中网络也会学习调整框的宽高维度,最终得到准确的 bounding boxes。但是,如果一开始就选择了更好的、更有代表性的先验框维度,那么网络就更容易学到准确的预测位置。 


为了使网络更易学到准确的预测位置,作者使用了 K-means 聚类方法类训练 bounding boxes,可以自动找到更好的框宽高维度。传统的 K-means 聚类方法使用的是欧氏距离函数,也就意味着较大的框会比较小的框产生更多的误差,聚类结果可能会偏离。为此,作者采用 IOU 得分作为评价标准,这样的话,误差就和框的尺度无关了,最终的距离函数为:


640?wx_fmt=jpeg


对数据集的聚类结果如下:

640?wx_fmt=png

图三:聚类数目与Avg IoU的关系(使用VOC2007和COCO数据集)


可以看出 k=5 在模型复杂度与召回率之间取一个折中值。 在使用 anchor 的时候,遇到的第二个问题是加入 anchor box 的模型不稳定。作者认为模型不稳定的原因来自于预测 bbox 的(x,y)。如下:

640?wx_fmt=png

在 Faster R-CNN 的预测中,偏移因子,是没有限制的,因此收敛会比较慢。故我们想让每个模型预测目标附近的一个部分,论文对采用了和 YOLO v1 一样的方法,直接预测中心点,并使用 Sigmoid 函数将偏移量限制在 0 到 1 之间(这里的尺度是针对网格框)。 


计算公式如下:

640?wx_fmt=png

bx,by,bw,bh 是预测的 bbox 的中心点坐标和宽高,中心点坐标的尺度是相对于网格。


如图四:


640?wx_fmt=png

图四:各个参数的位置图示


经过维度聚类和直接位置预测的操作,在原有的 anchor boxes 版本上又提升了 5% 的 mAP。 


YOLO v1 在对于大目标检测有很好的效果,但是对小目标检测上,效果欠佳。为了改善这一问题,作者参考了 Faster R-CNN 和 SSD 的想法,在不同层次的特征图上获取不同分辨率的特征。作者将上层的(前面 26×26)高分辨率的特征图(feature map)直接连到 13×13 的 feature map 上。把 26×26×512 转换为 13×13×2048,并拼接住在一起使整体性能提升 1%。 


Multi-Scale Training


和 GoogleNet 训练时一样,为了提高模型的鲁棒性(robust),在训练的时候使用多尺度[6]的输入进行训练。因为网络的卷积层下采样因子为 32,故输入尺寸选择 32 的倍数 288,352,…,544。


640?wx_fmt=png

图五:不同尺度训练的精度与其他网络的精度对比


2.2 更快


大多数目标检测的框架是建立在 VGG-16 上的,VGG-16 在 ImageNet 上能达到 90% 的 top-5(最后概率向量最大的前五名中出现了正确概率即为预测正确),但是单张图片需要 30.69 billion 浮点运算,YOLO v2 是依赖于 DarkNet-19 的结构,该模型在 ImageNet 上能达到 91% 的 top-5,并且单张图片只需要 5.58 billion 浮点运算,大大的加快了运算速度。DarkNet 的结构图如下:

640?wx_fmt=png

图六:YOLOv2网络结构


YOLO v2 去掉 YOLO v1 的全连接层,同时去掉 YOLO v1 的最后一个池化层,增加特征的分辨率,修改网络的输入,保证特征图有一个中心点,这样可提高效率。并且是以每个 anchor box 来预测物体种类的。 


作者将分类和检测分开训练,在训练分类时,以 Darknet-19 为模型在 ImageNet 上用随机梯度下降法(Stochastic gradient descent)跑了 160 epochs,跑完了 160 epochs 后,把输入尺寸从 224×224 上调为 448×448,这时候学习率调到 0.001,再跑了 10 epochs, DarkNet 达到了 top-1 准确率 76.5%,top-5 准确率 93.3%。 


在训练检测时,作者把分类网络改成检测网络,去掉原先网络的最后一个卷积层,取而代之的是使用 3 个 3×3x1024 的卷积层,并且每个新增的卷积层后面接 1×1 的卷积层,数量是我们要检测的类的数量。


2.3 更强


论文提出了一种联合训练的机制:使用识别数据集训练模型识别相关部分,使用分类数据集训练模型分类相关部分。 


众多周知,检测数据集的标注要比分类数据集打标签繁琐的多,所以 ImageNet 分类数据集比 VOC 等检测数据集高出几个数量级。所以在 YOLO v1 中,边界框的预测其实并不依赖于物体的标签,YOLO v2 实现了在分类和检测数据集上的联合训练。对于检测数据集,可以用来学习预测物体的边界框、置信度以及为物体分类,而对于分类数据集可以仅用来学习分类,但是其可以大大扩充模型所能检测的物体种类。 


作者选择在 COCO 和 ImageNet 数据集上进行联合训练,遇到的第一问题是两者的类别并不是完全互斥的,比如"Norfolk terrier"明显属于"dog",所以作者提出了一种层级分类方法(Hierarchical classification),根据各个类别之间的从属关系(根据 WordNet)建立一种树结构 WordTree,结合 COCO 和 ImageNet 建立的词树(WordTree)如下图所示:


640?wx_fmt=png

图七:WordTree


WordTree 中的根节点为"physical object",每个节点的子节点都属于同一子类,可以对它们进行 softmax 处理。在给出某个类别的预测概率时,需要找到其所在的位置,遍历这个路径,然后计算路径上各个节点的概率之积。 


在训练时,如果是检测样本,按照 YOLO v2 的 loss 计算误差,而对于分类样本,只计算分类误差。在预测时,YOLO v2 给出的置信度就是 ,同时会给出边界框位置以及一个树状概率图。在这个概率图中找到概率最高的路径,当达到某一个阈值时停止,就用当前节点表示预测的类别。


2.4 总结


通过对 YOLO v1 网络结构和训练方法的改进,提出了 YOLO v2/YOLO9000 实时目标检测系统。YOLO v2 在 YOLO v1 的基础上进行了一系列的改进,在快速的同时达到 state of the art。同时,YOLO v2 可以适应不同的输入尺寸,根据需要调整检测准确率和检测速度(值得参考)。作者综合了 ImageNet 数据集和 COCO 数据集,采用联合训练的方式训练,使该系统可以识别超过 9000 种物品。除此之外,作者提出的 WordTree 可以综合多种数据集的方法可以应用于其它计算机数觉任务中。但是对于重叠的分类,YOLO v2 依然无法给出很好的解决方案。


3. YOLO v3 集大成之作


YOLO v3 是到目前为止,速度和精度最均衡的目标检测网络。通过多种先进方法的融合,将 YOLO 系列的短板(速度很快,不擅长检测小物体等)全部补齐。达到了令人惊艳的效果和拔群的速度。


640?wx_fmt=png

图八:YOLOv3与其他网络的mAP与运行时间对比


3.1 多标签分类预测


在 YOLO9000[14] 之后,我们的系统使用维度聚类(dimension clusters )作为 anchor boxes 来预测边界框,网络为每个边界框预测 4 个坐标。


在 YOLO v3[15] 中使用逻辑回归预测每个边界框(bounding box)的对象分数。 如果先前的边界框比之前的任何其他边界框重叠 ground truth 对象,则该值应该为 1。如果以前的边界框不是最好的,但是确实将 ground truth 对象重叠了一定的阈值以上,我们会忽略这个预测,按照进行。我们使用阈值 0.5。与 YOLO v2 不同,我们的系统只为每个 ground truth 对象分配一个边界框。如果先前的边界框未分配给 grounding box 对象,则不会对坐标或类别预测造成损失。 


在 YOLO v3 中,每个框使用多标签分类来预测边界框可能包含的类。该算法不使用 softmax,因为它对于高性能没有必要,因此 YOLO v3 使用独立的逻辑分类器。在训练过程中,我们使用二元交叉熵损失来进行类别预测。对于重叠的标签,多标签方法可以更好地模拟数据。


3.2 跨尺度预测 


YOLO v3 采用多个尺度融合的方式做预测。原来的 YOLO v2 有一个层叫:passthrough layer,假设最后提取的 feature map 的 size 是 13*13,那么这个层的作用就是将前面一层的 26*26 的 feature map 和本层的 13*13 的 feature map 进行连接,有点像 ResNet。这样的操作也是为了加强 YOLO 算法对小目标检测的精确度。这个思想在 YOLO v3 中得到了进一步加强,在 YOLO  v3 中采用类似 FPN 的上采样(upsample)和融合做法(最后融合了 3 个 scale,其他两个 scale 的大小分别是 26*26 和 52*52),在多个 scale 的 feature map 上做检测,对于小目标的检测效果提升还是比较明显的。虽然在 YOLO v3 中每个网格预测 3 个边界框,看起来比 YOLO v2 中每个 grid cell 预测 5 个边界框要少,但因为 YOLO v3 采用了多个尺度的特征融合,所以边界框的数量要比之前多很多。


3.3 网络结构改变


YOLO v3 使用新的网络来实现特征提取。在 Darknet-19 中添加残差网络的混合方式,使用连续的 3×3 和 1×1 卷积层,但现在也有一些 shortcut 连接,YOLO v3 将其扩充为 53 层并称之为 Darknet-53。


640?wx_fmt=png

图九:Darknet-53网络结构


这个新网络比 Darknet-19 功能强大得多,而且比 ResNet-101 或 ResNet-152 更有效。


640?wx_fmt=png

图十:ImageNet结果


每个网络都使用相同的设置进行训练,并以 256×256 的单精度测试进行测试。运行时间是在 Titan X 上以 256×256 进行测量的。因此,Darknet-53 可与 state-of-the-art 的分类器相媲美,但浮点运算更少,速度更快。Darknet-53 比 ResNet-101 更好,速度更快 1:5 倍。 


Darknet-53 与 ResNet-152 具有相似的性能,速度提高 2 倍。 Darknet-53 也可以实现每秒最高的测量浮点运算。这意味着网络结构可以更好地利用 GPU,从而使其评估效率更高,速度更快。


3.4 总结


YOLO 检测算法进行目标检测,取得了较高的检测速度和检测准确率。该算法不仅对于实物有着很好的效果,对于其他目标,如艺术作品等同样具有很好的兼容性。YOLO 算法相比其他算法更符合工业界对目标检测算法实时性的要求,简单易实现,对于嵌入式很友好。


YOLO 系列不断吸收目标检测同类算法的优点,将其应用于自身,不断进步,可谓成长中的算法。


参考资料 


[1] M. Everingham, L. Van Gool, C. K. Williams, J. Winn, and A. Zisserman. The pascal visual object classes (voc) challenge. International journal of computer vision, 88(2):303– 338, 2010. 6 

[2] C.-Y. Fu, W. Liu, A. Ranga, A. Tyagi, and A. C. Berg. Dssd: Deconvolutional single shot detector. arXiv preprint arXiv:1701.06659, 2017. 3 

[3] D. Gordon, A. Kembhavi, M. Rastegari, J. Redmon, D. Fox, and A. Farhadi. Iqa: Visual question answering in interactive environments. arXiv preprint arXiv:1712.03316, 2017. 1 

[4] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016. 3 

[5] J. Huang, V. Rathod, C. Sun, M. Zhu, A. Korattikara, A. Fathi, I. Fischer, Z. Wojna, Y. Song, S. Guadarrama, et al. Speed/accuracy trade-offs for modern convolutional object detectors. 3 

[6] I. Krasin, T. Duerig, N. Alldrin, V. Ferrari, S. Abu-El-Haija, A. Kuznetsova, H. Rom, J. Uijlings, S. Popov, A. Veit, S. Belongie, V. Gomes, A. Gupta, C. Sun, G. Chechik, D. Cai, Z. Feng, D. Narayanan, and K. Murphy. Openimages: A public dataset for large-scale multi-label and multi-class image classification. Dataset available from https://github.com/openimages, 2017. 2 

[7] T.-Y. Lin, P. Dollar, R. Girshick, K. He, B. Hariharan, and S. Belongie. Feature pyramid networks for object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2117–2125, 2017. 2, 3 

[8] T.-Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollar. ′ Focal loss for dense object detection. arXiv preprint arXiv:1708.02002, 2017. 1, 3, 4 

[9] T.-Y. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Dollar, and C. L. Zitnick. Microsoft coco: Com- ′ mon objects in context. In European conference on computer vision, pages 740–755. Springer, 2014. 2 

[10] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.- Y. Fu, and A. C. Berg. Ssd: Single shot multibox detector. In European conference on computer vision, pages 21–37. Springer, 2016. 3 

[11] I. Newton. Philosophiae naturalis principia mathematica. William Dawson & Sons Ltd., London, 1687. 1 

[12] J. Parham, J. Crall, C. Stewart, T. Berger-Wolf, and D. Rubenstein. Animal population censusing at scale with citizen science and photographic identification. 2017. 4 

[13] J. Redmon. Darknet: Open source neural networks in c. http://pjreddie.com/darknet/, 2013–2016. 3 

[14] J. Redmon and A. Farhadi. Yolo9000: Better, faster, stronger. In Computer Vision and Pattern Recognition (CVPR), 2017 IEEE Conference on, pages 6517–6525. IEEE, 2017. 1, 2, 3 

[15] J. Redmon and A. Farhadi. Yolov3: An incremental improvement. arXiv, 2018. 4 

[16] S. Ren, K. He, R. Girshick, and J. Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. arXiv preprint arXiv:1506.01497, 2015.


(*本文为 AI科技大本营转载文章,转载请联系原作者)


CTA核心技术及应用峰会



5月25-27日,由中国IT社区CSDN与数字经济人才发展中心联合主办的第一届CTA核心技术及应用峰会将在杭州国际博览中心隆重召开,峰会将围绕人工智能领域,邀请技术领航者,与开发者共同探讨机器学习和知识图谱的前沿研究及应用。


更多重磅嘉宾请识别海报二维码查看。目前会议8折预售票抢购中,点击阅读原文即刻抢购。添加小助手微信15101014297,备注“CTA”,了解票务以及会务详情。


640?wx_fmt=png


推荐阅读



640?wx_fmt=png


点击阅读原文,了解CTA核心技术及应用峰会

猜你喜欢

转载自blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/90219048