论文阅读: YOLOv1

Introduction

YOLOv1是one-stage detection鼻祖、real-time detection鼻祖。

所谓one-stage,即不需额外一个stage来生成RP,而是直接分类回归出output:
这里写图片描述

YOLOv1直接将整张图片分成 S × S 的小格子区域,每个区域生成 B 个bbox(论文中 B = 2 ),每个bbox去预测中心点落在该格的物体。但是每个格子生成的所有 B 个bbox共享一个score:
这里写图片描述

因此,YOLOv1最后一层的输出是一个 S × S × ( B 5 + C ) 的 tensor 。
其中, S 为每维的格子段数, B 为每格生成的bbox数, C 为前景类别数。

Y O L O v 1 = 24 × C o n v + 2 × F C
这里写图片描述

Note

  • 经过权衡利弊,YOLOv1采用了山寨版的GoogleNet作为basemodel,而非VGG;

  • 在第24层时,每个单点对应原图的感受野达到了 782 × 782 。而原图只有 448 × 448 ,覆盖了整张原图。也就意味着,到了第24层的时候,每个单点都能看到整张原图。更不要提第25、26层是两个fc操作了。

  • 另外, F a s t   Y O L O v 1 = 9 × C o n v + 2 × F C 。速度更快,但精度也略低。

Innovation

  • one-stage detecton鼻祖、real-time detection鼻祖,里程碑级的贡献。

  • 从image pixel直达bbox cordinate和class probability。

  • 设计得很有新意,直接输出每个bbox的cls和det结果(同一条向量上),并把分为前景的bbox向量条打到图上。

  • 每个grid只负责一个物体。这样自然将候选框数量大幅砍削到了 S × S × B 。有效缓解了类别不平衡,却也放弃了对每个ground truth框的大量试错机会。

Result

YOLOv1最大的优点就是“快”,“灰常快”。YOLOv1的检测速度为 45 fps ;Fast YOLOv1甚至达到了 155 fps
这里写图片描述

不过作者自己也承认,精度方面还是和two-stage系中的state-of-the-art水平是有差距的:
这里写图片描述

但是,虽然整体检测精度(mAP)不如你Fast R-CNN,但是我对背景的检测精度比你高了一倍多啊:
这里写图片描述
然而这么比就有点不公平了。YOLOv1只生成少量候选框的机制,决定了遇到的背景框数量远少于Fast R-CNN,因此受到类别不平衡问题的影响更小,自然对背景框的检测精度就高啦。

Fast R-CNN + YOLOv1 的效果还比纯粹的Fast R-CNN高了2.3个点:
这里写图片描述

在各种实验的过程中,作者还惊喜地发现,YOLOv1在艺术图片上的泛化性能也是一大亮点:
这里写图片描述

这里写图片描述

以下第一排就是各种艺术画:
这里写图片描述

拿艺术画的检测结果demo并放入论文中的做法,也是很有新意。

Thinking

  • 每个grid只负责一个物体。非常简单粗暴,这明显是对实际场景数据的观察得到的结果。
    因为数据集中的大部分图片都是常规图片,分布有秩,大小合理。因此YOLOv1对于大部分常规图片检测是高效可行的。
    但是小部分非常规图片(两个以上物体的中心位置落入同一个grid),直接就把YOLOv1的mAP值给拉低了。

  • 同时,由于YOLOv1只针对最后7x7的特征图进行分析,使得它对小目标的检测效果不佳。

  • YOLOv1在鱼 (检测速度) 与熊掌 (检测精度) 中选择了短平快的方式,突破two-stage的格局限制,创造出one-stage。虽然离最高mAP还略有差距,但是速度的暴涨,让real-time detection成为现实。这一点,YOLOv1功在千秋。

  • YOLOv1由于精度太差,而空有那么高的检测速度。因此在实际落地中,基本不用YOLOv1。甚至连对实时性要求极高的自动驾驶,也是使用的FPN(+Faster R-CNN)。


[1] You Only Look Once: Unified, Real-Time Object Detection
[2] YOLO - Google Slides
[3] 论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection

猜你喜欢

转载自blog.csdn.net/JNingWei/article/details/80010567
今日推荐