RCNN,SSD, YOLO的优缺点比较及反思

1. RCNN

rcnn对于原有的目标检测算法提升50% 在VGG-16网络模型下,voc2007数据集上准确率为66%,但是速度很慢,内存占用量大,主要原因为候选框由速度较慢的selective search算法完成以及重复卷积网络计算。

Fast-RCNN

  1. 加入ROI池化 :提出ROI pooling池化层结构,解决了候选框子图必须将图像裁剪缩放到相同尺寸大小的问题;fast R-CNN在全连接层之前插入了ROI pooling层,从而不需要对图像进行裁剪,很好的解决了这个问题。
  2. 多任务损失函数:将分类损失和边框定位回归损失结合在一起统一训练,最终输出对应分类和边框坐标。
  3. Fast-RCNN = RCNN + SPPNET - Crop

Faster-RCNN

Faster-RCNN基本结构

  1. 加入RPN网络 :region proposal networks RPN层用于生成候选框,并利用softmax判断候选框是前景还是背景,从中选取前景候选框(因为物体一般在前景中),并利用bounding box regression调整候选框的位置,从而得到特征子图,称为proposals。
  2. 分类层:利用ROI层输出的特征图proposal,判断proposal的类别,同时再次对bounding box进行regression从而得到精确的形状和位置。
  3. 交替训练: 交替训练SPPNET和RPN网络(一次通过RPN网络一次通过SPPNET计算损失),测试集上先通过RPN进行分类再使用SPPNET进行最后的分类和回归
  4. Anchor框: 在高级特征上取k个Anchor框。anchor有[x,y,w,h]四个坐标偏移量,x,y表示中心点坐标,w和h表示宽度和高度。这样,对于feature map上的每个点,就得到了k个大小形状各不相同的选区region。
  5. Anchor框的计算: 先使用softmax确定是前景还是背景进行筛选,再进行bounding box回归。
    在这里插入图片描述
    假设红色框的坐标为[x,y,w,h], 绿色框,也就是目标框的坐标为[Gx, Gy,Gw,Gh], 我们要建立一个变换,使得[x,y,w,h]能够变为[Gx, Gy,Gw,Gh]。最简单的思路是,先做平移,使得中心点接近,然后进行缩放,使得w和h接近。如下
    在这里插入图片描述
    学习dx dy dw dh这四个线性变换,可以用线性回归来建模。对于空间位置loss,我们一般采用均方差算法并可以使用自适应梯度下降算法Adam优化方法。
  6. Faster-RCNN = Fast-RCNN + RPN - SS

Faster-RCNN 系列的反思

使用金字塔模型可以解决RCNN裁剪尺度变化的问题,借鉴了NLP中attention机制,对感兴趣区域进行分类提高了候选框采集的速度。对小物体有更好对检测效果。

2. YOLO

you only look once:one-stage的目标检测算法,将物体的定位和分类在一起完成,在一个输出层回归bounding box的位置和bounding box所属类别。在一块泰坦显卡上,FPS达到了45,实现了实时(Realtime)检测。在这里插入图片描述

YOLO V1

在这里插入图片描述

  1. 图像分割 :将图像隐式的分割为S X S个网格,当物体中心落在哪个网格里哪个网格就负责预测
  2. 计算量小:张量大小只有 S x S x (B*5 + C)。
  3. 训练集和测试集图片大小不一致 训练图片大小为224x224,测试图片为448x448

YOLO V2

  1. 批标准化 :加入BN层
  2. 加入448 x 448图片:在训练过程中加入和测试图像一样大的448 x 448 size的图像
  3. 引用Anchor Boxes 提升了recall值但是小幅降低了mAP(更稳定)。

YOLO V3

  • YOLO V3 网络结构

在这里插入图片描述

  1. 3个Anchor框 :52x52 小 26 x26 中 13 x 13 大
  2. 加入448 x 448图片:在训练过程中加入和测试图像一样大的448 x 448 size的图像
  3. 引用Anchor Boxes :提升了recall值但是小幅降低了mAP(更稳定)。
  4. 加入NMS筛选

YOLO系列的反思

    丧失部分精度,将图片端到端的进行目标检测,也引入了rcnn的Anchor框体系大幅提升mAP。因为没有进行区域采样,所以对全局信息有较好的表现,但是在小范围的信息上表现较差。

3. SSD

     Single Shot MultiBox Detector,平衡了YOLO和Faster RCNN的优缺点的模型。Faster R-CNN准确率mAP较高,漏检率recall较低,但速度较慢。而yolo则相反,速度快,但准确率和漏检率较低。

在这里插入图片描述

  1. 密集采样 :在6个特征图上进行4-6个bounding box框采样(论文上写的是default boxes 但是是和其他论文里对bounding box一样)
  2. 多尺寸feature map:每一个卷积层,都会输出不同大小感受野的feature map。在这些不同尺度的feature map上,进行目标位置和类别的训练和预测,从而达到多尺度检测的目的,可以克服yolo对于宽高比不常见的物体,识别准确率较低的问题。而yolo中,只在最后一个卷积层上做目标位置和类别的训练和预测。这是SSD相对于yolo能提高准确率的一个关键所在。
  3. 多anchor框 :每个anchor对应4-6个位置参数和C个类别参数.
  4. 加入NMS筛选

SSD反思

     SSD相比SPPNET可以实现参数共享即在多个feature map上使用单一网络。SSD的Anchor框大小是计算出来的,相比Faster RCNN的固定anchor框更加科学。下图为不同feature map上Anchor框的比率。 低级feature map使用小anchor框获取细节信息,高级feature map上使用大anchor框获取全局信息。
在这里插入图片描述
参考资料:
[1]: https://www.cnblogs.com/carsonzhu/p/9547973.html

发布了3 篇原创文章 · 获赞 0 · 访问量 732

猜你喜欢

转载自blog.csdn.net/JianqiuChen/article/details/104018322