比YOLOv8还要强的YOLOv6 v3.0

请添加图片描述
论文地址:https://arxiv.org/pdf/2301.05586.pdf
开源地址:https://github.com/meituan/YOLOv6


请添加图片描述


YOLOv6 v3.0的主要贡献简述如下

  1. 对检测器的Neck部件进行了翻新,引入BiC(Bi-directional Concatenation)提供更精确的定位信息;将SPPF简化为SimCSPSPPF,牺牲较少的速度提升更多的性能
  2. 提出一种AAT(Anchor-aided training)策略,在不影响推理效率的情况下同时受益于Anchor-basedAnchor-free设计理念
  3. 对YOLOv6的Backbone与Neck进行加深,在更高分辨率输入下达成新的SOTA性能
  4. 提出一种新的自蒸馏策略提升YOLOv6小模型的性能,训练阶段采用更大的DFL作为增强版辅助回归分支

实现思路

请添加图片描述


Network Design

在网络架构方面,本文主要从Neck与SPP两个维度进行改进

  1. 在Neck方面,本文设计了一种增强的PAN模块,它次用BiC模块对三个近邻层特征进行集成, 这种处理截止可以保留更精确的定位信息,对于小目标定位非常重要
  2. 在SPP方面,本文对YOLOv5 v6.1版本的SPPF进行了简化,得到了所谓的SimCSPSPPF

Anchor-Aided Training

请添加图片描述
YOLOv6是一种追求更高推理速度的Anchor-free检测器

然而,作者发现,在同等配置(YOLOv6-N)下

相比Anchor-free方案,Anchor-based方案可以带来额外的性能增益,见上表

请添加图片描述
有鉴于此,作者提出了AAT策略

它引入了一个Anchor-based辅助分支以组合两种方案的优势

通过这种训练策略,源自的辅助分支的引导信息可以被有效的嵌入到Anchor-free分支

在推理阶段,辅助分支将被移除掉


Self-distillation

在YOLOv6早期版本中,自蒸馏仅在大模型中得到应用,采用的普通KL散度蒸馏

知识蒸馏损失与整体损失定义如下

在这里插入图片描述

超参数α用于对两个损失进行平衡

在训练的早期,源自老师模型的软标签更易于学习

而在训练的后期,学生模型从硬标签中受益更多

因此,作者设计了一种cosine weight decay调整机制

在这里插入图片描述
由于DFL会对回归分支引入额外的参数,极大程度影响小模型的推理速度

因此,作者针对小模型设计了一种DLD(Decoupled Localization Distillation)以提升性能且不影响推理速度

具体来说,在小模型中插入一个增强版回归分支作为辅助

在自蒸馏阶段,小模型受普通回归分支与增强回归分支加持,老师模型近使用辅助分支

需要注意:普通分支仅采用硬标签进行训练,而辅助分支则用硬标签与源自老师模型的软标签进行训练

完成蒸馏后,仅普通分支保留,辅助分支被移除

这种训练策略又是一种加量不加价的"赠品"


实验

请添加图片描述
上表给出了不同方案的性能对比,可以看到

相比YOLOv5-N、YOLOv7-Tiny,YOLOv6-N指标分别提升9.5%、4.2%,同时具有最佳速度

相比YOLOX-S、PPYOLOE-S、YOLOv6-S指标分别提升3.5%、0.9%且速度更快

YOLOv6-M比YOLOv5-M指标高4.6%、速度相当,比YOLOX-M、PPYOLOE-M指标高3.1%、1.0%且速度更快

除了比YOLOv5-L更高更快外,YOLOv6-L比YOLOX-L、PPYOLOE-L分别高3.1%、1.4%且速度相当

相比YOLOv8,YOLOv6在所有尺寸下取得了相当的精度,同时具有更优的吞吐性能

除了上述常规模型尺寸外,作者还进一步提升了输入分辨率并添加了C6特征,与YOLOv5等方案对比

相比YOLOv5系列(即YOLOv5-N6/S6/M6/L6/X6),YOLOv6具有更高的AP、相当的速度

相比YOLOv7-E6E,YOLOv6-L6指标高出0.4%,推理速度快36%

参考文献

  • https://arxiv.org/pdf/2301.05586.pdf

  • https://github.com/meituan/YOLOv6

猜你喜欢

转载自blog.csdn.net/qq_38973721/article/details/128727457
今日推荐