YOLOv7全文翻译

YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors

YOLOv7全文翻译

原文链接https://arxiv.org/abs/2207.02696
Github地址:https://github.com/WongKinYiu/yolov7
在这里插入图片描述
Abstract
YOLOv7 surpasses all known object detectors in both speed and accuracy in the range from 5 FPS to 160 FPS and has the highest accuracy 56.8% AP among all known real-time object detectors with 30 FPS or higher on GPU V100. YOLOv7-E6 object detector (56 FPS V100, 55.9%AP) outperforms both transformer-based detector SWINL Cascade-Mask R-CNN (9.2 FPS A100, 53.9% AP) by509% in speed and 2% in accuracy, and convolutionalbased detector ConvNeXt-XL Cascade-Mask R-CNN (8.6FPS A100, 55.2% AP) by 551% in speed and 0.7% AP in accuracy, as well as YOLOv7 outperforms: YOLOR,YOLOX, Scaled-YOLOv4, YOLOv5, DETR, Deformable DETR, DINO-5scale-R50, ViT-Adapter-B and many other object detectors in speed and accuracy. Moreover, we train YOLOv7 only on MS COCO dataset from scratch without using any other datasets or pre-trained weights. Source code is released in https://github.com/WongKinYiu/yolov7.
YOLOv7在5帧/秒到160帧/秒范围内的速度和精度都超过了所有已知的目标检测器,在GPU V100所有已知的30帧/秒以上的实时目标检测器中,YOLOv7的准确率最高,达到56.8%AP。YOLOv e6对象检测器(56 FPS V100,55.9%AP)比基于变压器的检测器SWINL级联掩模R-CNN(9.2 FPSA100,53.9%AP)速度509%,精度2%,和基于卷积的检测器convext-xl级联掩模R-CNN(86 FPA100,55.2%AP)速度551%,精度0.7%AP,以及YOLOv7在速度和精度方面优于:YOLOR,YOLO scale-yolov4,YOLOv5,DETR,变形DETR,DINO-5scale-R50,vita-adapter-b和许多其他对象测器。此外,我们只在MS COCO数据集上从无开始训练YOLOv7,而不使用任何其他数据集或先训练的权重。源代码发布在https://github.com/WongKinYiu/yolov7.
在这里插入图片描述

  1. Introduction
    实时目标检测是计算机视觉中一个非常重要的课题,它往往是计算机视觉系统中必不可少的组成部分。例如,多目标跟踪[94,93],自动驾驶[40,18],机器人[35,58],医学图像分析[34,46]等。执行实时对象检测的计算设备通常是一些移动CPU或GPU,以及由主要制造商开发的各种神经处理单元(NPU)。例如,苹果的神经引擎(Apple),神经计算(Intel),Jetson的AI边缘设备(Nvidia),边缘TPU(谷歌),神经处理引擎(高通),AI处理单元(联发科),以及AI soc(Kneron),都是npu。上面提到的一些边缘设备主要用于加速不同的操作,如普通卷积、深度卷积或MLP操作。在本文中,我们提出的实时目标检测器主要是希望它能够同时支持移动GPU和GPU设备,从边缘到云端。近年来,针对不同的边缘设备,仍在开发实时目标检测器。例如,发展图1:与其他实时物体探测器的比较,我们提出的方法达到了最先进的性能。MCUNet[49,48]和NanoDet[54]的改进主要集中在产生低功耗的单片机和提高边缘CPU的推理速度。而YOLOX[21]和YOLOR[81]等方法则专注于提高各种gpu的推理速度。近年来,实时目标检测器的发展主要集中在高效体系结构的设计上。至于可以在CPU上使用的实时目标检测器[54,88,84,83],它们的设计大多基于MobileNet[28,66,27],ShuffleNet[92,55],或GhostNet[25]。另一种主流的实时目标检测器是针对GPU开发的[81,21,97],它们大多使用ResNet[26]、DarkNet[63]或DLA[87],然后使用CSPNet[80]策略来优化架构。本文提出的方法的发展方向不同于目前主流的实时目标检测器。除了架构优化之外,我们提出的方法将重点放在培训过程的优化上。我们将重点讨论一些优化的模块和优化方法,这些模块和优化方法可以在不增加推理成本的情况下,加强训练成本以提高目标检测的准确性。我们把提出的模块和优化方法称为可训练的免费包。
    最近,模型重新参数化[13,12,29]和动态标签分配[20,17,42]已成为网络训练和目标检测中的重要课题。主要是在上述新概念提出之后,目标检测器的训练发展出了许多新问题。在本文中,我们将介绍一些我们发现的新问题,并提出有效的解决方法。在模型重参数化方面,结合梯度传播路径的概念,分析了不同网络中各层的模型重参数化策略,提出了规划的模型重参数化方法。此外,当我们发现使用动态标签分配技术时,多输出层模型的训练会产生新的问题。即:“如何为不同分支的输出分配动态目标?”针对这一问题,我们提出了一种新的标签分配方法,称为粗到细引导标签分配。本文的主要贡献如下:(1)我们设计了几种可训练的免费包检测方法,使实时目标检测在不增加推理成本的情况下大大提高了检测精度;(2)对于对象检测方法的发展,我们发现了两个新的问题,即重新参数化模块如何取代原有模块,以及动态标签分配策略如何处理对不同输出层的赋值。此外,我们还提出了解决这些问题所带来的困难的方法;(3)针对实时目标检测器提出了“扩展”和“复合缩放”两种有效利用参数和计算的方法;(4)该方法可有效减少实时目标检测器40%左右的参数和50%的计算量,具有更快的推理速度和更高的检测精度。
  2. Related work
    2.1. Real-time object detectors
    目前最先进的实时目标检测器主要是基于YOLO[61,62,63]和FCOS[76,77],分别为[3,79,81,21,54,85,23]。能够成为最先进的实时对象检测器通常需要以下特征:(1)更快、更强的网络架构;(2)一种更有效的特征集成方法[22,97,37,74,59,30,9,45];(3)更精确的检测方法[76,77,69];(4)更鲁棒的损失函数[96,64,6,56,95,57];(5)一种更有效的标签分配方法[99,20,17,82,42];(6)一种更有效的训练方法。在本文中,我们不打算探索需要额外数据或大型模型的自我监督学习或知识蒸馆方法。相反,我们将针对上述(4)、(5)和(6)的最新方法衍生出的问题,设计新的可训练的免费包方法。
    2.2. Model re-parameterization
    模型再参数化技术[71,31,75,19,33,11,4,24,13,12,10,29,14,78]在推断阶段将多个计算模块合并为一个。模型参数化技术可以看作是一种集成技术,我们可以将其分为两类:模块级集成和模型级集成。为了获得最终的推断模型,有两种常见的模型级重新参数化实践。一是用不同的训练数据训练多个相同的模型。然后平均多个训练模型的权重。二是对不同选代次数下的模型权值进行加权平均。模级再参数化是近年来比较热门的研究课题。这种方法在训练期间将一个模块拆分为多个相同或不同的模块分支,并在推断期间将多个分支模块集成为一个完全等价的模块。然而,并不是所有提出的重新参数化的模块都能完美地应用于不同的架构。考虑到这一点,我们开发了新的重新参数化模块,并为各种架构设计了相关的应用策略。
    2.3. Model scaling
    模型缩放模型缩放[72,60,74,73,15,16,2,51]是一种放大或缩小己经设计好的模型,使其适合不同的计算设备的方法。模型缩放法通常使用不同的缩放因子,如分辨率(输入图像的大小)、深度(层数)、宽度(通道数)和阶段(特征金字塔的数量),从而在网络参数的数量、计算量、推理速度和精度方面达到良好的权衡。网络架构搜索(Network architecture search,NAS)是一种常用的模型扩展方法。NAS可以从搜索空间中自动搜索合适的比例因子,而不需要定义太复杂的规则。NAS的缺点是需要非常昂贵的计算来完成模型缩放因子的搜索。在[15]中,研究者分析了缩放因子与参数量和操作之间的关系,试图直接估计一些规则,从而得到模型缩放所需的缩放因子。通过查阅文献,我们发现几乎所有的模型缩放方法都是独立分析单个缩放因子的,甚至复合缩放类别中的方法也是独立优化缩放因子的。这是因为大多数流行的NAS架构都处理不太相关的伸缩因子。我们观察到所有基于级联的模型,如DenseNet[32]或VoVNet[39],当这些模型的深度被缩放时,将改变某些层的输入宽度。由于提出的体系结构是基于级联的,我们必须为此模型设计一种新的复合缩放方法。
  3. Architecture
    3.1. Extended efficient layer aggregation networks
    扩展高效层聚合网络在设计高效体系结构的大多数文献中,主要考虑的因素不超过参数数量、计算量和计算密度。Ma等[55]还从内存访问代价的特点出发,分析了输入/输出信道比、体系结构分支数量和单元操作对网络推理速度的影响。Dollar’et al[15]在执行模型缩放时还考虑了激活,即更多地考虑卷积层输出张量中的元素数量。图2(b)中CSPVoVNet[79]的设计是vovnet[39]的变体。CSPVoVNet的架构[79]除了考虑上述的基本设计问题外,还对梯度路径进行了分析,以使不同层的权值学习到更多不同的特征。上述梯度分析方法使得推断更快、更准确。图2(c)中的ELAN[1]考虑了以下设计策略–“如何设计一个高效的网络?”他们得出了一个结论:通过控制最短最长的梯度路径,一个更深的网络可以有效地学习和收敛。本文提出了基于ELAN的Extended-ELAN(E-ELAN),其主要结构如图2(d)所示。
    在这里插入图片描述
    在大规模ELAN中,无论梯度路径长度和计算块的堆叠数量如何,它都达到了稳定状态。如果无限地叠加更多的计算块,可能会破坏这种稳定状态,降低参数利用率。该算法利用扩展、洗牌、合并基数来实现在不破坏原有梯度路径的情况下不断增强网络学习能力的能力。在体系结构上,E ELAN只改变了计算块的体系结构,而过渡层的体系结构完全不变。我们的策略是使用群卷积来扩展计算块的信道和基数。我们将对一个计算层的所有计算块应用相同的组参数和通道乘法器。然后,将每个计算块计算出的特征映射,按照设定的组参数g,洗牌成g组,然后拼接在一起。此时,每组feature map中的通道数将与原架构中的通道数相同。最后,我们添加g组特征映射来执行合并基数。除了保持原来的elan设计架构,E-ELAN还可以指导不同的计算块组学习更多不同的特征。
    3.2. Model scaling for concatenation-based models
    基于级联的模型缩放模型缩放的主要目的是调整模型的某些属性,生成不同规模的模型,以满足不同推理速度的需要.例如,effentnet的缩放模型[72]考虑了宽度、深度和分辨率。scale-yolov4[79]的缩放模型是调整阶段数。在[15]中,Dollar’et al分析了香草卷积和群卷积在进行宽度和深度缩放时对参数量和计算量的影响,并以此设计了相应的模型缩放方法。图3:基于串联模型的模型缩放。从(a)到(b),我们观察到当对基于级联的模型进行深度缩放时,计算块的输出宽度也会增加。这种现象会导致后续传输层的输入宽度增大。因此,我们提出(c),即对基于级联的模型进行模型缩放时,只需要对计算块中的深度进行缩放,其余的传输层进行相应的宽度缩放。以上方法主要应用于诸如PlainNet、ResNet等架构中。当这些架构在执行放大或缩小时,每一层的入度和出度不会发生变化,因此我们可以独立分析每个缩放因子对参数量和计算量的影响。然而,如果将这些方法应用到基于级联的体系结构中,我们会发现当对深度进行放大或缩小时,位于基于级联的计算块之后的翻译层的程度会减小或增加,如图3(a)和(b)所示。
    从上述现象可以推断,对于基于级联的模型,我们不能单独分析不同的缩放因素,而必须一起考虑。以放大深度为例,这种行为会导致过渡层的输入通道和输出通道之间的比率变化,这可能会导致模型的硬件使用量下降。因此,对于基于级联的模型,我们必须提出相应的复合模型缩放方法。当我们缩放一个计算块的深度因子时,我们还必须计算该块的输出通道的变化。然后,我们将对过渡层进行同样数量的改变,结果显示在图3(c)中。我们提出的复合缩放方法可以保持模型在初始设计时的属性,并保持最优结构。
    在这里插入图片描述
  4. Trainable bag-of-freebies
    4.1. Planned re-parameterized convolution
    [13]虽然在VGG上已经取得了优异的性能[68],但是当我们将其直接应用于resnet[26]和DenseNet[32]等架构时,其精度会显著降低。 利用梯度流传播路径分析了不同网络下重新参数化卷积的应用。并据此设计了规划的重新参数化卷积。 RepConv实际上是在一个卷积层中结合了3 × 3卷积、1 × 1卷积和恒等连接。通过分析RepConv与不同架构的结合及其性能,我们发现RepConv中的身份连接消除了ResNet中的残差和DenseNet中的拼接,为不同的特征映射提供了更多的梯度多样性。 基于上述原因,我们使用无身份连接的repconvv (RepConvN)来设计计划重参数化卷积的架构。 在我们的思维中,当一个带有残差或拼接的卷积层被重新参数化的卷积所取代时,应该没有同一性联系。 图4显示了我们设计的在PlainNet和ResNet中使用的“规划的重新参数化卷积”的示例。关于基于残差模型和基于级联模型的完整规划的重新参数化卷积实验,将在消融研究环节中进行介绍。

    4.2. Coarse for auxiliary and fine for lead loss
    深度监督[38]是深度网络训练中常用的一种技术。 其主要思想是在网络的中间层增加辅助头部,以辅助损耗为指导的浅层网络权值。 即使对于ResNet[26]和densenet[32]这样通常收敛良好的架构,深度监督[70,98,67,47,82,65,86,50]仍然可以显著提高模型在许多任务上的性能。 图5 (a)和(b)分别显示了“没有”和“有”深度监督的对象检测器架构。 在本文中,我们称负责最终输出的头部为引导头,称辅助训练的头部为辅助头。
    接下来我们要讨论标签分配的问题。 在过去的深度网络训练中,标签分配通常直接引用GT真实值,并根据给定的规则生成硬标签。 然而,近年来,以目标检测为例,研究人员往往利用网络预测输出的质量和分布,再结合地面真实值,采用一些计算和优化方法,生成一个可靠的软标签[61,8,36,99,91,44,43,90,20,17,42]。 例如YOLO[61]使用了边界盒回归预测IoU和ground truth作为客观性的软标签。 本文将综合考虑网络预测结果和地面真实值并分配软标签的机制称为“标签分配器”。
    无论辅助主管或领导主管的情况如何,都需要对目标目标进行深度监督培训。 在开发软标签赋值器相关技术的过程中,我们偶然发现了一个新的衍生问题,即: ,“如何给辅头和导头分配软标签?”据我们所知,目前相关文献还没有探讨这个问题。 目前最常用的方法的结果如图5©所示,将辅助头和引线头分开,利用各自的预测结果和地面真实来执行标签分配。 本文提出的方法是一种通过引线头预测同时引导辅助引线头和引线头的标签分配新方法。 换句话说,我们以导头预测为指导,生成粗到细的层次标签,分别用于辅助导头和导头学习。 提出的两种深度监督标签分配策略分别如图5 (d)和(e)所示。
    在这里插入图片描述
    引线头引导标签分配器(Lead head guided label assigner)主要根据引线头的预测结果和地面真实值进行计算,通过优化过程生成软标签。 这套软标签将作为辅助头和导头的目标训练模型。 这样做的原因是lead head具有较强的学习能力,由此产生的软标签应该更能代表源数据和目标数据之间的分布和相关性。 此外,我们可以把这种学习看作一种广义剩余学习。 通过让较浅的辅助头直接学习领导头已经学习过的信息,领导头将更能专注于学习尚未学习的剩余信息。
    粗到细导线头引导标签分配器(**Coarse-to-fine lead head guided label assigner)**还利用导线头的预测结果和接地事实来产生软标签。 但是在这个过程中我们产生了两套不同的软标签,即。 粗标签和细标签,其中细标签与由导头引导标签分配器产生的软标签相同,而粗标签是通过放松正样本分配过程的约束,允许更多的网格被视为正目标而产生的。 这是因为辅助头的学习能力不如引线头强,为了避免丢失需要学习的信息,我们将重点在目标检测任务中优化辅助头的召回。 对于引脚头的输出,我们可以从高查全率的结果中过滤出高精度的结果作为最终输出。但是,我们必须注意,如果粗标签的附加重量接近细标签的附加重量,可能会在最终预测时产生较差的先验。 因此,为了使那些额外粗糙的正网格影响更小,我们在解码器中加入限制,使额外粗糙的正网格不能完美地产生软标签。 上述机制使精细标签和粗标签的重要性在学习过程中动态调整,使精细标签的可优化上界始终高于粗标签。
    4.3. Other trainable bag-of-freebies
    其他可培训的免费袋在本节中,我们将列出一些可培训的免费袋。 这些免费赠品是我们在培训中使用的一些技巧,但最初的概念并不是我们提出的。 这些赠品的培训细节将在附录中详细阐述,包括:(1)convn -bn-activation topology中的Batch归一化:这部分主要是将Batch归一化层直接连接到卷积层。 这样做的目的是在推理阶段将批处理归一化的均值和方差整合到卷积层的偏差和权重中。 (2) YOLOR中的隐式知识[81]结合卷积特征映射加乘法的方式:在推理阶段,通过预计算,可以将YOLOR中的隐式知识简化为向量。 该向量可以与前一层或后一层的偏差和权重相结合。 (3) EMA模型:EMA是在meanteacher[75]中使用的一种技术,在我们的系统中,我们只使用EMA模型作为最终的推断模型。
  5. Experiments
    5.1. Experimental setup
    实验设置我们使用Microsoft COCO数据集进行实验,验证我们的目标检测方法。 我们所有的实验都没有使用预先训练的模型。 也就是说,所有的模型都是从头开始训练的。 在开发过程中,我们使用train 2017集进行训练,然后使用val2017集进行验证和超参数的选择。 最后,我们展示了对象检测在2017测试集上的性能,并与最先进的对象检测算法进行了比较。 详细的训练参数设置在附录中描述。 我们设计了边缘GPU、普通GPU和云GPU的基本模型,分别称为YOLOv7-tiny、YOLOv7和YOLOv7- w6。 同时,我们还利用基础模型对不同的服务需求进行模型缩放,得到不同类型的模型。 在ForYOLOv7中,我们对颈部进行了叠加缩放,并使用提出的复合缩放方法对整个模型的深度和宽度进行缩放,从而得到YOLOv7-X。 对于YOLOv7-W6,我们采用新提出的复合缩放法得到yolov7 - e6和YOLOv7-D6。 此外,我们将提出的EELAN用于YOLOv7-E6,从而完成YOLOv7-E6E。 由于YOLOv7-tiny是面向边缘gpu的架构,它将使用泄漏的ReLU作为激活函数。 对于其他模型,我们使用SiLU作为激活函数。 我们将在附录中详细描述每个模型的比例因子。
    5.2. Baselines
    基线我们选择之前版本的YOLO[3,79]和最先进的对象检测器YOLOR[81]作为我们的基线。 表1显示了我们建议的YOLOv7模型与那些使用相同设置训练的基线的比较。 结果表明,与YOLOv4相比,YOLOv7的参数减少了75%,计算量减少了36%,AP增加了1.5%。与现有的YOLOR-CSP相比,YOLOv7的参数减少了43%,计算量减少了15%,AP增加了0.4%。在微小模型性能上,与YOLOv4-tiny-31相比,YOLOv7 -tiny的参数减少了39%,计算量减少了49%,但AP不变。我们的模型在减少19%的参数数量和33%的计算量的同时仍然可以有一个较高的ap。
    在这里插入图片描述
    5.3. Comparison with state-of-the-arts
    我们将本文提出的方法与通用gpu和移动gpu的尖端对象检测器进行了比较,结果如表2所示。 从表2的结果我们知道,提出的方法具有最好的速度和精度的综合权衡。 如果我们比较YOLOv7-tiny- silu与YOLOv5-N (r6.1),我们的方法在AP上更快127帧/秒和10.7%的准确性。此外,YOLOv7在161帧/秒的帧率下有51.4%的AP,而PPYOLOE-L在相同的AP上只有78帧/秒。 在参数使用方面,YOLOv7比ppyoloe - l低41%。 如果我们比较YOLOv7-X与YOLOv5-L (r6.1)的114帧/秒推断速度,YOLOv7-X可以提高3.9%的AP。 如果将YOLOv7-X与类似规模的YOLOv5-X (r6.1)进行比较,YOLOv7-X的推理速度要快31 fps。 此外,在参数和计算量方面,与YOLOv5-X (r6.1)相比,YOLOv7-X减少了22%的参数和8%的计算量,但提高了2.2%的AP。 7在输入分辨率为1280的条件下比较YOLOv7和YOLOR, YOLOv7- w6的推理速度比YOLOR- p6快8fps,检出率也提高了1% AP,而YOLOv7- e6和YOLOv5-X6 (r6.1)的比较,前者比后者有0.9%AP增益,参数减少45%,计算量减少63%,推理速度提高了47%。 YOLOv7-D6与YOLOR-E6的推理速度相近,但AP提高了0.8%。 YOLOv7-E6E与YOLOR-D6的推理速度相近,但AP提高0.3%。
    在这里插入图片描述
    5.4. Ablation study(消融实验)
    5.4.1 Proposed compound scaling method(提出的复合尺度化方法)
    表3显示了使用不同模型尺度化策略进行尺度化的结果。 其中,我们提出的复合缩放方法是将计算块的深度扩大1.5倍,将过渡块的宽度扩大1.25倍。 如果与只扩大宽度的方法相比,我们的方法在参数较少、计算量较少的情况下,可使AP提高0.5%。 与仅增加深度的方法相比,只需增加2.9%的参数数和1.2%的计算量,可使AP提高0.2%。 从表3的结果可以看出,我们提出的复合缩放策略可以更有效地利用参数和计算。
    在这里插入图片描述
    5.4.2 Proposed planned re-parameterized model(提出了规划的重新参数化模型)
    提出的规划再参数化模型为了验证提出的平面再参数化模型的通用性,我们将其分别用于基于级联的模型和基于残差的模型进行验证。 我们选择的基于级联的模型和基于残差的模型分别是3层的ELAN和cspdarknet。 在基于级联的模型实验中,我们将3- stacking ELAN中不同位置的3 × 3卷积层替换为RepConv,具体配置如图6所示。 从表4所示的结果中,我们看到所有较高的AP值都出现在我们提议的重新参数化的模型中。 在基于残差模型的实验中,由于原始的黑暗块没有一个符合我们设计策略的3 × 3卷积块,所以我们为实验额外设计了一个反向的黑暗块,其架构如图7所示。 由于CSPDarknet的暗块和反向暗块具有完全相同的参数和操作量,所以比较是公平的。 表5所示的实验结果充分证实了所提出的重新参数化模型对基于残差的模型同样有效。 我们发现RepCSPResNet[85]的设计也符合我们的设计模式。
    在这里插入图片描述
    在这里插入图片描述
    5.4.3 Proposed assistant loss for auxiliary head

辅助头部的辅助损失在辅助头部的辅助损失实验中,我们比较了一般的引线头部独立标签分配方法和辅助头部方法,并对两种提出的引线引导标签分配方法进行了比较。 我们在表6中展示了比较结果。 从表6中列出的结果可以清楚地看出,任何增加助手损耗的模型都可以显著提高整体性能。 此外,我们提出的引导标签分配策略在AP、AP50和AP75中比一般的独立标签分配策略获得更好的性能。 对于我们提出的粗的辅助和精的铅标签分配策略,在所有情况下都能得到最好的结果。 图8展示了在辅助头和引导头用不同方法预测的物化图。 从图8中我们发现,如果辅助头学习引导的软标签,确实可以帮助引导头从一致的目标中提取残差信息。
在这里插入图片描述
在这里插入图片描述
在表7中,我们进一步分析了所提出的粗到细引导标签分配方法对辅助头部解码器的影响。 也就是说,我们比较了引入上界约束和不引入上界约束的结果。 从表中的数字来看,用距离物体中心的距离来约束物体的上限的方法可以达到更好的效果。
在这里插入图片描述
由于提出的YOLOv7使用多个金字塔共同预测目标检测结果,我们可以直接将辅助头部连接到中间层的金字塔进行训练。 这种类型的训练可以弥补在下一级金字塔预测中可能丢失的信息。 基于上述原因,我们在提出的E-ELAN架构中设计了部分辅助头。 我们的方法是在合并基数之前,在某一特征映射集后连接辅助头,这种连接可以使新生成的特征映射集的权值不被辅助损失直接更新。 我们的设计允许每个铅头金字塔仍然从不同大小的物体中获取信息。 表8显示了两种不同方法的结果。 粗至精导法和部分粗至精导法。 显然,部分粗转细导法具有更好的辅助效果。
在这里插入图片描述
6. Conclusions
本文提出了一种新的实时目标检测器体系结构和相应的模型缩放方法。 此外,我们发现目标检测方法的发展过程产生了新的研究课题。 在研究过程中,我们发现了重新参数化模块的替换问题和动态标签分配的分配问题。 为了解决这一问题,我们提出了可训练的免费袋方法来提高目标检测的准确性。 在此基础上,我们开发了YOLOv7系列目标检测系统,得到了最先进的目标检测结果。
7. Acknowledgements
8. More comparison
在5帧/秒到160帧/秒的范围内,onyolov7在速度和精度上超过了所有已知的物体检测器,在GPU V100上所有已知的30FPS或更高的实时物体检测器中具有最高的56.8% AP test-dev / 56.8% APmin-val。 YOLOv7- e6对象检测器(56 FPS V100, 55.9% AP)在速度和精度上都比基于变压器的检测器sin - l级联掩码R-CNN (9.2 FPSA100, 53.9% AP)的509%和2%,以及卷积检测器convext - xl CascadeMask R-CNN (8.6 FPSA100, 55.2% AP)的551%的速度和0.7% AP的精度,以及YOLOv7在速度和精度上优于:YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, DETR,变形DETR, DINO-5scale-R50, vita - adapter -b和许多其他对象检测器。 此外,我们只在MS COCO数据集上从头开始训练YOLOv7,而不使用任何其他数据集或预先训练的权重。
YOLOv7-E6E (56.8%AP)实时模型的最大精度比目前COCO数据集上最精确的美团/YOLOv6-s模型(43.1% AP)高出13.7% AP。 在COCO数据集和批量=32的V100 GPU上,我们的YOLOv7-tiny (35.2% AP, 0.4ms)模型比美团/YOLOv6-n (35.0% AP, 0.5 ms)快25%,高0.2% AP。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
References

完结撒花

猜你喜欢

转载自blog.csdn.net/qq_45294476/article/details/125657910