DW: proceso de entrenamiento de detección de objetos optimizado, cálculo de peso positivo y negativo más completo | CVPR 2022

El documento propone un método de asignación de etiquetas adaptativo DW, que rompe la convención anterior de ponderación de acoplamiento. La asignación dinámica de pesos pos y pesos negativos independientes a los anclajes puede supervisar el entrenamiento de manera más integral de acuerdo con los indicadores de consistencia e inconsistencia desde diferentes ángulos. Además, el documento también propone una nueva operación de ajuste fino del marco de predicción, que ajusta directamente el marco de predicción en el mapa de características de regresión.Fuente

: Cuenta pública de Xiaofei's Algorithm Engineering Notes

论文: Un esquema de asignación de etiquetas de doble ponderación para la detección de objetos

Introducción


  Como unidad básica del entrenamiento del detector de objetivos, Anchor debe recibir etiquetas de clasificación y etiquetas de regresión correctas. Dicho proceso de asignación de etiquetas (LA, asignación de etiquetas) también puede considerarse como un proceso de asignación de pérdida de peso. Para el cálculo de la pérdida cls de un solo ancla, se puede expresar uniformemente como:

en pags O s w_ {posición} y en norte y gramo w_ {negativo} son pesos delanteros y pesos inversos, que se utilizan para controlar la dirección del entrenamiento. Con base en este diseño, los métodos LA se pueden dividir en dos grandes categorías:

  • LA duro: cada ancla se puede dividir en pos o neg, es decir, en pags O s , en norte y gramo { 0 , 1 } w_{pos},w_{neg}\in \{0,1\} y en pags O s + en norte y gramo = 1 w_{pos}+w_{neg}=1 El núcleo de este tipo de método es encontrar el límite entre las anclas positivas y negativas. El enfoque clásico usa directamente un umbral IoU fijo para el juicio, ignorando las diferencias en el tamaño y la forma del objetivo. Estudios recientes como ATSS han propuesto el concepto de umbral dinámico, que divide los anclajes según la distribución específica de IoU. Pero para el entrenamiento, ya sea el método Hard LA estático o dinámico, ignora la diferencia en la importancia del ancla en sí.

  • Soft LA: Para superar las deficiencias de Hard LA, estudios como GFL y VFL propusieron el concepto de pesos blandos. Este tipo de método establece el objetivo de la etiqueta blanda para cada ancla en función de IoU y calcula el ancla de acuerdo con la puntuación cls y la puntuación reg en pags O s w_ {posición} y en norte y gramo w_ {negativo} . Pero actualmente estos métodos se enfocan en en pags O s w_ {posición} el diseño de, en norte y gramo w_ {negativo} generalmente directamente de en pags O s w_ {posición} Se deriva de , lo que hace que la red carezca de información de supervisión de pesos negativos. Como se muestra en la Figura 1, GFL y VFL asignan pesos de pérdida similares a anclajes con diferentes calidades, lo que puede degradar el rendimiento del detector.

  Para proporcionar más información de supervisión para el detector, el documento propone un nuevo método LA DW (doble ponderación), que se calcula por separado desde diferentes ángulos. en pags O s w_ {posición} y en norte y gramo w_ {negativo} y hacer que se complementen entre sí. Además, con el fin de proporcionar una puntuación de registro más precisa para la función de cálculo de peso, el documento también propone una nueva operación de ajuste fino de bbox, que predice la posición límite del objetivo y genera información de ajuste fino más precisa de acuerdo con la correspondiente caracteristicas.

Método propuesto


Motivación y Marco

  由于NMS的存在,检测器应该预测一致的bbox,既有高分类分数也有准确的位置定位。但如果在训练时平等地对待所有的训练样本,而cls分数越高的预测结果的reg位置不一定越准确,这往往会导致cls head与reg head之间就会存在不一致性。为此,Soft LA通过加权损失来更柔和地对待训练样本,加强cls head与reg head的一致性。基于Soft LA,anchor的损失可以表示为:

  其中 s s 为预测的cls分数。为一致性更高的预测结果分配更大的 en pags O s w_{pos} en r y gramo w_{reg} ,能够使得网络专注于学习高质量的预测结果,减轻cls head与reg head的不一致问题。

  当前的方法直接将 en r y gramo w_{reg} 设置为 en pags O s w_{pos} ,主要关注如何定义一致性以及如何将其集成到损失权重中。表1总结了一些方法对 en pags O s w_{pos} en norte y gramo w_{neg} 的计算公式,这些方法先定义用于度量一致性的指标 t t ,随后将 1 t 1-t 作为不一致性的度量指标,最后添加缩放因子将指标集成到损失权重中。
上述方法的 en pags O s w_{pos} en norte y gramo w_{neg} 都是高度相关的,而论文认为pos和neg权重应该以prediction-aware的方式单独设置,具体如下:

  • pos weighting function:以预测的cls分数和预测框的IoU作为输入,预测两者的一致性程度作为pos权重。
  • neg weighting function:同样以预测cls分数和预测框的IoU作为输入,但将neg权重定义为anchor为负的概率以及anchor作为负的重要程度的乘积。

  通过上述定义,对于pos权重相似的这种模棱两可的anchor,就可以根据不同的neg权重得到更细粒度的监督信息

  DW方法的整体流程如图2所示,先根据中心点距离来为每个GT构造候选正样本集,其余的anchor为候选负样本。由于负样本的统计信息十分混乱,所以不参与权重函数的计算。候选正样本会被赋予三个权重 En pags O s W_{pos} En norte y gramo W_{neg} 以及 En r y gramo W_{reg} ,用于更有效地监督训练。

Positive Weighting Function

  pos权重需要反映预测结果对检测性能的重要性,论文从目标检测的验证指标来分析影响重要性的因素。在测试时,通常会根据cls分数或cls分数与IoU的结合对单分类的预测结果进行排序,从前往后依次判断。正确的预测需满足以下两点:

  • a. 与所属GT的IoU大于阈值 i \theta
  • b. 无其他排名靠前且所属GT相同的预测结果满足条件a。

  上述条件可认为是选择高ranking分数以及高IoU的预测结果,也意味着满足这两个条件的预测结果有更大概率在测试阶段被选择。从这个角度来看,pos权重 en pags O s w_{pos} 就应该与IoU和ranking分数正相关。首先定义一致性指标 t t ,用于度量两个条件的对齐程度:

  为了让不同anchor的pos权重的方差更大,添加指数调节因子:

  最终,各anchor的pos权重会根据对应GT的候选anchor的pos权重之和进行归一化。

Negative Weighting Function

  pos权重虽然可以使得一致的anchor同时具有高cls分数和高IoU,但无法区分不一致anchor的重要程度。如前面图1所示,anchor D定位校准但分类分数较低,而anchor B恰好相反。两者的一致性程度 t t 一致,pos权重无法区分差异。为了给检测器提供更多的监督信息,准确地体现anchor的重要程度,论文提出为两者赋予更清晰的neg权重,具体由以下两部分构成。

  • Probability of being a Negative Sample

  根据COCO的验证指标,IoU不满足阈值的预测结果一律归为错误的检测。所以,IoU是决定achor为负样本的概率的唯一因素,记为 PAGS norte y gramo P_{neg} 。由于COCO使用0.5-0.95的IoU阈值来计算AO,所以 PAGS norte y gramo P_{neg} 应该满足以下规则:

  任意 [ 0.5 , 0.95 ] [0.5,0.95] 上单调递减的函数都可以作为 P n e g P_{neg} 中间部分。为了简便,论文采用了以下函数:

  公式6需要穿过点 ( 0.5 , 1 ) (0.5,1) ( 0.95 , 0 ) (0.95, 0) ,一旦 γ 1 \gamma_1 确定了,参数 k k b b 可通过待定系数法确定。

  图3展示了不同 γ 1 \gamma_1 下的 P n e g P_{neg} 曲线。

  • Importance Conditioned on being a Negative Sample

  在推理时,ranking队列中靠前的neg预测结果虽然不会影响召回率,但会降低准确率。为了得到更高的性能,应该尽可能地降低neg预测结果的ranking分数。所以在训练中,ranking分数较高的neg预测结果应该比ranking分数较低的预测结果更为重要。基于此,定义neg预测结果的重要程度 I n e g I_{neg} 为ranking分数的函数:

  最终,整体的neg权重 w n e g = P n e g × I n e g w_{neg}=P_{neg}\times I_{neg} 变为:

w n e g w_{neg} I o U IoU 负相关,与 s s 正相关。对于pos权重相同的anchor,IoU更小的会有更大的neg权重。在兼容验证指标的同时, w n e g w_{neg} 能给予检测器更多的监督信息。

Box Refinement

  pos权重和neg权重都以IoU作为输入,更准确的IoU可以保证更高质量的训练样本,有助于学习更强的特征。为此,论文提出了新的box精调操作,基于预测的四条边的偏移值 O R H × W × 4 O\in R^{H\times W\times 4} 进行下一步的精调。

  考虑到目标边界上的点有更大的概率预测准确的位置,论文设计了可学习的预测模块,基于初步的bbox为每条边生成边界点。如图4所示,四个边界点的坐标定义为:

  其中, { Δ l x , Δ l y , Δ t x , Δ t y , Δ r x , Δ r y , Δ b x , Δ b y } \{\Delta^x_l,\Delta^y_l,\Delta^x_t,\Delta^y_t,\Delta^x_r,\Delta^y_r,\Delta^x_b,\Delta^y_b\} 为精调模块的输出。最后,结合边界点的预测和精调模块的输出,最终精调后的anchor偏移 O O^{'} 为:

Loss Function

  DW策略可直接应用到大多数的dense检测器中。论文将DW应用到FCOS中并进行了少量修改,将centerness分支和分类分支合并成cls分数,网络的损失为:

  这里的 β \beta 跟公式3是同一个, N N M M 分别为候选anchor数和非候选anchor数。

Experiment


  平衡超参数对性能的影响。

  候选anchor选择方法对性能的影响。第一种为中心点的距离阈值,第二种选择最近的几个,第三种为距离权重与pos权重乘积排序。

  neg权重计算方式对比。

  LA研究之间的对比。

  与SOTA检测算法对比。

Conclusion


  论文提出自适应的label assignment方法DW,打破了以往耦合加权的惯例。根据不同角度的一致性和非一致性指标,动态地为anchor分配独立的pos权重和neg权重,可以更全面地监督训练。此外,论文还提出了新的预测框精调操作,在回归特征图上直接精调预测框。



Si este artículo es útil para usted, haga clic en Me gusta o mírelo ~
Para obtener más contenido, preste atención a la cuenta pública de WeChat [Notas de ingeniería de algoritmos de Xiaofei]

Supongo que te gusta

Origin juejin.im/post/7119347694463614984
Recomendado
Clasificación