Análisis del algoritmo YOLOv3 para la detección de objetivos.

Fundamental

red de características
Insertar descripción de la imagen aquí

Entrada y salida
Entrada 416 ∗ 416 ∗ 3 416*416*3416416Imágenes de 3 tamaños (no únicas, pero el tamaño de la imagen debe ser múltiplo de 32), genera mapas de características de 3 escalas, respectivamente13 ∗ 13 ∗ 255 13*13*2551313255 ,26 ∗ 26 ∗ 255 26*26*2552626255 ,52 ∗ 52 ∗ 255 52*52*2555252255 , que se divide en13 ∗ 13 13*131313 ,26 ∗ 26 26*262626 ,52 ∗ 52 52*525252 celdas de la cuadrícula.
Cada celda de la cuadrícula genera 3 anclajes. Cada anclaje corresponde a un cuadro de predicción. Cada cuadro de predicción tiene5 + 80 5 + 805+80个参数,{ (x, y, w, h, c), 80 tipos de clases} \{(x,y,w,h,c),80 \tipos de espacio \espacio de \clase espacial\}{ ( x ,y ,w ,h ,c ,80 tipos de clase } _ _ _ _ _ _   

Análisis de salida
(esta imagen está tomada del blogger Zhihu )
Insertar descripción de la imagen aquí

13*13*255 13*13*2551313255 ,26 ∗ 26 ∗ 255 26*26*2552626255 ,52 ∗ 52 ∗ 255 52*52*2555252255 predicen objetos grandes, medianos y pequeños respectivamente.
13*13*255 13*13*2551313255 es la característica obtenida al reducir la resolución 32 veces;
26*26*255 26*26*2552626255 es 16 veces la reducción de resolución y13*13 13*131313 Características obtenidas combinando muestreo ascendente único;
52 ∗ 52 ∗ 255 52*52*2555252255 se reduce 8 veces y26 ∗ 26 26*262626 características obtenidas combinando muestreo ascendente único;

Muestras positivas y negativas: las muestras positivas
son anclas cuyo pagaré entre el ancla y la caja real es mayor que el umbral especificado y el pagaré máximo; las muestras
negativas son anclas cuyo pagaré entre el ancla y la caja real es menor que el umbral especificado.

La función de pérdida
consta de pérdida de coordenadas, pérdida de confianza y pérdida de categoría para muestras positivas, y pérdida de confianza para muestras negativas.
λ coord ∑ i = 0 S 2 ∑ J = 0 B 1 i , trabajoj [ ( bx − bx ^ ) 2 + ( por − by ^ ) 2 + ( bw − bw ^ ) 2 + ( bh − bh ^ ) 2 ] + ∑ i = 0 S 2 ∑ J = 0 B 1 i , jobj [ − log ( pc ) + ∑ i = 1 n BCE ( ci , ci ^ ) ] + λ noobj ∑ i = 0 S 2 ∑ J = 0 B 1 i , jnoobj [ − log ( 1 − pc ) ] \lambda_{coord} \sum_{i=0}^{S^2}\sum_{J=0}^{B}1_{i,j}^{ obj}[(b_x-\hat{b_x})^2+(b_y-\hat{b_y})^2+(b_w-\hat{b_w})^2+(b_h-\hat{b_h})^2 ]\\+\sum_{i=0}^{S^2}\sum_{J=0}^{B}1_{i,j}^{obj}[-log(p_c)+\sum_{i= 1}^{n}AEC(c_i,\hat{c_i})]\\+\lambda_{noobj}\sum_{i=0}^{S^2}\sum_{J=0}^{B}1_ {i,j}^{noobj}[-log(1-p_c)]yocoor dyo = 0S2J = 0B1yo , jo bj[( segundoxbx^)2+( segundoyby^)2+( segundowbw^)2+( segundohbh^)2 ]+yo = 0S2J = 0B1yo , jo bj[ l o g ( pc)+yo = 1norteantes de Cristo ( cyo,Cyo^)]+ yono bj _yo = 0S2J = 0B1yo , jno bj _[ l o g ( 1pagc)]
S 2 S ^ 2S2 es el número total de celdas de la cuadrícula,BBB es el número de anclajes en cada celda de la cuadrícula.
La primera línea calcula la pérdida de coordenadas de la muestra positiva y la pérdida de coordenadas del marco real; la
segunda línea calcula la pérdida de confianza y categoría de la muestra positiva,1 i , jobj 1_{i,j}^{obj}1yo , jo bjIndica si es una muestra positiva; − log ( pc ) -log(p_c)l o g ( pc) , sipc p_cpagcCuanto más cerca esté de 1, entonces − log ( pc ) -log(p_c)l o g ( pc) está más cerca de 0; en la pérdida de categoría, para cada una de las 80 categorías detectadas, se realiza una operación de pérdida de entropía binaria.
La tercera línea es la pérdida de confianza de muestras negativas,− log ( 1 − pc ) -log(1-p_c)l o g ( 1pagc) enpc p_cpagcCuanto más cerca está de 0, más pequeña es la fórmula y más cerca de 0

actuación
Insertar descripción de la imagen aquí

Supongo que te gusta

Origin blog.csdn.net/qq_44116998/article/details/128433551
Recomendado
Clasificación