artículos de fondo - la historia clásica del modelo de red desarrollado Estructura profunda de aprendizaje (viii) y características elaboradas DenseNet

Saltar al contenido principal

Volver al profundo Red de Aprendizaje historia de desarrollo del modelo de catálogo clásico

Anterior: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (siete)  elaboran Inception-ResNet estructura y características

Siguiente: artículos de fondo - profundamente el aprendizaje de la historia del desarrollo clásico modelo de red (nueve)  la elaboración de la estructura y las características de cada modelo y con precisión red oscura

 

En esta sección, DenseNet elaborada estructura y características, la siguiente sección red oscura elaborada estructura y las características de los modelos y la precisión

 

Papeles Dirección: Redes convolucionales mejor conectada

 

II. Clásica red (Red Classic)

8. DenseNet 

DenseNet es CVPR 2017 al mejor artículo. DenseNet (Dense convolucional de red) de papel presenta principalmente ResNet y Origen de la red y hacer la comparación, ideológicamente aprender, pero es una estructura nueva, la estructura de la red no es complicado, pero muy eficaz, más allá de ResNet en el índice de CIFAR. Se puede decir DenseNet ResNet absorbe la parte más esencial, y hacer esto en un trabajo más innovador, por lo que el rendimiento de la red se mejora aún más.

. (1) en comparación con ResNet, DenseNet propuesto un mecanismo de conexión más intensivo radical: que todas las capas están conectados el uno al otro, específicamente, es que cada capa de la aceptará delante de todas las capas como entrada adicional. En DenseNet, los canales de conexión son de dimensiones para cada capa y todas las capas de la parte frontal (concatenación) juntos (en tamaño debe haber seguridad mapa de características de las capas individuales es el mismo), como la capa de entrada. Para una \ L grande capa de red, DenseNet contiene  \ Grande \ frac {L (L + 1)} {2} conexiones. Además, la figura DenseNet directamente característica concatenación de diferentes capas, que se pueden conseguir reutilización características, mejorar la eficiencia, y esta característica es DenseNet ResNet diferencia principal.

 

(2) en el que DenseNet Neural Network Graphics (Dense Block) .:

 

(3) En DenseNet en la figura tamaño de la característica consistente de cada capa, concat arriba en los canales. Dense bloque no lineal de combinación de funciones  \ Gran H (x) se utiliza en \ Grandes BN + 3 \ times 3 \;  conv + RELU una configuración. Además, es de destacar que, con diferente ResNet, todo Dense bloque de salida uniforme después de convolución de las capas individuales \ K grande de un mapa de características, es decir, el número de canales característica se obtiene un mapa \ K grande, o el uso de \ K grande un núcleo de convolución. \ K grandeLlamado la tasa de crecimiento en DenseNet en, es un parámetro de super. En general, el uso de más pequeño \ K grande (por ejemplo, 12), un mejor rendimiento se puede obtener. Introducir el número de canales añadidos capa de mapa de características es  \ Grande k_ {0} + k (l - 1), a fin de aumentar el número de capas, a pesar de  \ K grande el establecimiento de un más pequeño, pero la entrada Dense bloque será mucho, pero esto es debido a las características causadas por la reutilización, cada capa sólo se  \ K grande disponen de su propio único.

 

(4) Dado que la siguiente entrada será muy grande, la capa interna densa de bloques pueden ser empleados para reducir la computacional cuello de botella, que es aumentar configuración original 1 x 1 conv. El: \ Grandes BN + 1 \ times 1 \;  conv + relu \ rightarrow BN + 3 \ times 3 \;  conv + RELU se refiere DenseNet-B

       En donde  \ Grandes 1 \ times 1 \;  conv obtener  \ Grande 4k una función del mapa del papel es el de reducir el número de características, a fin de aumentar la eficiencia computacional.

 

(5) En la red CNN, típicamente usando la agrupación o pasos> conv 1 para reducir el tamaño del mapa de características, y DenseNet conexión requiere tamaño del mapa característica constante intensiva. Para resolver el problema DenseNet reducir el tamaño del mapa característica, en la estructura de red DenseNet Dense Bloquear + transición en la que muchas capas densas Block es un módulo que comprende un tamaño de mapa de características consistentes de cada capa, una conexión densa entre las capas. módulo de transición y conexión de dos Dense bloque adyacente, y por la puesta en común mapa función de reducción de tamaño de decisiones.

 

(6) Para la capa de transición, que está conectado principalmente a dos Dense bloque adyacente, y reducir el tamaño del tamaño del mapa de características. capa de transición que comprende una  \ Grandes 1 \ times 1 \;  conv y  \ Grandes 2 \ times 2 \;  avg \ _ agrupaciónestructura:\ Grandes BN + 1 \ times 1 \;  conv + RELU \ rightarrow 2 \ Tiempos 2 \;  avg \ _ agrupación . Además, la capa de transición puede funcionar como un módulo de compresión. capa de transición se supone que se obtiene el mapa de características contacto denso bloque de canales  \ M grande, la capa de transición puede generar  \ Grande \ theta m característica (mediante la convolución de la capa \ Grande \ theta \ in (0, 1], \ Grande \ thetala tasa de compresión factor de compresión). Cuando  \ Grande \ theta = 1 , el número de característica no cambia después de capa de transición, es decir, sin comprimir, cuando el factor de compresión es menor que 1, una estructura de este tipo se llama DenseNet-C. Para la estructura densa capa de bloques de cuellos de botella y un factor de compresión de la estructura combinada de menos de 1 de transición se refiere DenseNet-BC.

 

. (7) DenseNet estructura de la red:

 

(8). ventajas DenseNet:

   ①. Dado que las conexiones densos, DenseNet mejorar el gradiente de propagación hacia atrás, por lo que la red de formación más fácil. Dado que cada señal de error puede dirigir la implícita "de profundidad supervisión" final, se dio cuenta, para aliviar desaparece el fenómeno de gradiente, por lo que la red puede llegar más profundo.

   ②. Estrecha red, un menor número de parámetros, y computacionalmente más eficiente.

   ③. Función de concatenación se consigue utilizando cortocircuitado-para conseguir las características reutilización, y con una tasa de crecimiento menor, único para cada capa de mapa de características es relativamente pequeño.

   ④. Desde la reutilización característica, uso más eficiente de la función, el clasificador final utiliza características de bajo nivel.

 

. (9) DenseNet desventajas:

   ①. DenseNet durante la formación de memoria se consume, no es preferible debido a que el algoritmo trae.

   ②. Marco aprendizaje profundidad actual no está bien soportado conexión DenseNet densa, es sólo por medio de empalme repetida (concatenación) operación, con la corriente de salida y la capa de salida antes de coser, y luego pasa a la capa siguiente. Para la mayoría de los marcos (tales como TensorFlow), cada operación de empalme abrirá nuevas características de memoria para contener el empalme. Esto resulta en una  \ L grande red de capa, y consume una considerable  \ Grande \ frac {L (L + 1)} {2} capa de memoria de la red (la  \ I grande capa de salida se almacena en la memoria de  \ Grande L - i + 1 partes).

 

                  

 

Saltar al contenido principal

Volver al profundo Red de Aprendizaje historia de desarrollo del modelo de catálogo clásico

Anterior: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (siete)  elaboran Inception-ResNet estructura y características

Siguiente: artículos de fondo - profundamente el aprendizaje de la historia del desarrollo clásico modelo de red (nueve)  la elaboración de la estructura y las características de cada modelo y con precisión red oscura

Publicado 63 artículos originales · alabanza ganado 16 · vistas 5996

Supongo que te gusta

Origin blog.csdn.net/qq_38299170/article/details/104241860
Recomendado
Clasificación