artículos de fondo - Historia clásica de la estructura profunda red de aprendizaje modelo (cuatro) y características elaboradas VGG16

 

Saltar al contenido principal

Volver al profundo Red de Aprendizaje historia de desarrollo del modelo de catálogo clásico

Anterior: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (c)  elaborada estructura y características de la ZF-Net

Siguiente: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (cinco)  estructura GoogleNet elaborado y características (incluyendo v1, v2, v3)

 

En esta sección, elaborada estructura VGG16 y características, la siguiente sección GoogleNet elaborada estructura y las características (incluyendo v1, v2, v3)

 

VGG16论文: Muy profundo convolucional redes a gran escala de Reconocimiento de Imagen

 

II. Clásica red (Red Classic)

4. VGG16

VGG16 propuesto por la Universidad de Oxford VGG (Grupo geometría visual, VGG), la primera y la segunda clasificación es la tarea de las tareas de posicionamiento 2014 IMAGEnet concurso en la red subyacente. experiencia y observación pasado AlexNet ZF-Net y encontraron, convolución del núcleo más pequeño, la red más profundo, ayudará a mejorar la precisión, por lo que, VGG16 y corrieron esta dirección para desarrollar obtenido.

Descripción (1) de red:  \ Input grande (-1, \; 224, \; 224, \; 3)

Red estructura vgg16

 

(2). VGG16 nuevas características:

   . ① En VGG16, todos son convolución el tamaño del núcleo  \ grandes 3 \ 3 veces, los pasos son  \ grandes 1 \ 1 veces, relleno son SAME ; todos max_pool se reúnen (), el tamaño nuclear son reunidas  \ grandes 2 \ 2 veces, pasos son  \ grandes 2 \ 2 veces, relleno son VÁLIDO .

   Una mejora ②. VGG16 AlexNet se compara con varios continuo  \ grandes 3 \ 3 veces kernel de convolución en lugar de AlexNet más grande del núcleo de convolución ( \ grandes 11 \ 11 veces, 5 \ Tiempos 5). Dada campo receptivo (el tamaño de la entrada de la salida de imagen local), dada campo receptivo (el tamaño de la salida de imagen de entrada local), una pequeña acumulación de un núcleo de convolución es superior a grandes volúmenes convolución kernel, la capa no lineal se puede aumentar debido a la profundidad de la red de múltiples capas para asegurar un modelo más complejo de aprendizaje, pero el costo es todavía relativamente pequeño (menos parámetros, 5 x 5> 3 x 3 + 3 x 3)

   ③. ventajas:

       a. serie de convolución mayor que un solo núcleo de convolución, tiene menor número de parámetros, también tendrá más de un único cambio en una convolución no lineal, para patrones más complejos. La serie kernel de convolución, cuenta con múltiples extracciones, a delicada que una única extracción de características de convolución kernel. relleno de paso menor que el tamaño del núcleo, que cubre las características de extracción también puede mejorar las características de sofisticación.

       b. VGG16 modelo es relativamente estable, fácil de trasplante, por lo que muchos red troncal que ver con ello a modo de ejemplo.

   Desventajas: ④.

       a. el número de arquitectura de red de un peso considerable, que consume espacio en disco. Más grande que el peso ResNet-53 de.

       b. Debido al número VGG16 nodos completamente conectados, además de la red relativamente profunda, lo que la formación es muy lenta.

 

 

                  

 

Saltar al contenido principal

Volver al profundo Red de Aprendizaje historia de desarrollo del modelo de catálogo clásico

Anterior: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (c)  elaborada estructura y características de la ZF-Net

Siguiente: artículos de fondo - Historia clásica de modelo profundo Red de Aprendizaje (cinco)  estructura GoogleNet elaborado y características (incluyendo v1, v2, v3)

Publicado 63 artículos originales · alabanza ganado 16 · vistas 6000

Supongo que te gusta

Origin blog.csdn.net/qq_38299170/article/details/104241812
Recomendado
Clasificación