La red de auditoría convolucional es demasiado complicada de leer y la probabilidad de ser descartada es demasiado alta.
1. Convolución: comprender la función de convolución con la digestión de alimentosf(t)g(x-t)
Convolución: entrada inestable, salida estable, encontrar stock del sistema
La convolución es g(x)
voltear la función, porque está volteada, por lo que se llama convolución
2. La función principal de la red neuronal convolucional es identificar el contenido de la imagen, por ejemplo, si la imagen es un gato o un perro.
Cómo afectan los píxeles circundantes al punto actual
Operación de convolución de imagen
f(t) = 不稳定输入
g(x-t) = 稳定输出
Las imágenes en la computadora se pueden considerar como un
núcleo de convolución de un píxel: por ejemplo, una red de 3 x 3.
Para mantener la imagen de salida igual a la imagen de entrada, simplemente agregue 0 a la capa más externa de la imagen, también llamada relleno.
2.1 La razón del huracán es que la mariposa aletea, y se explica calculando la probabilidad de que el aleteo afecte al huracán.
2.2 Núcleo de convolución de operación de convolución suave
Una de las funciones del núcleo de convolución es la influencia de los píxeles circundantes en el píxel actual. Por ejemplo, el siguiente núcleo de convolución es: sumar los píxeles circundantes y luego promediar
2.3 El núcleo de convolución es el núcleo de convolución después de rotar la función g 180°
Puntos de píxel, sumados por suma continua, no integral
El kernel de convolución es el kernel de convolución después de que la función g se gira 180 °
3. Filtro de red neuronal convolucional, cómo filtrar los píxeles requeridos por el kernel de convolución
4. Cómo funcionan las redes neuronales convolucionales
El científico informático chino Li Feifei lanzó ImageNet para alentar a todos a cargar imágenes y etiquetarlas con
tres núcleos de convolución para extraer características en la esquina superior izquierda, la x central y la esquina inferior izquierda.
4.1 Pooling Submuestreo de capas de pooling para reducir el área de la imagen
3 canales de rojo, amarillo y azul
4.2 Función de activación, función de activación modificada de ReLUs, frotis de números negativos a 0, fácil de calcular
4.3 Capa totalmente conectada
4.4 Sitio web de ImageNet iniciado por Feifei Li - 2009
4.5 Retropropagación Backprop
Error = right answer - actual answer
loss = min(Error1, Error2... ErrorN)
4.6 Hiperparámetros, parámetros del framework
referencia
https://www.bilibili.com/video/BV1VV411478E
https://www.bilibili.com/video/BV1sb411P7pQ/