Preguntas en el aula
- ¿Qué significan W1 y W2 en una red neuronal simple de 2 capas?
Respuesta : W1 todavía puede considerarse como una variedad de plantillas en el clasificador lineal que aprendimos, y representa los puntajes de estas plantillas, y W2 combina estos puntajes de plantilla para formar una nueva plantilla compleja.
Por ejemplo, en el ejemplo anterior, supongamos que tenemos un caballo que mira hacia la izquierda y un caballo que mira hacia la derecha. Para un caballo que mira hacia la izquierda, una plantilla puede ser más alta que la otra, y luego el después de retener su lado izquierdo es una fracción de un caballo.
Nota: aquí Se puede omitir la puntuación de la plantilla con un valor más bajo, y también se introduce la no linealidad, como se muestra en la figura 。
1. Introducción a las redes neuronales
Función lineal
no es lo mismo, la red neuronal puede ser visto como (jerárquica apilados) que consiste en un conjunto de funciones complejas sencillano linealfunción de mapeo. Por ejemplo, la función lineal simple en la figura siguiente y la red neuronal simple de 2 capas y 3 capas.
Analogía de neurona única
Las dendritas en las neuronas reciben señales de pulso, y luego el cuerpo celular las procesa, y luego las pasa a la siguiente neurona a través del axón. Esto es similar al cálculo de una puerta de función única en nuestro diagrama de cálculo para recibir entrada, cálculo y activación con una función de activación, pero es mucho más complicado.
Por ejemplo, las funciones de activación comunes son las siguientes:
cálculo de vectorización de neuronas
Como se mencionó anteriormente, una "unidad neuronal" recibe una gran cantidad de información y luego la calcula y la genera. Por lo tanto, en general, tratamos la información de una neurona como un vector para el cálculo. Por ejemplo, el ejemplo simple de red neuronal de doble capa oculta y su proceso de propagación directa se ilustran a continuación.