El primer capítulo usando el reconocimiento de redes neuronales del número escrito a mano -3 arquitectura de red neuronal

Original: http://neuralnetworksanddeeplearning.com/chap1.html#the_architecture_of_neural_networks

  

  La siguiente sección voy a presentar una red neuronal digitales escritas a mano bien clasificados. En la preparación, se explica la denominación del término en diferentes partes de la red ayudará ampliado más adelante. Supongamos que tenemos una red de este tipo:

  Como se mencionó anteriormente, la más a la izquierda de la capa de red se denomina capa de entrada , esta capa se denomina el interior de la neurona neuronas de entrada ; más a la derecha capa de salida contiene la neurona de salida (en este ejemplo es una neurona de salida); intermedio capas, de las neuronas no es ni de entrada ni de salida, llamada capa oculta . "Ocultar" Tal vez hay algunos sonidos misteriosos - la primera vez que oí cuando pensamos que debe tener un sentido muy profundo de la filosofía o matemáticas. Pero en realidad, además de "no es de entrada ni de salida" que ningún otro significado. La figura anterior es sólo una capa oculta de la red, pero la red tiene capas mucho más ocultos. 4 ejemplo, la red de dos capas con una capa oculta:

  Debido a algunas razones históricas, aunque la red de múltiples capas de neuronas sigmoide (en lugar de percibir) se compone, se refiere a veces como perceptrón multicapa ( de múltiples capas de perceptrones ) o MLP, desconcertante. MLP en este libro que no utilizan el término, porque me resulta confuso, pero todavía quiere advertir que esta afirmación es allí.

  capa de entrada y la capa de salida son el diseño sencillo generalmente (como se determina por las necesidades). Por ejemplo, supongamos que estamos tratando de determinar si una imagen escrita a mano indica "9", es natural que debe codificarse valores de intensidad de imagen para cada pixel en las neuronas de la capa de entrada, si la imagen es una escala de grises 64 * 64, entonces 4096 (64 * 64) gradaciones de 0-1 neuronas de entrada apropiadamente a escala, que comprenden sólo una salida capa neurona, el valor de salida de menos de 0,5 indica "imagen de entrada no es un 9", un mayor valor de 0,5 indica "entrada la imagen es un nueve ". (Texto original no escribió nada igual a 0,5 medios)

  Aunque el diseño de la red neuronal capa de entrada y la capa de salida es generalmente muy simple, pero el diseño de la capa oculta es el trabajo de las artes. En particular, el uso de algunas reglas del pulgar simples para resumir la capa oculta del proceso de diseño es imposible. En contraste, los investigadores de redes neurales han desarrollado una serie de inspiración del diseño de la capa oculta, actúa para ayudar a la gente obtener lo que quieren en sus redes. Por ejemplo, ayuda a inspirar a la gente a pesar y reducir el número de red oculta el tiempo de formación de capas, más adelante en este libro nos encontraremos con muchas tales inspiración del diseño. (Diseño inspirado heurística diseño es qué?)

  Ahora, hemos estado discutiendo la salida de la capa de red neural como la siguiente capa de entrada, la red de un tipo se conoce como una red neural de alimentación hacia adelante. Esto significa que la red no loop - información es siempre pasado a lo largo, no regresó, y si tenemos el bucle, vamos a terminar (el extremo de salida del día y como su propia entrada en su lugar sobre la base de la función de entrada de la salida de σ, ciclo de la muerte, no el final), no existe, por lo que no permiten tal bucle.

  Sin embargo, existen algunas otras fuentes artificiales modelo de red neuronal, que puede tener un bucle de retroalimentación, estos modelos también conocidas como redes neuronales recurrentes , la idea de estos modelos son neuronas funcionará durante un período limitado de tiempo y luego se detiene. Estas actividades estimularán otras neuronas, las neuronas estimuladas también pueden empezar un poco más tarde, se está ejecutando por un corto tiempo. Con el tiempo, se obtiene una cascada de actividad neuronal. Este modelo de red, el circuito no causará un problema, ya que la salida de una neurona sólo afectará a su entrada después de un cierto período de tiempo en lugar de un impacto inmediato.

  la red neuronal recurrente es menor que la influencia de las redes neuronales alimentación hacia adelante, en parte debido a algoritmo de aprendizaje de la red neuronal recurrente no es lo suficientemente fuerte (al menos por ahora). Pero la red neuronal recurrente sigue siendo muy interesante, que alimentar a la red neuronal anterior más cerca de nuestros funciona el cerebro, y pueden tener la red neuronal recurrente puede resolver algunos problemas importantes redes neuronales feedforward es difícil de resolver. Sin embargo, el alcance de este libro, porque no lo es, nos centraremos en la red neural más comunes de alimentación hacia adelante.

 

Supongo que te gusta

Origin www.cnblogs.com/jlom/p/12503062.html
Recomendado
Clasificación