la estación B notas de estudio de vídeo Andrew Ng estudio a fondo (2) --- ¿Qué es una red neuronal (red neuronal)

prefacio

Esta lección a modo de ejemplo la imagen del niño describe vívidamente lo que es redes neuronales, la siguiente traducción básica del contenido de vídeo original, el contenido es muy vívido y detallado, bien entendido.

¿Qué es una red neuronal? (¿Qué es una red neuronal)

A menudo usamos el término para referirse al proceso de aprendizaje profundo para entrenar la red neuronal. A veces se hace referencia a una formación de redes neuronales en particular a gran escala. Entonces, ¿qué es lo redes neuronales? En este video, voy a explicar algunos de los conceptos básicos visuales.

En primer lugar, vamos a ejemplos de una previsión de precios de la vivienda comenzó a hablar.

Suponga que tiene un conjunto de datos que contiene información sobre seis casas. Por lo tanto, usted sabe cuántos área de pies cuadrados de la casa o cuadrada, y saber que los precios de la vivienda. En este punto, usted quiere encajar en función de unos precios predichos según la superficie del suelo.

Si está familiarizado con la regresión lineal, se podría decir: "Bueno, vamos a utilizar estos datos se ajustan a una línea recta." Así que es posible obtener una línea recta. Esta es una línea de regresión básica, esto debería ser una nota!

Pregunta 1: ¿Cuál es el cambio?

Muchos de mis amigos no saben lo que es el retorno, con el fin de comprender mejor la siguiente, escribí el siguiente contenido hablará sobre lo que es antes de vuelta.

hipótesis de regresión lineal es un cuadro negro, que de acuerdo con el pensamiento de que el programador, esta es una función de la caja negro, a continuación, el tiempo que pasamos algunos parámetros para la función como entrada, se puede obtener un resultado como una salida. Ese retorno es lo que quiere decir eso? De hecho, claramente, es esta salida cuadro negro es el resultado de valores consecutivos. Si el valor de salida no es consecutivo, sino discretos valores que se llama clasificación. Lo que se llama valor continuo que? Muy simple, castañas give: Por ejemplo, yo les digo que tengo una casa, la casa cuenta con 40 niveles, en el metro, entonces creo que se llega a la casa de un valor total? Este es un valor continuo, porque la casa puede valorar 800 000 802 000 también es posible valor, se pueden valorar 801.110. Como otro ejemplo, te dicen que tengo una casa, 120 plana, en el metro, por un valor total de 1,8 millones, entonces supongo que venir a la casa tienen varias habitaciones? Pues bien, este es un valor discreto. Debido a que el número de habitaciones solamente puede ser 1, 2, 3, 4, 5 tapa para el mejor, y lo que no puede ser el número dormitorio 1.1, 2.9. Que acaba de saber que yo quiero lograr es predecir un valor continuo, entonces la tarea es devolver. Es un valor discreto, a continuación, que se clasifica.

Bueno, entonces nos fijamos en lo que Andrew Ng aquí para hablar

Aquí Insertar imagen Descripciónlínea de precios de la vivienda predicho

Pero extraño es que también se puede encontrar, y sabemos que el precio nunca será negativo. Por lo tanto, con el fin de reemplazar a un precio negativo puede hacer una línea recta, ponemos un poco de línea recta curva, con el tiempo termina en un cero. La pieza final de línea azul gruesa es su función para predecir la superficie de precios. Algunos son cero, y un poco de ajuste de la recta también. Se podría pensar que esta función sólo es apropiado precios de la vivienda.

Como una red neural, que es casi probable que la red neuronal más sencilla. Ponemos el área de vivienda como la entrada de la red neuronal (lo llamamos), por un nodo (un pequeño círculo), el precio del producto final (que representamos). De hecho, este pequeño círculo es una sola neurona. Entonces se da cuenta de la función de red en la parte izquierda de esta función.

En la literatura sobre redes neuronales, a menudo se ve esta función. Desde el principio al enfoque de cero, y luego se convierte en una línea recta. Esta función se denomina función de activación RELU , se destaca Unidad lineal Rectificado. Rectificar (corrección) se puede entender como, y esta es la razón por la que obtiene una función de esta forma.

Aquí Insertar imagen Descripción

Usted no tiene que preocuparse por no entender la función RELU, usted lo verá más adelante en este curso.

Pregunta 2: Pregunta clave: ¿Cuál es la función de activación, ¿cuál es el papel de la función de activación?

Aquí cables profesor Andrew Ng a un concepto: la función de activación

Muy Hablando en sentido figurado: la función de activación de redes neuronales (función de activación) es un grupo de mago espacio, torciendo el espacio característica de giro en el que encontrar un límite lineal.

Si la función no se activa, entonces los pesos de la red neuronal de sesgo pesada toda transformación afín lineal (transformación afín):
Aquí Insertar imagen Descripción
esta red neural, y hasta el siguiente problema de clasificación simple no pueden resolver este:
Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción
En este espacio de características bidimensionales, shows línea azul caso negativo (y = 0), un caso delante de la línea verde (y = 1)

Sin función de activación de la bendición, la red neuronal puede hacer hasta este nivel:

Aquí Insertar imagen Descripción

límites lineales - no se ven muy bien, ¿no es así?

En este momento, el tiro función de activación, torciendo flip sobre el espacio:
Aquí Insertar imagen Descripción

límite lineal apareció! Restaurar para volver de nuevo, no obtenemos el espacio de características originales límite?

Por supuesto, diferentes funciones de activación debido a que diferentes géneros pertenece, la magia reparto también varían.

Aquí Insertar imagen Descripción
La figura anterior, la aparición de tres espacios mage, respectivamente sigmoide, tanh, relu.

sigmoideo

sigmoide es una abuela, la función de activación es el más calificado.
Aquí Insertar imagen Descripción
Aunque relativamente antiguo, pasado de moda, no es tan popular como en aquellos días, pero en las tareas de clasificación de la capa de salida, la gente todavía confía en el sigmoide con experiencia.
Aquí Insertar imagen Descripción
Podemos ver, de entrada sigmoide exprimido en el rango de 0-1 (el rango que es consistente y probabilidades), que es la tarea de clasificación sigmoide muy popular.

sospechoso

tanh también un mago veterano espacio:

Aquí Insertar imagen Descripción

Y así sucesivamente, no es que sigmoide? Vuelta al revés que no sabemos todavía?

Sí, tanh es sigmoide disfrazada:

Aquí Insertar imagen DescripciónAquí Insertar imagen Descripción
Como se muestra arriba, similar a la sigmoide y tanh forma, pero la tanh "squeeze" se introduce en el intervalo (-1, 1). Por lo tanto, el centro es cero (hasta cierto punto) el valor de activación se ha introducido bajo la capa de distribución normal.

En cuanto a la pendiente, que tiene un pico mucho mayor de 1,0 (el mismo en z = 0), pero se queda más rápido, cuando | Z | ya alcanza un valor próximo a cero cuando 3. Esta es la razón detrás de la desaparición de la llamada cuestión de gradiente (gradientes de fuga), que dará lugar a progresar en la formación por la red se ralentiza.

currículum

RELU es un portero, todos los muggles (0) (todas cerradas neuronas cerrados). Es también la función de activación profesor Andrew Ng mencionado.
Aquí Insertar imagen Descripción
No es habitual utilizar la función de activación en la actualidad. RELU manejar su sigmoide, tanh gradiente desaparece problema común, sino también la función de activación calculada gradiente más rápido.
Aquí Insertar imagen Descripción
Aquí Insertar imagen DescripciónComo se muestra arriba, es un RELU bestia completamente diferente: no lo hace "squeeze" a un valor de rango - que sólo se retiene positiva, negativa y cero todas las conversiones.

Uso RELU aspectos positivos es su gradiente es 1 (positivo) o 0 (negativo) - no hay gradiente desapareció! Este modo permite la convergencia de redes más rápido. Por otra parte, esto lleva a la realización de la llamada cuestión de la "muerte neuronal", que es el valor de activación de las neuronas de entrada negativo en curso es siempre cero.

Así, la comprensión completa de la función de activación, entonces miramos profesor Andrew Ng lo que iba a decir.

Aquí Insertar imagen Descripción
Si esta es una red única neurona, independientemente de su tamaño, es a través de estas neuronas individuales apilados juntos para formar. Si se imagina estas neuronas individuales en ladrillos de Lego, que será realizada por una más grande bloques de construcción de la red neuronal.

Echemos un vistazo a un ejemplo:

No nos limitamos a utilizar para predecir el área de precios de la vivienda, ahora usted tiene una serie de otras características relacionadas con la vivienda, como el número de dormitorios, y tal vez no es un factor muy importante, el número de familia también puede afectar a los precios de la vivienda, la lata de vivienda familia estancia o cuatro o cinco personas en la familia? Y este hecho se basa en el tamaño de la casa, número de habitaciones y la casa realmente decidir si puede encajar el número de hogares.

Cambiar de tema, usted probablemente sabe el código postal como una característica podría ser capaz de decir que el grado de caminar. Por ejemplo, este barrio no es la altura del paseo, si se puede caminar a la tienda de comestibles o en la escuela, y si es necesario para conducir un coche. Algunas personas, como para vivir en la zona peatonal principal, mientras que también se basa en el código postal y relacionados con la riqueza-(en los Estados Unidos es así). Sin embargo, en otros países también puede reflejar lo bien que la vecindad de las escuelas.
Aquí Insertar imagen Descripción
En la Fig cada pequeño círculo dibujado relu puede ser parte de, pero también se refiere a una unidad lineal de corrección, una función no lineal, u otra ligeramente. Basado en superficie y número de habitaciones, tamaño de la familia puede ser estimado basado en código postal, se puede caminar estimar el grado o la calidad de las escuelas. Por último, se podría pensar que estas personas están dispuestas a decidir la cantidad de dinero para gastar.

Para una casa, estas cosas están estrechamente relacionadas con ella. En este escenario, el tamaño de la familia, el grado y la calidad de paseo escolar pueden ayudar a predecir el precio de la casa. A modo de ejemplo, x es cualquiera de las cuatro entradas, y es que se intenta predecir el precio de estas neuronas individuales añadidos juntos, tenemos una red neuronal poco más grande. Esto muestra la magia de las redes neuronales, aunque he descrito una red neuronal, que puede llevar hasta que le zona de origen, el grado y los factores de calidad a pie de la escuela, u otros influye en los precios.

Aquí Insertar imagen Descripción
Parte de la magia de las redes neuronales es que cuando lo logre, lo que tiene que hacer es introducir x, será capaz de obtener la salida y. Debido a que puede calcular el número de su propio conjunto de entrenamiento de muestras y todo el proceso intermedio. Por lo tanto, usted realmente tiene que hacer es: Hay cuatro entradas de la red neuronal, esta característica podría entrar en la casa es el tamaño, el número de dormitorios, código postal y la riqueza de la región. Después de características se dan los insumos, la red neuronal se predice el trabajo precio correspondiente. También tenga en cuenta que estos son llamados círculo unidad, oculto, en una red neuronal, cada uno recibe su aporte de cuatro entidades de entrada, por ejemplo, el primer nodo en nombre del tamaño de la familia, tamaño de la familia y sólo depende de x1 en donde y x2, en otras palabras, en la red neuronal, decidir lo que quiere conseguir en este nodo, entonces, de las cuatro entradas que se obtengan se calcula. Por lo tanto, decimos que la capa de entrada y la capa intermedia está estrechamente conectada hacia arriba.

Es de destacar que la red neuronal ha dado suficientes datos sobre la X e Y, dado suficientes muestras de entrenamiento y X relacionados. Las redes neuronales son muy buenos en la función de mapeo preciso calculada a partir de x a y.

Esta es la base de una red neuronal. Usted puede encontrarse en un entorno de red neuronal supervisado de aprendizaje es tan eficaz y de gran alcance, es decir, el tiempo que intenta introducir una x, puede asignarla a Y, tal y como acabamos de ver en el ejemplo de precios de previsión para el efecto.

En la siguiente lección, vamos a aprender más supervisión para ejemplos, algunos ejemplos que se sienta como que la red va a ser muy útil, y que practicarlo también.

Clase!

Publicado 25 artículos originales · ganado elogios 21 · Vistas a 50000 +

Supongo que te gusta

Origin blog.csdn.net/nine_mink/article/details/104828426
Recomendado
Clasificación