Un sistema de red neural que consiste en muchas capas, una capa de entrada para recibir información, procesar la información de entrada de la capa intermedia, la capa de salida es la percepción del ordenador de la información de entrada.
https://www.jianshu.com/p/e112012a4b2d
El proceso básico para construir redes neuronales
Definido añadió función de capa Neural
1. Los datos de entrenamiento
2. Definir nodo está lista para recibir datos
3. Definir Neural capa: capa oculta y la capa de predicción
4. Definir la expresión pérdida
5. Seleccione Optimizer hace una pérdida mínima
A continuación, todas las variables se inicializan por el optimizador sess.run, 1000 iteraciones de aprendizaje:
importación tensorflow como tf importación numpy como np def add_layer (entradas, in_size, out_size, activation_fuction = ninguno): Peso = tf.Variable (tf.random.normal ([in_size, out_size])) sesgos = tf.Variable (tf.zeros ([1, out_size]) + 0.1 ) wx = tf.matmul (entradas, peso) + sesgos si activation_fuction es Ninguno: salida = wx otra cosa : salida = activation_fuction (wx) de retorno de salida x_data = np.linspace (-1,1,300) [:, np.newaxis] ruido = np.random.normal (0,0.05 , x_data.shape) y_data = np.square (x_data) -0.5+ ruido xs = tf.placeholder (tf.float32, [Ninguno, 1 ]) ys = tf.placeholder (tf.float32, [ninguno, 1 ]) ocultos = add_layer (xs, 1,10, activation_fuction = tf.nn.relu) predicción = add_layer (oculto, 10,1, activation_fuction = Ninguno) pérdida = tf.reduce_mean (tf.reduce_sum (tf.square (de predicción - ys), reduction_indices = [1 ])) tren = tf.train.GradientDescentOptimizer (0.2 ) .minimize (pérdida) init = tf.global_variables_initializer () tf.Session con () como sess: sess.run (init) para i en el rango (1000 ): # train_step # Formación y cálculo de la pérdida se definen por un marcador de posición, por lo que aquí utilizar los parámetros de alimentación pasado sess.run (tren , feed_dict = {XS: x_data, YS: y_data}) IF I% 50 == 0: Imprimir (sess.run (Pérdida, feed_dict = {XS: x_data, YS: y_data}))