Keras construye una red neuronal amplia y profunda

Red neuronal amplia y profunda

En 2016, el artículo de Wide and Deep Learning para Recomendadores de Sistemas publicado por Cheng y otros de Google introdujo una nueva arquitectura, Wide & Deep ANNs.

Al conectar parte o la totalidad de la información en la capa de entrada directamente a la capa de salida, se pueden aprender características simples a través de rutas cortas, y se pueden aprender características complejas a través de rutas profundas. En comparación con la típica estructura de perceptrón multicapa (MLP), esta arquitectura puede evitar que las características simples del conjunto de datos se procesen en exceso y se distorsionen en la ruta profunda.

Implementación de Keras

La implementación de la red neuronal Wide & Deep es muy simple: el clásico libro de texto Hands-On Machine Learning de Aurélien Géron con Scikit-Learn y TensorFlow proporciona un código fuente. Hay un error en el código fuente en el libro, y aquí se da el correcto.

input=keras.layers.Input(shape=X_train.shape[1:])
hidden1=keras.layers.Dense(30,activation="relu")(input)
hidden2=keras.layers.Dense(30,activation="relu")(hidden1)
concat=keras.layers.concatenate([input,hidden2])
output=keras.layers.Dense(1)(concat)
model=keras.Model(inputs=[input],outputs=[output])

Supongo que te gusta

Origin www.cnblogs.com/yaos/p/12739949.html
Recomendado
Clasificación