Red neuronal amplia y profunda
En 2016, el artículo de Wide and Deep Learning para Recomendadores de Sistemas publicado por Cheng y otros de Google introdujo una nueva arquitectura, Wide & Deep ANNs.
Al conectar parte o la totalidad de la información en la capa de entrada directamente a la capa de salida, se pueden aprender características simples a través de rutas cortas, y se pueden aprender características complejas a través de rutas profundas. En comparación con la típica estructura de perceptrón multicapa (MLP), esta arquitectura puede evitar que las características simples del conjunto de datos se procesen en exceso y se distorsionen en la ruta profunda.
Implementación de Keras
La implementación de la red neuronal Wide & Deep es muy simple: el clásico libro de texto Hands-On Machine Learning de Aurélien Géron con Scikit-Learn y TensorFlow proporciona un código fuente. Hay un error en el código fuente en el libro, y aquí se da el correcto.
input=keras.layers.Input(shape=X_train.shape[1:])
hidden1=keras.layers.Dense(30,activation="relu")(input)
hidden2=keras.layers.Dense(30,activation="relu")(hidden1)
concat=keras.layers.concatenate([input,hidden2])
output=keras.layers.Dense(1)(concat)
model=keras.Model(inputs=[input],outputs=[output])