Reducir exceso de ajuste, generalmente por: aumentar el término de regularización conjunto de entrenamiento, función de pérdida añadió, Dropout otras maneras. La función principal de este trabajo es mostrar el papel de deserción
Al configurar Dropout, torch.nn.Dropout (0.5), donde 0.5 significa que el elemento de la capa de nervios (Layer) en cada iteración de la formación al azar 50% de probabilidad de ser desechada (inactivada), no está involucrado en la formación , la posibilidad de capa de multi-neurona proporciona generalmente inactivación menos aleatoria más alta que las neuronas.
Pregunta: ¿Cómo droupout neuronas de descarte?
Referencia: https://www.jianshu.com/p/636be9f8f046
https://blog.csdn.net/u014532743/article/details/78453990