pytorch Dropout

Reducir exceso de ajuste, generalmente por: aumentar el término de regularización conjunto de entrenamiento, función de pérdida añadió, Dropout otras maneras. La función principal de este trabajo es mostrar el papel de deserción

Al configurar Dropout, torch.nn.Dropout (0.5), donde 0.5 significa que el elemento de la capa de nervios (Layer) en cada iteración de la formación al azar 50% de probabilidad de ser desechada (inactivada), no está involucrado en la formación , la posibilidad de capa de multi-neurona proporciona generalmente inactivación menos aleatoria más alta que las neuronas.

Pregunta: ¿Cómo droupout neuronas de descarte?

 

Referencia: https://www.jianshu.com/p/636be9f8f046

https://blog.csdn.net/u014532743/article/details/78453990

 

Publicados 234 artículos originales · ganado elogios 61 · vistas 120 000 +

Supongo que te gusta

Origin blog.csdn.net/weixin_42528089/article/details/103840911
Recomendado
Clasificación