pytorch nn.BatchNorm2d () Parámetro Descripción

      En el uso pytorch nn.BatchNorm2d () cuando la capa, a menudo a los datos de uso de sólo más el número de canales para ser procesados ​​(número de características) en una discusión, pero a veces añaden en la parte posterior de un decimal, por lo que tales nn .BatchNorm2d (64,0.8), hay 0,8 ¿Qué papel?

      Sabemos que el papel en el proceso de formación nn.BatchNorm2d () es la estandarización de los datos de acuerdo con las estadísticas medias y var, var, y esta mena y se llevará a cabo en cada lote, a fin de hacer más datos estadísticamente significativos, por lo que toda la formación datos de entidad se pueden guardar, en cada proceso por lotes, la red estará en la actualización de la media y la var, aquí se trata de estas dos estadísticas nuevo lote de estadísticas media y la red var ha guardado el las compensaciones entre, y esto especifica la proporción de 0,8 a ahorrar, este parámetro se denomina impulso.

Las actualizaciones de parámetros se llevan a cabo en forma de diferencial, los datos XT representa un nuevo lote ronda producido, x ^ representa los datos históricos, el mayor este parámetro, más fuerte es la importancia de los datos estadísticos que representan el lote actual producida.

Publicado 36 artículos originales · ganado elogios 11 · vistas 6530

Supongo que te gusta

Origin blog.csdn.net/t20134297/article/details/104960101
Recomendado
Clasificación