pytorch中BatchNorm2d的用法

CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

基本原理为:
在这里插入图片描述
如图所示,块标准化的目的就是让传输的数据合理的分布,加速训练的过程。
输入为一个四维数据(N,C,H,W),N-输入的batch size,C是输入的图像的通道数,(H,W)为输入的图像的尺寸。

  • num_features – C

  • eps 默认1e-5,加在分母上保持数据稳定(不会出现分母为0 的错误)

  • momentum 默认0.1,在运行中对均值和方差的估计
    在这里插入图片描述

  • affine 默认为True,表示参数可学习(即γ和β)

  • track_running_stats 默认True ,表示运行对均值和方差的估计
    track_running_stats=True表示跟踪整个训练过程中的batch的统计特性,得到方差和均值,而不只是仅仅依赖与当前输入的batch的统计特性。相反的,如果track_running_stats=False那么就只是计算当前输入的batch的统计特性中的均值和方差了。

发布了2 篇原创文章 · 获赞 9 · 访问量 165

猜你喜欢

转载自blog.csdn.net/qq_45171138/article/details/104521379