Batch Normalization层

  Batch Normalization的加速作用体现在两个方面:一是归一化了每层和每维度的scale,所以可以整体使用一个较高的学习率,而不必像以前那样迁就小scale的维度;二是归一化后使得更多的权重分界面落在了数据中,降低了overfit的可能性,因此一些防止overfit但会降低速度的方法,例如dropout和权重衰减就可以不使用或者降低其权重。截止到目前,还没有哪个机构宣布重现了论文中的结果,不过归一化的用处在理论层面就已经有了保证,以后也许归一化的形式会有所改变,但逐层的归一化应该会成为一种标准。

猜你喜欢

转载自www.cnblogs.com/llfctt/p/9037604.html