CV第七课 正则化

Regulazation

Dropout

  1. 在全连接层时使用,随机使一半的元素为0; 在卷积层时,随机使得一些通道(channel)的值为0

  2. 这是为了防止一些 features' co-adaption 比如可能学习到 特征组合  毛+爪子+胡须 ,dropout之后就需要用零散的特征来判断。

  3. Dropout 与 BN 都是通过引入一定的 随机性 或 noise 来达到 防止overfitting的效果

   所以一般只用BN就可以了,不用DropOut;但实际上,DropOut有参数p 调节,效果更好

猜你喜欢

转载自www.cnblogs.com/ChevisZhang/p/12952125.html