DropBlock的不适用情况: A regularization method for convolutional networks

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qian1996/article/details/84427620

谷歌这篇文章,针对之前传统的dropout进行改进(随机drop,像素之间的相互关系仍然能够学习到,因此目前大多只在全连接层中用dropout),提出专门针对卷积层的dropout方法

 找到一个代码运行了一下。(mnist数据集,两层卷积,两层全连接。)

加上DB(keep_prob=0.9,block_size=7)精确度98%

去掉DB 精确度99%

再次实验,去掉DB效果仍然比较好。

个人认为:DB应该不适用于层数少的小网络。

猜你喜欢

转载自blog.csdn.net/qian1996/article/details/84427620