网络剪枝(1)

论文名:Learning Efficient Convolutional Networks through Network Slimming
本文主题:Network Slimming

(1)剪枝的三种意义:

  1. re­duce the model size;
  2. decrease the run-time memory foot­print;
  3. lower the number of computing operations, without compromising accuracy.

1)减少模型大小;2)减少运行时内存足印;3)在不影响精度的情况下,减少计算操作次数。

(2)直接看结论:

It directly imposes sparsity-induced regularization on the scaling
factors
in batch normalization layers, and unimportant channels can
thus be automatically identified during training and then pruned

作用对象:BN层(和不重要的通道)
作用方式: imposes sparsity-induced regularization on the scaling factors(比例因子)

(3)啥是Network Slimming和sparsity-induced regularization,scaling factors?????

第一次出现Network Slimming和sparsity-induced regularization,在文章这一段。
在这里插入图片描述
Network Slimming的定义翻译一下大概是这样:

我们的方法在批归一化层(BN)中对比例因子施加L1正则化,因此很容易实现无需引入任何更改为现有CNN架构。通过L1正则化将BN标度因子的值推向零,使我们能够识别不重要的通道(或neu-ron),因为每个标度因子对应于特定的进化通道(或完全连接层中的神经元)

1)来自上图段落(蓝线后面),2)来自结论。
换句话说:

1)Our approach imposes L1 regularlization on the scaling
factors
in batch normalization (BN) layers
2) imposes sparsity-induced regularization on the scaling factors(比例因子)

在这里插入图片描述
然后这段话看完其实就是一张图
在这里插入图片描述
然后就是进入Related Work段落
这一段主要介绍网络结构压缩的方法,基本上没啥必要看哈哈哈哈

Network slimming 这一段
中国人发的论文最懂中国人!!!黑体字就把重点讲的一清二楚了
在这里插入图片描述
我不知道翻译对不对。大体上就是一个惩罚项

猜你喜欢

转载自blog.csdn.net/weixin_50862344/article/details/126100733