《Learning to Prune Filters in Convolutional Neural Networks》论文笔记

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/m_buddy/article/details/85860093

1. 概述

这篇文章提出了一种“try-and-learn”的算法去训练pruning agent,并用它使用数据驱动的方式去移除CNN网络中多余的filters。借助新的奖励机制,agent可以大量移除CNN网络中的filters,并且保持网络的精度在期望的水平内。在网络性能和规模上提供了很好的操控性。
这篇文章中的方法具有如下特点:
1)使用数据驱动的方法去剪枝。并且通过实验数据驱动方法剪枝的效果是好于手工设置的剪枝条件(类似L1与L2范数);
2)文章的方法在网络的性能与规模上在剪枝期间提供了很好地操控性。当确定了网络的期望性能之后,本文的方法可以实现完全自动实现网络剪枝。

为了实现这样的目标,论文中将剪枝问题转化为了“try-and-learn”的学习任务。也就是训练一个pruning agent,使用神经网络建模,输入filter的权重输出该filter是否保留的二值标识。该agent是使用新的奖励机制(尽可能高的裁剪比例)来训练,同时保持网络性能保持在特定的水平上。
直观地把论文中的方法看作是一个“try-and-learn”的过程,最开始的时候从全部的filter中随机剪枝一个,每次进行剪枝操作会通过奖励机制评估。这个评估会返回给agent,这迫使agent去产生更高的回馈。但是这样的操作的可执行空间是很大的,对于有64个filter的层,可能性就有 2 64 2^{64} ,论文中给出了一种高效的算法来解决。

2. 网络剪裁

2.1 单层网络剪裁

这里对拥有 L L 层卷积的CNN网络使用 l l 表示,用 N l N_l 表示第 l t h l^{th} 层中filter的数量,filter的矩阵可以表示为 W l = { w 1 l , w 2 l , , w N l l } W^l=\{w_1^l,w_2^l,\dots,w_{N_l}^l\} ,其中 w i l R m l h w w_i^l\in R^{m^l*h*w} ,需要训练的agent用 π l \pi^l 表示,它用 W l W^l 作为输入,产生操作的二值标识, A l = { a 1 l , a 2 l , , a N l l } A^l=\{a_1^l,a_2^l,\dots,a_{N_l}^l\} ,对于agent π l \pi^l 使用参数 θ l \theta^l 参数化,则就可以表示为 π l ( A l W l , θ l ) \pi^l(A^l | W^l,\theta^l)
对于这个训练任务给定验证集 X v a l = { x v a l , y v a l } X_{val}=\{x_{val}, y_{val}\} ,优化的目标函数是 L = R ( A l , X v a l ) L=R(A^l, X_{val}) ,其中 R R 是由两部分组成的,一个是accuracy term,另外一个是efficiency term。
R ( A l , X v a l ) = ψ ( A l , X v a l , b , p ) ϕ ( A l ) R(A^l, X_{val})=\psi(A^l,X_{val},b,p^*)*\phi(A^l)
对于 accuracy term ,它保证在验证集上性能的下降在度量 M M 下下降的边界是 b b b b 这个参数是用来调控剪裁力度与网络性能的。参数 p p^* 是原始网络 f f 的性能, p ^ \hat{p} 是剪裁之后新网络 h a t f A l hat{f}_{A^l} 的性能。当然在剪裁之后是需要经过训练集finetune再去测量剪裁之后网络的性能的。度量指标 M M 在分类问题中就代表准确率,在分割问题中就代表全部的准确率。那么这部分就可以描述为如下的形式:
ψ ( A l , X v a l , b , p ) = b ( p p ^ ) b \psi(A^l,X_{val},b,p^*)=\frac{b-(p^*-\hat{p})}{b}
p ^ = M ( f ^ A l , X v a l ) , p = M ( f , X v a l ) \hat{p}=M(\hat{f}_{A^l}, X_{val}), p^*=M(f, X_{val})
对于 efficiency term C ( A l ) C(A^l) 代表其中值为1(也就是被保留)的数量,然后其可以使用下面的算式进行度量:
ϕ ( A l ) = l o g ( N l C ( A l ) ) \phi(A^l)=log(\frac{N^l}{C(A^l)})
之前提到agent中使用参数 θ \theta ,那么整个的目标函数就可以使用梯度下降法进行求解,
在这里插入图片描述
那么整个层的裁剪算法就可以被描述为:
在这里插入图片描述

2.2 多层网络裁剪

对于整个网络中的agent使用 π = { π 1 , π 2 , , π L } \pi=\{ \pi^1,\pi^2,\dots,\pi^L\} 进行表示。其剪枝的策略还是逐层进行的,每剪完一层就进行finetune进行回血,之后再剪下一层,这样一层一层,剪裁比例从小到大得到的剪枝结果是好于一次性剪除所有layer中的filter的。
在这里插入图片描述

3. 论文实验

3.1 VGG网络

下图展示分别对各层进行裁剪得到的错误率与剪裁之后filter的前后对比,这里设置的精度边界 b = 2 b=2
在这里插入图片描述
接下来调整裁剪的边界得到下图:
在这里插入图片描述
自然的裁剪的精度损失容忍度越大,裁掉的也就越多了。

3.2 ResNet网络

这篇论文中对ResNet的剪裁还是剪裁残差块中的第一个卷积,对于shortcut相连的部分并没有做处理。下图是使用不同精度损失容忍度对ResNet进行裁剪得到的结果
在这里插入图片描述

4. 个人总结

这篇论文使用参数化裁剪的形式,使用训练的形式来学习参数,使得裁剪在规定的精度误差范围内朝着裁剪比例尽可能大的方向迭代,从而得到最后的裁剪结果。但是,这篇论文中涉及到的方法并没有开源,直接复现难度比较大,存在风险,最好的还是提供代码,我们先去做复现验证,再决定运不运用到实际中去。

猜你喜欢

转载自blog.csdn.net/m_buddy/article/details/85860093