论文研读(一):FSRCNN:Accelerating the Super-Resolution Convolutional Neural Network

原文地址:https://arxiv.org/abs/1608.00367
最近任务需要,总结回忆一下FSRCNN,本来想系统的整理读过的文章但是没有时间,因为都被我用来浪费了,它的前作SRCNN比较简单之后再看吧~

1.Motivations

原文:
However, the high computational cost still hinders it from practical usage that demands real-time performance (24 fps). In this paper, we aim at accelerating the current SRCNN, and propose a compact hourglass-shape CNN structure for faster and better SR.
我来说:
FSRCNN的出发点或者动机就是加快SRCNN的训练速度,原文中就已经说得很明白了SRCNN在计算的过程中对于计算机的资源消耗是巨大的并且因此也严重影响了它在实际生活工作的使用。

2.Contributions

PS:关于Contributions
原文:
In this paper, we aim at accelerating the current SRCNN, and propose a compact hourglass-shape CNN structure for faster and better SR. We re-design the SRCNN structure mainly in three aspects. First, we introduce a deconvolution layer at the end
of the network, then the mapping is learned directly from the original low-resolution image (without interpolation) to the high-resolution one. Second, we reformulate the mapping layer by shrinking the input feature dimension before mapping and expanding back afterwards. Third, we adopt smaller filter sizes but more mapping layers. The proposed model achieves a speed up of more than 40 times with even superior restoration quality.

我来说:
本文从三个角度进行相关改进:

  1. 在结构末尾使用deconvolution layer直接学习LR和HR之间的映射关系
  2. 设计了一个 Shrinking步骤,来降低输入的维度,这样可以压缩模型的大小,减少计算量,提高网络的推理速度
  3. 增加了网络的深度(more mapping layers),但是使用的卷积核的大小变小了,至于为什么要把SRCNN的大卷积核换成小尺寸的卷积核,看我另外一篇文章《大卷积核VS小卷积核》

3.Network

在这里插入图片描述  如图,FSRCNN的网络整体分为五个部分:特征提取、收缩、学习映射关系、扩展和反卷积。Conv()和DeConv()的三个参数f/n/c分别表示卷积核大小、卷积核数量和通道数。由于网络的变量较多,预先对不敏感的变量进行初始化(可以理解为对最终SR结果的影响可以忽略不计的参数), 当变量的轻微变化会显著影响性能时,我们称之为变量敏感。

1.Feature Extraction

  SRCNN的特征提取部分卷积核的大小为9,而文中的卷积核的大小为5,但是要想和SRCNN的大卷积核最终得到的感受野一样大,5*5的卷积核必须要通过在那增加卷积次数也就是增加网络的深度来实现,具体要增加的层数要根据input和output的大小和大小卷积核的不同来决定。至于说通道数FSRCNN还是和SRCNN保持一样c=1.这样Conv()的三个变量就只有卷积核的个数没有确定。而它就是一个敏感变量记作d,从另外一个角度来说,它可以看做是LR特征维度的数量。

2.Shrinking

  这里就是用一个1*1的卷积核进行降维,来减少计算复杂度

3.Non-linear Mapping

  这一步是SR问题中最为关键的一步,它通过网络训练得到的参数直接决定了最终SR的效果。在这一步在中最关键的俩个因素就是网络的宽度(卷积核的数量)和深度(层数)。

4.Expanding

  由于shrinking操作降低了LR的维度,所以在结果上表现得不是特别好,加入该层,将维度扩到到原来的结果使得重构结果提高。

5.Deconvolution

  将以前的特征进行合并,同时使用上采样,将图像变为HR。在相反的视角来看相当于做卷积操作,所以这层使用了SRCNN中的第一层的卷积核大小9*9.

4.Result

在这里插入图片描述
时间紧张先做简单记录还有细节内容补充!!!

猜你喜欢

转载自blog.csdn.net/weixin_44825185/article/details/106898011
今日推荐