【小组会整理】ICLR2016Particular object retrieval with integral max-pooling of CNN activations

师弟在这次小组会上讲了一篇论文,在这里整理下疑惑的地方和我觉得能用到的地方。
这篇论文的中心思想就是对max pooling方式进行了改进提出了RMAC pooling。
首先说一下这篇论文的大题流线:MAC改进为RMAC-》目标定位AML(approximate max-pooling localization)-》扩展查询Query expansion。
1、pooling方式介绍
参考了https://www.leiphone.com/news/201707/8sX3XVS7ce2UfkrY.html的相关内容。
max pooling:整个图片被不重叠的分割成若干个同样大小的小块(pooling size)。每个小块内只取最大的数字,再舍弃其他节点后,保持原有的平面结构得出 output。
ave pooling:就是 average pooling,本质上它跟 SUM pooling 是一样的,只不过是将像素值求和后还除以了 feature map 的尺寸。作者以为,AVE pooling 可以带来一定意义上的平滑,可以减小图像尺寸变化的干扰。
sum pooling:指的是针对中间层的任意一个 channel(比如 VGGNet16, pool5 有 512 个 channel),将该 channel 的 feature map 的所有像素值求和,这样每一个 channel 得到一个实数值,N 个 channel 最终会得到一个长度为 N 的向量,该向量即为 SUM pooling 的结果。
mop pooling:源自 Multi-scale Orderless Pooling of Deep Convolutional Activation Features.MOP pooling 的基本思想是多尺度与 VLAD
CROW pooling:在采用 CNN 做 Object Retrieval 的时候,我们有两种方式来更细化 Object Retrieval 的特征:一种是先做物体检测然后在检测到的物体区域里面提取 CNN 特征;另一种方式是我们通过某种权重自适应的方式,加大有物体区域的权重,而减小非物体区域的权重。CROW pooling ( Cross-dimensional Weighting for Aggregated Deep Convolutional Features ) 即是采用的后一种方法,通过构建 Spatial 权重和 Channel 权重,CROW pooling 能够在一定程度上加大感兴趣区域的权重,降低非物体区域的权重。
RMAC pooling:源自于 Particular object retrieval with integral max-pooling of CNN activations.在这篇文章中,作者提出来了一种 RMAC pooling 的池化方式,其主要的思想还是跟上面讲过的 MOP pooling 类似,采用的是一种变窗口的方式进行滑窗,只不过在滑窗的时候,不是在图像上进行滑窗,而是在 feature map 上进行的 (极大的加快了特征提取速度),此外在合并 local 特征的时候,MOP pooling 采用的是 VLAD 的方式进行合并的,而 RMAC pooling 则处理得更简单 (简单并不代表效果不好),直接将 local 特征相加得到最终的 global 特征。
2、Query expansion
n (QE). Re-ranking brings positive images at the very top ranked positions. Then,
we collect the 5 top-ranked images, merge them with the query vector, and compute their mean.
Finally, the similarity to this mean vector is adopted to re-rank once more the top N images.
用最少的力气做最多的事,很奇妙的想法,感觉以后用得上。
3、了解一下ICLR(international conference on learning representations)
2013年发起,今年才第五届.由位列深度学习三大巨头之二的 Yoshua Bengio 和 Yann LeCun 牵头创办。推行的 Open Review 评审制度。
Yoshua Bengio 是蒙特利尔大学教授,深度学习三巨头之一,他领导蒙特利尔大学的人工智能实验室(MILA)进行 AI 技术的学术研究。MILA 是世界上最大的人工智能研究中心之一,与谷歌也有着密切的合作。
而 Yann LeCun 就自不用提,同为深度学习三巨头之一的他现任 Facebook 人工智能研究院(FAIR)院长、纽约大学教授。作为卷积神经网络之父,他为深度学习的发展和创新作出了重要贡献。

猜你喜欢

转载自blog.csdn.net/Go_On_/article/details/78299049