2018.09.06

  • Exploiting Transitivity for Learning Person Re-identification Models on a Budget,Sourya Roy, UC Riverside ; Sujoy Paul, UC Riverside; Neal Young, UC Riverside ; Amit Roy-Chowdhury, UC Riverside

摘要

这是一篇很与众不同的论文,文章主要分析如何最低工作量的标注一个ReID数据集,目的是减少人工标注的费力投入。论文利用了一个很简单的思路:如下图所示, P_k^i 表示第 k 个相机的第 i 张行人图片。现在加入我们标注 P_1^1-P_2^1 和 P_1^1-P_3^2 都是正样本对,那么我们可以得到 P_2^1-P_3^2 也是正样本对。同理如果我们经过标注得到 P_1^1-P_3^1 是负样本对,那么我们可以推出 P_2^1-P_3^1 也是负样本对。当然,我们依然不知道 P_2^2-P_3^1 是什么关系。论文就在研究这个问题,文图论的相关理论推导,介绍了许多公式的约束,

选取B个点或者直线数量,在构造三角形约束的时候有至少要有一个positive edge,至少要选择2条边,选那种使得至少有1个positive的概率最大的triangle。用到了两个方法,一个是1/2 max-cut,之后的原理公式就没有看懂了。

因此我没有看懂。最终的结论是大概只需要标注8%~15%的数据,就可以得到整个数据集的标注结果。

文章中用到了max-cut算法

max-cut算法:将图分成两部分,使得划分的边数最多。或者说话分的边上的权重最大。

二分图:图中的顶点分成两个互不相交的点集,边分别连接的是不同的数据集的点

Multiscale Representation for Partial Face Recognition Under Near Infrared Illumination
解决partial face中不同size的图片大小的问题。计算量很大。一共有55个patches,就训练了55个MDSCNN,计算量还可想而知。每一个patch都会计算一个权重,最后根据不同patches的不同权重来计算两张image之间的dissimilarity

常用的分布:0-1 分布   2项分布    泊松分布   均匀分布    高斯分布    指数分布

bagging与boosting区别:

集成学习的三个关键点:弱分类器的选择、训练分类器的数据集的选择方式、分类器的组合方式

cnn网络的特征平移不变性

    

看到这幅图,是不是有什么想法,卷积神经网络低层获得是纹理  线条类的特征。上层获得的是比较抽象、语义信息更丰富的特征。如果将不同层的特征抽取融合、part 与global loss结合,以及注意力模型当中是否可以加入global模型信息来进行行人识别

疑惑点:到底multi-scale指的是什么?STN网络学到的有意义的feature是什么

网络有全连接层的要求输入固定大小尺寸的图片

猜你喜欢

转载自blog.csdn.net/dashan8608/article/details/82458728