行人重识别 DAY1

加入了校科协的行人重识别(行人再识别)团队,现在用博客记录一下自己每天的学习心得吧,同时的,也记录一下自己AL3D的一些学习心得,不过这个可能更新的慢,因为这个GAN3D领域刚接触,也比较新,需要一定的时间去理解其中的数学概念,那我现在开始来说说自己在第一天ReID的一些认识吧。这个博客是对基于深度学习的行人重识别研究进展的一个可能有知识点懵逼的一个小的补充,欢迎大家探讨纠正错误,因为里面有一些概念的理解,我自己掌握的也不是很熟悉,大家一起努力学习伐。

  因为主要涉及的都是一些数学概念,我简略地说一下数学原理,真正的深入还是需要依靠文库,维基等知识网站去理解。

(1)行人重识别可以弥补目前固定摄像头的视觉局限。这个我的理解是一个区域有多个摄像头拍摄视频序列,ReID的要求对一个摄像头下感兴趣的行人,检索到该行人在其他摄像头下出现的所有图片,所以你可以利用ReID在其他的摄像头可见区域找到你希望找到的人。

(2)相似度度量。首先,度量是一个距离函数,相应的,度量空间是一个距离空间。在这里我们引入一个d函数,这个d我看作是distance来理解了,我对这个函数的理解是,X为一个非空集合, 他的元素叫做点,设x, y, z ε X, d(x,x)是X*X --> R的一个函数,而这个函数又有一定的性质。

  1. (正定性) x ≠ y,x, y ε C, d(x, y) > 0,(这个属于号我没找出来,将就着这么看伐= v =)d(x, y)≥ 0, d(x,x) = 0;这个d(x, x) = 0 ;我是这么理解的,因为x与x是相同的, 没有什么差异的地方, 这个造成的是对于全体来说x除非已经是R了,否则是不会达到R的水平的,这个也使它内部所有元素的距离其实是为0的。
  2. (对称性) d(x, y) = d(y, x), 这个可以把它与乘法交换律结合理解。 度量空间实质上是一个三维欧几里得空间, 空间中的欧几里得度量定义于连接这两点的线段的长度,所以你康,x, y它们交换了一下距离还是一样哒
  3. (三角不等式) d(x, z) ≤ d(x, y) + d (y, z), x, y, z ε X;这个可以联系高中的一个不等式去理解emm, 不相关的理解的话也就是两个定积分相加, 然后大于他们的区间合并,这个纯属死记了, 手动狗头。
  4. 相似性度量:评定两个事物之间的相近程度。
  5. 这里还需要理解聚类:按对象相似来分分组描述对象间相似性,而在这里刻画聚类样本所需要用到的函数有①相似系数函数,越相似, 越接近1,反之亦然,也是一个高中的内容, 就不赘述啦。②距离函数d:X * X --> R  ,ji这n个就是g我们上面讲的了。

(3) 全局特征:其性能瓶颈在于计算量特别大, 而这个性能是提升的,否则效率太低了。

(4) 序列特征:  在不同时间不同方位对目标依序连续获取序列, 这个序列连起来就可以成为一个动画啦。个人理解也就是一帧一帧的采集图像qwq。

(5) 迁移学习:  开发算法最大限度利用有标准有标签的领域知识来辅助目标领域的知识获取和学习。相似性是核心, 度量准则是重要手段。强调信息复用, 从一个domain迁移到另一个domain。emmm,简单的理解就是你平常看到好多苹果,但突然的你也能认出了梨。但在迁移学习里面如果两个domain相差过大,不建议直接用训练好的网络来判断需要判断的domain,而应该采用一步步的用其他domain来训练网络,垫石子过河,这样达到的效果会好很多。

(6) GAN:  GAN这个我简单描述一下,这个需要大家去深入了解一下,我这个解释只能是入门。首先GAN称为生成对抗网络,这中间是存在一个博弈的过程,其中G为(Generative Model), 其中需要用到的还有D(Discriminative Model),这个动态博弈的过程则可以看作是两个画家的画作进行PK,G是升级中的画家,D是专业画家,G在不断努力模仿成D,而D也在努力不让G模仿自己,最好的方式就是提高人们(网络)的辨别水平,去辨别出G是假的,在这个过程中G小骗子越来越会骗,D大画家越来越会辨别出G的画是冒牌的,在这个慢慢对抗的过程中G,D都在变强,达到的最好的效果也就是D(G) = 0.5, 即五五开。这样就能通过原先有的D画像生成许多以假乱真的图像,这些图像的偏差也在不断的减小,这也就是为什么说GAN可以用来扩充数据集、解决图片间的偏差。

(7) 贝叶斯网络:  在理解贝叶斯网络前,建议先了解一下联合概率,以及回想起来我们高中所学的条件概率。贝叶斯网络通常是一个DAG(有向无环图),需要结合图像去阐述,作为画画白痴,不好解释,这里有一个博客讲解的特别详细https://www.cnblogs.com/mantch/p/11179933.html  在后两者tail to tail和 head to tail有个小的总结就是当c未知,a, b都是推断不出来是独立的;当c已知时,a, b都是可以推断出来是独立事件的。

(8) DPM:  可以看成是HOG的一个扩展,先计算梯度方向直方图, 再用SVM训练得到物体的梯度模型,这个是一种传统学习的方法了emmm。简单来讲,就是通过DPM使得目标与模型进行一个匹配的过程。

(9) 累计匹配曲线(CMC):  类似于ROC(Recevier Operating Curve) 受试者工作曲线, 这个曲线视为一种top-k的击中概率,主要用于闭集测试,有n个注册样本,想测试性能的话,n个测试样本算取一个距离后进行排序,看类类样本位于前top-k,最后统计得到CMC曲线。这里可以理解为用到一个rank-n曲线,即前n个样本中成功地概率是多大。这个rank-n曲线我现在还没能理解,下一篇博客我详细说伐。

 

就到这啦,明天见!

猜你喜欢

转载自www.cnblogs.com/Warmchay/p/12155531.html