第七周学习周报20181022-20181028

一、回顾之前看多的一篇论文
《A Discriminatively Learned CNN Embedding for Person Re-identification》

二、看了一篇新的论文
《End-to-End Comparative Attention Networks for Person Re-identification》
(1)image-based,proposed end-to-end CAN framework
(2)将人的再识别问题归结为:视觉注意发现和排序优化
(3) truncated CNN:for global discriminative feature learning
CAN:有效的特征表示,产生识别性的视觉注意区域
(4)muti_task loss: triplet loss + identification loss
创新点
a novel visual attention model:
formulated as : a triplet recurrent neural network
which takes several glimpse of triplet images of persons
and dynamically generates comparative attention location maps

the model is able to focus on different parts of the person at different time steps

三、Attention mechanism
(1)Attention机制的本质思想
将Source中的构成元素想象成是由一系列的数据对<Key,Value>,
给定Target中的某个元素Query,
通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,
然后对Value进行加权求和,即得到了最终的Attention数值。
所以本质上Attention机制是:
对Source中元素的Value值进行加权求和,而Query和Key用来计算对应Value的权重系数。

(2)Attention的两个目的:
1)通过结构化的选取输入的子集,低数据度。
2) “去伪存真”,让任务处理系统更专注于找到输入数据中显著的与当前输出相关的有用信息,从而提高输出的质量。

四、跑《A Discriminatively Learned CNN Embedding for Person Re-identification》源码
基于Matconvnet的代码,训练的时候报GPU out of memory错误。

猜你喜欢

转载自blog.csdn.net/qq_24924689/article/details/83479482