第五周学习周报20181008-20181014

上一周看的论文没有找到源码。就没有开展复现工作。
一、看论文
本周看了另一篇论文《A Discriminatively Learned CNN Embedding for Person Re-identification》
本文中作者提出了一个模型:
(1)可以同时学习特征的嵌入(identification loss)和相似度度量(verification loss)。同时预测ID和进行相似度得分计算。
(2)需要优化的loss是三个目标loss:2个识别loss+1个验证loss。
(3)a.verification model:同时输入images pairs,network预测输入图片是否为同一人。问题转化成二分类问题,因而没有用到标注信息,image pairs和数据集中的其他图片关系被忽略。
b.identification model:将person re-id问题看做多分类问题,利用数据原始标注信息结合cross-entropy loss训练数据。在一个batch中一起bp。融合了类内数据在高维空间相似和类间差异的要求。但是没有考虑图片之间的相似性度量。
(4)本论文融合这两种model
由于数据有限。verification用contrastive loss会导致过拟合,所以采用了cross-entropy。
dropput不能用于contrastive loss前的embedding,但本文采用的是cross-entropy,所以采用了dropout.
(5)网络用2个权值共享的caffenet同时预测2张输入图片的label,将训练网络的最后一个全连接层换成卷积层,再连接一层softmax进行输出归一化,对2个identification部分用cross-entropy loss。对于verification部分,直接在caffenet输出的4096维最高层特征上连接一个无参数的square layer,在后面再接一个卷积层 将维数降为2,后用softmax进行输出归一化,对输出结果用cross-entropy loss进行参数学习。网络用3个cross-entropy loss同时进行参数训练。

二、跑代码
从github上下载了源码和market1501的数据集,准备论文复现。
遇到了两个问题:
(1)编译caffe的时候make出现问题,找不到命令。make卸载重新安装后,还是报命令同样的“命令未找到”错误
(2)需要用运行matlab代码,将解压后的数据集bounding_box_train、bounding_box_test、query三个文件夹的图像地址、图像名称、图像序号进行读取,并重新排序。运行.m文件的时候报错。
(3)跑了下网上open re-id的小demo

猜你喜欢

转载自blog.csdn.net/qq_24924689/article/details/83051373