写在前面:
个人学习之作,不做商用,仅供参考。
能力有限,共同进步。
论文原地址:Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning
是由深圳马龙人工智能研究中心的大佬研究出来的。
第一步:
git clone https://github.com/msight-tech/research-ms-loss
cd reseach-ms-loss
pip install -r requirements.txt
python setup.py develop build
第二步:
数据集下载:
git当中的地址已经过期了,如果直接运行会报错。
这里是最新下载地址 下载数据
这个时候需要在外面新建一个文件目录
mkdir resource/datasets
把下载好的CUB_200_2011.tgz放入该目录下。
tar -zxf CUB_200_2011.tgz
然后执行如下命令
python scripts/split_cub_for_ms_loss.py
第三步。模型下载,
按照要求将训练好的模型下载下来,bn_inception-52deb4733.pth
注意的是,你需要修改配置文件。
model path的位置和你放的位置保持一致就行。
然后在文件目录下运行
./scripts/run_cub.sh
这里我报错,提醒我引用地址不正确,
我看了这个启动脚本,核心是tool/main.py,我把main.py拷贝出来了,路径如图所示:
运行结果如图所示。
第四步:训练完成:
训练时间约为24分钟。最优的召回率0.65.输出的结果模型在output文件下。
数据集介绍:
这个数据集中有200个种类,每个种类图片约为10-30张不等。
训练过程介绍
我用的是3090,配置如下: