关于slowfast自建数据集的训练日志(更新中?)

参考这个做的
https://blog.csdn.net/WhiffeYF/article/details/115581800#14_via_151
提到行为的标注是按照每秒来的,而不是每帧来的,在ava_help里也是有设置一个秒的范围
之前有试过一个小型数据集按照每帧来标注,效果很混乱,所以这次记录整理一下

首先是对采集到的视频做三次筛选
1.去除路人的检测标注,只留下自己要识别行为的对象的检测结果
2.如果发生行为的那一秒并没能检测到对象(自己用的检测跟踪算法不是官方那个detectron2,而是自己的yolo+deepsort)那就只好删掉这个视频对应的东西
3.对视频每秒做行为标注时留神每秒一张截图是否有包含动作发生的过程,比如动作发生太短,那也就只好pass了吧

终于把所有视频中的动作标注到csv中后,划分训练和验证,随后合并相应的csv,得到ava_train_v2.2.csv和ava_val_v2.2.csv

eg:
A,1,0.395,0.230,0.545,0.933,1,0
视频名,秒序号,bbox归一化,行为标号,人员ID

ava_action_list_v2.2_for_activitynet_2019.pbtxt就是行为类别的设定,比葫芦画瓢

制作ava_detection_val_boxes_and_labels.csv和ava_detection_train_boxes_and_labels_include_negative_v2.2.csv

A,1,0.395,0.230,0.545,0.933,1,0.996382
视频名,秒序号,bbox,行为标号,检测置信度
注意val的这个表中行为那一列为空

猜你喜欢

转载自blog.csdn.net/weixin_40459958/article/details/132288607
今日推荐