Acerca del registro de entrenamiento del conjunto de datos autoconstruido de slowfast (¿actualización?)

Consulte este
https://blog.csdn.net/WhiffeYF/article/details/115581800#14_via_151
para mencionar que el etiquetado del comportamiento es por segundo, no por fotograma. También hay un segundo en ava_help El rango que
he probado para etiquetar un pequeño conjunto de datos de acuerdo con cada fotograma anterior, el efecto es muy confuso, así que lo registraré esta vez

El primero es filtrar los videos recopilados tres veces.
1. Eliminar las marcas de detección de los transeúntes, dejando solo los resultados de detección del objeto cuyo comportamiento desea identificar
. El algoritmo de seguimiento no es el detectron oficial2, sino el suyo propio. yolo+deepsort), entonces tienes que borrar lo correspondiente de este video
3. Al marcar el comportamiento del video por segundo, presta atención a si una captura de pantalla por segundo contiene el proceso de la acción, como Si la acción también sucede corto, entonces tienes que pasarlo.

Finalmente, después de marcar las acciones en todos los videos en csv, divida el entrenamiento y la verificación, y luego combine el csv correspondiente para obtener ava_train_v2.2.csv y ava_val_v2.2.csv

eg:
A,1,0.395,0.230,0.545,0.933,1,0
视频名,秒序号,bbox归一化,行为标号,人员ID

ava_action_list_v2.2_for_activitynet_2019.pbtxt es la configuración de la categoría de comportamiento, que es mejor que la pintura de calabaza

制作ava_detection_val_boxes_and_labels.csv和ava_detection_train_boxes_and_labels_include_negative_v2.2.csv

A,1,0.395,0.230,0.545,0.933,1,0.996382
视频名,秒序号,bbox,行为标号,检测置信度
注意val的这个表中行为那一列为空

Supongo que te gusta

Origin blog.csdn.net/weixin_40459958/article/details/132288607
Recomendado
Clasificación