[Estimación de pose de varias personas] Se reproduce la demostración de razonamiento AlphaPose_yolov4

Código: https://github.com/WildflowerSchools/AlphaPose

El entorno aquí es diferente al de yolov3, preste atención.

1. Medio ambiente

cuda101

torch==1.6.0
torchvision==0.3.0
opencv-python==4.1.0.25
tqdm
natsort
Cython
pycocotools
python setup.py build develop --user
apt-get update
apt-get -y install python3.6-tk

Para python setup.py build development --user, el proceso de instalación de la biblioteca de Python es lento, use:

pip --default-time=1000 install -i https://pypi.tuna.tsinghua.edu.cn/simple ***

2. Preparación de modelos y preparación de datos

Referencia: https://blog.csdn.net/qq_35975447/article/details/114654804

La diferencia es que la descarga es yolov4.weigts . O aquí: https://github.com/AlexeyAB/darknet

3.demo - seguimiento

python scripts/demo_inference.py --cfg configs/coco/resnet/256x192_res50_lr1e-3_2x-dcn.yaml --checkpoint pretrained_models/fast_dcn_res50_256x192.pth --indir examples/demo/ --vis --showbox --save_img --pose_track --sp

La trayectoria de seguimiento puede referirse a la trayectoria de la pintura china deep-sort-yolov3. O consulte https://xiaorun.blog.csdn.net/article/details/80572523

Para rastrear qué punto de unión, agregue las coordenadas del punto de unión correspondiente a la deque.

keypoints中的0-17分别代表

0 noise
1 left_eye
2 right_eye
3 left_ear
4 right_ear
5 left_shoulder
6 right_shoulder
7 left_elbow
8 right_elbow
9 left_wrist
10 right_wrist
11 left_hip
12 right_hip
13 left_knee
14 right_knee
15 left_ankle
16 right_ankle

Referencia aquí: https://zhuanlan.zhihu.com/p/121452714

Supongo que te gusta

Origin blog.csdn.net/qq_35975447/article/details/114933828
Recomendado
Clasificación