Alphapose配置

对于人体骨架数据提取,从OpenposeAlphapose,对人少的场景都做出了很好的性能.

港中文AAA12018的ST-GCN在Openpose的基础上,使用时空图卷积网络进行了简单动作识别,准确率有待提高。在Kinetics (7.5G)and NTU-RGBD(5.8G)数据上进行了相关测试,由于Openpose对caffe环境要求很苛刻,安装编译过程中出现问题,稍后会总结。
Alphapose最近遇到了行人匹配的问题,由于Alphapose在检测时候的问题,导致无法确定时间t内同一个人的骨架数据,使得后边的简单的动作特征无法有效准确的提取
港中文AAA12018:https://arxiv.org/abs/1801.07455 开源项目: https://github.com/yysijie/st-gcn
上交开源项目:https://github.com/MVIG-SJTU/AlphaPose

主要讲一下Alphapose的配置安装教程,特别感谢小伙伴的帮助 https://me.csdn.net/weixin_42054950
(1)机器基本配置:cuda9.0 cudnn 7.1等不在介绍;
(2)训练好的模型duc_se.pth 下载链接:https://pan.baidu.com/s/1xXLHvsaVUNHfHDjHI2cVtw
提取码:wb24 放在 AlphaPose-pytorch\models\sppe
(3)训练好的模型yolov3-spp.weights下载链接:https://pan.baidu.com/s/1mLhdNZtUPs6fSA8eCGxgBA
提取码:akxo 放在 AlphaPose-pytorch\models\yolo

安装requirements.txt里边的依赖项:注意torch==0.4.0和torchvision安装时间会很长,耐心等待,其余的缺啥安装啥就行,每个人的环境也不太一样。使用命令测试pytorch是否安装成功

python3
import torch

demo测试:
1.视频文件提取并保存

python3 video_demo.py --video /home/*****/*****/AlphaPose-pytorch/examples/testvideo/2.mp4 --outdir examples/resvideo --save_video

2.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res 

3.摄像头视频流实时提取

python3 webcam_demo.py --webcam 0 --outdir examples/res --vis

4.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res --fast_inference False --save_img

加速检测:
(1)增加置信阈值 降低NMS阈值

python3 video_demo.py --video ${path to video} --outdir examples/results/ --conf 0.5 --nms 0.45

(2)显存大于8G 增加检测批次

python3 demo.py --indir ${img_directory} --outdir examples/res --detbatch 2

(3)如果不检测小目标人物,降低输入到检测网络 inp_dim 是32的倍数

python3 demo.py --indir ${img_directory} --outdir examples/res --inp_dim 480

处理的视频截图,后边有时间想好了之后会对json文件解析再进行介绍:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/NcepuKZH/article/details/89485987
今日推荐