pytorch 38 对tensorRT、openvino、onnxruntime(fp32、fp16)推理速度进行对比

tensorRT与openvino部署模型有必要么?本博文对tensorRT、openvino、onnxruntime推理速度进行对比,分别在vgg16、resnet50、efficientnet_b1和cspdarknet53四个模型进行进行实验,对于openvino和onnxruntime还进行了cpu下的推理对比。对比囊括了fp32、fp16两种情况。在float32下通过实验得出:openvino GPU < onnxruntime CPU << openvino CPU < onnxruntime GPU <= tensorRT GPU。
得出结论:
1、在cpu上因该使用openvino部署,加速效果明显。
2、在gpu上可以适当考虑tensorRT部署,有一定加速效果(对于计算密集的模型加速效果明显);

在fp16下测试,情况与fp32差异较大。速度排序为: onnxruntime CPU < openvino CPU <= openvino GPU < onnxruntime GPU < tensorR GPU。
可以看出在fp16下,onnxruntime完全没有加速效果;openvino有轻微加速效果,比onnxruntime CPU要强;而tensorRT加速效果明显,相比于float32速度提升了1/3~2/5。

并进行显存占用对比实验,实验数据如下,
fp32下vgg占用590M,resnet50占用162M,efficientnet_b1占用130M,cspdarknet53占用238M;
fp16下vgg占用374M,resnet50占用92M,efficientnet_b1占用68M,cspdarknet53占用156M

猜你喜欢

转载自blog.csdn.net/a486259/article/details/130207009
38
今日推荐