Jetson Nano——基于python API部署Paddle Infence预测库

系统环境

  • JetPack4.4
    我试过了4.3版本的,会出现以下报错!!大家务必使用4.4版本,是ok的。
    在这里插入图片描述

如果需要此镜像的同学可以在Jetson 下载中心下载即可。

安装PaddlePaddle

有两种方式,因为nano官方有已经编译好的python3.6的whl,所以我们直接下载就好,不用编译。

1.直接下载或编译预测库

(1)直接下载官方编译好的Jetson nano预测库

下载地址
下载

选择python3.6版本的下载即可。
在这里插入图片描述

(2)编译官方预测库

在Jetson nano上编译paddlepaddle(带TensorRT)并跑通Paddle-Inference-Demo

2.安装whl

将下载好的whl文件传送到nano上,然后安装whl:

pip3 install paddlepaddle_gpu-2.0.0-cp36-cp36m-linux_aarch64.whl

安装成功截图:
在这里插入图片描述

测试

打开python3:

import paddle
paddle.fluid.install_check.run_check()

报warning忽略即可,不影响使用。
在这里插入图片描述

测试Paddle Inference

环境准备

拉取Paddle-Inference-Demo:

git clone https://github.com/PaddlePaddle/Paddle-Inference-Demo.git

拉取比较慢的话可以在gitee上建个仓库下载,我建的仓库:https://gitee.com/irvingao/Paddle-Inference-Demo.git

测试跑通GPU预测模型

给可执行权限:

cd Paddle-Inference-Demo/python
chmod +x run_demo.sh

需要注意的是,需要将所有子文件夹中的run.sh最后的python修改为python3
在这里插入图片描述
在这里插入图片描述

./run_demo.sh

也可以选择运行单个模型的run.sh

参考文章:

猜你喜欢

转载自blog.csdn.net/qq_45779334/article/details/114094097