【玩转Jetson TX2 NX】(九)TX2 NX 安装onnx-tensorrt工具(详细教程+错误解决)

1 onnx-tensorrt工具安装

onnx-tensorrt工具可以实现将onnx文件转到trt文件,首先通过如下命令安装该工具

git clone --recurse-submodules https://gitee.com/Mr_xiaolong/onnx-tensorrt.git

如图所示:

在这里插入图片描述
clone完成,如图所示:

在这里插入图片描述
进入onnx-tensorrt文件夹,创建build文件夹并进入,依次执行如下命令

cd onnx-tensorrt
mkdir build && cd build

如图所示,然后cmake,执行命令

cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/

2 报错CMake Error at CMakeLists.txt:3

报错原因:cmake版本太低

在这里插入图片描述
升级cmake版本,输入命令

pip install cmake --upgrade

如图所示:

在这里插入图片描述
继续执行命令

cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/

3 报错CMake Error:Could not find CMAKE_ROOT

报错如图所示:

在这里插入图片描述

扫描二维码关注公众号,回复: 14759706 查看本文章

安装libprotobuf-dev protobuf-compiler,输入命令

sudo apt-get install libprotobuf-dev protobuf-compiler

如图所示:

在这里插入图片描述

如果仍然报错,关闭终端,重新打开,进入到build文件夹,继续执行刚才的命令

cmake .. -DTENSORRT_ROOT=/usr/lib/python3.6/dist-packages/tensorrt/

如图所示:

在这里插入图片描述
然后进行make,输入命令

make -j4

如图所示:

在这里插入图片描述
报错如图所示:

在这里插入图片描述

4 报错/usr/include/aarch64-linux-gnu/NvInferRuntimeCommon.h:56:10:fatal error:cuda_runtime_api.h

报错如图所示:

在这里插入图片描述
需要配置cuda的环境变量,输入命令

sudo gedit ~/.bashrc

如图所示,按i开始编辑,添加环境变量

export PATH=/usr/local/cuda-10.2/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH
export CPATH=/usr/local/cuda-10.2/targets/aarch64-linux/include:$CPATH
export LD_LIBARARY_PATH=/usr/local/cuda-10.2/targets/aarch64-linux/lib:$LD_LIBARARY_PATH
export CUDA_ROOT=/usr/local/cuda-10.2

然后按Esc退出,按:wq保存并退出,如图所示:

在这里插入图片描述
如果忘记执行下面的命令

source ~/.basrc

直接继续执行make命令

make -j4

仍然报错,如图所示:

在这里插入图片描述
因此,需要依次执行命令

source ~/.basrc
make -j4

make成功,如图所示:

在这里插入图片描述
继续执行命令

sudo make install

如图所示:

在这里插入图片描述
输入命令,查看onnx-tensorrt的版本信息

onnx2trt -V

如图所示:

在这里插入图片描述
希望本文对大家有帮助,上文若有不妥之处,欢迎指正

分享决定高度,学习拉开差距

猜你喜欢

转载自blog.csdn.net/qq_42078934/article/details/129901293