環境
- アナコンダ3 [Python 3.8]
- Visual Studio 2022
- CUDA 11.8
- cuDNN 8.6.0
- TensorRT 8.5.2.2
TensorRTをダウンロードして構成する
- TensorRT 8.xをダウンロード
# 如下载8.5.2.2版本
TensorRT-8.5.2.2.Windows10.x86_64.cuda-11.8.cudnn8.6.zip
- 1
- 2
- 加圧後、環境変数 PATH を追加します(独自のパスに従って)
# 将lib路径添加到环境变量
D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib
- 1
- 2
- TensorRT-8.5.2.2\lib にある lib ファイルと dll ファイルをそれぞれ CUDA の lib/x64 パスと bin パスにコピーします。
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64
- 1
- 2
- Python バージョンの tensorrt をインストールする
# 到TensorRT-8.5.2.2\python下,根据自己的python版本安装tensorrt
pip install tensorrt-8.5.2.2-cp38-none-win_amd64.whl
# tensorrt をtrt trt.version
としてインポートするテスト
- 1
- 2
- 3
- 4
- 5
- 6
VS2022 はTensorRT を構成してテストします
VS2022で開くTensorRT-8.5.2.2\samples\sampleOnnxMNIST\sample_onnx_mnist.sln
以下の環境設定を行います
注: VS2022 の場合、これらのライブラリはデフォルトで追加されています (最初の 4 つは tensorrt からのもの、最後の 3 つは cuda からのものです)。例として、上記のように構成することもできます。
nvinfer.lib
nvinfer_plugin.lib
nvonnxparser.lib
nvparsers.lib
cudnn.lib
cublas.lib
cudart.lib
これまでのところ、TensorRT は VS で構成されており (実際、CUDA 構成も上に示されています)、ケース プログラムは以下で直接テストできます。
exe操作が後でフラッシュバックするのを防ぐために、それをgetchar();
main関数に追加します
次に、それをコンパイルしますbuild
。
コンパイルが成功すると、TensorRT-8.5.2.2\bin
パスの下に実行可能ファイルが生成されるので、sample_onnx_mnist.exe
ダブルクリックして実行します。
上記は TensorRT のインストールと VS の構成、および公式デモの実行プロセスであるため、すべて問題ありません。
述べる
上記のプロセスでは見つからない問題が存在する可能性がありますzlibwapi.dll
。解決策は次のとおりです。
- 公式サイトからZLIB DLLライブラリをダウンロードし、解凍後以下
zlibwapi.dll
にコピーしますC:\Windows\System32
。CUDA の bin フォルダーと lib フォルダーにそれぞれと を置く
こともできます。どちらの方法でも問題ありません。zlibwapi.dll
zlibwapi.lib
# zlibwapi.dll放于其中
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
# zlibwapi.lib放于其中
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib
- 1
- 2
- 3
- 4
遅延読み込みについての質問もありますが、ソースと設定方法は以下の通りです
- ソース
公式の指示に従って、環境変数を設定する必要があります
参考
https://blog.csdn.net/qq_44224801/article/details/125525721
https://blog.csdn.net/Chaos_Happy/article/details/124064428
https://www.cnblogs.com/xiixixing/p/16140973。 html
https://www.iotword.com/5928.html
環境
- アナコンダ3 [Python 3.8]
- Visual Studio 2022
- CUDA 11.8
- cuDNN 8.6.0
- TensorRT 8.5.2.2
TensorRTをダウンロードして構成する
- TensorRT 8.xをダウンロード
# 如下载8.5.2.2版本
TensorRT-8.5.2.2.Windows10.x86_64.cuda-11.8.cudnn8.6.zip
- 1
- 2
- 加圧後、環境変数 PATH を追加します(独自のパスに従って)
# 将lib路径添加到环境变量
D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib
- 1
- 2
- TensorRT-8.5.2.2\lib にある lib ファイルと dll ファイルをそれぞれ CUDA の lib/x64 パスと bin パスにコピーします。
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64
- 1
- 2
- Python バージョンの tensorrt をインストールする
# 到TensorRT-8.5.2.2\python下,根据自己的python版本安装tensorrt
pip install tensorrt-8.5.2.2-cp38-none-win_amd64.whl