【再録】Win10+TensorRT 8.5インストール+VS2022構成

環境

  • アナコンダ3 [Python 3.8]
  • Visual Studio 2022
  • CUDA 11.8
  • cuDNN 8.6.0
  • TensorRT 8.5.2.2

TensorRTをダウンロードして構成する

# 如下载8.5.2.2版本
TensorRT-8.5.2.2.Windows10.x86_64.cuda-11.8.cudnn8.6.zip

   
   
    
    
  • 1
  • 2
  • 加圧後、環境変数 PATH を追加します(独自のパスに従って)
# 将lib路径添加到环境变量
D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib

   
   
    
    
  • 1
  • 2
  • TensorRT-8.5.2.2\lib にある lib ファイルと dll ファイルをそれぞれ CUDA の lib/x64 パスと bin パスにコピーします。
 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64

   
   
    
    
  • 1
  • 2

ここに画像の説明を挿入

  • Python バージョンの tensorrt をインストールする
 # 到TensorRT-8.5.2.2\python下,根据自己的python版本安装tensorrt
 pip install tensorrt-8.5.2.2-cp38-none-win_amd64.whl

# tensorrt をtrt trt.version
としてインポートするテスト

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

VS2022 はTensorRT を構成してテストします

VS2022で開くTensorRT-8.5.2.2\samples\sampleOnnxMNIST\sample_onnx_mnist.sln
ここに画像の説明を挿入

以下の環境設定を行います
ここに画像の説明を挿入

ここに画像の説明を挿入
ここに画像の説明を挿入
注: VS2022 の場合、これらのライブラリはデフォルトで追加されています (最初の 4 つは tensorrt からのもの、最後の 3 つは cuda からのものです)。例として、上記のように構成することもできます。

nvinfer.lib
nvinfer_plugin.lib
nvonnxparser.lib
nvparsers.lib
cudnn.lib
cublas.lib
cudart.lib

これまでのところ、TensorRT は VS で構成されており (実際、CUDA 構成も上に示されています)、ケース プログラムは以下で直接テストできます。

exe操作が後でフラッシュバックするのを防ぐために、それをgetchar();main関数に追加します
ここに画像の説明を挿入

次に、それをコンパイルしますbuild
コンパイルが成功すると、TensorRT-8.5.2.2\binパスの下に実行可能ファイルが生成されるので、sample_onnx_mnist.exe
ここに画像の説明を挿入
ダブルクリックして実行します。
ここに画像の説明を挿入


上記は TensorRT のインストールと VS の構成、および公式デモの実行プロセスであるため、すべて問題ありません。


述べる

上記のプロセスでは見つからない問題が存在する可能性がありますzlibwapi.dll。解決策は次のとおりです。

  • 公式サイトからZLIB DLLライブラリをダウンロードし、解凍後以下zlibwapi.dllにコピーしますC:\Windows\System32CUDA の bin フォルダーと lib フォルダーにそれぞれと を置く
    こともできます。どちらの方法でも問題ありません。zlibwapi.dllzlibwapi.lib
# zlibwapi.dll放于其中
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin 
# zlibwapi.lib放于其中
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib

 
 
  
  
  • 1
  • 2
  • 3
  • 4

遅延読み込みについての質問もありますが、ソースと設定方法は以下の通りです
  • ソース

ここに画像の説明を挿入
公式の指示に従って、環境変数を設定する必要があります
ここに画像の説明を挿入


参考

https://blog.csdn.net/qq_44224801/article/details/125525721
https://blog.csdn.net/Chaos_Happy/article/details/124064428
https://www.cnblogs.com/xiixixing/p/16140973。 html
https://www.iotword.com/5928.html

環境

  • アナコンダ3 [Python 3.8]
  • Visual Studio 2022
  • CUDA 11.8
  • cuDNN 8.6.0
  • TensorRT 8.5.2.2

TensorRTをダウンロードして構成する

# 如下载8.5.2.2版本
TensorRT-8.5.2.2.Windows10.x86_64.cuda-11.8.cudnn8.6.zip

   
   
  
  
  • 1
  • 2
  • 加圧後、環境変数 PATH を追加します(独自のパスに従って)
# 将lib路径添加到环境变量
D:\AI_SoftEnv\TensorRT\TensorRT-8.5.2.2\lib

   
   
  
  
  • 1
  • 2
  • TensorRT-8.5.2.2\lib にある lib ファイルと dll ファイルをそれぞれ CUDA の lib/x64 パスと bin パスにコピーします。
 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64

   
   
  
  
  • 1
  • 2

ここに画像の説明を挿入

  • Python バージョンの tensorrt をインストールする
 # 到TensorRT-8.5.2.2\python下,根据自己的python版本安装tensorrt
 pip install tensorrt-8.5.2.2-cp38-none-win_amd64.whl

おすすめ

転載: blog.csdn.net/gdxb666/article/details/130781585