環境構成:Tensorrt8.6.1、cuda11.6、cudnn8.6.0、torch1.13.1+cu116、torchvision0.14.1+cu116
1. まず cuda11.6、cudnn8.6.0、torch1.13.1+cu116、torchvision0.14.1+cu116 をインストールします。
2. Tensorrt8.6.1 をダウンロードし、以下のファイルをコピーして移動します
include 内のヘッダー ファイルをC:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\include\
にコピーします。 lib 内のすべてのlibファイルを C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3 \にコピーします。 lib\x64\
lib 内のすべてのdllファイルをC:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\bin\にコピーします。
3. NVIDIA 公式 Web サイトにアクセスして、次のアドレスにある対応する zlibwapi.dll (コンピューターのバージョンに応じて X64 および X86 バージョンをダウンロード) ファイルを見つけます: インストール ガイド - NVIDIA Docs、dll を C:\Windows にコピーします。 \System32フォルダ
4. Tensorrt8.6.1/python にはいくつかのライブラリがありますので、cmd で pip install ライブラリのファイル名を使用します。これらの依存ライブラリをインストールするには(Pythonのバージョンは3.10なので、対応する3つのライブラリをインストールします)
5. cuda-pythonライブラリをインストールする
pip インストール cuda-python
6. cmd で tensorrt テスト ケースを実行します。
7. 実行中にいくつかのライブラリが表示されるので、pip を使って該当するライブラリをインストールすればOKです。成功した操作は図に示すとおりです