Sehen Sie sich den Weg von Pytorch Cuda Cudnn an
Der beste Weg ist die Pytorch-Methode
Geben Sie das Python-Modell in die Conda-Umgebung ein:
import torch
print(torch.__version__)
print(torch.version.cuda)
print(torch.backends.cudnn.version())
Notieren Sie außerdem,
ob die gemeinsame Anweisung cuda verfügbar ist
torch.cuda.is_available()
Installieren Sie die angegebene Version von Pytorch
pip install torch==1.10.1+cu113 torchvision==0.11.2+cu113 torchaudio==0.10.1 -f https://download.pytorch.org/whl/torch_stable.html
Linux
Cuda ansehen
# 方式一:
nvcc --version
nvcc -V
# 方式二:
cat /usr/local/cuda/version.txt
Cudnn anzeigen
cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
Fenster
Cuda ansehen
# 方式一:
nvcc --version
nvcc -V
# 方式二:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA
Cudnn anzeigen
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vx.x\include\cudnn.h
Wenn Sie den Installationspfad nicht kennen oder mehrere Versionen von CUDA installiert haben, können Sie ihn in der Umgebungsvariablen CUDA_PATH
oder überprüfenpath
Referenzblog zum Einstellen von Cuda-Umgebungsvariablen
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2021 NVIDIA Corporation
Built on Mon_May__3_19:15:13_PDT_2021
Cuda compilation tools, release 11.3, V11.3.109
Build cuda_11.3.r11.3/compiler.29920130_0