Pytorch、CUDA、cuDNN的环境搭建与使用

背景知识
GPU:即显卡,它的并行计算的能力可以满足深度学习中对算力的要求,目前主流是NVIDIA的GPU。
CUDA:NVIDIA构建的GPU的并行计算框架,安装后才能利用GPU进行复杂的并行计算。目前大部分深度学习框架也都是基于CUDA进行GPU并行加速。
cuDNN:是针对深度卷积神经网络的加速库。CUDA可以看作一个综合性的运算平台,cuDNN则是想要进行深度神经网络运算的必要工具,由于CUDA一开始并不包含cuDNN,因此需要单独下载cuDNN来使用。
简单来说,想要使用Pytorch、TensorFlow等深度学习框架之前,都需要在确保本机具有可用的GPU,并配置好CUDA和cuDNN的运行环境。(虽然都有提供CPU版本的框架,但也指出用GPU和CUDA能更好的发挥其性能)

本机环境:
安装流程
  1. CUDA和cuDNN安装流程
  2. Pytorch安装(由于官网下载页面没有列出对应CUDA10.0版本的,故采用该方案)
  3. 按照检测方法在Pycharm中测试可以正常使用即可
import torch    # 如正常则静默
a = torch.Tensor([1.])    # 如正常则静默
print(a.cuda())    # 如正常则返回"tensor([ 1.], device='cuda:0')"
from torch.backends import cudnn # 如正常则静默
print(cudnn.is_acceptable(a.cuda()))    # 如正常则返回 "True"
注意:

一定确保GPU支持的CUDA版本CUDA对应的cuDNN版本CUDA对应的Pytorch版本无误,不然在后期使用时会出各种问题 : (

猜你喜欢

转载自blog.csdn.net/qq_41794040/article/details/111808566