Pytorch使用GPU加速的步骤


CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。近些年来,显卡的计算能力越来越强大,如果只是进行图形计算未免有些浪费性能,这个并行运算架构应运而生。首先,使用GPU加速前,确认自己硬件是否支持CUDA,可以自己去百度自己的显卡类型。可以在cmd窗口输入nvidia-smi命令来确认自己的显卡是否有CUDA。如果该命令无效,建议先去更新自己的显卡驱动,或者用360驱动大师检查驱动和更新。

在这里插入图片描述

看第一行右边,如果没有显示CUDA版本,则需要自己安装CUDA。

然后安装CUDA。网址:https://developer.nvidia.com/zh-cn/cuda-downloads,可以自行下载安装包并安装。安装好后,再次输入nvidia-smi命令检查版本。

然后安装Pytorch,必须安装的有torch和torchvision两个包,注意不要直接在Pycharm中自动下载安装,否则安装的是CPU版本,无法进行GPU加速。可以直接到官网上下载包:https://download.pytorch.org/whl/torch_stable.html。选择合适自己的版本直接下载到电脑,然后把目录切换到包所在的位置,使用

pip install 文件名带后缀

即可把包装到电脑上。安装时注意把pip更新到最新版本。

如果对包名不熟悉,无法在众多的包中做出选择,也可以智能安装:https://pytorch.org/get-started/locally/

依旧是选择适合自己的版本

在这里插入图片描述

然后把最后的pip命令复制到控制台执行即可。但这种方法通常网速较慢,推荐使用上一种做法。注意CUDA版本的选择和你安装的显卡CUDA版本相匹配,否则可能无法使用GPU加速。

然后打开Pycharm或任意编译器,执行以下代码:

import torch
print(torch.cuda.is_available())
print(torch.__version__)

如果第一行输出为True,则可以使用CUDA来进行加速,后面的是安装的torch的版本。如果为False,则安装不成功,需要检查之前的步骤是否存在问题。
在代码中把模型和数据放入GPU中即可使用加速:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
--snip--
inputs,target = inputs.to(device),target.to(device)
--snip--

猜你喜欢

转载自blog.csdn.net/tianjuewudi/article/details/116952321