pytorch中查看gpu信息

其他:windows使用nvidia-smi查看gpu信息

为什么将数据转移至GPU的方法叫做.cuda而不是.gpu,就像将数据转移至CPU调用的方法是.cpu?这是因为GPU的编程接口采用CUDA,而目前并不是所有的GPU都支持CUDA,只有部分Nvidia的GPU才支持。PyTorch未来可能会支持AMD的GPU,而AMD GPU的编程接口采用OpenCL,因此PyTorch还预留着.cl方法,用于以后支持AMD等的GPU。

torch.cuda.is_available()
cuda是否可用;

torch.cuda.device_count()
返回gpu数量;

torch.cuda.get_device_name(0)
返回gpu名字,设备索引默认从0开始;

torch.cuda.current_device()
返回当前设备索引;

# params.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
params.device = torch.device('cpu')
params.n_gpu = torch.cuda.device_count()
params.multi_gpu = args.multi_gpu

更多信息:https://pytorch.org/docs/stable/cuda.html
---------------------
作者:lsh呵呵
来源:CSDN
原文:https://blog.csdn.net/nima1994/article/details/83001910
版权声明:本文为博主原创文章,转载请附上博文链接!

猜你喜欢

转载自www.cnblogs.com/jfdwd/p/11237716.html