声明:本文仅为个人学习,无参考意义。
1.使用nvidia-smi查询GPU信息
a. 确认系统中安装了多少个GPU以及每个GPU的设备ID,nvidia-smi -L
nvidia-smi -L
GPU 0: A100-SXM-80GB (UUID: GPU-42623e9e-98bd-9ee8-8190-ecbaaf122dd6)
b. 使用以下命令获取GPU 0 的详细信息,nvidia-smi -q -i 0
nvidia-smi -q -i 0
==============NVSMI LOG==============
Timestamp : Tue Jul 4 11:16:41 2023
Driver Version : 460.91.03
CUDA Version : 11.2
Attached GPUs : 1
GPU 00000000:00:07.0
Product Name : A100-SXM-80GB
Product Brand : NVIDIA
Display Mode : Enabled
Display Active : Disabled
Persistence Mode : Enabled
MIG Mode
Current : Disabled
Pending : Disabled
Accounting Mode : Disabled
Accounting Mode Buffer Size : 4000
Driver Model
Current : N/A
Pending : N/A
Serial Number : 1322821033891
c. 只显示设备内存信息
nvidia-smi -q -i 0 -d MEMORY | tail -n 5
BAR1 Memory Usage
Total : 131072 MiB
Used : 1 MiB
Free : 131071 MiB
d. 只显示设备使用信息
nvidia-smi -q -i 0 -d UTILIZATION | tail -n 4
Max : 0 %
Min : 0 %
Avg : 0 %
2.ndarray的一些操作
x = torch.arange(12)
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11])
X = x.reshape(3, 4)
tensor([[ 0, 1, 2, 3],
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
Y = x.reshape(3,-1)
torch.cat((X, Y), dim=0) #行相加
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]])
torch.cat((X, Y), dim=1) #列相加
tensor([[ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.]])
X[1:3] #取第2行,第3行
tensor([[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
X[1:]
tensor([[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
X[:,-1] #取第几列
tensor([ 3., 7., 11.])
X[:,]
X[:]
###取全部
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])