1、单gpu
- 首先检查GPU是否可用,并将模型、输入数据和目标标签移动到GPU上。
- 然后,定义损失函数和优化器。在训练循环中,将模型设置为训练模式,进行前向传播、计算损失、反向传播和参数更新。
- 在测试阶段,将模型设置为评估模式,并在测试数据上进行推断。
import torch
import torch.nn as nn
import torch.optim as optim
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc = nn.Linear(10, 1)
def forward(self, x):
x = self.fc(x)
return x
model = Net().to(device)
input_data = torch.randn(100, 10).to(device)
target = torch.randn(100, 1).to(device)
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
for epoch in range(100):
model.train()
optimizer.zero_grad()
output = model(input_data)
loss = criterion(output, target)
loss.backward()
optimizer.step()
print(f"Epoch [{
epoch+1}/100], Loss: {
loss.item():.4f}")
model.eval()
test_data = torch.randn(10, 10).to(device)
with torch.no_grad():
output = model(test_data)
print("Inference result:", output)
2、多gpu
- 首先检查是否有多个GPU可用,如果没有至少两个GPU,则会引发错误。
- 然后创建模型实例,并使用nn.DataParallel进行多GPU并行训练。将模型移动到GPU上。输入数据和目标标签也要移动到GPU上。
- 然后定义损失函数和优化器。在训练循环中,将模型设置为训练模式,进行前向传播、计算损失、反向传播和参数更新。
- 在测试阶段,将模型设置为评估模式,并在测试数据上进行推断。请确保您的计算机上至少有两个可用的GPU才能运行此示例。
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.parallel
if torch.cuda.device_count() < 2:
raise RuntimeError("需要至少两个GPU来运行此示例。")
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc = nn.Linear(10, 1)
def forward(self, x):
x = self.fc(x)
return x
model = Net()
model = nn.DataParallel(model)
model = model.cuda()
input_data = torch.randn(100, 10).cuda()
target = torch.randn(100, 1).cuda()
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
for epoch in range(100):
model.train()
optimizer.zero_grad()
output = model(input_data)
loss = criterion(output, target)
loss.backward()
optimizer.step()
print(f"Epoch [{
epoch+1}/100], Loss: {
loss.item():.4f}")
model.eval()
test_data = torch.randn(10, 10).cuda()
with torch.no_grad():
output = model(test_data)
print("Inference result:", output)