第五讲 用PyTorch实现线性回归

#引入torch
import torch
#准备数据,用Tensor张量表示
x_data = torch.Tensor([[1.0],[2.0],[3.0]])
y_data = torch.Tensor([[2.0],[4.0],[6.0]])

#将线性模型定义为一个类,nn的意思是神经网络neural network.所有的模型都要从nn.Module模块继承下来。
class LinearModel(torch.nn.Module):
    #__init__为构造函数,初始化你的对象的时候,默认调用的函数。self是指对象自己,
    def __init__(self):
        #super调用父类初始化器,当多继承时,避免公共基类的重复调用
        super(LinearModel,self).__init__()
        #实例化,构造一个线性函数(包含权重w和偏置b)。括号里面代表输入的维度,和输出的维度。
        self.linear = torch.nn.Linear(1,1)
    #定义前馈过程中要进行的计算    
    def forward(self,x):
        #可调用的对象,做的是wx+b的形式
        y_pred = self.linear(x)
        #返回y
        return y_pred
#实例化模型,可调用。
model = LinearModel()

#构造均方差损失,设置降维求和
criterion = torch.nn.MSELoss(reduction='sum')
#用优化模块中的SGD优化模型中所有的参数,学习率为0.01
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

#循环100次
for epoch in range(100):
    #计算y的预测值
    y_pred = model(x_data)
    #计算损失
    loss = criterion(y_pred,y_data)
    #输出循环次数和损失
    print(epoch,loss)
    #用优化器将梯度归零
    optimizer.zero_grad()
    #反向传播
    loss.backward()
    #step更新权重
    optimizer.step()
    
#输出权重w,item是转换为标量,只显示数值
print('w = ',model.linear.weight.item())
#输出偏置b,item是转换为标量,只显示数值
print('b = ',model.linear.bias.item())
#设测试x的值为4,是1×1的矩阵
x_test = torch.Tensor([[4]])
#将x=4代入模型中,求y
y_test = model(x_test)
#输出y。y是1×1的矩阵后面要跟data,输出y的数值
print('y_pred = ',y_test.data)

猜你喜欢

转载自blog.csdn.net/m0_46166352/article/details/114271420