学习历程笔记(四)pytorch代码学习

小土堆视频:P4. PyCharm及Jupyter使用及对比_哔哩哔哩_bilibili

pytorch官网讲解了详细的知识点PyTorch documentation — PyTorch 2.0 documentation

1、细节知识

shift+enter进入下一行的首处

ctrl+P提示输入的参数

2、pytorch加载数据:dataset和Dataloader11111

 

dataset只是提供这个数据集(一副扑克牌)

dataloader相当于一个手 每次去dataset中怎么取牌 拿几张怎么拿 

3、Tensorboard

可以用图像形式 来展示训练的结果情况

 4、transforms 对图片进行变换

ToTensor:将图片转换为张量 

5、卷积

in_channels和out_channels为输入输出的通道数

图片输入是三通道RGB,三个通道分别的颜色 组成了一张图片

batch_size:表示单次传递给程序用以训练的数据(样本)个数。比如我们的训练集有1000个数据。这是如果我们设置batch_size=100,那么程序首先会用数据集中的前100个参数,即第1-100个数据来训练模型。当训练完成后更新权重,再使用第101-200的个数据训练,直至第十次使用完训练集中的1000个数据后停止


6、池化

dilation:空洞卷积,卷积核中间是隔着来的

floor和ceil模式:往下取小还是往上取大,ceil是保留

用池化核取这一块中最大的值

torch.Resize(20,100,30,30):bitchsize、channels、高、宽

7、非线性层激活函数

跟在卷积之后

8、线形层 Linear

把一个5*5的图片展成一行25个的,再变成一行3个的(此处最后的3是因为要分成三个类别)

总共是两个线性层

 最后输出是10,代表是10分类

 

 

9、损失:分类的交叉熵损失函数

 比如10分类问题,最后神经网络的输出是10个数代表每一类的概率值

对这个概率值和target进行代入计算损失值

 10、反向传播

使用backward可以计算出每个需要调节的参数W的梯度值grad,

11、优化器optimizer根据这个梯度进行更新

定义优化器、学习率lr

optim.step进行优化

12、区分

定义Softmax回归是逻辑回归的一种形式,它可以将输入值归一化为值的向量,该向量遵循概率分布,其总和为1

猜你喜欢

转载自blog.csdn.net/qq_51141671/article/details/132121269