不会的查一查

1.torch.optim.Adam(parameters, lr)什么含义

已知parameters代表每个神经网络的参数矩阵,lr代表学习率

2.pytorch 常用的 loss function

nn.L1Loss

nn.MSELoss()

nn.BCELoss()

nn.CrossEntropyLoss

该函数用于多分类,不需要加softmax层

BCELoss是二分类使用的交叉熵,用之前需要在该层前面加上Sigmoid函数。

pytorch 常用的 loss functionhttps://blog.csdn.net/f156207495/article/details/88658009?msclkid=06e05464c27911ec9b8a17769c0b7d6a

3. 有个很无语的事,测试集和标签都是按顺序的没有打乱,结果测试集和验证集没有重合的标签,然后验证集的标签一个都没预测出来,准确率是0,服了自己了。所以大家分数据集的时候一定不要忘记shuffle 

4. Binary Cross-Entropy 作为损失函数能够度量分类的准确性。降低loss的过程就使得

  • y=1的样本,得到的预测概率p(y)变大
  • y=0的样本,得到的预测概率p(y)变小

猜你喜欢

转载自blog.csdn.net/qq_39696563/article/details/124358541