捋一捋二分类和多分类中的交叉熵损失函数

二分类:
用sigmoid函数【1/1+e(x)】作为激活函数,将线性变换的输出值映射到0 1之间。通过矩阵变换,将最后的输出值定为1维0 1之间的数值,再用BCEloss函数(二分类交叉熵损失函数)构建计算图

多分类:
隐藏层用激活sigmoid函数处理线性变换后的值,最后一层用softmax函数【e(x)/∑e(x)】算出输出层 每个维度的输出值 所占的比例(softmax函数保证了处理后的结果是大于零,且和为1),再用NLLLoss作为损失函数作为损失值,由于pytorch的封装性,CrossEntropyLoss()=softmax()+NLLLoss()

猜你喜欢

转载自blog.csdn.net/qq_21686871/article/details/114242799