交叉熵损失函数

交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距

1.信息量

在这里插入图片描述

2.熵

在这里插入图片描述

3.相对熵

在这里插入图片描述

4.交叉熵

在这里插入图片描述

5.机器学习中交叉熵的应用

1.为什么要用交叉熵做loss函数?

在线性回归问题中,常常使用MSE(Mean Squared Error)作为loss函数,比如:
在这里插入图片描述
这里的m表示m个样本的,loss为m个样本的loss均值。
MSE在线性回归问题中比较好用,那么在逻辑分类问题中还是如此么?

2.交叉熵在单分类问题中的使用

这里的单类别是指,每一张图像样本只能有一个类别,比如只能是狗或只能是猫。
交叉熵在单分类问题上基本是标配的方法
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.交叉熵在多分类问题中的使用

这里的多类别是指,每一张图像样本可以有多个类别,比如同时包含一只猫和一只狗
和单分类问题的标签不同,多分类的标签是n-hot。
比如下面这张样本图,即有青蛙,又有老鼠,所以是一个多分类问题
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/zjpp2580369/article/details/84585307