Google 机器学习编程笔记七——逻辑回归简介

1、逻辑回归:

许多问题需要将概率估算值作为输出。
逻辑回归是一种极其高效的概率计算机制。 实际上,您可以通过下两种方式之一使用返回的概率:

  • “按原样”(连续型输出)
  • 转换成二元类别。(离散型输出)

我们来了解一下如何“按原样”使用概率。
假设我们创建一个逻辑回归模型来预测狗在半夜发出叫声的概率。我们将此概率称为:
p(bark | night)

如果逻辑回归模型预测 p(bark | night) 的值为 0.05,那么一年内,狗的主人应该被惊醒约 18 次:

startled = p(bark | night) * nights
18 ~= 0.05 * 365

在很多情况下,您会将逻辑回归输出映射到二元分类问题的解决方案,该二元分类问题的目标是正确预测两个可能的标签(例如,“垃圾邮件”或“非垃圾邮件”)中的一个。

2、逻辑回归函数:

您可能想知道逻辑回归模型如何确保输出值始终落在 0 和 1 之间。
巧合的是,S 型函数生成的输出值正好具有这些特性,其定义如下:
在这里插入图片描述
S 型函数会产生以下曲线图:
在这里插入图片描述
如果 z 表示使用逻辑回归训练的模型的线性层的输出,则 S 型(z) 函数会生成一个介于 0 和 1 之间的值(概率)。用数学方法表示为:
在这里插入图片描述
其中:

  • y’ 是逻辑回归模型针对特定样本的输出。
  • z 是 b + w1x1 + w2x2 + … wNxN (线性回归函数)
  • w 的值是该模型学习的权重,b 是偏差。
  • x 的值是特定样本的特征值。

请注意,z 也称为对数几率, 因为 S 型函数的反函数表明,z 可定义为标签“1”(例如“狗叫”)的概率除以标签“0”(例如“狗不叫”)的概率得出的值的对数:
在这里插入图片描述
示例逻辑回归推断计算。
假设我们的逻辑回归模型具有学习了下列偏差和权重的三个特征:

b = 1,w1 = 2,w2 = -1,w3 = 5

进一步假设给定样本具有以下特征值:

x1 = 0,x2 = 10,x3 = 2

因此,对数几率:
在这里插入图片描述
将是:
(1) + (2)(0) + (-1)(10) + (5)(2) = 1

因此,此特定样本的逻辑回归预测值将是 0.731:
在这里插入图片描述
3、逻辑回归的损失函数与正则化

线性回归的损失函数是平方损失。逻辑回归的损失函数是对数损失函数,定义如下:

  • List item

在这里插入图片描述
正则化在逻辑回归建模中极其重要。如果没有正则化,逻辑回归的渐近性会不断促使损失在高维度空间内达到 0。因此,大多数逻辑回归模型会使用以下两个策略之一来降低模型复杂性:

  • L2 正则化。
  • 早停法,即,限制训练步数或学习速率。

假设您向每个样本分配一个唯一 ID,且将每个 ID 映射到其自己的特征。如果您未指定正则化函数,模型会变得完全过拟合。这是因为模型会尝试促使所有样本的损失达到 0 但始终达不到,从而使每个指示器特征的权重接近正无穷或负无穷。当有大量罕见的特征组合且每个样本中仅一个时,包含特征组合的高维度数据会出现这种情况。

幸运的是,使用 L2 或早停法可以防止出现此类问题。

发布了36 篇原创文章 · 获赞 11 · 访问量 2890

猜你喜欢

转载自blog.csdn.net/yeweij226/article/details/104080878