logistic回归详解一:为什么要使用logistic函数

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/bitcarmanlee/article/details/51154481

从线性分类器谈起

  给定一些数据集合,他们分别属于两个不同的类别。例如对于广告数据来说,是典型的二分类问题,一般将被点击的数据称为正样本,没被点击的数据称为负样本。现在我们要找到一个线性分类器,将这些数据分为两类(当然实际情况中,广告数据特别复杂,不可能用一个线性分类器区分)。用X表示样本数据,Y表示样本类别(例如1与-1,或者1与0)。我们线性分类器的目的,就是找到一个超平面(Hyperplan)将两类样本分开。对于这个超平面,可以用以下式子描述:

ωTx+b=0

  对于logistic回归,有:

hθ(x)=g(θTx)=11+eθTx

  其中 x 为样本, x=[x1,x2,,xn] 为n维向量,函数g为我们常说的logistic函数。g的更一般公式为:

g(z)=11+ez

  这个公式,对机器学习稍微有点了解的同学可能都特别熟悉,不光在logistic回归中,在SVM中,在ANN中,都能见到他的身影,应用特别广泛。大部分资料在谈到这个式子时候,都是直接给出来。但是不知道大家有没有想过,既然这个式子用途这么广泛,那我们为什么要用它呢?

  是不是已经有好多人愣住了。大家都是这么用的。书上都是这么写的啊。是的,但是当一个东西老在你眼前晃来晃去的时候,你是不是应该想想为什么呢?反正对于我来说,如果一个东西在我眼前都出现了第三次了而我还不知其所以然,我一定会去想方设法弄明白为什么。

为什么要用Logistic函数

  学过模式识别的同学肯定学过各种分类器。分类器中最简单的自然是线性分类器,线性分类器中,最简单的应该就属于感知器了。在上个世纪五六十年代,感知器就出现了:

y=0,i=1nωixb

y=1,i=1nωix>b

  感知器的思想,就是对所有特征与权重做点积(内积),然后根据与阈值做大小比较,将样本分为两类。稍微了解一点神经网络的同学,对一下这幅图一定不陌生:

这里写图片描述

  没错,这幅图描述的就是一个感知器。
  我考研考的是控制原理,如果学过控制原理或者学过信号系统的同学,就知道感知器相当于那两门课中的阶跃函数:

这里写图片描述

  这两者的本质都是一致的,即通过划定一个阈值,然后比较样本与阈值的大小来分类。

  这个模型简单直观,实现起来也比较容易(要不怎么说是最简单的现行分类器呢)。但是问题在于,这个模型不够光滑。第一,假设 t0=10 ,现在有一个样本进来,最后计算出来的值为10.01,你说这个样本分类应该是为1还是0呢?好像都不太靠谱的样子。第二,这个函数在 t0 这点有个阶跃,有从0到1的突变,导致这点不连续,在数学上处理起来也不方便。

  啰啰嗦嗦写了这么多了,终于轮到logistic函数出场了。对比前面的感知器或者阶跃函数,他有什么优点呢?
这里写图片描述

  通过logistic函数的图像,我们很容易总结出他的以下优点:
  1.他的输入范围是 + ,而之于刚好为(0,1),正好满足概率分布为(0,1)的要求。我们用概率去描述分类器,自然比单纯的某个阈值要方便很多;
  2.他是一个单调上升的函数,具有良好的连续性,不存在不连续点。

  写到这里,小伙伴们应该都明白为什么要使用logistic函数了吧。
  敬请期待logistic系列后续文章。

猜你喜欢

转载自blog.csdn.net/bitcarmanlee/article/details/51154481