逻辑回归(Logistic Regression, LR)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/welcom_/article/details/84493421

学概率论的时候不是多么用心,这部分也是随便看看,在此补上。

对似然函数(likelihood function)的理解,极大似然估计

  1. 大家都知道,概率是对要发生事件的结果的预测,而似然就是知道事件的结果对概率进行反推。在某个概率上,某事件最有可能发生。最大似然估计,就是某事件最有可能的那个概率(就是好多文章里面提到的参数)”。
  2. 来个好多文章里面的例子:抛硬币,首先条件,质量分布不均匀,抛的结果是2正1反,(抛正概率为p),p为多少最有可能出现这种情况。
    y = p 2 ( 1 p ) y p = 2 3 y=p^2(1-p),对y求导,就可得到相应的p=\frac23

ps:大家都知道最有可能又不是一定是它,p=0.5 也可以出现这种情况。可是在样本足够多的时候,这就是答案了。

  1. 对数似然(方便求最大值)
    好多文章都说,取对数不会影响y(likelihood function)的单调性, 所以在这里稍稍证明一下 y = f x g x = l o g ( f ( x ) ) 令y=f(x),取对数得到g(x)=log(f(x)) g ( x ) = 1 f ( x ) f ( x ) ( 0 < f ( x ) < = 1 ) x g'(x)=\frac 1{f(x)}f'(x)在(0<f(x)<=1)对应的x区间单调性和 f ( x ) f'(x)是一样的,所以放心的取对数吧

ps:log 的底可能是2,e,10,具体看上下文,此处为e

  1. 最大似然估计
    可以发现,逻辑回归核心还是最大似然估计,找到使函数最大的参数。
    最大似然估计的一般求解过程:
    (1) 写出似然函数;
    (2) 对似然函数取对数,并整理;
    (3) 求导数 ;
    (4) 解似然方程
    和逻辑回归的步骤是不是很像。
    在Andrew ng的课程里取对数后取了负,是为了使用梯度下降才这样的。
  2. one vs all
    这是对多个feature进行LR处理的方法,feature数目n大于2时,把一个feature和其它所有feature组成二元。所以一共进行n次。
    在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/welcom_/article/details/84493421