版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/welcom_/article/details/84493421
学概率论的时候不是多么用心,这部分也是随便看看,在此补上。
对似然函数(likelihood function)的理解,极大似然估计
- 大家都知道,概率是对要发生事件的结果的预测,而似然就是知道事件的结果对概率进行反推。在某个概率上,某事件最有可能发生。最大似然估计,就是某事件最有可能的那个概率(就是好多文章里面提到的参数)”。
- 来个好多文章里面的例子:抛硬币,首先条件,质量分布不均匀,抛的结果是2正1反,(抛正概率为p),p为多少最有可能出现这种情况。
ps:大家都知道最有可能又不是一定是它,p=0.5 也可以出现这种情况。可是在样本足够多的时候,这就是答案了。
- 对数似然(方便求最大值)
好多文章都说,取对数不会影响y(likelihood function)的单调性, 所以在这里稍稍证明一下
ps:log 的底可能是2,e,10,具体看上下文,此处为e
- 最大似然估计
可以发现,逻辑回归核心还是最大似然估计,找到使函数最大的参数。
最大似然估计的一般求解过程:
(1) 写出似然函数;
(2) 对似然函数取对数,并整理;
(3) 求导数 ;
(4) 解似然方程
和逻辑回归的步骤是不是很像。
在Andrew ng的课程里取对数后取了负,是为了使用梯度下降才这样的。 - one vs all
这是对多个feature进行LR处理的方法,feature数目n大于2时,把一个feature和其它所有feature组成二元。所以一共进行n次。