罗杰斯特回归

版权声明: https://blog.csdn.net/u013531940/article/details/82118381

1. 罗杰斯特回归(Logistic)函数

h θ = g ( θ T x ) = 1 1 + e θ T x

2. 罗杰斯特回归最基本的学习算法是最大似然法

设共有 n 个独立的训练样本,其中 n 1 个属于 w 1 类, n 2 个属于 w 2 类,将两类的输出分别编码为 y = 1 y = 0

每一个观察到的样本 ( x i , y i ) 出现的概率是:

P ( x i , y i ) = P ( y i | x i ) y i ( 1 P ( y i | x i ) ) 1 y i P ( x i ) = def ζ ( x i , y i )

n 个独立样本出现的似然函数为:
l = i = 1 N ζ ( x i , y i )

L ( β ) = l n ( l ) = i = 1 n { y i l n ( P ( y i | x i ) ) + ( 1 y i ) l n ( 1 P ( y i | x i ) ) }

最大似然估计量就是微分方程 d L ( β ) / d β = 0

将式进行推导,得到下列方程组

i = 1 n ( y i P ( y i | x i ) ) = 0 i = 1 n x i ( y i P ( y i | x i ) ) = 0

猜你喜欢

转载自blog.csdn.net/u013531940/article/details/82118381
今日推荐