声明:该文章为作者整理和简略的,非原创,是多方资料的整合,为方便所以标注的原创,有错别字欢迎指正,仅作为学习用途,其中也有博主自己的笔记
一、逻辑斯谛回归模型
(1)、逻辑斯谛分布
设
X是连续随机变量,
X服从逻辑斯谛分布是指
X具有以下分布函数和密度函数:
F(x)=P(X≤x)=1+exp−(x−μ)γ1
f(x)=F′(x)=γ(1+exp−(x−μ)γ)2exp−(x−μ)/γ
式中,
μ是位置参数,
γ>0是形状参数。
逻辑斯谛分布的密度函数
f(x)和分布函数
F(x)的形状如下,该曲线以点
(μ,21)为中心点对称,即满足
F(−x+μ)−21=−F(x−μ)+21
对于不同的
μ和不同的
γ其形状不同:
code:
def plot_sigmoid(u, gamma):
x = np.arange(-10, 10, 0.5)
y_1 = 1/(1 + pow(np.e, -(x - u) / gamma))
y_2 = (pow(np.e, -(x - u) / gamma))/ (gamma * pow((1 + pow(np.e, -(x - u) / gamma)), 2))
plt.plot(x, y_1, label = 'distribution function')
plt.plot(x, y_2, label = 'dense function')
plt.legend(loc='best')
plt.subplot(221)
plot_sigmoid(0, 2)
plt.subplot(222)
plot_sigmoid(0, 0.5)
plt.subplot(223)
plot_sigmoid(2, 2)
plt.subplot(224)
plot_sigmoid(2, 0.5)
(2)、二项逻辑斯谛回归模型
二项逻辑斯谛回归模型是一种分类模型,有条件概率分布
P(Y∣X)表示,形式为参数化的逻辑斯谛分布,这里,随机变量
X取值为实数,随机变量
Y取值为1或0,我们通过监督学习的方法来估计模型参数。
逻辑斯谛回归模型: 二项逻辑斯谛回归模型是如下的条件概率分布:
P(Y=1∣x)=1+exp(w⋅x+b)exp(w⋅x+b)
P(Y=0∣x)=1+exp(w⋅x+b)1
有时为了方便,将权值向量和输入向量进行扩充,仍记为
w,x,即
w=(w(1),w(2),...,w(n),b)T,x=(x(1),x(2),...,x(n))T,这时逻辑斯谛回归模型如下:
P(Y=1∣x)=1+exp(w⋅x)exp(w⋅x)
P(Y=0∣x)=1+exp(w⋅x)1
(3)、几率(odds)
几率:该事件发生的概率与该事件不发生的概率的比值,如果一个事件发生的概率为
p,那么该事件的几率为
1−pp
该事件的对数几率或logit函数为
logit(p)=log1−pp
对逻辑斯谛回归模型,可得
log1−P(Y=1∣x)P(Y=1∣x)=w⋅x
这就是说,在逻辑斯谛回归模型中,输出
Y=1的对数几率是输入
x的线性函数,或者说,输出
Y=1的对数几率是由输入
x的线性函数表示的模型,即逻辑斯谛回归模型。
换一个角度看,考虑对输入
x进行分类的线性函数
w⋅x,其值域为实数域,注意,这里
x∈Rn+1,w∈Rn+1,通过逻辑斯谛回归模型可以将线性函数
w⋅x转换为概率:
P(Y=1∣x)=1+exp(w⋅x)exp(w⋅x)
(4)、模型参数估计
逻辑斯谛回归模型学习时,对于给定的训练数据集
τ={(x1,y1),(x2,y2),...,(xn,yn)},其中,
xi∈Rn,yi∈{0,1},可以应用极大似然估计模型参数,从而得到逻辑斯谛回归模型:
设:
P(Y=1∣x)=π(x),P(Y=0∣x)=1−π(x)
对数似然函数为:
L(x)=i=1∑N[yilogπ(xi)+(1−yi)log(1−π(xi))]
=i=1∑N[yilog1−π(xi)π(xi)+log(1−π(xi))]
=i=1∑N[yi(w⋅xi)−log(1+exp(w⋅xi))]
对
L(w)求极大值,得到
w的估计值。
这样,问题就变成了以对数似然函数为目标函数的最优化问题。
(5)、多项逻辑斯谛回归
将上诉模型推广到多项逻辑回归模型,用于多分类,假设离散型随机变量
Y的取值集合为
{1,2,...,K},那么多项逻辑斯谛回归模型是
P(Y=k∣x)=1+∑k=1K−1exp(wk⋅x)exp(wk⋅x),k=1,2,...,K
P(Y=K∣x)=1+∑k=1K−1exp(wk⋅x)1
二、最大熵模型
(1)、最大熵模型
最大熵原理是概率模型学习的一个参数,最大熵原理认为,学习概率模型时,在所有可能得概率模型中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。
假设离散随机变量
X的概率分布为
P(x),其熵是
H(P)=−x∑P(x)logP(x)
熵满足下列不等式:
0≤H(P)≤log∣X∣
式中,
∣X∣是
X的取值个数,当且仅当
X的分布是均匀分布时右边的等号成立,也就是说,当
X服从均匀分布时,熵最大。
(2)、最大熵模型的定义
假设分类模型是一个条件概率分布
P(Y∣X),
X∈χ⊆Rn表示输入,
Y∈γ表示输出,
χ和γ分别是输入和输出的集合,这个模型表示的是对给定的输入
χ,以条件概率
P(Y∣X)输出
Y.
给定一个训练数据集
τ={(x1,y1),(x2,y2),...,(xN,yN)}
学习的目标是用最大熵原理选择最好的分类模型。
首先考虑模型应该满足的条件,给定训练数据集,可以确定联合分布
P(Y,X)的经验分布和边缘分布
P(X)的经验分布,分别以
P
(X,Y)和
P
(X),这里
P
(X=x,Y=y)=Nv(X=x,Y=y)
P
(X=x)=Nv(X=x)
其中,
v(X=x,Y=y)表示训练数据中样本
(x,y)出现的频率,
v(X=x)表示训练数据中输入
x出现的频率,
N表示训练样本容量。
用特征函数
f(x,y)描述输入
x和输出
y之间的某一个时间,其定义为
f(x,y)={1,0,x与y满足某一事实否则
它是一二值函数,当
x和
y满足这个事实时取值为1,否则取值为
0。
特征函数
f(x,y)关于经验分布
P
(X,Y)期望值,用
EP
(f)表示。
EP
(f)=x,y∑P
(x,y)f(x,y)
特征函数
f(x,y)关于模型
P(Y∣X)与经验分布
P
(X)的期望值,
EP(f)表示
EP(f)=x,y∑P
(x)P(y∣x)f(x,y)
如果模型能够获取训练数据中的信息,那么就可以假设这两个期望值相等,即
Ep(f)=Ep
(f)
或
x,y∑P
(x)P(y∣x)f(x,y)=x,y∑P
(x,y)f(x,y)
假设有
n个特征函数
fi(x,y),i=1,2,...,n,那么就有n个约束条件。
假设满足所有约束条件的模型集合为
C≡{P∈p∣EP(f)=EP
(f),i=1,2,..,n}
定义在条件概率分布
P(Y∣X)上的条件熵为
H(P)=x,y∑P
(x)P(y∣x)logP(y∣x)
则模型集合中
C中条件熵
H(P)最大的模型称为最大熵模型。
(3)、最大熵模型的学习
最大熵模型的学习过程就是求解最大熵模型的过程,最大熵模型的学习可以形式化为约束最优化问题。
对于给定的训练数据集
τ={(x1,y1),(x2,y2),...,(xN,yN)}以及特征函数
fi(x,y),i=1,2,...,n,最大熵模型的学习等价于约束条件最优化问题:
maxp∈cH(P)=−x,y∑P
(x)P(y∣x)logP(y∣x)
s.t.EP(fi)=EP
(f),i=1,2,...,n
y∑P(y∣x)=1
(3)、极大似然估计
对偶函数的极大化等价于最大熵模型的极大似然估计。
参考资料:
【1】统计学习方法——李航