Platt scaling

在机器学习中,platt scaling 或者 platt calibration 是把模型的输出转化成一种基于类别的概率分布的方法。这个方法代替了早期的Vapnik提出的方法,但是这个方法可以应用于其他的分类模型。platt是把一个逻辑回归模型拟合分类分数的方法。

在二分类中,对于输入x,我们想要知道它属于两类中的哪一类,我们假定这个分类任务可以用一个函数f解决,预测y=sign(f(x)),对于many问题,很方便获得P(y=1|x),例如一个分类器不仅给出预测的结果,而且给出置信度。但是有的模型却没有给出。

platt scaling 是一个解决上述问题的算法:

对分类的分数f(x)进行了逻辑回归转化,A和B是分类器学习得到的两个参数。转化后,由P(y=1|x)>0.5

可以预测y=1,如果B不等于0,和之前的y=sign(f(x))相比,概率估计包含了一个纠正项,

使用最大似然法估计A和B,和分类器f用同样的训练集,为了防止过拟合,可以保留calibration set 或者使用交叉验证,并且应该把标签y转化成目标概率:


N+和N-分别表示正样本和负样本的个数,This transformation follows by applying Bayes' rule to a model of out-of-sample data that has a uniform prior over the labels.[1]

猜你喜欢

转载自blog.csdn.net/wosinihuo/article/details/80583409