分类及其性能度量

目录

一.k值交叉验证

二.精确率和召回率

三.测试集的可视化

四.P-R曲线

五.F值

六.分类报告

七.参考文献


一.k值交叉验证

用途:验证模型的准确性与有效性。
过程:
1.数据集被分成K份(K通常取5或者10);
2.不重复地每次取其中一份做测试集,用其他K-1份做训练集训练,这
样会得到K个评价模型;
3.将上述步骤2中的K次评价的性能均值作为最后评价结果。
优点:提高评估结果的稳定性。

这里的k=5


二.精确率和召回率

其通常做为二分类问题模型的评价指标。

pricision=TP/(TP+FP)                recall=TP/(TP+FN)

精确率反映了模型判定正例中真正正例的比重;

召回率反应了总正例中被模型正确判定正例子的比重。


三.测试集的可视化

请注意,图中的颜色越深,表示其数值越大。


四.P-R曲线

P-R图直观的显示出学习器在样本上的查全率、查准率。在进行比较时,若一个休息区的P-R曲线被另一个学习器的曲线完全“包住”,则可断言后者的性能优于前者。


五.F值

F值{F_\beta } - {\rm{score}}\是精确率和召回率的调和平均:

F_{\beta}-\text { score }=\frac{\left(1+\beta^{2}\right) * \text { precision*recall }}{\left(\beta^{2} * \text { precision }+\text { recall }\right)}

\beta \一般大于0。当\beta = 1\时,退化为F1:

{F_1} - {\rm{ score }} = \frac{​{2*{\rm{ precision*recall }}}}{​{\left( {​{\rm{precision }} + {\rm{ recall }}} \right)}}\

比较常用的是F1,即表示二者同等重要

六.分类报告

显示每个类的分类性能。

包括每个类标签的精确率、召回率、F1值等。


七.参考文献

1.机器学习:性能度量篇-Python利用鸢尾花数据绘制P-R曲线_master_hunter的博客-CSDN博客

2.深度学习基础_哈尔滨工业大学_中国大学MOOC(慕课)

猜你喜欢

转载自blog.csdn.net/My_progress1/article/details/121453431
今日推荐