ROC matriz de clasificación confusión y de evaluación de indicadores de índice de evaluación] [curva / AUC

La confusión de la matriz del conocimiento:

  1. Precisión (precisión): PAG r mi C yo s yo la norte = T PAG T PAG + F PAG Precisión = \ frac {TP} {TP + FP}
  2. Recall (recuperar): R mi C un l l = T PAG T PAG + F norte Recordemos = \ frac {TP} {TP + FN}
  3. F1-Score (P y R de la media armónica): F 1 = 2 1 P r e c i s o n + 1 R e c a l l F1 = \ frac {2} {\ frac {1} {Precison} + \ frac {1} {}} Recall
  4. Para ayudar a entender el diagrama de matriz de confusión (Case Esta cifra refleja el reconocimiento de numeral escrito a mano 5):Aquí Insertar imagen Descripción

curva ROC / AUC:

  1. La curva es un criterio de evaluación modelo binario comunes, incluso más que los indicadores relacionados matriz de confusión usual.
  2. El eje horizontal representa el FPR gráfico (Falso tasa positiva), el eje vertical representa el TPR (tasa de verdaderos positivos).
  3. Gráfico que muestra el ROC (característica operativa del receptor), AUC es el área bajo el valor del área curva.
  4. Generalmente, el área AUC cerca de 1 como sea posible (más cerca de la parte superior izquierda de la curva ROC), pero cerca de 0,5 peor (diagonal de la curva ROC de la figura más cerca)
  5. ROC / AUC curva esquemática:Aquí Insertar imagen Descripción

Ver código relacionado con Python que implementa un artículo especial plantilla.

Publicado 40 artículos originales · ganado elogios 0 · Vistas 1707

Supongo que te gusta

Origin blog.csdn.net/weixin_44680262/article/details/104684059
Recomendado
Clasificación