Buscar..


Área bajo la curva de la característica de operación del receptor (AUROC)

El AUROC es una de las métricas más utilizadas para evaluar las actuaciones de un clasificador. Esta sección explica cómo computarlo.

AUC (Área bajo la curva) se usa la mayor parte del tiempo para significar AUROC, lo que es una mala práctica, ya que AUC es ambigua (podría ser cualquier curva) mientras que AUROC no lo es.

Resumen - Abreviaturas

Abreviatura Sentido
AUROC Área bajo la curva de la característica de operación del receptor
AUC Área bajo la curva
ROC Característica de funcionamiento del receptor
TP Verdaderos positivos
Tennesse Verdaderos negativos
FP Falsos positivos
FN Falsos negativos
TPR Tasa positiva verdadera
FPR Tasa positiva falsa

Interpretando el AUROC

El AUROC tiene varias interpretaciones equivalentes :

  • La expectativa de que un positivo aleatorio dibujado uniformemente se clasifica antes que un negativo aleatorio dibujado uniformemente.
  • La proporción esperada de positivos clasificó antes de un negativo aleatorio uniformemente extraído.
  • La tasa positiva verdadera esperada si la clasificación se divide justo antes de un negativo aleatorio de forma uniforme.
  • La proporción esperada de negativos se clasificó después de un resultado positivo aleatorio uniformemente dibujado.
  • La tasa de falsos positivos esperada si la clasificación se divide justo después de un positivo aleatorio extraído uniformemente.

Calculando el auroc

Supongamos que tenemos un clasificador binario probabilístico, como la regresión logística.

Antes de presentar la curva ROC (= curva característica de funcionamiento del receptor), debe entenderse el concepto de matriz de confusión . Cuando hacemos una predicción binaria, puede haber 4 tipos de resultados:

  • Predecimos 0 mientras la clase es en realidad 0 : esto se llama Negativo Verdadero , es decir, predecimos correctamente que la clase es negativa (0). Por ejemplo, un antivirus no detectó un archivo inofensivo como un virus.
  • Predecimos 0 mientras la clase es en realidad 1 : esto se llama Falso Negativo , es decir, predecimos incorrectamente que la clase es negativa (0). Por ejemplo, un antivirus no pudo detectar un virus.
  • Predecimos 1 mientras la clase es en realidad 0 : esto se denomina Falso Positivo , es decir, predecimos incorrectamente que la clase es positiva (1). Por ejemplo, un antivirus considera que un archivo inocuo es un virus.
  • Predecimos 1 mientras la clase es en realidad 1 : esto se denomina Verdadero Positivo , es decir, predecimos correctamente que la clase es positiva (1). Por ejemplo, un antivirus detectó con razón un virus.

Para obtener la matriz de confusión, repasamos todas las predicciones hechas por el modelo y contamos cuántas veces ocurren cada uno de esos 4 tipos de resultados:

introduzca la descripción de la imagen aquí

En este ejemplo de una matriz de confusión, entre los 50 puntos de datos que están clasificados, 45 están clasificados correctamente y los 5 están clasificados erróneamente.

Como para comparar dos modelos diferentes, a menudo es más conveniente tener una sola métrica en lugar de varias, calculamos dos métricas de la matriz de confusión, que luego combinaremos en una:

  • Tasa positiva verdadera ( TPR ), aka. sensibilidad, tasa de aciertos y recuperación , que se define como fórmula . Intuitivamente, esta métrica corresponde a la proporción de puntos de datos positivos que se consideran correctamente como positivos, con respecto a todos los puntos de datos positivos. En otras palabras, cuanto mayor sea el TPR, menos puntos de datos positivos perderemos.
  • Tasa de falsos positivos ( FPR ), también conocido como. caída , que se define como otro . Intuitivamente, esta métrica corresponde a la proporción de puntos de datos negativos que se consideran erróneamente positivos con respecto a todos los puntos de datos negativos. En otras palabras, a mayor FPR, más puntos de datos negativos se clasificarán por error.

Para combinar el FPR y el TPR en una sola métrica, primero calculamos las dos métricas anteriores con muchos umbrales diferentes (por ejemplo, ) para la regresión logística, luego trácelas en un solo gráfico, con los valores de FPR en la abscisa y los valores de TPR en la ordenada. La curva resultante se llama curva ROC, y la métrica que consideramos es el AUC de esta curva, que llamamos AUROC.

La siguiente figura muestra gráficamente el AUROC:

introduzca la descripción de la imagen aquí

En esta figura, el área azul corresponde al área bajo la curva de la característica de operación del receptor (AUROC). La línea discontinua en la diagonal presenta la curva ROC de un predictor aleatorio: tiene un AUROC de 0.5. El predictor aleatorio se usa comúnmente como una línea de base para ver si el modelo es útil.

Matriz de confusión

Se puede usar una matriz de confusión para evaluar un clasificador, en base a un conjunto de datos de prueba para los cuales se conocen los valores reales. Es una herramienta simple que ayuda a proporcionar una buena visión general del rendimiento del algoritmo que se está utilizando.

Una matriz de confusión se representa como una tabla. En este ejemplo veremos una matriz de confusión para un clasificador binario .

Un ejemplo de una matriz de confusión.

En el lado izquierdo, se puede ver la clase Real (etiquetada como o NO ), mientras que la parte superior indica la clase que se está pronosticando y emitiendo (nuevamente o NO ).

Esto significa que 50 clasificaciones de prueba, que en realidad NO son instancias, fueron clasificadas correctamente por el clasificador como NO . Estos se llaman los verdaderos negativos (TN) . En contraste, a 100 casos SI real, se marcaron correctamente por el clasificador como instancias SÍ. Estos se llaman los verdaderos positivos (TP) .

5 instancias reales de , fueron mal etiquetadas por el clasificador. Estos se llaman los falsos negativos (FN) . Además, 10 clasificaciones NO , fueron consideradas SI por el clasificador, por lo que son falsos positivos (FP) .

Sobre la base de estos FP , TP , FN y TN , podemos sacar conclusiones adicionales.

  • Tasa positiva verdadera :

    • Intenta responder: cuando una instancia es realmente , ¿con qué frecuencia el clasificador predice ?
    • Se puede calcular de la siguiente manera: TP / # instancias reales = 100/105 = 0,95
  • Tasa positiva falsa :

    • Intenta responder: cuando una instancia es realmente NO , ¿con qué frecuencia el clasificador predice ?
    • Se puede calcular de la siguiente manera: FP / # instancias reales NO = 10/60 = 0.17

Curvas ROC

Una curva de Característica operativa del receptor (ROC) traza la tasa de TP frente a la tasa de PF, ya que se varía un umbral sobre la confianza de que una instancia sea positiva Ejemplo de ROC

Algoritmo para crear una curva ROC

  1. ordene las predicciones del conjunto de pruebas según la confianza de que cada instancia es positiva

  2. paso a través de la lista ordenada de alta a baja confianza

    yo. localice un umbral entre instancias con clases opuestas (manteniendo las instancias con el mismo valor de confianza en el mismo lado del umbral)

    ii. calcular TPR, FPR para instancias por encima del umbral

    iii. coordenada de salida (FPR, TPR)



Modified text is an extract of the original Stack Overflow Documentation
Licenciado bajo CC BY-SA 3.0
No afiliado a Stack Overflow