Curva de precisión-recuperación
Comando: | Estadísticas ![]() ![]() ![]() ![]() |
Descripción
Una curva de precisión-recuperación es un gráfico de la precisión (valor predictivo positivo, eje y) frente a la recuperación (sensibilidad, eje x) para diferentes umbrales. Es una alternativa a la curva ROC (Saito y Rehmsmeier, 2015).
MedCalc genera la curva de precisión-recuperación a partir de los datos sin procesar (no a partir de una tabla de sensibilidad-VPP).
Cómo ingresar datos para una curva de recuperación de precisión
Para crear una curva de precisión-recuperación, se debe contar con una medición de interés (el parámetro que se desea estudiar) y un diagnóstico independiente que clasifique a los sujetos de estudio en dos grupos distintos: uno con enfermedad y otro sin enfermedad. Este último diagnóstico debe ser independiente de la medición de interés.
En la hoja de cálculo, cree una columna 'Clasificación' y una columna para la variable de interés, por ejemplo, 'Parámetro'. Para cada sujeto de estudio, introduzca un código de clasificación, como se indica a continuación: 1 para los casos con enfermedad y 0 para los casos sin enfermedad o normales. En la columna 'Parámetro', introduzca la medida de interés (pueden ser medidas, calificaciones, etc.; si los datos son categóricos, codifíquelos con valores numéricos).
Entrada requerida
- Variable : seleccione la variable de interés.
- Variable de clasificación : seleccione una variable dicotómica que indique el diagnóstico (0=negativo, 1=positivo).
Si sus datos están codificados de manera diferente, puede utilizar la herramienta Definir estado para recodificar sus datos.
Es importante identificar correctamente los casos positivos.
- Filtro : (opcionalmente) un filtro para incluir solo un subgrupo seleccionado de casos (por ejemplo, EDAD>21, SEXO='Masculino').
- Opciones de gráficos:
- Opción para marcar puntos correspondientes a valores de criterio.
Resultados
MedCalc informa:
- Los tamaños de muestra en los grupos positivos y negativos.
- El área bajo la curva de precisión-recuperación (AUPRC), calculada mediante interpolación no lineal (Davis y Goadrich, 2006).
- F⁻máx .: La puntuación F⁻ mide la precisión de una prueba y es la media armónica de la precisión y la recuperación. Se calcula en cada nivel de medición y F⁻máx . es la puntuación F⁻máx. máxima en todos los niveles.
$$ F_1 = 2 \times \frac{Recall \times Precision}{Recall + Precision } $$
- Criterio asociado: el criterio (nivel de medición) en el que se alcanzó F 1 max.
- El intervalo de confianza del 95% para AUPRC, que se calcula de la siguiente manera (Boyd et al, 2013; método Logit):
$$ CI(AUPRC) = \left[ \frac{e^{\mu_\eta - 1.96 \tau}}{1+ e^{\mu_\eta - 1.96 \tau}} \; ; \; \frac{e^{\mu_\eta + 1.96 \tau}}{1+ e^{\mu_\eta + 1.96 \tau}} \right] $$
dónde
$$ \mu_\eta = logit(AUPRC) = \ln \left (\frac {AUPRC} {1-AUPRC} \right) $$ $$\tau = \frac{1}{\sqrt{n*AUPRC*(1-AUPRC)}} $$
Véase también una nota sobre los valores de criterio.
Gráfico
Cuando se seleccionó la opción para marcar puntos correspondientes a valores de criterio en el gráfico, al hacer clic en un marcador, se proporcionará el criterio correspondiente (para positividad) junto con la recuperación (sensibilidad), la precisión (valor predictivo positivo) y la puntuación F 1.
Literatura
- Boyd K, Eng KH, Page CD (2013) Area under the Precision-Recall Curve: Point Estimates and Confidence Intervals. In: Blockeel H, Kersting K, Nijssen S, Železný F (eds) Machine Learning and Knowledge Discovery in Databases. ECML PKDD 2013. Lecture Notes in Computer Science, vol 8190. Springer, Berlin, Heidelberg.
- Davis J, Goadrich M (2006) The relationship between precision-recall and ROC curves. Proceedings of the 23rd International Conference on Machine Learning, Pittsburgh, PA, 2006.
- Efron B (1987) Better Bootstrap Confidence Intervals. Journal of the American Statistical Association 82:171-185.
- Efron B, Tibshirani RJ (1993) An introduction to the Bootstrap. Chapman & Hall/CRC.
- Saito T, Rehmsmeier M (2015) The precision-recall plot is more informative than the ROC plot when evaluating binary classifiers on imbalanced datasets. Plos One 10:e0118432.