Saltar al contenido principal

Esta página fue traducida del inglés usando IA. Puedes encontrar el original aquí.

Curva de precisión-recuperación

Descripción

Una curva de precisión-recuperación es un gráfico de la precisión (valor predictivo positivo, eje y) frente a la recuperación (sensibilidad, eje x) para diferentes umbrales. Es una alternativa a la curva ROC (Saito y Rehmsmeier, 2015).

MedCalc genera la curva de precisión-recuperación a partir de los datos sin procesar (no a partir de una tabla de sensibilidad-VPP).

Cómo ingresar datos para una curva de recuperación de precisión

Para crear una curva de precisión-recuperación, se debe contar con una medición de interés (el parámetro que se desea estudiar) y un diagnóstico independiente que clasifique a los sujetos de estudio en dos grupos distintos: uno con enfermedad y otro sin enfermedad. Este último diagnóstico debe ser independiente de la medición de interés.

En la hoja de cálculo, cree una columna 'Clasificación' y una columna para la variable de interés, por ejemplo, 'Parámetro'. Para cada sujeto de estudio, introduzca un código de clasificación, como se indica a continuación: 1 para los casos con enfermedad y 0 para los casos sin enfermedad o normales. En la columna 'Parámetro', introduzca la medida de interés (pueden ser medidas, calificaciones, etc.; si los datos son categóricos, codifíquelos con valores numéricos).

Datos de la curva de precisión-recuperación

Entrada requerida

Cuadro de diálogo para la curva de recuperación de precisión

  • Variable : seleccione la variable de interés.
  • Variable de clasificación : seleccione una variable dicotómica que indique el diagnóstico (0=negativo, 1=positivo).

    Si sus datos están codificados de manera diferente, puede utilizar la herramienta Definir estado para recodificar sus datos.

    Es importante identificar correctamente los casos positivos.

  • Filtro : (opcionalmente) un filtro para incluir solo un subgrupo seleccionado de casos (por ejemplo, EDAD>21, SEXO='Masculino').
  • Opciones de gráficos:
    • Opción para marcar puntos correspondientes a valores de criterio.

Resultados

Resultados de la curva de precisión-recuperación

MedCalc informa:

  • Los tamaños de muestra en los grupos positivos y negativos.
  • El área bajo la curva de precisión-recuperación (AUPRC), calculada mediante interpolación no lineal (Davis y Goadrich, 2006).
  • F⁻máx .: La puntuación F⁻ mide la precisión de una prueba y es la media armónica de la precisión y la recuperación. Se calcula en cada nivel de medición y F⁻máx . es la puntuación F⁻máx. máxima en todos los niveles.
    $$ F_1 = 2 \times \frac{Recall \times Precision}{Recall + Precision } $$
  • Criterio asociado: el criterio (nivel de medición) en el que se alcanzó F 1 max.
  • El intervalo de confianza del 95% para AUPRC, que se calcula de la siguiente manera (Boyd et al, 2013; método Logit):
    $$ CI(AUPRC) = \left[ \frac{e^{\mu_\eta - 1.96 \tau}}{1+ e^{\mu_\eta - 1.96 \tau}} \; ; \; \frac{e^{\mu_\eta + 1.96 \tau}}{1+ e^{\mu_\eta + 1.96 \tau}} \right] $$

    dónde

    $$ \mu_\eta = logit(AUPRC) = \ln \left (\frac {AUPRC} {1-AUPRC} \right) $$ $$\tau = \frac{1}{\sqrt{n*AUPRC*(1-AUPRC)}} $$

Véase también una nota sobre los valores de criterio.

Gráfico

Curva de precisión-recuperación

Cuando se seleccionó la opción para marcar puntos correspondientes a valores de criterio en el gráfico, al hacer clic en un marcador, se proporcionará el criterio correspondiente (para positividad) junto con la recuperación (sensibilidad), la precisión (valor predictivo positivo) y la puntuación F 1.

Curva de precisión-recuperación

Literatura

  • Boyd K, Eng KH, Page CD (2013) Area under the Precision-Recall Curve: Point Estimates and Confidence Intervals. In: Blockeel H, Kersting K, Nijssen S, Železný F (eds) Machine Learning and Knowledge Discovery in Databases. ECML PKDD 2013. Lecture Notes in Computer Science, vol 8190. Springer, Berlin, Heidelberg.
  • Davis J, Goadrich M (2006) The relationship between precision-recall and ROC curves. Proceedings of the 23rd International Conference on Machine Learning, Pittsburgh, PA, 2006.
  • Efron B (1987) Better Bootstrap Confidence Intervals. Journal of the American Statistical Association 82:171-185.
  • Efron B, Tibshirani RJ (1993) An introduction to the Bootstrap. Chapman & Hall/CRC.
  • Saito T, Rehmsmeier M (2015) The precision-recall plot is more informative than the ROC plot when evaluating binary classifiers on imbalanced datasets. Plos One 10:e0118432. PubMed

Véase también

Enlaces externos