Saltar al contenido principal

Esta página fue traducida del inglés usando IA. Puedes encontrar el original aquí.

Acuerdo entre evaluadores (kappa)

Descripción

Crea una tabla de clasificación, a partir de datos sin procesar en la hoja de cálculo, para dos observadores y calcula una estadística de acuerdo entre evaluadores (Kappa) para evaluar el acuerdo entre dos clasificaciones en escalas ordinales o nominales.

Cómo introducir datos

Esta prueba se realiza con los datos sin procesar de la hoja de cálculo. Si ya tiene los datos organizados en una tabla, puede usar el comando ' Concordancia entre evaluadores' del menú 'Pruebas'.

Cómo ingresar datos para la estadística Kappa (acuerdo entre evaluadores)

Entrada requerida

En el cuadro de diálogo 'Concordancia entre evaluadores', se deben identificar dos variables discretas con los datos de clasificación de ambos observadores. Los datos de clasificación pueden ser numéricos o alfanuméricos (cadena).

Cuadro de diálogo de acuerdo entre evaluadores (Kappa)

Kappa ponderada

El índice kappa no considera el grado de desacuerdo entre los observadores, y todo desacuerdo se considera un desacuerdo total. Por lo tanto, al ordenar las categorías, es preferible utilizar el índice kappa ponderado (Cohen, 1968) y asignar diferentes ponderaciones w i a los sujetos cuyos evaluadores difieren en i categorías, de modo que los diferentes niveles de acuerdo puedan contribuir al valor del índice kappa.

MedCalc ofrece dos conjuntos de ponderaciones: lineal y cuadrático. En el conjunto lineal, si hay k categorías, las ponderaciones se calculan de la siguiente manera:

$$ w_i = 1 - \frac{i}{k-1} $$

y en el conjunto cuadrático:

$$ w_i = 1 - \frac{i^2}{ (k-1)^2 } $$

Cuando hay 5 categorías, los pesos en el conjunto lineal son 1, 0,75, 0,50, 0,25 y 0 cuando la diferencia es 0 (=concordancia total) o 1, 2, 3 y 4 categorías, respectivamente. En el conjunto cuadrático, los pesos son 1, 0,937, 0,750, 0,437 y 0.

Utilice pesos lineales cuando la diferencia entre la primera y la segunda categoría tenga la misma importancia que la diferencia entre la segunda y la tercera categoría, etc. Si la diferencia entre la primera y la segunda categoría es menos importante que la diferencia entre la segunda y la tercera categoría, etc., utilice pesos cuadráticos.

Resultados

Resultados del acuerdo entre evaluadores (Kappa)

MedCalc calcula el estadístico de concordancia interevaluador Kappa según Cohen, 1960; y el Kappa ponderado según Cohen, 1968. Los detalles de cálculo también se presentan en Altman, 1991 (págs. 406-407). El error estándar y el intervalo de confianza del 95% se calculan según Fleiss et al., 2003.

Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).

El valor K se puede interpretar de la siguiente manera (Altman, 1991):

Valor de KFuerza del acuerdo
< 0,20Pobre
0,21 - 0,40Justo
0,41 - 0,60Moderado
0,61 - 0,80Bien
0,81 - 1,00Muy bien

Literatura

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220. PubMed
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Véase también

Enlaces externos