Acuerdo entre evaluadores (kappa)
Comando: | Estadísticas![]() ![]() ![]() ![]() |
Descripción
Crea una tabla de clasificación, a partir de datos sin procesar en la hoja de cálculo, para dos observadores y calcula una estadística de acuerdo entre evaluadores (Kappa) para evaluar el acuerdo entre dos clasificaciones en escalas ordinales o nominales.
Cómo introducir datos
Esta prueba se realiza con los datos sin procesar de la hoja de cálculo. Si ya tiene los datos organizados en una tabla, puede usar el comando ' Concordancia entre evaluadores' del menú 'Pruebas'.
Entrada requerida
En el cuadro de diálogo 'Concordancia entre evaluadores', se deben identificar dos variables discretas con los datos de clasificación de ambos observadores. Los datos de clasificación pueden ser numéricos o alfanuméricos (cadena).
Kappa ponderada
El índice kappa no considera el grado de desacuerdo entre los observadores, y todo desacuerdo se considera un desacuerdo total. Por lo tanto, al ordenar las categorías, es preferible utilizar el índice kappa ponderado (Cohen, 1968) y asignar diferentes ponderaciones w i a los sujetos cuyos evaluadores difieren en i categorías, de modo que los diferentes niveles de acuerdo puedan contribuir al valor del índice kappa.
MedCalc ofrece dos conjuntos de ponderaciones: lineal y cuadrático. En el conjunto lineal, si hay k categorías, las ponderaciones se calculan de la siguiente manera:
y en el conjunto cuadrático:
Cuando hay 5 categorías, los pesos en el conjunto lineal son 1, 0,75, 0,50, 0,25 y 0 cuando la diferencia es 0 (=concordancia total) o 1, 2, 3 y 4 categorías, respectivamente. En el conjunto cuadrático, los pesos son 1, 0,937, 0,750, 0,437 y 0.
Resultados
MedCalc calcula el estadístico de concordancia interevaluador Kappa según Cohen, 1960; y el Kappa ponderado según Cohen, 1968. Los detalles de cálculo también se presentan en Altman, 1991 (págs. 406-407). El error estándar y el intervalo de confianza del 95% se calculan según Fleiss et al., 2003.
Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).
El valor K se puede interpretar de la siguiente manera (Altman, 1991):
Valor de K | Fuerza del acuerdo |
---|---|
< 0,20 | Pobre |
0,21 - 0,40 | Justo |
0,41 - 0,60 | Moderado |
0,61 - 0,80 | Bien |
0,81 - 1,00 | Muy bien |
Literatura
- Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
- Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20:37-46.
- Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
- Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.