Acuerdo entre evaluadores
Comando: | Pruebas ![]() ![]() |
Descripción
Utilice el acuerdo entre evaluadores para evaluar el acuerdo entre dos clasificaciones (escalas nominales u ordinales).
Si los datos sin procesar están disponibles en la hoja de cálculo, utilice el acuerdo entre evaluadores en el menú Estadísticas para crear la tabla de clasificación y calcular Kappa (Cohen 1960; Cohen 1968; Fleiss et al., 2003).
El acuerdo se cuantifica mediante la estadística Kappa (K):
- K es 1 cuando hay un acuerdo perfecto entre los sistemas de clasificación
- K es 0 cuando no hay acuerdo mejor que el azar
- K es negativo cuando el acuerdo es peor que el azar.
Entrada requerida
En el formulario de diálogo puede introducir los dos sistemas de clasificación en una tabla de frecuencias de 6x6.
Seleccione Kappa Ponderado (Cohen, 1968) si los datos provienen de una escala ordenada. Si los datos provienen de una escala nominal, no seleccione Kappa Ponderado.
En este ejemplo, de los 6 casos que el observador B ha colocado en la clase 1, el observador A ha colocado 5 en la clase 1 y 1 en la clase 2; de los 19 casos que el observador B ha colocado en la clase 2, el observador A ha colocado 3 en la clase 1, 12 en la clase 2 y 4 en la clase 3; y de los 12 casos que el observador B ha colocado en la clase 3, el observador A ha colocado 2 en la clase 1, 2 en la clase 2 y 8 en la clase 3.
Después de haber ingresado los datos, haga clic en Prueba.
Resultados
MedCalc calcula el valor de Kappa con su error estándar y su intervalo de confianza (IC) del 95%.
MedCalc calcula el estadístico de concordancia interevaluador Kappa según Cohen, 1960; y el Kappa ponderado según Cohen, 1968. Los detalles computacionales también se presentan en Altman, 1991 (págs. 406-407). El error estándar y el intervalo de confianza del 95% se calculan según Fleiss et al., 2003.
Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).
El valor K se puede interpretar de la siguiente manera (Altman, 1991):
Valor de K | Fuerza del acuerdo |
---|---|
< 0,20 | Pobre |
0,21 - 0,40 | Justo |
0,41 - 0,60 | Moderado |
0,61 - 0,80 | Bien |
0,81 - 1,00 | Muy bien |
En un campo de entrada de Comentarios opcional, puede ingresar un comentario o conclusión que se incluirá en el informe impreso.
Literatura
- Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
- Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
- Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
- Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.