Saltar al contenido principal

Esta página fue traducida del inglés usando IA. Puedes encontrar el original aquí.

Acuerdo entre evaluadores

Descripción

Utilice el acuerdo entre evaluadores para evaluar el acuerdo entre dos clasificaciones (escalas nominales u ordinales).

Si los datos sin procesar están disponibles en la hoja de cálculo, utilice el acuerdo entre evaluadores en el menú Estadísticas para crear la tabla de clasificación y calcular Kappa (Cohen 1960; Cohen 1968; Fleiss et al., 2003).

El acuerdo se cuantifica mediante la estadística Kappa (K):

  • K es 1 cuando hay un acuerdo perfecto entre los sistemas de clasificación
  • K es 0 cuando no hay acuerdo mejor que el azar
  • K es negativo cuando el acuerdo es peor que el azar.

Entrada requerida

En el formulario de diálogo puede introducir los dos sistemas de clasificación en una tabla de frecuencias de 6x6.

Seleccione Kappa Ponderado (Cohen, 1968) si los datos provienen de una escala ordenada. Si los datos provienen de una escala nominal, no seleccione Kappa Ponderado.

Utilice pesos lineales cuando la diferencia entre la primera y la segunda categoría tenga la misma importancia que la diferencia entre la segunda y la tercera categoría, etc. Si la diferencia entre la primera y la segunda categoría es menos importante que la diferencia entre la segunda y la tercera categoría, etc., utilice pesos cuadráticos.

Prueba de acuerdo entre evaluadores (Kappa): cuadro de diálogo

En este ejemplo, de los 6 casos que el observador B ha colocado en la clase 1, el observador A ha colocado 5 en la clase 1 y 1 en la clase 2; de los 19 casos que el observador B ha colocado en la clase 2, el observador A ha colocado 3 en la clase 1, 12 en la clase 2 y 4 en la clase 3; y de los 12 casos que el observador B ha colocado en la clase 3, el observador A ha colocado 2 en la clase 1, 2 en la clase 2 y 8 en la clase 3.

Después de haber ingresado los datos, haga clic en Prueba.

Resultados

MedCalc calcula el valor de Kappa con su error estándar y su intervalo de confianza (IC) del 95%.

MedCalc calcula el estadístico de concordancia interevaluador Kappa según Cohen, 1960; y el Kappa ponderado según Cohen, 1968. Los detalles computacionales también se presentan en Altman, 1991 (págs. 406-407). El error estándar y el intervalo de confianza del 95% se calculan según Fleiss et al., 2003.

Los errores estándar informados por MedCalc son los errores estándar apropiados para probar la hipótesis de que el valor subyacente de kappa ponderado es igual a un valor preestablecido distinto de cero (Fleiss et al., 2003).

El valor K se puede interpretar de la siguiente manera (Altman, 1991):

Valor de KFuerza del acuerdo
< 0,20Pobre
0,21 - 0,40Justo
0,41 - 0,60Moderado
0,61 - 0,80Bien
0,81 - 1,00Muy bien

En un campo de entrada de Comentarios opcional, puede ingresar un comentario o conclusión que se incluirá en el informe impreso.

Literatura

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220. PubMed
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.