Documente Academic
Documente Profesional
Documente Cultură
Ejemplos
• Medidas de concordancia
• Tópicos avanzados
Concordancia: ¿Por qué?
• Evalúa cuánto dos (o más) medidas son similares
entre sí
– Es decir, si los criterios de medición son equivalentes
Criterio 1
Anormal Normal
Anormal a b a+b
Criterio 2
Normal c d c+d
a+c b+d N
𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 𝑎+𝑑
𝑝𝑜 = =
𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 + 𝑑𝑒𝑠𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 𝑁
Proporción de acuerdo global: Ejemplo
𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 𝑎+𝑑 59 + 38
𝑝𝑜 = = 𝑝𝑜 = = 0.82
𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 + 𝑑𝑒𝑠𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 𝑁 118
Meade MO, et al. Am J Respir Crit Care Med. 2001; 163: 490-3
Proporción de acuerdo global
• Es simple de calcular
Criterio 1
Anormal Normal 𝑎+𝑏 𝑎+𝑐
𝐸 𝑎 =
Anormal a b a+b 𝑁
Criterio 2
Normal c d c+d 𝑏+𝑑 𝑐+𝑑
𝐸 𝑑 =
a+c b+d N 𝑁
40.8 + 19.8
𝑝𝑒 = = 0.51
118
Estadístico Kappa (de Cohen)
• Mide la concordancia entre dos criterios
corrigiendo el acuerdo esperado por azar
𝑝𝑜 − 𝑝𝑒
κ=
1 − 𝑝𝑒
0% 𝑝𝑒 𝑝𝑜 100%
Acuerdo
Acuerdo posible por
Acuerdo esperado por azar encima del azar
Acuerdo observado
B
B Kappa =
A
Patólogo A
Grado II Grado III
Grado II 41 3 44
Patólogo B
Grado III 4 27 31
45 30 75
𝑎 + 𝑑 41 + 27
𝑝𝑜 = = = 0.91
𝑁 75
𝑝𝑜 − 𝑝𝑒 0.92 − 0.52
κ= = = 0.81
1 − 𝑝𝑒 1 − 0.52
• Variables:
– Uso según diario (diary)
– Uso según cuestionario (question)
𝑎+𝑑 𝑎 𝑑
𝑝𝑜 = = + 𝑝𝑜 = 0.0603 + 0.9151 = 0.9754
𝑁 𝑁 𝑁
Práctica
. tab diary question, exp cel nokey
Porcentaje de acuerdo
question
esperado por azar
diary No Yes Total
𝑝𝑜 − 𝑝𝑒 0.9754 − 0.8653
κ= = = 0.8174
1 − 𝑝𝑒 1 − 0.8653
Práctica
Estadístico kappa en Stata:
Opción para mostrar
la tabla de clasificación
Criterios de medición
a comparar
Práctica
Intervalos de confianza para kappa en Stata:
Criterios de medición
a comparar
Práctica
. kap question diary, tab
diary
question No Yes Total
Expected
Agreement Agreement Kappa Std. Err. Z Prob>Z
𝐻0 : κ = 0 Prueba requiere
𝐻1 : κ ≠ 0 N grande
Práctica
• Prueba z de que kappa es igual a cero
– Decisión:
• Rechazamos la hipótesis nula de que la concordancia de
los métodos se debe sólo al azar
– Conclusión:
• Se concluye que los métodos tienen una concordancia
casi perfecta para determinar el uso de terapia
hormonal
Práctica
diary
question No Yes Total
N=16060
A = analytical
Extendiendo la concordancia para
datos politómicos
𝐴𝑐𝑢𝑒𝑟𝑑𝑜𝑠 5 + 6 + 13 + 9 + 8 + 24
𝑝𝑜 = = = 0.65
𝐴𝑐𝑢𝑒𝑟𝑑𝑜𝑠 + 𝐷𝑒𝑠𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 100
2 w: Peso Se aproxima al
𝑖−𝑗 i: Fila Coeficiente de
𝑤𝑖𝑗 = 1 − 2
𝑘−1 j: Columna Correlación
k: # categorías Intraclase
Observador 1
Observador 2 Ausente Mínima Moderada Severa
Ausente 1.00 0.89 0.56 0.00
Mínima 1.00 0.89 0.56
Moderada 1.00 0.89
Severa 1.00
𝑖−𝑗 2
𝑤𝑖𝑗 = 1 −
𝑘−1 2
Kappa ponderada
• Similar al estadístico kappa, aunque incluye
los pesos para observaciones similares:
𝑝𝑜 𝑤 − 𝑝𝑒 𝑤
κ 𝑤 =
1 − 𝑝𝑒 𝑤
Observador 1
Observador Ausente Mínima Modera Severa Total
2 da
Ausente 34 10 2 0 46
Mínima 6 8 8 2 24
Moderada 2 5 4 12 23
Severa 0 1 2 14 17
Total 42 24 16 28 110
𝑎 ∙ 𝑤𝑎 + 𝑏 ∙ 𝑤𝑏 + 𝑐 ∙ 𝑤𝑏 + ⋯ + 𝑝 ∙ 𝑤𝑝
𝑝𝑜 𝑤 =
𝑁
102.11
𝑝𝑜 𝑤 = = 0.9283
110
Kappa ponderada: Ejemplo
Tabla esperada
Observador 1
Observador Ausente Mínima Modera Severa Total
2 da
Ausente 17.56 10.04 6.69 11.71 46
Mínima 9.16 5.24 3.49 6.11 24
Moderada 8.78 5.02 3.35 5.85 23
Severa 6.49 3.71 2.47 4.33 17
Total 42 24 16 28 110
76.56
𝑝𝑒 𝑤 = = 0.6960
110
Kappa ponderada: Ejemplo
𝑝𝑜 𝑤 = 0.9283
𝑝𝑒 𝑤 = 0.6960
𝑝𝑜 𝑤 − 𝑝𝑒 𝑤
κ 𝑤 =
1 − 𝑝𝑒 𝑤
0.9283 − 0.6960
κ 𝑤 = = 0.7641
1 − 0.6960
Práctica
• Resultados de mamografías evaluadas por dos
radiólogos
• Variables:
– Evaluación por radiólogo A (rada)
– Evaluación por radiólogo B (radb)
• Outcome politómico:
– Normal, Benigno, Sospechoso, Cáncer
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
10.9 14.8 6.2 1.2 33.0
24.71 14.12 0.00 0.00 38.82
benign 4 17 1 0 22
7.2 9.8 4.1 0.8 22.0
4.71 20.00 1.18 0.00 25.88
suspect 3 9 15 2 29
9.6 13.0 5.5 1.0 29.0
3.53 10.59 17.65 2.35 34.12
cancer 0 0 0 1 1
0.3 0.4 0.2 0.0 1.0
0.00 0.00 0.00 1.18 1.18
Total 28 38 16 3 85
28.0 38.0 16.0 3.0 85.0
32.94 44.71 18.82 3.53 100.00
Sólo considera
Porcentaje de di 0.2471 + 0.2000 + 0.1765 + 0.0118 el acuerdo
acuerdo global .6354 perfecto
. tab rada radb, exp cel nokey
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
10.9 14.8 6.2 1.2 33.0
24.71 14.12 0.00 0.00 38.82
benign 4 17 1 0 22
7.2 9.8 4.1 0.8 22.0
4.71 20.00 1.18 0.00 25.88
suspect 3 9 15 2 29
9.6 13.0 5.5 1.0 29.0
3.53 10.59 17.65 2.35 34.12
cancer 0 0 0 1 1
0.3 0.4 0.2 0.0 1.0
0.00 0.00 0.00 1.18 1.18
Total 28 38 16 3 85
28.0 38.0 16.0 3.0 85.0
32.94 44.71 18.82 3.53 100.00
Sólo considera
Porcentaje de di (10.9 + 9.8 + 5.5 + 0.0)/85 el acuerdo
acuerdo esperado .3082 perfecto
Práctica
Estadístico kappa
𝑝𝑜 = 0.6353 𝑝𝑜 − 𝑝𝑒
κ= 0.6353 − 0.3082
1 − 𝑝𝑒 = = 0.4728
𝑝𝑒 = 0.3082 1 − 0.3082
Expected
Agreement Agreement Kappa Std. Err. Z Prob>Z
Criterios de medición
a comparar Esquema de pesos a usar.
“w2” corresponde a pesos
sugeridos por Fleiss
Práctica
. kap rada radb, wgt(w2) tab
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
benign 4 17 1 0 22
suspect 3 9 15 2 29
cancer 0 0 0 1 1
Total 28 38 16 3 85
Expected
Agreement Agreement Kappa Std. Err. Z Prob>Z
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
benign 4 17 1 0 22
suspect 3 9 15 2 29
cancer 0 0 0 1 1
Total 28 38 16 3 85
B=1000 N=85
BC = bias corrected
Práctica
Generando ponderaciones para Kappa en Stata:
Pesos:
Nombre del esquema Valor entre 0 y 1
de pesos Rellenar la tabla bajo la diagonal
. kapwgt pond 1 \ 0.5 1 \ 0.25 0.5 1 \ 0 0.25 0.5 1
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
benign 4 17 1 0 22
suspect 3 9 15 2 29
cancer 0 0 0 1 1
Total 28 38 16 3 85
Expected
Agreement Agreement Kappa Std. Err. Z Prob>Z
Radiologis
t A's Radiologist B's assessment
assessment Normal benign suspect cancer Total
Normal 21 12 0 0 33
benign 4 17 1 0 22
suspect 3 9 15 2 29
cancer 0 0 0 1 1
Total 28 38 16 3 85
B=951 N=85
BC = bias corrected
.
Kappa para >2 evaluadores
• Múltiples versiones
– Depende si los evaluadores son únicos y si el
número de evaluadores es constante
Fleiss JL, et al. Statistical Methods for Rates and Proportions. 3rd ed. New York: Wiley, 2003
Kappa para >2 evaluadores
. use http://www.stata-press.com/data/r13/p615b
. list
1. 1 1 2 2 2 2
2. 2 1 1 3 3 3
3. 3 3 3 3 3 3
4. 4 1 1 1 1 3
5. 5 1 1 1 3 3
6. 6 1 2 2 2 2
7. 7 1 1 1 1 1
8. 8 2 2 2 2 3
9. 9 1 3 3 3 3
10. 10 1 1 1 3 3
Fleiss JL, et al. Statistical Methods for Rates and Proportions. 3rd ed. New York: Wiley, 2003
Kappa para >2 evaluadores
↑𝑃 𝑝𝑜 − 𝑝𝑒
↑ 𝑝𝑒 ↓κ κ=
1 − 𝑝𝑒
↓𝑃
Criterio 1
𝑝𝑜 = 0.80
Anormal Normal
Anormal 40 10 50 κ = 0.60
Criterio 2
Normal 10 40 50 𝐼𝑆 = 0.00
50 50 100 𝐼𝑃 = 0.00
Criterio 1
Anormal Normal 𝑝𝑜 = 0.80
Anormal 70 10 80 κ = 0.38
Criterio 2
Normal 10 10 20 𝐼𝑆 = 0.00
80 20 100 𝐼𝑃 = 0.60
Estadístico kappa: Limitaciones
• Es afectado por el sesgo entre evaluadores
– Sesgo: Diferencia en la proporción de positivos y negativos
entre evaluadores (probabilidades marginales distintas)
– Sesgo disminuye el acuerdo esperado por azar, y aumenta
kappa
𝑝𝑜 − 𝑝𝑒
S𝑒𝑠𝑔𝑜 ↓ 𝑝𝑒 ↑κ κ=
1 − 𝑝𝑒
𝑏−𝑐
BI =
𝑁
Estadístico kappa: Limitaciones
Criterio 1
𝑝𝑜 = 0.60
Anormal Normal
Anormal 40 20 60 κ = 0.17
Criterio 2
Normal 20 20 40 𝐼𝑆 = 0.00
60 40 100 𝐼𝑃 = 0.20
Criterio 1
Anormal Normal 𝑝𝑜 = 0.60
Anormal 40 35 75 κ = 0.24
Criterio 2
Normal 5 20 25 𝐼𝑆 = 0.30
45 55 100 𝐼𝑃 = 0.20
Kappa ajustado
• Existe un kappa ajustado por prevalencia y
sesgo (PABAK)
– No es interpretable, pero permite evaluar el
efecto de prevalencia y sesgo sobre kappa
𝑃𝐴𝐵𝐴𝐾 = 2𝑝𝑜 − 1
𝑝𝑜 = 0.8220 κ = 0.6338