Sunteți pe pagina 1din 19

CONFIABILIDAD 1

CONFIABILIDAD: UN TEMA DE PRECISIÓN

Nivel 1: Teoría Clásica de los Test

Adriana Suárez

Camila Garzón

Carlos Montoya

Ronald Toro

Carlos Pardo

Universidad Católica de Colombia

ENCUENTRO DE EXTENSIÓN – Mayo 31 de 2018


FACULTAD DE PSICOLOGÍA
UNIVERSIDAD CATOLICA DE COLOMBIA

https://www.ucatolica.edu.co/portal/encuentro-de-extension-confiabilidad-un-tema-de-precision/
CONFIABILIDAD 1

Autores

DIANA CAMILA GARZÓN VELANDIA (pscamilagarzon@gmail.com)


Psicóloga, Magister en psicología. Docente de Medición y evaluación en psicología, con
experiencia en diseño, construcción y análisis de pruebas para concursos públicos de selección
meritocrática, asesoría y orientación de manejo, aplicación e interpretación de pruebas
psicométricas.

CARLOS MONTOYA (cmontoya56@ucatolica.edu.co)


Psicólogo, Especialista en Estadística y Magister en Psicología Clínica. Docente de pregrado y
postgrado en las áreas de estadística, análisis de datos, diseños de investigación en psicología y
psicometría. Con experiencia en el trabajo con el sector público y privado como consultor en
aspectos metodológicos del uso y validación de instrumentos y análisis de datos.

CARLOS PARDO ADAMES (capardo@ucatolica.edu.co)


Psicólogo, magister en Educación con énfasis en Evaluación y Currículo. Docente de pregrado y
postgrado en áreas de educación, psicología educativa y psicometría. Consultor nacional e
internacional. Durante más de 20 años, coordinador de programas nacionales e internacionales de
evaluación educativa realizados por el ICFES. Ha participado en el Laboratorio de Evaluación de la
Calidad de la Educación en América Latina (LLECE-UNESCO).

ADRIANA ESPERANZA SUAREZ (aesuarez@ucatolica.edu.co)


Psicóloga, Especialista en Psicología Clínica y Magister en psicología. Docente de Medición y
evaluación en psicología, con experiencia en diseño, construcción y análisis de pruebas; asesoría en
manejo, aplicación e interpretación de pruebas psicométricas.

RONALD TORO (ratoro@ucatolica.edu.co)


Psicólogo, Especialista en Psicología Clínica, Magister en psicología, Doctorando en Salud, Psicología
y Psiquiatría de la Universidad de Almería, España. Docente de pregrado y postgrado en asignaturas
relacionadas con psicología clínica, métodos de investigación, medición y evaluación psicológica.
CONFIABILIDAD 1

Abstract

En el presente documento se abarcan varios aspectos de la confiabilidad como propiedad de

calidad psicométrica de pruebas psicológicas. En primer lugar, se define el concepto de

confiabilidad, enfatizando su importancia en el desarrollo, análisis y aplicación de las

pruebas psicológicas; posteriormente se determinan algunas de las formas existentes para

calcularla y la interpretación de los indicadores; finalizando con la descripción de algunas

páginas y aplicación que permiten su cálculo y que contienen información de gran

relevancia para entenderé interpretar la confiabilidad.

Palabras clave: Confiabilidad, Alfa de Cronbach, psicometría, Armonía interjueces.


CONFIABILIDAD 1

Confiabilidad

En este documento se desarrollarán cuatro temáticas relacionadas con la

confiabilidad:

1. Concepto. En esta parte desarrollaremos el concepto de confiabilidad desde sus

orígenes hasta nuestros días, presentando los elementos centrales para su

comprensión desde una perspectiva moderna.

2. Índices. Se presenta un recorrido histórico – conceptual mostrando los

principales índices utilizados para el cálculo de la confiabilidad, terminando con

propuestas dentro de la Teoría Clásica de los Test (TCT) y de la Teoría de

Respuesta al Ítem (TRI).

3. Páginas web. Se presentan algunas páginas web o alternativas en internet que se

pueden utilizar tanto para el estudio del concepto como del cálculo de diferentes

índices.

4. Interpretación del Alpha de Cronbach. Una guía sencilla y completa de los

elementos que pueden alterar el cálculo de este índice y que deben tenerse en

cuenta al momento de su interpretación.

Y se responderán las siguientes preguntas:

1. ¿Qué es confiabilidad Porque es importante?

2. ¿Cómo se calcula (enfatizar alfa de cronbach

3. ¿Hay ayudas en internet aplicaciones que permitan calcularla?

4. ¿Qué significan los valores obtenidos?


CONFIABILIDAD 1

Concepto

De acuerdo con el diccionario de psicología de la APA1 (American Psychological

Association, 2018), “la teoría de la confiabilidad se define como: cualquiera de varias

conceptualizaciones de por qué las puntuaciones en una prueba o en una tarea de

desempeño son consistentes en varios contextos. Las principales teorías de la confiabilidad

son: la Teoría Clásica de los Test, la Teoría de la Generalizabilidad y la Teoría de

Respuesta al Ítem. Cada una concibe el error de manera diferente por lo que es importante

especificar en cuál contexto se plantea la confiabilidad”2. En este sentido, el diccionario

puntualiza que la confiabilidad indica el grado en el cuál un instrumento de medición se

encuentra libre de error aleatorio.

De acuerdo con Pardo (1999)3, en la Teoría Clásica de los Test (TCT) no se pueden

hacer mediciones sin algún error, que proviene de diferentes fuentes. La TCT se

fundamenta en el concepto de “Puntuación Verdadera” y plantea, desde el punto de vista

estadístico que la puntuación verdadera es igual a la puntuación observada más un error4, y

se expresa:

𝑋 =𝑇+𝐸

En donde, la puntuación observada (X) es la suma de la puntuación verdadera y un

error aleatorio (T+E). De acuerdo con Jones y Thissen (2007), el error estándar € puede ser

estimado con base en la confiabilidad de las puntuaciones observadas (X), en donde la

1
El diccionario se puede consultar en: https://dictionary.apa.org/
2
Traducción libre.
3
Pardo, c. 1999. Transformaciones en las pruebas para obtener resultados diferentes. ICFES. Bogotá.
Recuperado de:
https://www.researchgate.net/publication/315293188_Transformaciones_en_las_pruebas_para_obtener_r
esultados_diferentes
4
Jones, L. & Thissen, D. (2007. A history and overview of psychometrics.
CONFIABILIDAD 1

confiabilidad se expresa como la correlación cuadrada entre las puntuaciones observada y

verdadera, lo que contribuye a la solución de la ecuación.

Es importante enfatizar en la dependencia, del contexto, de los indicadores

psicométricos de la Teoría Clásica de los Test, incluida la confiabilidad. Con contexto se

hace referencia a las características poblacionales o de la muestra en la que se realice la

evaluación. Thompson (1949)5, define la confiabilidad como la propiedad de las

puntuaciones obtenidas cuando se administra la prueba a un grupo particular de personas en

una ocasión particular y bajo condiciones específicas.

Tipos de medidas de confiabilidad

De acuerdo con Hale y Astolfi (2014)6 la confiabilidad puede establecerse desde

tres perspectivas:

1. Equivalencia. Se calcula a partir de la relación entre las denominadas

pruebas paralelas.

2. Estabilidad. Se calcula a través del Test- Retest

3. Consistencia Interna. Mide la interrelación entre los ítems.

De otra parte, Gregory (2001)7, plantea que la confiabilidad puede dividirse en dos

grandes grupos, que tienen diferentes implicaciones en la participación del error:

5
Thompson, C. (1949). The Thompson modification of the thematic apperception test. Journal of projective
techniques. 13, 469-478.
6
Hale & Astolfi. 2014. Measuring Learning and performance: a primer. Realiability and Validity. Recuperado
de: http://charlesdennishale.org/Measuring-Learning-and-Performance/3-MLP-Psychometrics-Reliability-
and-Validity-3.1.pdf
7
Gregory, R. J. (2001). Evaluación Psicológica: Historia, principios y aplicaciones. Ciudad de México:
Manual Moderno.
CONFIABILIDAD 1

Test - Retest
Estabilidad
Temporal Formas
alternas

Fiabilidad Por mitades

Consistencia Kuder
interna Richardon
Coeficiente
Alfa

Figura 1: Clasificación de la confiabilidad según Gregory (2001).

Índices de confiabilidad:

El cálculo de la confiabilidad inicia con los supuestos de la TCT y su pretensión de

calcular el error de las mediciones psicológicas y subsecuentemente el cálculo de las

puntuaciones verdaderas, por lo cual se desarrolló la confiabilidad Test-Retest, la cual

consiste en aplicar dos veces la misma prueba al mismo grupo de sujetos heterogéneos y

representativos y correlacionar las puntuaciones, sin embargo, puede producir estimados

engañosos, considerablemente altos o bajos si el rasgo a medir es conocido por tener

fluctuaciones rápidas. Asimismo, los cálculos de confiabilidad que implican estabilidad

temporal, es decir más de una aplicación, implican variabilidad de errores no sistemáticos,

lo cual da más cabida a errores no propios de la prueba (Gregory, 2001).

De acuerdo con Jones & Thissen (2007), las propuestas de cálculo de la

confiabilidad se inician con Spearman y Brown en 2010 quienes trabajaron desde la

perspectiva de ítems paralelos. Posteriormente se plantearon alternativas de cálculo con


CONFIABILIDAD 1

base en la división arbitraria en mitades de una prueba lo que dio paso a cálculos de la

consistencia interna, inicialmente por Kuder y Richardson en 1937.

Por otro lado, Kuder y Richardson desarrollaron, tras varios intentos una ecuación

que permitía calcular la confiabilidad de las pruebas, con una única limitante, se reduce

solo a pruebas cuyos valores son dicotómicos, por lo cual su aplicación ha sido bastante

restringida.

Alpha de Cronbach

Cronbach (1951)8 parte del hecho de la altamente criticada alternativa del cálculo de

la confiabilidad conocida como división por mitades, especialmente por el hecho que no

tiene unicidad en los resultados, esto es que depende del criterio utilizado para separar los

ítems, el valor encontrado es diferente.

De igual manera, se basa en la ecuación KR-20 (Kuder y Richardson versión 20)

superando sus limitaciones, permitiendo aplicar el alpha en pruebas con ítems de múltiples

valencias en sus respuestas. Por lo cual hasta la fecha ha sido el coeficiente más robusto

para calcular confiabilidad.

El coeficiente de Cronbach es un índice de la interrelación de los reactivos

individuales, pero ello no es sinónimo de la unidimensionalidad de aquello que mide la

prueba. De hecho, es posible que una escala mida más de dos factores diferentes y, sin

embargo, posea un coeficiente muy fuerte, no obstante, para las pruebas con varios

factores, el α puede producir una sobrestimación de la confiabilidad (Gregory, 2001).

8
Cronbach, L. (1951). Coefficient Alpha and the internal structure of test. Psychometrika, vol16, 3. 297-334.
Recuperado de: https://pdfs.semanticscholar.org/e985/ac2e151903000cac310ffbc5b2cb4fbb9dd5.pdf.
CONFIABILIDAD 1

Páginas web

Información sobre confiabilidad puede encontrarse en libros de psicometría, sin

embargo, varias páginas y artículos brindan la información más relevante sobre el indicador

psicométrico, por ejemplo:

Reidl-Martínez, L.M. (2013). Confiabilidad en la medición. Investigación en Educación


Médica. 2(6). 107-111. Doi: https://doi.org/10.1016/S2007-5057(13)72695-4

Artículo que esboza los tipos de confiabilidad en pruebas psicométricas, como

estabilidad temporal o coeficiente de estabilidad; formas paralelas o coeficiente de

estabilidad y equivalencia; división por mitades o coeficiente de consistencia interna; y

consistencia interna pura desde la Teoría de la medición del error.

Oviedo, H., & Campo Arias, A. (2005). Aproximación al uso del coeficiente alfa de
Cronbach. Revista Colombiana de Psiquiatría, XXXIV (4), 572-580.

Artículo que explica la confiabilidad en su forma de consistencia interna,

particularmente alfa de cronbach, alfa estratificado y alfa ponderado.

University of Connecticut. (2013). Instrument Reliability. Reciperado de:


https://researchbasics.education.uconn.edu/instrument_reliability/#

Página de la universidad de Connecticut (EE.UU) que realiza un recorrido sobre los

tipos de confiabilidad, desde test-retest hasta acuerdo interjueces.

Asimismo, existen páginas web que permiten identificar paso a paso el cálculo de la

confiabilidad en software estadísticos como SPSS, STATA y R:


CONFIABILIDAD 1

Frias-Navarro, D. (2014). Apuntes de SPSS. Análisis de fiabilidad de las puntuaciones


de un instrumento de medida. Alfa de Cronbach: un coeficiente de fiabilidad.
Universidad de Valencia. Recuperado de:
https://www.uv.es/friasnav/ApuntesSPSS.pdf

Guía corta que abarca la definición del coeficiente, varias perspectivas para

interpretarlo y procedimiento para calcularlo en SPSS.

The open University (S.F). Cronbach’s Alpha. Recuperado de:


http://www.open.ac.uk/socialsciences/spsstutorial/files/tutorials/cronbachs-
alpha.pdf

Guía corta que abarca la definición del coeficiente, el procedimiento para calcularlo

en SPSS e interpretaciones de varios datos pertenecientes a la salida del programa.

Goforth, C. (2015). Using and Interpreting Cronbach’s Alpha. University of virginia.


Recuperado de: http://data.library.virginia.edu/using-and-interpreting-cronbachs-
alpha/

Guía sobre la definición y diferenciación del coeficiente de Alfa de Cronbach y su

cálculo en programas como SPSS, R y Stata.

Wessa P. (2017), Cronbach alpha (v1.0.5) in Free Statistics Software (v1.2.1), Office
for Research Development and Education, URL
https://www.wessa.net/rwasp_cronbach.wasp/

Software en línea que permite calcular alpha de cronbach ubicando los datos

obtenidos por la muestra en cada uno de los ítems, así como calcula el alfa estándar.

Deen Freelon, associate professor, UNC School of Media and Journalism (2011).
ReCal for Ordinal, Interval, and Ratio Data (OIR). Recuperado de:
http://dfreelon.org/utils/recalfront/recal-oir/
Página web que permite realizar el cálculo de alpha de Cronbach desde archivos csv.
CONFIABILIDAD 1

Interpretación del Alpha de Cronbach

Como parte de la discusión sobre el tema de la confiabilidad que se realizó desde la

época de Spearman (inicios del siglo XX) y que aclaró elementos conceptuales

relacionados con la confiabilidad, Cronbach propone su coeficiente Alpha (Cronbach,

1951). La discusión sobre confiabilidad que se aclara en la década de 1950, recae en la

definición de 2 conceptos fundamentales: confiabilidad de un test y estabilidad de un

constructo, que hasta la época se consideraban semejantes.

El alpha de Cronbach es un valor numérico que informa cuanta es la consistencia de

la prueba y que puede asumir valores entre -1 y +1. Se espera que la cifra obtenida sea

positiva y cercana a 1porque a partir de este valor se deduce que hay una relación entre los

ítems que conforman la prueba y que en conjunto buscan medir un solo y mismo

constructo. De acuerdo con George y Mallery (2003)9, la interpretación se puede hacer así:

α ≥ 0.9 Excelente
0.8 α ≥ 0.9 Bueno
0.7 ≤ α < 0.8 Aceptable
0.6 ≤ α < 0.7 Poco confiable
0.5 ≤ α < 0.6 Pobre
α < 0.5 Inaceptable

Para interpretar el alpha de Cronbach como consistencia interna de una prueba, las

respuestas de las personas a los ítems se suman para hallar el puntaje total; por ello todos

los ítems deben estar calificados en una misma opción de respuesta. El valor que se calcula

9
George, D., & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and reference. 11.0
update (4th ed.). Boston: Allyn & Bacon.
CONFIABILIDAD 1

se puede ver afectado por la cantidad de ítems que conforman una prueba, esto quiere decir

que a mayor cantidad de ítems que tenga la prueba, el valor que se estima como indicador

de confiabilidad estará más cercano a 1 y que a menor cantidad de ítems en la prueba el

valor será menor.

Validación de un constructo

Con cierta frecuencia aparece en la literatura que el alpha de Cronbach se utiliza

para la validación de un constructo10, es decir que puede indicar si los ítems de una prueba

miden una o varias dimensiones. Si los ítems tienen una alta correlación unos con otras, el

valor del alpha es alto11, lo que conlleva la posibilidad, si las demás condiciones son

normales, a que el valor del índice alpha sea alto.

Si el test es multidimensional (mide diversos factores), se pierde un poco en la

correlación entre ítems, por lo que el valor del alpha tiende a ser subestimado. En este caso

es importante verificar los factores que componen los ítems y obtener un alpha para cada

uno por separado.

Vsalores del alpha superiores a 0.70 en una escala unidimensional indican una

buena consistencia interna y puede ser utilizado, de manera sencilla, como un elemento de

validación del constructo12.

Distribución de los resultados

10
González Alonso, J., Pazmiño, M. y Santacruz. 2015. Cálculo e interpretación del Alfa de Cronbach para el
caso de validación de la consistencia interna de un cuestionario, con dos posibles escalas tipo Likert. Revista
Publicando
11
Tavakol, M., Dennick, R. 2011. Making sense of Cronbach’s alpha. International Journal of Medical Education.
DOI: 10.5116/ijme.4dfb.8dfd
12
González Alonso, J., Pazmiño, M. y Santacruz. Op cit
CONFIABILIDAD 1

Uno de los elementos que incide en los valores del alpha de Cronbach es la

distribución de las puntuaciones o resultados obtenidos por las personas que responden una

prueba o test. Si todos los demás factores se mantienen constantes, el valor del alpha es más

alto si la distribución es normal que si es sesgada13. Los valores del alpha serán más altos

mientras mayor sea la varianza de los resultados, considerando constante los demás

factores.

Confiabilidad según los coeficientes de Armonía interjueces

La confiabilidad por armonía entre jueces expertos, por lo general se basa en

acuerdos en los puntajes dicotómicos o Likert entre dos o más jueces (Wagner, Rau, &

Lindemann, 2010). Uno de los más conocidos y usados ha sido el coeficiente Kappa de

Cohen, este fue desarrollado en los años sesenta como alternativa a los porcentajes de

acuerdo entre evaluadores de un fenómeno, asumiendo un mínimo de incertidumbre en las

puntuaciones, se interpreta como un coeficiente de correlación en donde un puntaje

superior a .41 puede ser indicador mínimo de aceptación (Cohen, 1960). En la tabla 1 se

exponen los indicadores sugeridos para estimar niveles de confiabilidad; sin embargo, este

indicador de confiabilidad ha sido fuente de controversia y extensos trabajos de

investigación en torno a sus limitaciones.

Tabla 1

Indicadores de confiabilidad según el Kappa de Cohen

Valor Kappa Nivel de acuerdo % de datos confiables


0 – .20 Ninguno 0 – 4%
.21 – .39 Mínimo 4 – 15%

13
Brown, J.D. 2002. The Cronbach alpha reliability estimate. JALT Testing & Evaluation SIG Newsletter.
CONFIABILIDAD 1

Valor Kappa Nivel de acuerdo % de datos confiables


.40 – .59 Débil 15 – 35%
.60 – .79 Moderado 35 – 63%
.80 – .90 Fuerte 64 – 81%
Superior a .90 Casi perfecto 82 –100%
Puntajes basados en la Fuente: McHugh, M. L. (2012). Interrater reliability: the kappa statistic.

Biochemia Medica, 22(3), 276–282.

Ante las diferentes dificultades reportadas en revisiones posteriores fueron el no

tener en cuenta el número de jueces (más de dos) ni el uso de escalas diferentes a las

dicotómicas, es así surgieron alternativas basadas en las varianzas de cada conjunto de

puntuaciones, número de jueces e incluso las varianzas esperadas, con diferentes

ecuaciones que han permitido desarrollar modelos más completos para analizar la

confiabilidad de los test (O’Neill, 2017).

Uno de los más usados para escalas tipo Likert es el rWG el cual se basa en las

medidas de la variabilidad expresada por los jueces en sus puntuaciones, según una medida

de varianza teórica absoluta (Finn, 1970), puntajes superiores a .80 indican alto y favorable

armonía interjueces (Wagner, Rau, & Lindemann, 2010). Este estadístico se usa como

medida de correlación intraclase para datos categóricos basados en la varianza expresada

por los jueces que puede ser interpretado como indicador de confiabilidad e indicador

también de la validez de contenido (Lindell, Brandt, & Whitney, 1999). Se formula a partir

de la expresión de la proporción de la varianza observada sobre la esperada, tal como indica

la fórmula:

𝑉𝑂𝑏
𝑅𝑤𝑔 = 1 − ( )
𝑉𝐸𝑠

A continuación, se presenta a manera de ejemplo los resultados de un estudio en el

que los coeficientes rWG obtenidos para la suficiencia y relevancia de los ítems revisados
CONFIABILIDAD 1

fueron favorables, en especial los de relevancia que fueron casi absolutos (M = .99, DT =

0.02) y en menor medida para la pertinencia (M = .84, DT = 0.00), en la tabla 2 se observan

los indicadores de acuerdo para cada uno de los ítems que conforman el test, con adecuados

intervalos de confianza.

Tabla 2

Coeficientes de armonía interjueces rWG para suficiencia y relevancia

Pertinencia Relevancia
Ítem Media rWG Media rWG
1 3,4 0,84 4 1
2 3,6 0,84 4 1
3 3,4 0,84 3,6 0,94
… … … … …
12 3,6 0,84 4 0,96
M 3,53 0,84 3,95 0,99
DT 0,10 0,00 0,12 0,02
IC 95% 3.505 - 3.555 0.84 - 0.84 3.920 - 3.980 0.985 - 0.995
Nota: M(Media), (Desviación Típica), IC(Intervalo de Confianza). Fuente elaboración propia.
CONFIABILIDAD 1

Referencias

Cohen, J. A. (1960). A Coefficient of Agreement for nominal scales. Educational and

Psychological Measurement, 20, 37-46. doi:10.1177/001316446002000104

Cronbach, L. (1951). Coefficient Alpha and the internal structure of test. Psychometrika,

vol16, 3. 297-334. Recuperado de:

https://pdfs.semanticscholar.org/e985/ac2e151903000cac310ffbc5b2cb4fbb9dd5.pd

Finn, R. H. (1970). A Note on Estimating the Reliability of Categorical Data. Educational

and Psychological Measurement, 30(1), 71–76.

https://doi.org/10.1177/001316447003000106

Frias-Navarro, D. (2014). Apuntes de SPSS. Análisis de fiabilidad de las puntuaciones de

un instrumento de medida. Alfa de Cronbach: un coeficiente de fiabilidad.

Universidad de Valencia. Recuperado de:

https://www.uv.es/friasnav/ApuntesSPSS.pdf

George, D., & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and

reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.

Goforth, C. (2015). Using and Interpreting Cronbach’s Alpha. University of virginia.

Recuperado de: http://data.library.virginia.edu/using-and-interpreting-cronbachs-

alpha/

Gregory, R. J. (2001). Evaluación Psicológica: Historia, principios y aplicaciones. Ciudad de

México: Manual Moderno.

Lindell, M. K., Brandt, C. J., & Whitney, D. J. (1999). A Revised Index of Interrater

Agreement for Multi-Item Ratings of a Single Target. Applied Psychological

Measurement, 23(2), 127–135. https://doi.org/10.1177/01466219922031257


CONFIABILIDAD 1

McHugh, M. L. (2012). Interrater reliability: the kappa statistic. Biochemia Medica, 22(3),

276–282.

O’Neill, T. A. (2017). An Overview of Interrater Agreement on Likert Scales for

Researchers and Practitioners. Frontiers in Psychology, 8, 777.

doi:10.3389/fpsyg.2017.00777

Oviedo, H., & Campo Arias, A. (2005). Aproximación al uso del coeficiente alfa de

Cronbach. Revista Colombiana de Psiquiatría, XXXIV (4), 572-580.

Reidl-Martínez, L.M. (2013). Confiabilidad en la medición. Investigación en Educación

Médica. 2(6). 107-111. Doi: https://doi.org/10.1016/S2007-5057(13)72695-4

The open University (S.F). Cronbach’s Alpha. Recuperado de:

http://www.open.ac.uk/socialsciences/spsstutorial/files/tutorials/cronbachs-alpha.pdf

Thorndike, R. (1997). The Early History of Intelligence Testing. En Contemporary

Intellectual Assessment: theories, test and issues (pp. 3-16) New York, NY. The

Guilford Press.

University of Connecticut. (2013). Instrument Reliability. Reciperado de:

https://researchbasics.education.uconn.edu/instrument_reliability/#

Finn, R. H. (1970). A Note on Estimating the Reliability of Categorical Data. Educational and

Psychological Measurement, 30(1), 71–76. https://doi.org/10.1177/001316447003000106

Lindell, M. K., Brandt, C. J., & Whitney, D. J. (1999). A Revised Index of Interrater Agreement for

Multi-Item Ratings of a Single Target. Applied Psychological Measurement, 23(2), 127–135.

https://doi.org/10.1177/01466219922031257

McHugh, M. L. (2012). Interrater reliability: the kappa statistic. Biochemia Medica, 22(3), 276–282.

O’Neill, T. A. (2017). An Overview of Interrater Agreement on Likert Scales for Researchers and

Practitioners. Frontiers in Psychology, 8, 777. doi:10.3389/fpsyg.2017.00777


CONFIABILIDAD 1

Wagner, S. M., Rau, C., & Lindemann, E. (2010). Multiple Informant Methodology: A

Critical Review and Recommendations. Sociological Methods & Research, 38(4),

582–618. https://doi.org/10.1177/0049124110366231

Wessa P. (2017), Cronbach alpha (v1.0.5) in Free Statistics Software (v1.2.1), Office for

Research Development and Education, URL

https://www.wessa.net/rwasp_cronbach.wasp/
CONFIABILIDAD 1

Referencias

Thorndike, R. (1997). The Early History of Intelligence Testing. En Contemporary


Intellectual Assessment: theories, test and issues (pp. 3-16) New York, NY. The
Guilford Press.

S-ar putea să vă placă și