Sunteți pe pagina 1din 6

Psicometra De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda Este artculo trata sobre la medicin de caractersticas psicolgicas.

Para la prctica adivinatoria, vase Psicometra (adivinacin). La psicometra es la disciplina que se encarga de la medicin en psicologa. Medir es asignar un valor numrico a las caractersticas de las personas, es usada esta funcin pues es ms fcil trabajar y comparar los atributos intra e interpersonales con nmeros y/o datos objetivos. As, no se usa para medir personas en s mismas, sino sus diferentes aspectos psicolgicos, tales como conocimiento, habilidades o capacidades y personalidad. Validez y confiabilidad de las mediciones de variables psicolgicas [editar] La psicometra, engloba la teora y la construccin de pruebas, test y otros procedimientos de medicin vlidos y confiables (o fiables). Incluye, por tanto, la elaboracin y aplicacin de procedimientos estadsticos que permitan determinar si una prueba o (test) es vlido o no para la medicin de una variable o conducta psicolgica previamente definida. Sin embargo, la medida de estos aspectos no directamente observables es difcil, y gran parte de la investigacin y tcnicas acumuladas en esta disciplina estn diseadas para definirlos de manera fiable antes de cuantificarlos. Los primeros trabajos de psicometra se desarrollaron para medir la inteligencia. Posteriormente, la teora psicomtrica se ha aplicado a la medida de otros aspectos como los rasgos de personalidad, actitudes y creencias, rendimiento acadmico, y en campos relacionados con la salud y la calidad de vida. La psicometra es, tambin, la encargada del estudio de las propiedades termodinmicas del aire hmedo y del efecto que ejerce sobre los materiales y sobre el confort humano. Enfoques tericos Los contenidos de la psicometra se articulan, fundamentalmente, en dos grandes bloques: teora de los test, que hace referencia a la construccin, validacin y aplicacin de los test, y escalamiento, que incluye los mtodos para la elaboracin de escalas psicofsicas y psicolgicas. A su vez, la teora de los test se divide en dos ramas: la teora clsica de los tests y la ms reciente teora de respuesta al tem. Los conceptos clave de la teora clsica de los tests son: confiabilidad (o fiabilidad) y validez. Un test es vlido si mide realmente el atributo que pretende medir; mientras que es confiable si lo mide siempre de igual manera, es decir, si la aplicacin del instrumento da medidas estables y consistentes.

Ambas propiedades, validez y confiabilidad, admiten un tratamiento matemtico. La consistencia interna puede calcularse por correlacin entre distintos tests. Los mtodos ms conocidos se denominan: mtodo de las formas paralelas, mtodo del test-retest y mtodo de las dos mitades. La validez puede calcularse correlacionando las mediciones con las de una medida patrn aceptada como vlida. Se distinguen los siguientes aspectos: validez de contenido, validez predictiva y validez de constructo. La confiabilidad (o fiabilidad) tiene tambin relacin con la precisin del instrumento que se utiliza para medir. Por ejemplo, si se compara un termmetro con la mano de una madre para determinar si un nio tiene fiebre, se puede afirmar que el termmetro es ms confiable, puesto que es ms preciso. Fiabilidad (psicometra) De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda En el campo de la psicologa, la educacin y la investigacin social, la fiabilidad (tambin llamada tcnicamente confiabilidad) es una propiedad psicomtrica que hace referencia a la ausencia de errores de medida, o lo que es lo mismo, al grado de consistencia y estabilidad de las puntuaciones obtenidas a lo largo de sucesivos procesos de medicin con un mismo instrumento. Consideraciones generales [editar] Es necesario aclarar que la fiabilidad no es una propiedad de los tests en s mismos, sino de las interpretaciones, inferencias o usos especficos que se hagan a partir de los datos y medidas que estos proporcionan. Asimismo, no puede hablarse de la fiabilidad en trminos absolutos; s cabra hablar del grado de fiabilidad que puedan presentar los instrumentos de medida en un contexto de aplicacin determinado. A partir de la variabilidad en las puntuaciones encontradas tras una serie de mediciones repetidas puede determinarse el ndice de precisin, consistencia y estabilidad de un instrumento. En el supuesto de que el resto de condiciones se mantengan inalteradas, puede concluirse que, a mayor variabilidad de resultados, menor fiabilidad del instrumento de medicin.1 No obstante, uno de los principales problemas que se presentan en el campo de la investigacin en ciencias sociales tiene que ver con la dificultad de conseguir que las distintas medidas se realicen exactamente en las mismas condiciones. Las condiciones personales de los sujetos, como la motivacin, la maduracin o el grado de atencin, pueden variar de una medicin a otra, por lo que resulta imprescindible establecer un procedimiento estandarizado de medicin que permita reducir al mnimo las variables

extraas que puedan influir en los resultados finales. Por lo tanto, la fiabilidad hace referencia a la estabilidad y consistencia de las mediciones en aquellos casos en los que no existen razones tericas o empricas que nos hagan suponer que la variable que se mide se haya visto modificada de forma significativa por los sujetos, por lo que se asume su estabilidad.2 La teora clsica de los tests [editar] En el marco de la teora clsica de los tests, segn el modelo lineal clsico propuesto por Charles Spearman (1904, 1907, 1913); la puntuacin emprica (X) que obtiene un sujeto en un test, es la suma de dos componentes: la puntuacin verdadera (V) y el inevitable error de medida asociado al instrumento.3 Es decir, si a la puntuacin emprica (obtenida en la prueba) se le elimina el error de medida, se obtendr la puntuacin verdadera. En este contexto, la fiabilidad hace referencia a la proporcin de la varianza verdadera, es decir, la parte de la varianza total que los tems discriminan por lo que tienen en comn. 4 Siguiendo este razonamiento, obtendramos:

donde

es el smbolo de la fiabilidad de las puntuaciones observadas ( X); y

,y

son las varianzas de las puntuaciones empricas, verdaderas y de error, respectivamente. Dado que no existe modo alguno de determinar la puntuacin verdadera directamente, existe una serie de mtodos para realizar una estimacin de la fiabilidad. Coeficiente de fiabilidad [editar] El coeficiente de fiabilidad ( ) es la correlacin entre las puntuaciones obtenidas por los sujetos en dos formas paralelas de un test (X y X'). Suponiendo que las dos formas del test sean realmente paralelas (es decir, midan realmente lo mismo), las puntuaciones de los sujetos deberan ser iguales en ambas aplicaciones. As, cuando la correlacin es igual a 1, la fiabilidad es mxima. El grado en que el coeficiente de fiabilidad se aleje de 1 ser un indicador del grado de error aleatorio de medida que estaremos cometiendo en la aplicacin de las pruebas. El coeficiente de fiabilidad no debe confundirse con el ndice de fiabilidad, que es la correlacin entre las puntuaciones verdaderas y las empricas ( ), y se obtiene a partir de la raz cuadrada del coeficiente. Estimacin emprica del coeficiente de fiabilidad [editar] Desde la Teora Clsica de los Tests (TCT) se han propuesto diferentes procedimientos para calcular la fiabilidad. Algunos de ellos son los siguientes:

Formas paralelas [editar] Este procedimiento es el que se deriva naturalmente del modelo. Requiere que se utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma diferente (por ejemplo, dos tests que con diferentes preguntas midan un determinado rasgo). Despus se comparan los dos tests, calculando el coeficiente de correlacin de Pearson. Esta correlacin ser, como hemos visto en el apartado anterior, el coeficiente de fiabilidad. Si la correlacin es alta, se considera que hay una buena fiabilidad. Al valor obtenido tambin se le conoce como coeficiente de equivalencia, en la medida en que supone un indicador del grado de equivalencia entre las dos formas paralelas de un test. La dificultad de este procedimiento radica en conseguir que dos instrumentos sean realmente "paralelos", dada la dificultad que supone realizar dos pruebas que midan exactamente lo mismo, pero con diferentes tems. No obstante, en condiciones ideales en las que se pueda garantizar el paralelismo de ambas formas, este es el mtodo ms recomendable. Test-retest [editar] Con este mtodo el coeficiente de fiabilidad se calcula pasando mismo test dos veces a los mismos sujetos. Se pueden pasar inmediatamente, o dejando un intervalo de tiempo entre el test y el retest. Despus se calcula la correlacin de Pearson entre las puntuaciones de ambas aplicaciones, y el resultado obtenido ser el coeficiente de fiabilidad. Se considera un caso especfico de formas paralelas, dado que evidentemente un test es paralelo a s mismo. Al resultado obtenido se le denomina coeficiente de estabilidad, al servir de indicador de hasta qu punto son estables las mediciones realizadas durante la primera aplicacin del test. Las diferencias en los resultados se atribuyen al grado de consistencia interna o muestreo de los tems de la prueba en el caso de pasar el retest de forma inmediata, y se le suman las fluctuaciones en el tiempo en el caso del intervalo temporal. Dejar transcurrir un espacio de tiempo excesivo entre ambas aplicaciones puede suponer una amenaza a la validez interna por las posibles influencias externas a la que pueden estar expuestos los sujetos durante el intervalo, y que pueden afectar a su desempeo en la segunda aplicacin. En el extremo opuesto, una aplicacin demasiado apresurada del retest podra afectar igualmente a la validez interna, en este caso por los posibles efectos del recuerdo reciente de la primera aplicacin. La eleccin del intervalo de tiempo adecuado entre ambas aplicaciones depender en gran medida del tipo de test, ya que en funcin de su formato puede ser ms sensible al efecto de una u otra amenaza.2 Dos mitades [editar] A diferencia de los anteriores, este mtodo slo requiere una aplicacin del test. Tras obtener las puntuaciones obtenidas por los sujetos en cada una de las dos mitades en que se habr dividido, se procede a calcular la correlacin entre las dos puntuaciones. El resultado obtenido ser un indicador de la covariacin entre ambas mitades, es decir, de la consistencia interna del test. La principal dificultad de este sistema es asegurarse de que

ambas mitades sean efectivamente paralelas. Un sistema habitual es dividir el test entre los tems pares y los impares; no es recomendable dividirlo sin ms por la mitad, dado que muchos tests muestran un incremento gradual de la dificultad de sus tems.2 Otros mtodos basados en la consistencia interna [editar]

Alfa de Cronbach (1951): El coeficiente alfa () es un indicador de la fiabilidad de un test basado en su grado de consistencia interna. Indica el grado en que los tems de un test covaran. Coeficientes de Kuder-Richardson (1937): Se trata de dos frmulas aplicables a sendos casos particulares de alfa. KR20 se aplica en el caso en que los tems del test sean dicotmicos, y KR21, en el caso de que adems de ser dicotmicos, tengan la misma dificultad. Mtodo de Rulon (1939): Una estimacin de la fiabilidad de un test a partir de las puntuaciones obtenidas en sus dos mitades. Considera que la diferencia entre las dos mitades se debe slo al error aleatorio. Mtodo de Guttman/Flanagan (1945/1937): Otra frmula basada en la consistencia interna, equivalente a la de Rulon. Coeficiente beta (): Propuesto por Raju (1977) para calcular la fiabilidad de una batera compuesta por diversos subtests. En los casos en los que se desea calcular la fiabilidad de una batera, se trata a los distintos subtests como si fueran los tems de un nico test y se calcula el coeficiente alfa global. El problema surge en los casos en los que los distintos subtests no tienen el mismo nmero de tems, lo que suele ser lo ms frecuente, y que repercute en una infraestimacin del alfa global. El coeficiente beta permite sortear esta infraestimacin. Coeficientes theta () y omega (): Basados en el anlisis factorial de los tems, son indicadores de la consistencia interna similares al coeficiente alfa. El coeficiente theta fue desarrollado por Carmines y Zeller (1979); y el coeficiente omega fue desarrollado por Heise y Bohrnstedt (1970).2

Relaciones entre fiabilidad y otros factores [editar] Hay dos factores que afectan al grado de fiabilidad de un test: la variabilidad y la longitud.

Fiabilidad y variabilidad: El tipo de muestra de sujetos que se haya escogido para calcular la fiabilidad de un test puede influir en el resultado obtenido. Esto significa que la fiabilidad ya no depende nicamente de las caractersticas del test, sino tambin de la muestra de sujetos a los que se aplique, por lo que no se puede decir que un mismo test tenga un coeficiente de fiabilidad fijo. En suma, puede afirmarse que la fiabilidad de un test ser mayor cuanta mayor variabilidad exista en la muestra de sujetos seleccionada. Fiabilidad y longitud: En trminos generales, puede decirse que la fiabilidad de un test aumenta a medida que aumenta su longitud, es decir, su nmero de tems. Ello no significa que resulte recomendable alargar innecesariamente un test en pro de

aumentar su fiabilidad, ni que cualquier test pueda convertirse en un instrumento fiable por el nico medio de aumentar indefinidamente su longitud. La frmula de Spearman-Brown permite pronosticar el aumento de fiabilidad obtenida tras el incremento de la longitud de un test, siempre y cuando los tems aadidos sean paralelos a los ya existentes.2

S-ar putea să vă placă și