Documente Academic
Documente Profesional
Documente Cultură
Una prueba es confiable, es decir, consistente y precisa al margen de lo que mida exactamente.
Es decir, que la confiabilidad tiene que ver con que la prueba mida bien, mas alla de que mida.
Por ende una medición puede ser confiable sin ser válida, pero no puede ser válida sin ser
confiable. Permite evaluar si una misma técnica funcionara de igual forma bajo diferentes
condiciones.
- Replicabilidad: la calificación puede ser replicada al menos con cierto margen de error
- Fiabilidad: podemos fiarnos o depender de que una prueba confiable genere en buena medida
la misma puntuación en un individuo.
-Errores contantes: es aquel que genera una puntuación sistemáticamente elevada o baja en una
persona al margen de la constancia que haya en la persona en el rasgo medido. Estos errores son
aleatorios, constantes y no sistematizados que o afectan a la confiabilidad. (ej: si a niño de
lengua materna español se le evalúa ingles obtendrá un puntaje inferior a sus capacidades de
forma constante). Puede afectar a todas las observaciones por igual y ser un error constante, o
afectar a cierto tipo de observaciones y ser un sesgo. Es difícil predecir y controlar ya que está
relacionado a factores casuales.
- Errores no sistemáticos: los errores que dan problemas de confiabilidad. Las principales
fuentes de error son:
. Calificación de prueba: surge de la falta de acuerdo entre calificadores en los criterios para
calificar las puntuaciones de las personas en las pruebas. Cuanto mas juicio (deliberación,
pensar sobre ello, cuanto más subjetivo) exija la calificación, mas será posible la falta de
confiabilidad. Para que esto no suceda se debe contar con criterios de calificación claros y
explícitos a fin de que se reduzca al mínimo las variaciones entre calificaciones.
.Contenido de la prueba: las variaciones del muestreo de los reactivos de una prueba pueden
generar un error no sistemático en las puntuaciones. Las puntuaciones aumentan o disminuyen
no por diferencias reales sino por cambios aleatorios en el conjunto de los reactivos que se
presentan a la prueba. Ejemplo: de 6 temas, un alumno estudia los primeros 3 y el otro los otros
3, la profesora pregunta sobre los primeros 4 temas, los dos estudiaron la misma cantidad pero
al primero le va mejor.
.Aplicación de una prueba: se da por las variaciones de las aplicaciones, por ejemplo el en cómo
se da la instrucción, los límites de tiempo, la luz, el ruido o las disposiciones físicas. Para esto,
la prueba debe contar con procedimientos estandarizados de aplicación donde deban ser
controladas todas las variables contaminantes.
En cuanto a la teoría clásica de la prueba los términos claves son: puntuación observada,
puntuación verdadera y puntuación de error. El puntaje que obtiene una persona en una prueba
incluye el puntaje real de la persona y un margen de error que puede aumentar o disminuir dicha
puntuación verdadera.
Test-re test: se obtiene aplicando la misma prueba a los mismos individuos en dos
ocasiones diferentes. El coeficiente de confiabilidad es la correlación. Si la correlación
entre los resultados de las diferentes aplicaciones es altamente positiva, el instrumento
es confiable. Evalúa los cambios en las condiciones personales, condiciones en las
aplicaciones y condiciones en los calificadores dependiendo si la prueba califica la
misma persona o proceso
Consistencia interna: se utiliza cuando no interesa cuanto han cambiado los sujetos en
el tiempo, sino en saber si los ítems o las partes del cuestionario responden a las mismas
especificaciones y si los ítems son representativos del constructo a estudiar. Es
imprescindible que todas las partes del cuestionario representen al mismo dominio de
contenido, además de que los ítems estén bien construidos. Hay distintos métodos de
medir la consistencia interna:
-División por mitades: se realiza la aplicación de una sola prueba pero se califica a la
misma por dos mitades, como si cada mitad fuera una forma alterna de la prueba. Luego
se correlacionan los puntajes de ambas partes. Si el instrumento es confiable, las
puntuaciones de ambas mitades deben estar fuertemente correlacionadas. Un individuo
con baja puntuación en una mitad, tendrá que tener también baja la puntuación en la
otra mitad.
Por otro lado la teoría de respuesta al ítem (ICT) estudia la confiabilidad solo en base a la
consistencia interna, depende del funcionamiento de los reactivos dentro de la prueba. Se
considera que los reactivos operan de forma independiente. El error de estándar se llama
“precisión en la medición” y se determina para cada nivel de puntuación. Es decir que puede ser
menos en el casi de puntuaciones bajas y mayor en el caso de puntuaciones elevadas.
Se refiere a lo que mide una prueba, es decir si la prueba mide lo que dice medir, consigna el
uso particular para el que se planea usar el instrumento. Cada ítem debe ser representativo de la
prueba y esta ha de serlo, a su vez, del constructo que dice medir.
El termino subrepresentacion del constructo alude a que una prueba no capta aspectos
importantes del constructo, y la varianza irrelevante se refiere a la influencia de procesos ajenos
al constructo que ejerce en la puntuación de la prueba.
El aspecto básico consiste en ofrecer evidencia de que las puntuaciones en una prueba son
indicadores del rasgo o constructo de interés. La validez es la característica aislada mas
importante de una prueba, es la consideración fundamental al desarrollar y evaluar pruebas.
Para clasificar los tipos de evidencia de validez existe un esquema tradicional y un esquema
reciente.
Validez de contenido: pone el acento en el contenido que los compone, en qué medida
reflejan el constructo. tiene que ver con la relación entre el contenido de una prueba y
cierto campo de conocimiento o comportamiento definido, debe haber una
correspondencia entre el contenido de la prueba y el del campo de interés. Supone la
noción de muestreo, el contenido de la prueba ha de medir una muestra representativa
del área de la consucta que debe medir, es decir que abarca una muestra representativa
de todos los posibles contenidos del campo.
-criterio externo: criterio externo que ofrece una definición realista del constructo de
interes, define lo que en específico se quiere conocer. El coeficiente de validez es la
correlacion entre los criterios.
-correlación con otras pruebas: se utiliza cuando es probable que la nueva tenga mejores
normas o procedimientos de calificación más eficaces.
-validez convergente: correlacion entre la prueba y algún criterio que se considera que
mide el mismo constructo de la prueba. Una misma dirección entre la prueba y el
recurso utilizado, hay convergencia entre ambos, una correlacion alta.
-validez discriminante: la prueba cuenta con una correlacion relativamente baja con
constructos distintos al que se intenta medir. Cuando se busca correlacionar el
instrumento con una prueba en la que creemos que los constructos dos diferentes.
-Matriz multirasgo: pruebas que poseen distintos rasgos, por lo tanto se espera que en
todas las dimensiones o rasgos se encuentre validez discriminante.
-Correlacion con otras pruebas: se correlaciona la técnica con otra prueba que mida el
mismo constructo.