Documente Academic
Documente Profesional
Documente Cultură
INDICE
2 [ POLITÉCNICO GRANCOLOMBIANO]
Puede resultar interesante saber, por ejemplo, si los resultados de la evaluación aplicada a una
persona en un momento dado, antes de una intervención, difieren significativamente de los
resultados de la misma persona en un momento posterior a la intervención. Si se encuentran
diferencias se puede establecer que la intervención generó un cambio en esa persona.
También puede resultar interesante, por ejemplo, saber si dos grupos de personas, que se
diferencian por alguna variable categórica, como su género, tienen diferencias significativas en
los puntajes frente a una prueba específica, como una de ansiedad o de estrés laboral. En
definitiva, dentro de los análisis, en las investigaciones y en particular en las investigaciones con
alcance descriptivo-comparativo, es común encontrar la posibilidad de comparar, bien a un
mismo sujeto, como en el primer caso, o a diferentes sujetos, como en el segundo. En la
primera situación hablaremos de pruebas para muestras relacionadas y en la segunda, de
pruebas para muestras independientes. Estas pruebas reciben el nombre de pruebas t, y serán
presentadas a continuación.
Primero, hay que recordar que toda prueba inferencial es, en esencia, una prueba de hipótesis
nula. En ese sentido, la prueba inferencial va calcular la probabilidad de que el resultado ocurra
debido al azar o, por el contrario, por efecto de la variable independiente. La hipótesis nula
informa del estado de la variable cuando, se supone, no hay ningún efecto.
Cuando, además, esperamos que los resultados tomen una dirección específica, por ejemplo,
que las personas mejoren de manera importante después de una intervención, decimos que la
aproximación a la prueba es direccional ya que estamos indicando una posible dirección a
tomar por los datos recabados (que el puntaje del tratamiento 1 sea mayor que el puntaje del
tratamiento 2, o que los hombres tengan una puntuación mayor en ansiedad que las mujeres).
Por el contrario, en los modelos no direccionales se dice que habrá una diferencia entre un
momento y otro, pero no se especifica en qué sentido se da esta diferencia (cuando sólo se
predice que habrá una diferencia entre los puntajes en las intervenciones pero no se supone en
cuál de ellas habrá mayor puntaje).
La hipótesis nula para este caso es que las dos muestras de puntuaciones provienen de
poblaciones con la misma media, y por tanto la falta de diferencia entre estas medias debe
darnos valores cercanos a 0. La hipótesis nula diría que las pequeñas diferencias que pueden
La hipótesis nula en este caso se vale del promedio de diferencias o media diferencial de los
datos de la muestra comparados por momentos. Algo muy similar a la desviación estándar,
llamada aquí error estándar (ee). Cada muestra, extraída aleatoriamente, según la H0, difiere de
la media de 0 sólo por un error de muestreo. En ese sentido, cada desviación de una muestra de
la media de la población se considera un error. De ello se deduce la siguiente ecuación:
𝑆𝑑
𝑒𝑒 =
√𝑛
Siendo Sd la desviación estándar de las diferencias. Siguiendo esta línea se puede estimar la
proporción entre la media diferencial y el error estándar bajo un valor llamado t
∆𝑑
𝑡=
𝑒𝑒
Siendo ∆d la media diferencial o promedio de las diferencias entre los puntajes muestrales en
un momento y otro. O lo que es lo mismo
∆𝑑√𝑛
𝑡=
𝑆𝑑
El cálculo de t dependerá del uso de la tabla de valores críticos de t (la cual estará adjunta a este
curso), y ésta sólo es posible de usar si se conoce:
4 [ POLITÉCNICO GRANCOLOMBIANO]
Participante P en la técnica 1 P en la técnica 2 Diferencia (d)
1 6 6 0
2 15 10 5
3 13 7 6
4 14 8 6
5 12 8 4
6 16 12 4
7 14 10 4
8 15 10 5
9 18 11 7
10 17 9 8
∆x1 = 14 ∆x2 = 9,1 ∆d = 4,9
∑(𝑥𝑖 − ∆𝑥)2
𝑆𝑥 = √
𝑛− 1
a. (0 – 4,9)2 + (5 – 4,9) 2 + (6 – 4,9) 2 + (6 – 4,9) 2 + (4 – 4,9) 2 + (4 – 4,9) 2 + (4 – 4,9) 2 + (5 – 4,9) 2 +
(7 – 4,9) 2 + (8 – 4,9) 2 = (24,01) + (0,01) + (1,21) + (1,21) + (0,81) + (0,81) + (0,81) + (0,01) + (4,41)
+ (9,61) = 42,9
b. n – 1 = 9
42,9
c. 𝑆𝑑 = √ = 2,18
9
∆𝑑√𝑛
3. Se utiliza la ecuación 𝑡 =
𝑆𝑑
4,9√10
𝑡= = 15,49/2,18 = 7,1
2,18
4. Se encuentran las grados de libertad (gl = n - 1 = 10 – 1 = 9)
5. Se revisa la tabla de los valores críticos de t y se compara el valor calculado de t con el valor
crítico de la tabla. Según esta, para 9 grados de libertad, con una prueba de dos colas y con un
valor de alfa de 0,05, el valor crítico es de 2,26. El valor hallado por nosotros (7,1) supera este
valor (2,26), por tanto sabemos que la diferencia entre una técnica y otra es estadísticamente
significativa.
6 [ POLITÉCNICO GRANCOLOMBIANO]
Luego, seguimos la siguiente línea de comandos: Analizar/Comparar media/Prueba T para
muestras relacionadas…
En estas tablas se describen los valores medios de cada uno de los puntajes en las distintas
técnicas, pero el valor que nos dice si hay diferencias significativas o no es el que aparece
señalado en rojo (sig = 0,000). Recuerde que si este valor es inferior a 0,05 (5%) podemos decir
que las diferencias son significativas, rechazando así la hipótesis nula (aunque en este caso
particular es inferior, incluso, a 0,01).
8 [ POLITÉCNICO GRANCOLOMBIANO]
Graficación de las diferencias entre dos muestras relacionadas
El procedimiento para graficar dos muestras relacionadas es el siguiente: seguimos
esta línea de comandos: Gráficos/Cuadro de diálogo antiguos/Diagramas de cajas…
10 [ POLITÉCNICO GRANCOLOMBIANO]
Y se da a la opción de [Aceptar] para continuar. SPSS debe arrojar un gráfico como el siguiente:
Este gráfico muestra diferencias importantes entre los puntajes de las personas frente a un
tratamiento y los puntajes de las mismas personas frente a otro tratamiento. Es evidente que el
puntaje frente al primer tratamiento es superior al segundo.
H 0 : µ 1 = µ2
Siendo µ la media poblacional.
∆𝑥𝑎 − ∆𝑥𝑏
𝑡=
𝑒𝑒
Luego:
1. Se calcula el valor de (∑ xa)2 = 2116
2. Se calcula el valor de (∑ xb)2 = 1936
3. Se calcula la media del grupo 1: ∆xa = 11,5
4. Se calcula la media del grupo 2: ∆xb = 8,8
5. Se resta el valor de la media del grupo 2 al grupo 1: ∆xa - ∆xb = 2,7 (esto nos da el valor de la
parte superior de la ecuación)
6. Se reemplazan los valores en la ecuación
∆𝑥𝑎 − ∆𝑥𝑏
𝑡=
2 2
2 (∑ 𝑥𝑎 ) 2 (∑ 𝑥𝑏 )
(∑ 𝑥𝑎 − ) + (∑ 𝑥𝑏 − )
𝑛𝑎 𝑛𝑏 𝑛 + 𝑛𝑏
√ [ 𝑎 ]
(𝑛𝑎 + 𝑛𝑏 − 2) 𝑛𝑎 𝑛𝑏
[ ]
12 [ POLITÉCNICO GRANCOLOMBIANO]
2,7
𝑡=
2116 1936
(542 − ) + (390 − )
√[ 4 5 ] [4 + 5 ]
(4 + 5 − 2) 4∗5
2,7
𝑡=
(542 − 529) + (390 − 387,2) 9
√[ ][ ]
7 20
2,7
𝑡=
(13) + (2,8)
√[ ] [0,45]
7
2,7
𝑡=
√[2,25][0,45]
2,7
𝑡=
√1,0125
2,7
𝑡=
1,0062
𝑡 = 2,679
7. Se hallan los grados de libertad (gl = na + nb – 2 = 7)
8. Luego de esto se consulta la tabla de valores críticos. Para 7 gl, con un alfa de 0,05 y con una
prueba a dos colas, el valor crítico de t es de 2,365.
9. Comparamos nuestro resultado con el de la tabla. Al ser mayor el nuestro podemos decir que
la diferencia entre las medias es significativa.
Al poseer una variable categórica se requiere estipular los valores de las etiquetas, por ello
vamos a la casilla correspondiente a [Valores] en la fila de la variable nominal (GRUPO) (deben
Fuente. Elaboración propia
aparecer unos puntos suspensivos). Esto nos lleva al siguiente cuadro de diálogo:
En él asignamos los valores a cada una de las etiquetas, dependiendo de las características de
las variables y de las categorías asignadas a ella. Para nuestro ejemplo asignamos el valor
numérico 1 como etiqueta de la categoría Grupo 1, y el valor numérico 2 como etiqueta de la
categoría Grupo 2. Vamos añadiendo y aceptamos.
14 [ POLITÉCNICO GRANCOLOMBIANO]
Fuente. Elaboración propia
Nuestra vista de datos debe diferenciar los valores de los grupos y los valores de los puntajes de
ansiedad, como sigue:
Note que, a diferencia de las columnas y valores utilizados para las muestras relacionadas, en
este caso los valores de la variable cuantitativa están en una misma fila. Técnicamente es
posible hacer este mismo procedimiento para muestras relacionadas, colocando, en la variable
grupo, los momentos de tratamiento 1 y 2; pero los resúmenes estarían dados, no para distintas
variables, sino para grupos de casos.
16 [ POLITÉCNICO GRANCOLOMBIANO]
En este caso el programa nos abre un cuadro de diálogo como el que sigue:
Primero se define la variable de agrupación. Esta debe ser una variable categórica que informe
de los grupos; por tal razón, para este ejemplo, seleccionamos la variable (GRUPO) como
variable de agrupación. El programa, automáticamente, solicita que se [Definan los grupos]
Luego de esto se asigna la variable o variables a contrastar que, para nuestro caso, es el puntaje
de ansiedad, y se procede a [Aceptar]. SPSS debe arrojarnos un cuadro de resultados como el
que sigue:
Aquí es importante notar que la prueba t para muestras independientes arroja un valor de una
prueba adicional que no es otra que la prueba de Levene para la igualdad de varianzas. Esta,
como cualquier prueba inferencial, es una prueba de hipótesis donde la hipótesis nula supone
que se asumen varianzas iguales. Para este caso, si el valor de p de la prueba de Levene es
superior (>) a 0,05, se acepta la hipótesis nula, asumiéndose las varianzas como iguales, y
18 [ POLITÉCNICO GRANCOLOMBIANO]
seleccionando la primera fila de datos. Así, el valor seleccionado para la prueba t de diferencia
de medias es el que aparece abajo señalado en rojo (sig = 0,03)
Note que el valor de t es el mismo al hallado de forma manual. Al igual, la significancia, al ser
menor (<) a 0,05 señala que existen diferencias significativas entre los dos grupos. El informe
del resultado queda idéntico al expresado arriba.
Luego, se selecciona el eje de [categorías] que va a estar definido por la variable de agrupación y,
posteriormente, la variable a contrastar, la cual siempre será nuestra variable numérica.
Dándonos como resultado un cuadro como el siguiente:
20 [ POLITÉCNICO GRANCOLOMBIANO]
Luego de ello procedemos a [Aceptar]. SPSS debe arrojarnos un cuadro de resultados y una
imagen como la que sigue:
El gráfico hace evidente la diferencia entre los dos grupos en cuanto a los valores medidos en la
prueba de ansiedad.
Hechas estas explicaciones procedemos a ver otro caso común en los análisis cuantitativos, el
cual tiene que ver con la comparación de más de dos grupos.
Hasta el momento hemos visto la comparación de dos muestras, bien de los mismos individuos
o de individuos o grupos distintos. Sin embargo, es común encontrarse con la necesidad de
comparar más de dos muestras. En esto casos al estudiante le será útil aprender sobre el
análisis de varianza o comparaciones a través de la prueba de diferencia entre más de dos
condiciones ANOVA.
En esta unidad hablaremos del análisis de varianza unidireccional o ANOVA a un factor. Al ser
una prueba paramétrica exige los requisitos siempre mencionados para este tipo de pruebas: 1.
Normalidad, 2. Homogeneidad de la varianza y 3. Medidas escalares.
La hipótesis nula en el ANOVA supone que las poblaciones de las que se han obtenido de
manera aleatoria las muestras no difieren entre sí o tienen medias iguales. Para este caso H0 : µ1
= µ2 = µ 3
El análisis de varianza (ANOVA) compara las varianzas entre los grupos con la varianza
intragrupos. Aquí es importante señalar que se trata de evaluar qué tanto varían los valores al
interior de una categoría de una variable y comparar estos valores con las variaciones promedio
de otras categorías de la misma variable. De esta manera puede resultar una baja variación
intragupo y una alta variación entre grupos. Aunque también es de suponer que se pueda hallar
una alta variación al interior de los grupos y poca diferencia entre ellos.
El análisis de varianza parte del supuesto estadístico de que los grupos no tendrán grandes
variaciones a su interior (es decir, los grupos deben mostrar una baja variabilidad intragrupo).
Cuando esto no sucede, es decir, cuando hay una alta variabilidad intragrupo, se habla de error
como una variación indeseable que oscurece el efecto de la variable independiente (Coolican,
2005, p.329). La varianza calculada de este error se conoce como varianza de error y llega a ser
importante para entender los análisis de varianzas.
Coeficiente F
El coeficiente F es el resultado de comparar la varianza entre grupos con la varianza intra grupos.
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠
𝐹=
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑖𝑛𝑡𝑟𝑎 𝑔𝑟𝑢𝑝𝑜𝑠
22 [ POLITÉCNICO GRANCOLOMBIANO]
A partir de la hipótesis nula se supone que, si las medias se obtienen de manera aleatoria de la
misma población, el estimado de la varianza poblacional entre grupos debería ser igual al
estimado de la varianza intragurpos, con lo cual el valor de F debería ser idéntico a 1. A partir de
la ecuación de la varianza
∑(𝑥𝑖 − ∆𝑥)2
2
𝑆 =
𝑛− 1
Luego, se calcula la varianza de todos los componentes (conocida también como media de la
suma de cuadrados MS), que es simplemente la división de la Sc por los grados de libertad. Hay
que advertir que los grados de libertad varían entre grupos e intra grupos. Los grados de
libertad totales dependen del n total calculado entre todos los grupos que, para este caso será
de 12.
gl Total = n – 1 = 12 – 1 = 11.
Entre grupos los grados de libertad depende de las cantidades de condiciones o de grupos (k)
gl Entre = k – 1 = 3 – 1 = 2.
Intra grupos los grados de libertad se calculan de la siguiente forma
gl Intra = gl Total – gl Entre = 11 – 2 = 9.
Así, aplicando esta pequeña ecuación podemos calcular las medias de las sumas de los
cuadrados.
𝑆𝑐
𝑀𝑆 =
𝑔𝑙
𝑆𝑐(𝑒𝑛𝑡𝑟𝑒)
𝑀𝑆𝑒𝑛𝑡𝑟𝑒 =
𝑔𝑙(𝑒𝑛𝑡𝑟𝑒)
55,5
𝑀𝑆𝑒𝑛𝑡𝑟𝑒 =
2
𝑴𝑺𝒆𝒏𝒕𝒓𝒆 = 𝟐𝟕, 𝟕𝟓
𝑆𝑐(𝑖𝑛𝑡𝑟𝑎)
𝑀𝑆𝑖𝑛𝑡𝑟𝑎 =
𝑔𝑙(𝑖𝑛𝑡𝑟𝑎)
51,5
𝑀𝑆𝑖𝑛𝑡𝑟𝑎 =
9
𝑴𝑺𝒊𝒏𝒕𝒓𝒂 = 𝟓, 𝟕𝟐
El valor de F será igual a
𝑀𝑠 𝑒𝑛𝑡𝑟𝑒
𝐹=
𝑀𝑠 𝑖𝑛𝑡𝑟𝑎
27,75
𝐹=
5,72
𝐹 = 4,85
24 [ POLITÉCNICO GRANCOLOMBIANO]
Este valor de F se compara con la tabla para valores críticos de F con 2 gl entre (numerador) y 9
gl intra (denominador). El valor crítico en la tabla es de 4,26. El valor calculado supera este valor
crítico, con lo cual se sabe que existen diferencias significativas entre los grupos.
26 [ POLITÉCNICO GRANCOLOMBIANO]
Allí seleccionamos como factor la variable categórica o aquella que diferencie los grupos (para
este caso GRUPO). Luego, seleccionamos, en [Lista de dependientes] la variable escalar
[PUNTAJE] y le damos a [Aceptar]. SPSS debe arrojarnos una tabla de resultados como la
siguiente:
ANOVA
Puntaje
Suma de cuadrados gl Media cuadrática F Sig.
Inter-grupos 55,500 2 27,750 4,850 ,037
Intra-grupos 51,500 9 5,722
Total 107,000 11
Allí se pueden ver los valores de los gl inter grupos e intra grupos, al igual que el gl total.
También podemos encontrar el valor de F, el cual es idéntico al encontrado de manera manual.
El valor de la significancia (sig. = 0,037), al ser inferior (<) a 0,05, indica que existen diferencias
significativas entre los grupos. El informe del análisis es el mismo que aparece arriba.
El procedimiento para realizar el gráfico del ANOVA sigue los mismos parámetros y comandos
que el utilizado para la prueba t para muestras independientes, sólo que en lugar de dos grupos
aparecerán tres. Por ello se omite en esta ocasión.
Hasta el momento hemos estado trabajando sobre pruebas que cumplen tres condiciones
importantes: 1. Normalidad, 2. Homogeneidad de varianzas, y 3. Tipo de medida escalar. En la
siguiente unidad vamos a conocer las pruebas que se aplican en los mismos casos de
comparación cuando no se cumple alguno de los criterios mencionados. Estas pruebas recibirán
el nombre de pruebas no paramétricas.