Documente Academic
Documente Profesional
Documente Cultură
4/d/yyyy
Resumen
El procedimiento de Comparación de Varias Muestras está diseñado para comparar dos o más
muestras independientes de datos variables. Se hacen pruebas para determinar si hay o no
diferencias significativas entre las medias, varianzas y/o medianas de las poblaciones de las que
se tomaron las muestras. Además, se pueden desplegar los datos gráficamente de varias maneras,
incluyendo una gráfica de dispersión múltiple, una gráfica ANOM y una gráfica de medias.
Los resultados de este procedimiento son idénticos al los del procedimiento ANOVA de una vía.
Datos de Muestra:
El archivo pulse rates.sf6 contiene los resultados de un experimento reportado por Milliken y
Johnson (1992) en el que 78 trabajadores fueron asignados en seis grupos al azar. A cada grupo
se le dio una tarea a realizar y se midieron las tasas de pulsación luego de que cada individuo
trabajó por una hora en su tarea asignada. Luego de que varios individuos abandonaron el
estudio, los datos finales fueron:
Las n = 68 mediciones finales han sido arregladas en q = 6 columnas, una para cada grupo de
sujetos.
Alternativamente, los datos pudieron ser arreglados en una tabla con las tasas de pulsación en
una sola columna junto con una columna identificando qué tarea se le dio al sujeto. Una porción
de tal archivo se muestra abajo:
Cualquier estructura de datos puede ser analizada por el procedimiento Análisis Multimuestral.
Si los mismos datos se usarán en otros procedimientos tales como el procedimiento de Modelos
Lineales Generales, estos deben ser estructurados de la segunda manera. Como parte de la
opción Guardar Resultados en este procedimiento, puede tomar un conjunto de datos que esté
estructurado en el formato de múltiples columnas y rearreglarlo como columnas de datos
cifrados.
Datos de Entrada
Cuando el procedimiento Comparación de Datos Múltiples se selecciona en el menú principal, el
primer cuadro de diálogo desplegado le pide especificar el formato en el que los datos serán
ingresados:
• Múltiples Columnas de Datos: indica que cada muestra se ha colocado en una columna
separada.
• Columnas de Códigos y Datos: indica que todas las observaciones se han colocado en una
sola columna, con una segunda columna indicando a qué muestra pertenece cada
observación.
• Estadísticos Muestrales: indica que las observaciones originales no están disponibles. Sin
embargo, los tamaños de muestra, las medias muestrales, y las desviaciones estándar
muestrales se han colocado en 3 columnas de la hoja de datos. En este caso, algunas opciones
no estarán disponibles.
• Muestras: dos o más columnas numéricas que contienen las observaciones, una columna
para cada muestra.
© 2006 por StatPoint, Inc. Comparación de Varias Muestras - 3
STATGRAPHICS – Rev. 4/d/yyyy
Estadísticos de Muestra
Si las observaciones originales no están disponibles, pero se conocen la media y la desviación
estándar de cada muestra, ingrese los estadísticos muestrales en la hoja de datos en columnas
separadas.
• Medias muestrales: columna numérica que contiene las medias de cada muestra.
• Tamaños de muestra: columna numérica que contiene los tamaños de cada muestra.
• Etiquetas de la muestra: columna opcional que contiene etiquetas para cada muestra.
50
45
40
respuesta
35
30
25
20
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
Si hay muchos valores comunes, tal vez deseé añadir una pequeña cantidad despacio horizontal a
la gráfica, presionando el botón Separar de la barra de herramientas de análisis.
Esto fija cada punto al azar en dirección horizontal de tal modo que valores idénticos no se
encimen:
50
45
40
respuesta
35
30
25
20
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
La gráfica de arriba parece sugerir que las tasas de pulsación son de alguna manera más altas en
aquellos que realizaron las tareas 3 y 4. Nota: Agregar espacio a la gráfica de dispersión no tiene
efecto en ningún cálculo.
Estadísticos de Resumen
El panel Estadísticos de Resumen calcula diferentes estadísticos que son usados comúnmente
para resumir una muestra de datos variables:
Resumen Estadístico
Recuento Promedio Desviación Estándar Coeficiente de Variación Mínimo Máximo Rango
Tarea 1 13 31.9231 4.95751 15.5296% 26.0 39.0 13.0
Tarea 2 12 31.0833 5.66422 18.2227% 24.0 40.0 16.0
Tarea 3 10 35.8 5.30827 14.8276% 30.0 44.0 14.0
Tarea 4 10 38.0 6.59966 17.3675% 28.0 47.0 19.0
Tarea 5 12 29.5 6.00757 20.3646% 20.0 41.0 21.0
Tarea 6 11 28.8182 4.75012 16.4831% 21.0 37.0 16.0
Total 68 32.3088 6.24203 19.3199% 20.0 47.0 27.0
Los estadísticos incluidos por defecto en la tabla son controlados por las opciones del panel
Estadísticos del cuadro de diálogo Preferencias. Con este procedimiento, la selección puede
cambiarse usando el Panel de Opciones. Para una descripción detallada de cada estadístico, vea
la documentación Análisis de una Variable.
Para las tasas de pulsación, la tasa promedio fue más alta para el grupo 4, así como la desviación
estándar. Todos los estadísticos de simetría y de kurtosis están en el rango esperado para datos
que vienen de distribuciones normales.
Panel de Opciones
Task 1
Task 2
Task 3
Task 4
Task 5
Task 6
20 25 30 35 40 45 50
respuesta
• Se dibuja una caja que va del cuartil inferior de la muestra hasta el cuartil superior.
Este es el intervalo cubierto por 50% de los datos cuando se ordenan de menor a
mayor.
• Se dibujan bigotes desde los bordes de la caja hasta los valores más pequeño y más
alto, a menos que haya valores inusualmente lejos de la caja (los que Tukey llama
aberrantes). Los puntos exteriores, que son puntos abajo o arriba de la caja más de
1.5 veces el rango intercuartil, se indican con símbolos de punto. Cualquier punto que
esté abajo o arriba de la caja más de tres veces el rango intercuartil se llama
aberrante lejano, y se indican por símbolos de punto con signos de suma
superimpuestos encima de ellos. Si hay puntos exteriores, los bigotes se dibujan hacia
los valores más grande y más pequeño que no sean puntos exteriores.
En los datos muestrales, la variabilidad parece ser similar en cada muestra, aunque las locaciones
muestran algunas diferencias. No hay puntos exteriores.
Panel de Opciones
50
45
40
respuesta
35
30
25
20
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
~ z 1.25( IQR j ) ⎛ 1 ⎞
xj ± α /2 ⎜1 + ⎟ (1)
2 1.35 n j ⎝ 2⎠
Como las muestras varían en tamaño, la regla de traslape no funcionará a la perfección. Sin
embargo, los cortes para las tareas 4 y 6 no se traslapan, lo que típicamente indicaría una
diferencia significativa entre esas dos medianas a un nivel de significancia del 5%.
Tabla ANOVA
Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P
Entre grupos 694.439 5 138.888 4.49 0.0015
Intra grupos 1916.08 62 30.9045
Total (Corr.) 2610.51 67
El F-radio es de particular importancia, el cual prueba la hipótesis de que la respuesta media para
todas las muestras es la misma. Formalmente, prueba la hipótesis nula
H0: μ1 = μ2 = ... = μq
La importancia estadística del F-radio se juzga más fácilmente por su P-valor. Si el P-valor es
menor que 0.05, la hipótesis nula de medias iguales se rechaza a un nivel de significancia del
5%, como en este ejemplo. Esto no implica que cada media sea significativamente diferente que
las otras. Simplemente implica que no todas las medias son la misma. Determinar cuáles medias
son significativamente diferentes de cuáles otras requiere pruebas adicionales, como se discute
abajo.
ν R ni
(2)
νT n
donde νR es los grados de libertad residuales, νT es los grados de libertad entre las diferencias
grupales, ni es igual al número de observaciones en el i-ésimo nivel del grupo, y n es el número
promedio de observaciones en todos los grupos. Esto escala los efectos de tal manera que la
varianza natural de los puntos en el diagrama es comparable a la de los residuales, los cuales se
despliegan en la parte baja de la gráfica.
Task 6 Task 2
Task 5 Task 1 Task 3 Task 4
Grupos P = 0.0015
Residuos
-13 -3 7 17 27
Al lado derecho del display está el P-valor para las diferencias dentro del grupo, tomado de la
tabla ANOVA.
Comparando la variabilidad entre los efectos en la gráfica de arriba con la de los residuales, es
fácil ver que las diferencias son de una mayor magnitud que las que podrían explicarse
solamente por el error experimental. Dependiendo de la localización relativa de los efectos,
podría también ser posible en algunos casos identificar visualmente cuáles muestras son
significativamente diferentes de cuáles otras, lo cual es hecho formalmente por las Pruebas de
Rangos Múltiples descritas abajo.
* indica una
diferencia significativa.
La mitad de arriba de la tabla muestra cada una de las medias muestrales estimadas en un orden
de magnitud creciente. Muestra:
Δ$ j1 j2 = Y j1 − Y j2 (3)
⎛ 1 1 ⎞
Δ$ j1 j2 ± M MS within ⎜⎜ + ⎟⎟ (4)
⎝ n j1 n j2 ⎠
Para los datos de tasa de pulsación, Tarea 4 tiene una tasa de pulsación media significativamente
mayor que cualquier tarea excepto Tarea 3. Además, Tarea 3 es significativamente mayor que
Tareas 5 y 6.
Panel de Opciones
• LSD - forma un intervalo de confianza para cada par de medias al nivel de confianza
seleccionado usando:
M = tα / 2 ,n − q (5)
• Tukey HSD – ensancha los intervalos para permitir comparaciones múltiples entre todos
los pares de medias, usando
M = Tα/2,q,n-q (6)
( )
que usa la t de Tukey en vez de la t de Student. La t de Tukey es igual a 1 / 2 veces el
rango de la distribución Studentizada, que es tabulada en algunos libros como en Neter et
al. (1996). Tukey llamó a su procedimiento el de Diferencia Honestamente Significativa
ya que controla la tasa de error experimental a α. Si todas las medias son iguales, la
probabilidad de declarar a cualquiera de los pares como significativamente diferentes en
todo el experimento es igual a α. El procedimiento de Tukey es más conservador que el
procedimiento LSD de Fisher, pues hace más difícil declarar cualquier par particular de
medias como significativamente diferentes.
• Scheffe – diseñado para permitir la estimación de todos los posibles contrastes entre las
medias muestrales (no solo en comparaciones por pares). Usa una múltiple relacionada
con la distribución F.
En esta instancia, es probable que el procedimiento sea muy conservador, pues sólo se
están estimando pares.
pues q(q-1)/2 se están estimando diferencias por pares. Estos límites son usualmente más
anchos que los de Tukey cuando se hacen todas las comparaciones por pares.
Tabla de Medias
Esta tabla despliega cada media muestral junto a un intervalo de incertidumbre:
MS within
Yj ± (9)
nj
sj2
Yj ± (10)
nj
MS within
Y j ± tα / 2 , n − q (11)
nj
• Intervalos de Confianza (S individual) - despliega intervalos de confianza para el grupo
Medias usando la desviación estándar de cada grupo separadamente:
© 2006 por StatPoint, Inc. Comparación de Varias Muestras - 18
STATGRAPHICS – Rev. 4/d/yyyy
2
sj
Y j ± tα / 2,n j −1 (12)
nj
• Intervalos LSD - diseñados para comparar cualquier para de medias con el nivel de
confianza establecido. Los intervalos están dados por:
2M MS within
Yj ± (13)
2 nj
donde M se define como en las Pruebas de Rango Múltiple. Esta fórmula también aplica
para las tres selecciones de abajo.
• Intervalos Tukey HSD - diseñados para comparar todos los pares de medias. El
intervalo de confianza establecido aplica para toda la familia de comparaciones por pares:
• Intervalos Scheffe - diseñados para comparar todos los contrastes. No son muy
relevantes aquí.
Gráfica de Medias
Las medias muestrales pueden ser graficadas junto a los intervalos de incertidumbre:
41
38
35
Media
32
29
26
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
Los tipos de intervalos que pueden usarse son los mismos que en la Tabla de Medias arriba.
Si todos los tamaños de muestra son los mismos (o cercanos), el analista puede determinar cuáles
medias son significativamente diferentes de cuáles otras usando los procedimientos LSD, Tukey,
Scheffe o Bonferroni simplemente viendo si un par de intervalos se traslapan en dirección
vertical o no. Un par de intervalos que no se traslapan indica una diferencia estadísticamente
© 2006 por StatPoint, Inc. Comparación de Varias Muestras - 19
STATGRAPHICS – Rev. 4/d/yyyy
significativa entre las medias al nivel de confianza seleccionado. En este caso, note que el
intervalo de la tarea 4 se traslapa solo con el de la tarea 3, indicando que es significativamente
diferente de todas las demás tareas.
Verificación de Varianza.
Una de las suposiciones que respaldan el análisis de varianza es que las varianzas de las
poblaciones de donde se tomaron las muestras son las mismas. El panel Verificación de Varianza
realiza alguna de varias pruebas para verificar esta suposición.
Verificación de Varianza
Prueba Valor-P
Levene's 0.641611 0.668799
3. Prueba de Hartley: calcula el cociente entre la varianza muestral más grande y la más
pequeña. Este estadístico debe compararse con una tabla de valores críticos, como la
© 2006 por StatPoint, Inc. Comparación de Varias Muestras - 20
STATGRAPHICS – Rev. 4/d/yyyy
contenida en Neter et al. (1996). Para 6 muestras y 62 grados de libertad para error
experimental, H se hubiera excedido aproximadamente 2.1 para ser estadísticamente
significativo a un nivel de significancia del 5%. Nota: esta prueba sólo es apropiada si el
número de observaciones entre cada nivel de tratamiento es el mismo.
Z ij = y ij − y j (14)
Para los datos de tasa de pulsación, no hay razón para rechazar la suposición de que las
desviaciones estándar son las mismas para todos los grupos, ya que los P-valores son mayores
que 0.05. Cualquier diferencia aparente entre las desviaciones estándar muestrales no es
estadísticamente significativa a un nivel de significancia del 5%.
Gráficas de Residuales
Como en todo modelo estadístico, es una buena costumbre examinar los residuales. En un
análisis de varianza de una vía, los residuales se definen por:
eij = y ij − y j (15)
i.e., los residuales son las diferencias entre los valores de datos observados y sus respectivas
medias grupales.
Gráfico de Residuos
12
4
residuos
-4
-8
-12
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
muestra
Gráfico de Residuos
12
4
residuos
-4
-8
-12
28 30 32 34 36 38
valor predicho
Gráfico de Residuos
12
4
residuos
-4
-8
-12
0 20 40 60 80
observación
Si los datos se arreglan en orden cronológico, cualquier patrón de los datos puede indicar una
influencia exterior. No es evidente ningún patrón así en la gráfica de arriba.
Gráfico ANOM
Con 95% Límites de Decisión
39
LDS=36.38
37 LC=32.31
35 LDI=28.24
Media
33
31
29
27
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
Esta gráfica construye una tabla similar a un cuadro de control, donde cada media muestral se
grafica junto a una línea central y los límites de decisión superiores e inferiores. La línea central
se localiza en el promedio de todas las observaciones Y . Los límites de decisión se localizan en
MS within ⎛ q −1⎞
Y ± hn − q ,1−α ⎜⎜ ⎟⎟ (16)
nj ⎝ q ⎠
La ventaja de la gráfica ANOM es que muestra de un vistazo qué medias son significativamente
diferentes que el promedio de todas las muestras. También lo hace usando un tipo de cuadro con
el que muchos ingenieros y operadores están familiarizados. Es fácil ver a partir del cuadro de
arriba que la tarea 4 tiene una tasa de pulsación significativamente mayor que el promedio,
mientras que todas las demás medias caen dentro de los límites de decisión. El procedimiento es
exacto si todos los tamaños de muestra son iguales y es aproximado si no difieren mucho.
Panel de Opciones
1. Ordenar todos los n valores del más pequeño al más grande y clasificarlos, asignando
rango de 1 al más pequeño y de n al mayor. Si dos observaciones cualesquiera son
exactamente iguales, a las observaciones empatadas se les da el mismo rango que al
promedio de las posiciones a las que ocurre el empate.
© 2006 por StatPoint, Inc. Comparación de Varias Muestras - 24
STATGRAPHICS – Rev. 4/d/yyyy
3. Calcular un estadístico de prueba para comparar las diferencias entre los rangos
promedio.
Prueba Kruskal-Wallis
Tamaño de Muestra Rango Promedio
Tarea 1 13 = 15.9995 P-Valor=33.3846
Estadístico 0.00684551
Tarea 2 12 30.5833
Tarea 3 10 46.4
P-valores
Tarea 4 10
pequeños (menores que 0.05 si se opera a un nivel de significancia del 5%) indica
50.35
que
hay diferencias
Tarea 5 12 significativas26.7083
entre las medianas de grupo, como en el ejemplo de arriba.
Tarea 6 11 23.3636
Panel de Opciones
La prueba Friedman es apropiada para un diseño aleatorio de bloques, en el que cada fila de la
hoja de datos representa una condición o bloque particular. En este ejemplo, esto aplicaría si los
mismos 13 sujetos hubiesen realizado cada una de las 6 tareas, en lugar de diferentes sujetos para
cada tarea. El resultado de la prueba Friedman es interpretada de la misma manera que el de la
prueba Kruskal-Wallis.
Muestra Tamaño de Muestra n<= n> Mediana LC inferior 95.0% LC superior 95.0%
Tarea 1 13 7 6 31.0 27.0 38.6056
Tarea 2 12 8 4 29.5 25.0 39.6809
Tarea 3 10 2 8 34.0 30.3244 44.0
Tarea 4 10 2 8 37.0 28.9733 46.3511
Tarea 5 12 8 4 29.0 21.5318 34.8936
Tarea 6 11 8 3 28.0 23.8509 35.5745
Arriba de la tabla se despliega el número total de observaciones n y la mediana total. Para cada
muestra la tabla muestra:
Abajo de la pantalla se muestra un estadístico de prueba y un P-Valor. Tratando los n<= y las n>
columnas como columnas de una tabla de contingencia de dos vías, se calcula un estadístico de
prueba ji-cuadrada. P-Valores pequeños (menores que 0.05 operando a un nivel de significancia
del 5%) llevan a la conclusión de que no todas las medianas son iguales, como en este ejemplo.
Panel de Opciones
51
46
41
respuesta
36
31
26
21
Task 1 Task 2 Task 3 Task 4 Task 5 Task 6
Panel de Opciones
Guardar Resultados
Los siguientes resultados pueden guardarse en la hoja de datos:
Cálculos
Análisis de Varianza
( )
q
Intragrupa 2
df within = ∑ n j − 1
SS within
( )
q nj
( )
q nj
Prueba de Cochran
A=
max s 2j ( )
q
(17)
∑s
j =1
2
j
⎛ A ⎞
C = ( q − 1)⎜ ⎟ (18)
⎝ 1 − A⎠
es comparada con una F distribución con (n/q - 1) y (n/q - 1)(q - 1) grados de libertad.
Prueba de Bartlett
donde
MSE =
1 q
( )
∑ n − 1 s 2j
dfe j =1 j (21)
( )
q
dfe = ∑ n j − 1 (22)
j =1
Prueba de Hartley
H=
( )
max s 2j
min (s ) 2 (23)
j
Los límites desplegados son una interpolación no lineal de intervalos de confianza a los niveles
de confianza superior e inferior más cercanos que el nivel requiera. Luego de ordenar las
observaciones, el intervalo que va de la d-ésima observación más pequeña en la muestra a la d-
ésima observación más grande forma un intervalo de confianza para la mediana con un nivel de
confianza 1 – 2 PB(d-1), donde PB representa la distribución binomial con p = 0.5 y n = nj.