Sunteți pe pagina 1din 41

Diseo

Experimental
Pruebas de
significancia.
AUTOR: John Sornoza Sexto Nivel
Diferencia mnima
significativa
Cuando el anlisis de varianza indica la existencia de una
diferencia significativa se desea conocer cul de los pares de
medias causa la diferencia. Cuando las muestras son de igual
tamao la Diferencia Significativa Mnima (DSM) de Fisher nos
ayuda a localizar esta fuente.
La Diferencia Significativa Mnima (DSM) se define como la
diferencia mnima que podra existir entre dos medias de
muestras significativamente diferentes. Para obtener la frmula
para la DSM, se usa la prueba t de Student para la diferencia
entre dos medias cuando las varianzas no son diferentes cuyo
estadstico de contraste es:
Adems, si se considera ni = nj = n,
entonces

Si este valor calculado es mayor que el


valor terico (de tablas) decimos que la
diferencia entre m 1 y m 2 es
significativa. As, la DSM puede
considerarse como la menor de las
diferencias es decir.
Donde y , por lo tanto, se
tiene:

(UNC, 2010)
CUANDO USARLO?
Cuando no exista diferencia notable en
la dispersin de los tratamientos (muy
cercanos a la homogeneidad de
varianzas).

Cuando el valor p de la prueba de


significancia (del anlisis de varianza)
sea lo ms cercano a 0, posible.

Cuando no se tienen ms de 4
tratamientos.
Ejercicio
Un ingeniero de desarrollo de productos est interesado
en maximizar la resistencia a la tensin de una nueva
fibra sinttica que se emplear en la manufactura de tela
para camisas de hombre. El ingeniero sabe por
experiencia que la resistencia es influida por el porcentaje
de algodn presente en la fibra. Adems, l sospecha que
elevar el contenido de algodn incrementar la
resistencia, al menos inicialmente. Tambin sabe que el
contenido de algodn debe variar aproximadamente entre
10 y 40 % para que la tela resultante tenga otras
caractersticas de calidad que se desean (como capacidad
de recibir un tratamiento de planchado permanente). El
ingeniero decide probar muestras a cinco niveles de
porcentaje de algodn: 15, 20, 25, 30 y 35 %. As mismo,
decide ensayar cinco muestras a cada nivel del contenido
de algodn. Los datos aparecen en la tabla (UNC, 2010).
El valor del percentil se encuentra en una tabla de
student con 20 grados de libertad y un nivel de significancia
, este valor es 2.086. El valor de se obtiene de la
tabla de l anlisis de varianza. Por tanto
Los cinco promedios de tratamientos son:

entonces se rechaza Ho, es decir existe diferencia significativa


entre la resistencia promedio cuando los porcentajes de
algodn son 15% y 20%. (Delgado, 2001).
Prueba de Duncan
Se utiliza para comparar todos los pares de
medias. Fue desarrollado por primera vez por
Duncan en 1951 pero posteriormente l mismo
modific su primer mtodo generando el que
ahora se denomina Nuevo mtodo de Rango
Mltiple de Duncan. Esta prueba no requiere de
una prueba previa de F, como sucede con la DMS
o sea que an sin ser significativa la prueba F
puede llevarse a cabo.
La Prueba del Rango mltiple Duncan es otra
prueba para determinar la diferencia entre
pares de medias despus que se ha rechazado
la hiptesis nula en el anlisis de varianza
(Delgado, 2001).
Ejercicio.

ANLISIS DE
VARIANZA
Probabilid
FV SC GL CM F ad Ft
Tratamien 14,75682 9,1279E- 2,866081
tos 475,76 4 118,94 38 06 4

Error 161,2 20 8,06

Total 636,96 24
Prueba de Tukey.
Este mtodo es muy similar en la aplicacin
al de DMS , salvo por el hecho de que en
lugar de utilizar las distribuciones de t como
base para realizar las comparaciones, se
emplea la distribucin del rango
estandarizado o estudentizado.
Sirve para probar todas las diferencias entre
medias de tratamientos de una experiencia.
La nica exigencia es que el nmero de
repeticiones sea constante en todos los
tratamientos (Reyes, 2014).
Donde:
q es una valor que se obtiene de una tabla
(Tabla de Tukey) , de manera parecida a la
tabla de F . Horizontalmente se colocan los
grados de libertad de los tratamientos y
verticalmente los grados de libertad del error.
Solamente existen tablas para niveles de
significancia del 5% y del 1%.
El trmino que est dentro de la raz cuadrada
se llama error estndar de la media y es igual
al cuadrado medio del error (obtenido en el
anlisis de varianza), dividido entre el nmero
de repeticiones (Reyes, 2014).
Procedimientos.
Se obtiene el error estndar.
Obtener Ta
Calcular la diferencia de las medias y realizar
las comparaciones con el valor crtico.
Hacer las conclusiones
Ejercicio.

ANLISIS DE
VARIANZA
Probabilid
FV SC GL CM F ad Ft
Tratamien 14,75682 9,1279E- 2,866081
tos 475,76 4 118,94 38 06 4

Error 161,2 20 8,06

Total 636,96 24
Se deben obtener las medias de los
tratamientos:

Niveles de
algodn. Medias
T1 9,8
T2 15,4
T3 17,6
T4 21,6
T5 10,8
Se construye la matriz de diferencias entre
todos los posibles pares de medias:

T4 T3 T2 T5 T1
Niveles de
algodn. Medias 21,6 17,6 15,4 10,8 9,8
T1 9,8 11,8 7,8 5,6 1
T5 10,8 10,8 6,8 4,6
T2 15,4 6,2 2,2
T3 17,6 4
T4 21,6
Se calcula W, la diferencia mnima significativa a un cierto nivel de significancia (), dada por la siguiente expresin:

Volvemos a la matriz de diferencias y se observa columna por columna, si
las diferencias son > tratamientos, y colocamos un asterisco para
resaltar esas diferencias.

T4 T3 T2 T5 T1
Niveles de
algodn. Medias 21,6 17,6 15,4 10,8 9,8
T1 9,8 11,8* 7,8* 5,6* 1
T5 10,8 10,8* 6,8* 4,6
T2 15,4 6,2* 2,2
T3 17,6 4
T4 21,6 =5,02
Presentacin de los
resultados.
TRATA Medias n E.E.
T1 9,80 5 1,27 A
T5 10,80 5 1,27 A B
T2 15,40 5 1,27 B C
T3 17,60 5 1,27 C D
T4 21,60 5 1,27 D

Contrastes ortogonales:
Un contraste en estadstica es una combinacin lineal de
las medias de los tratamientos definida por la suma de
productos de las medias de tratamiento por un coeficiente.

Estos coeficientes deben cumplir con la caracterstica de


que su suma es igual a cero, de tal manera que para
algunas medias sus coeficientes asociados son positivos y
para otras son negativos.

Las reglas de asignacin de los coeficientes va a depender


de la tendencia que se desee encontrar o de la
comparacin de medias que se desee hacer. Cada
contraste tendr asociado un grado de libertad, debido a
que la comparacin que se lleva a cabo es entre dos
grupos de tratamientos, lo que llevan el signo positivo
contra los que llevan el signo negativo.
Contrastes Ortogonales
Dos contrastes sern ortogonales si la suma de los productos de
sus correspondientes coeficientes es igual a cero. Esto implica
que la covarianza entre los dos contrastes es igual a cero, y por
lo tanto los contrastes van a ser independientes.

Eneste sentido la ortogonalidad implica independencia. Si todos


los contrastes formulados son ortogonales entre si, entonces
esto llevara a que la suma de cuadrados acumulada en todos
los contrastes ortogonales corresponda exactamente a la suma
de cuadrados de los tratamientos.

La suma de cuadrados asociada a un contraste se calcula por el


cuadrado de la combinacin lineal de las medias multiplicada
por el numero de repeticiones y dividida por la suma de los
cuadrados de los coeficientes de la combinacin lineal. Esta
suma de cuadraos siempre lleva asociada un solo grado de
libertad.
Los contrastes ortogonales pueden ser usados para
estimar las sumas de cuadrados asociadas a los
diferentes componentes de un modelo polinomial,
siempre y cuando los datos experimentales tengan
las siguientes dos caractersticas:

Experimento balanceado, lo que es un requisito


general para aplicar contrastes.
Los niveles del factor deben estar igualmente
espaciados
Si alguna de estas caractersticas no se da en el
conjunto de datos, se recomienda aplicar la tcnica
de la regresin para llevar a cabo la separacin de
la suma de cuadrados de tratamientos en las
diferentes tendencias
El ejemplo de los lubricantes y desgaste de las piezas consiste
de tres tratamientos, cada uno con 8 repeticiones. El A y B son
lubricantes nuevos y disponibles que se pueden usar en el
proceso, y el lubricante C que es el que convencionalmente se
utiliza en el proceso. Entonces podemos generar los siguientes
contrastes con sus coeficientes y clculos requeridos para
determinar las pruebas de significancia:
Lubricante A B C
Media 9.35 11.425 16.7125 Suma
C vs (A B) 1 1 -2 -12.65
A vs. B 1 -1 0 -2.075

C vs (A B) 9.35 11.425 -33.425
A vs. B 9.35 -11.425 0

A partir de las cantidades en la tabla podemos calcular las


sumas de cuadrados correspondientes a cada contraste:
Contraste convencional vs. Nuevas alternativas:
S.C. = 8*(-12.65)2/6 = 213.3633
Contraste alternativa A vs. Alternativa B:
S.C. = 8*(-2.075)2/2 = 17.2225
Estas sumas de cuadrados pueden ser agregadas
a la tabla de anlisis de varianza para completar
las pruebas de significancia:

ANLISIS DE VARIANZA
Origen de las Suma de Grados de Promedio de los
variaciones cuadrados libertad cuadrados F
8.7468152
Entre grupos 230.585833 2 115.292917 1
16.187277
C vs. A B 213.363333 1 213.363333 3
A vs. B 17.222500 1 17.222500 1.3066026
Dentro de los
grupos 276.80375 21 13.181131

Total 507.389583 23
Conclusiones
Elvalor de P para el contraste C vs. A B resulto en
0.00061447 que es menor del 0.05, por lo que se
concluye que este contraste es significativo, es
decir, existe diferencia entre el lubricante
convencional y las nuevas alternativas.
Polinomios ortogonales

Los polinomios ortogonales son una forma de


contraste donde lo que se quiere saber es si existe
una regresin (lineal simple, cuadrtica, de tercer
grado, etc..) entre la variable dependiente y los
niveles del tratamiento cuantitativo.
En lugar se los valores reales del tratamiento
cuantitativo se usan transformaciones lineales que
hacen independientes los trminos de la regresin.
De esta forma se tienen contrastes para la
regresin lineal simple, para el trmino cuadrtico,
cbico, etc.

29
Polinomios ortogonales

Los valores de X para hacer


contrastes del tipo de polinomios
ortogonales van a depender del
nmero de niveles que tiene el
tratamiento cuantitativo estudiado.

Estos valores se pueden obtener de


tablas de coeficientes para
polinomios ortogonales (estn en las
lecturas complementarias de este
tema)
30
Comparaciones ortogonales.

Primero decidimos cuntas y cules


comparaciones haremos.

El procedimiento esencialmente consiste


en calcular la MS de la contrastacin y,
luego, obtener el valor Fs . Para ello usamos
la MSerror como denominador:

MS contraste
F s
MS error
La SScontraste se calcula:

SS contraste ni Y i Y
( ) 2

La sumatoria y la media de las


medias son de los k grupos
comparados.

Los ni y las medias de grupo de la


frmula son las que corresponden a
cada grupo del contraste.

Los gl equivalen al nmero de grupos


menos
Comparaciones ortogonales. Un ejemplo.

Analize-it
n 36

CPO por Tratamiento n Media SD SE


1 12 13.517 2.839 0.8195
2 12 11.314 1.756 0.5069
3 12 9.123 3.520 1.0162

Fuente de variacin SS GL MS F p
Tratamiento 115.879 2 57.939 7.39 0.0022
Dentro de grupos 258.894 33 7.845
Total 374.773 35

La tabla del Anlisis de varianza la


informacin inicial: hay (o no hay) diferencias
entre los grupos; existe (o no existe) un efecto
de los tratamientos.
Comparaciones ortogonales.

Primero, calculamos la SS para el grupo de muestras que ser


comparadas (k grupos de cualquier tamao ni):

SS contraste SS control _ 2 trats ni Y i Y


2
( )

Y obtenemos la MS del contraste

SS contraste
2 2
12 ( 13 . 517 11 . 318 ) 24 ( 10 . 218 11 . 318 )
12( 4.837 ) 24 ( 1.210 ) 87.0782

SS
87.0782
MS contraste
contraste
constraste

1
87.0782
Comparaciones ortogonales.

Obtenemos la Fs usando la MSerror :

MS contraste 87.0782
F s 11 .0994 * *
MS error 7.8453

La Fs se compara con el valor de la distribucin F 0.05[1,33] .

En este caso hay una clara diferencia (el grupo control es


significativamente diferente vrs los grupos tratamiento).
Comparaciones ortogonales.

Luego, comparamos los grupos tratamiento entre s :


k

SS contraste SS trat1 _ trat2 ni Y i Y


( ) 2

Y obtenemos la MS del contraste:

SS contraste
2 2
12 ( 11 .314 10 .218 ) 12 ( 9. 123 10.218 )
12( 1.200 ) 12( 1.199 ) 28.803

SS
28.8029
MS contraste
contraste
constraste

1
28.8029
Comparaciones ortogonales.

Obtenemos la Fs usando la MSerror :

MS contraste 28.8029
F s 3.6714 NS
MS error 7.8453

La Fs se compara con el valor de la


distribucin F 0.05[1,33] .

En este caso NO hay una clara diferencia (los


grupos tratamiento no son significativamente
diferentes entre s).
Comparaciones ortogonales. Algunas reglas.

Hay algunas restricciones para las comparaciones


ortogonales:

El patrn y el nmero de las pruebas planeadas son


determinados por las hiptesis sobre los datos.
Hacemos tantas comparaciones como a - 1 grados de
libertad entre grupos.
Cada prueba es una relacin independiente entre las
medias.
Los coeficientes de comparaciones lineares suman 0 (por
comparacin y en la suma de cada grupo).
Comparaciones ortogonales.

Hay ortogonalidad cuando los coeficientes de comparaciones


lineares suman 0 (por comparacin y en el producto de cada
grupo).

Los coeficientes de comparacin linear en el ejemplo recin


calculado fueron:
Comparacin 1: 2 -1 -1 = 0
Comparacin 2: 0 +1 -1 = 0
________________

Ambas (2 x 0) + (-1 x +1) + (-1 x -1) = 0


Comparaciones ortogonales.

Las comparaciones ortogonales tienen la cualidad de que la


SS de los contrastes alcanzan una suma total igual a la SSentre .

De igual modo, los gl de los contrastes suman igual que los gl


de los tratamientos o efectos del anova.
Bibliografa.
Delgado, G. (2001). PRUEBAS DE DIFERENCIA DE
MEDIAS. Obtenido de PRUEBAS DE DIFERENCIA DE
MEDIAS:
http://colposfesz.galeon.com/disenos/teoria/cap13bmj/c
ap13bmj.htm
Reyes, L. (2014). PRUEBA DE TUKEY PARA
EXPERIMENTOS DESBALANCEADOS . Obtenido de
PRUEBA DE TUKEY PARA EXPERIMENTOS
DESBALANCEADOS :
http://reyesestadistica.blogspot.com/2014/05/prueba-
de-tukey-para-experimentos.html
UNC. (2010). Universidad nacional de Colombia.
Obtenido de
http://www.virtual.unal.edu.co/cursos/ciencias/2000352
/html/un3/cont_318-61.html

S-ar putea să vă placă și