Sunteți pe pagina 1din 8

CAPÍTULO 2

DISEÑO COMPLETAMENTE AL AZAR

2.1 INTRODUCCIÓN

En este tipo de diseño están incluidos los principios de repetición y de aleatorización, o sea
que, es utilizado cuando no hay necesidad del control local, debido a que el ambiente experimental y
las condiciones de manejo son homogéneos y los tratamientos se asignan a las unidades experimentales
mediante una aleatorización completa, sin ninguna restricción.

2.1.1 Ventajas

a. La estructura del análisis estadístico es simple.


b. Permite máxima flexibilidad en cuanto al número de tratamientos y número de
repeticiones.
c. La pérdida de observaciones durante la conducción del experimento no genera dificultades
en el análisis y en la interpretación de los resultados.
d. Reúne el mayor número de grados de libertad en el residuo, en comparación con otros
diseños.

2.1.2 Inconvenientes

a. Cuando el número de unidades experimentales es muy grande es difícil encontrar lugares


grandes que presenten la homogeneidad requerida.

b. Debido a que las fuentes de variación no asociadas a los tratamientos o a los niveles del
factor en estudio, están incluidas en el residuo como variación del azar, la buena precisión
de los análisis se ve comprometida.

2.1.3 Aleatorización

Considerando un experimento con t = 5 niveles del factor A (tratamientos) y r = 4 repeticiones


para cada nivel, se tiene que el número total de unidades experimentales (parcelas) incluidas en el
experimento es t x r =5 x 4 = 20. Las (t x r) parcelas serán aleatorizadas sin restricciones, los t niveles
del factor A en estudio con sus r repeticiones, conforme se muestra en el siguiente croquis.

A1 A4 A3 A4 A2

A4 A2 A1 A5 A3

A2 A5 A2 A1 A3

A5 A3 A4 A5 A1
Las respuestas obtenidas en función de la aplicación de cada nivel del factor A en estudio en
sus respectivas repeticiones pueden ser representadas por yij, que es considerada como una variable
aleatoria.

2.2 ANÁLISIS ESTADÍSTICO

A continuación, se muestra la representación de las observaciones de un experimento, con un


factor con t tratamientos (o niveles) y r repeticiones.

Repeticiones
Tratamientos yi
1 2 3 … r
1 y11 y12 y13 … y1r y1
2 y21 y22 y23 … y2r y2
3 y31 y32 y33 … y3r y3
. . . . . . .
. . . . . . .
. . . . . . .
t yt1 yt2 yt3 … ytr yt

̅ . . = 𝒀..
𝒀 𝒕𝒓

2.2.1 Hipótesis
Ho:  = i (Todos los tratamientos producen el mismo efecto)

Ha:   i para al menos un i; i = 1,2, . . . t. (al menos uno de los tratamientos produce
efectos distintos)

2.2.2 Modelo Estadístico

Yij = µ + i + ij i = 1,2, . . . t j
siendo, = 1,2, . . .
2.2.3 Supuestos

Las suposiciones que validan el análisis de varianza son:

a. Los errores son independientes.


b. Los errores están normalmente distribuidos con media cero y varianza constante
c. Existe homogeneidad de varianzas entre los tratamientos
d. El modelo es lineal y de efectos aditivos.

2.2.4 Descomposición de la suma de cuadrados total

El análisis de varianza es un proceso aritmético y estadístico, que consiste en descomponer la


variación total en fuentes o causas de variación. Por variación total se entiende, la variación
entre las
unidades experimentales (o parcelas).

La variabilidad total de las observaciones Yij, cuando no se considera la información acerca de


los tratamientos, es medida en términos de la desviación total de cada observación, esto es, la
desviación de los Yij alrededor de la media general Ῡ..:

̅ ….(1)
𝒀𝒊𝒋 − 𝒀

Cuando se utiliza información acerca de tratamientos, las desviaciones entre cada observación
Yij alrededor de la media estimada de su respectivo tratamiento, reflejan la incertidumbre
restante en los datos, y es dada por:

̅ 𝒊. ...(2)
𝒀𝒊𝒋 − 𝒀

La diferencia entre las desviaciones (1) y (2) refleja la diferencia entre la media estimada de
tratamientos y la media general:

̅ . . ) − (𝒀𝒊𝒋 − 𝒀
(𝒀𝒊𝒋 − 𝒀 ̅ 𝒊) = 𝒀
̅ 𝒊. − 𝒀
̅ … (3)

Note que a partir de la ecuación (3), se puede descomponer la desviación total Yij Y en dos
componentes:

̅ ..
𝒀𝒊𝒋 − 𝒀 = ̅𝒊 − 𝒀
𝒀 ̅ + ̅ 𝒊.
𝒀𝒊𝒋 − 𝒀 (4)
Desviación total. Desviación de la media Desviación alrededor de
estimada de tratamiento la media estimada de
alrededor de la media tratamiento.
general.
A partir de esto, la desviación total Yij .Y puede ser vista como la suma de dos
componentes:

1. La desviación de la media estimada de tratamientos alrededor de la media general.

2. La desviación de Yij alrededor de la media estimada de su tratamiento, que es simplemente,


el residuo eij.
A partir de la ecuación (4) se pueden obtener las expresiones matemáticas utilizadas para
calcular las sumas de cuadrados de tratamientos, error experimental y total. Para realizarlo, se
inicia
obteniendo la suma de cuadrados de la desviación total:

Luego, se obtiene la sumatoria de las desviaciones totales al cuadrado:

Como ∑𝑡𝑖=1 ∑𝑟𝑗=1(𝑌𝑖𝑗 − 𝑌̅. . )2 =suma de cuadrados total, y desarrollando el binomio de lado
derecho de la ecuación (5), esta quedaría así:
𝑡 𝑟 𝑟
2
𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = ∑ [𝑟(𝑌̅𝑖 − 𝑌̅. . )2 + 2(𝑌̅𝑖 − 𝑌̅. . ) ∑(𝑌𝑖𝑗 − 𝑌̅𝑖. ) + ∑(𝑌𝑖𝑗 − 𝑌̅𝑖. ) ]
𝑖=1 𝑗=1 𝑗=1

𝑌
Donde: ∑𝑟𝑗=1(𝑌𝑖𝑗 − 𝑌̅𝑖. ) = ∑𝑟𝑗=1 𝑌𝑖𝑗 − 𝑟𝑌̅𝑖. = 𝑌𝑖. − 𝑟 𝑟𝑖 = 𝑌𝑖. − 𝑌𝑖. = 0, por tanto

Entonces:

Suma de cuadrados Suma de cuadrados del


de tratamientos error experimental

2 2 2
𝑌 𝑌 𝑌
Para el primer término de la ecuación (7), como: 𝑌̅𝑖. = 𝑖, 𝑟 ∑𝑡𝑖=1 𝑌̅𝑖. = 𝑟 ∑𝑡𝑖=1 𝑖2 = ∑𝑡𝑖=1 𝑖
𝑟 𝑟 𝑟

𝑌
En el caso del segundo termino −2𝑟𝑌̅. . ∑𝑡𝑖=1 𝑌̅𝑖. , se sabe que 𝑌̅𝑖. = ∑𝑡𝑖=1 𝑟𝑖𝑗, se tiene que:

entonces:
Para finalizar, analicemos el tercer término:

Si:

La expresión de suma de cuadrados para tratamientos (o sea, entre tratamientos) queda de la


siguiente manera:

Para el caso de suma de cuadrados total: ∑𝑡𝑖=1 ∑𝑟𝑗=1(𝑌𝑖𝑗 − 𝑌̅. . )2 , se tiene al desarrollar el
binomio:
2
𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = ∑𝑡𝑖=1 ∑𝑟𝑗=1 [(𝑌𝑖𝑗 ) − 2(𝑌𝑖𝑗 𝑌̅. . ) + (𝑌̅. . )2 ], y al disminuir las sumatorias:

𝑆𝐶𝑡𝑜𝑡𝑎𝑙 = ∑𝑡𝑖=1 ∑𝑟𝑗=1 𝑌𝑖𝑗 2 − 2𝑌̅. . ∑𝑡𝑖=1 ∑𝑟𝑗=1 𝑌𝑖𝑗 + 𝑡𝑟𝑌̅. .2 , y como:

2
2
𝑌.. 2
𝑌.. (∑𝑡𝑖=1 ∑𝑟𝑗=1 𝑌𝑖𝑗 )
(𝑡𝑟)𝑌̅. .2 = (𝑡𝑟) (𝑡𝑟)2 = = , la suma de cuadrados total queda:
(𝑡𝑟) 𝑡𝑟

La suma de cuadrados del error (o sea, dentro de tratamientos), se obtiene por diferencia:
𝑆𝐶𝑒𝑒 = 𝑆𝐶𝑡𝑜𝑡𝑎𝑙 − 𝑆𝐶𝑡𝑟𝑎𝑡. ,
2.2.5 Prueba de F

La estadística F es definida como la razón de dos variables aleatorias independientes con


distribución 𝑥 2 (Ji-cuadrada o Chi-Square), cada una de ellas dividida por sus respectivos
grados de libertad, o sea:

𝑄1 /𝑛1
𝐹=
𝑄2 /𝑛2

siendo Q1 una variable aleatoria con distribución𝑥 2 y n1 grados de libertad y Q2 una variable
aleatoria con distribución𝑥 2 y n2 grados de libertad, ambas independientes.

Así, considerando que SCtrat/ tiene distribución 2con (t1) grados de libertad, bajo Ho, y
SCeet/ tiene distribución 2 con t (r1) grados de libertad y, son independientes, entonces el
cociente entre esas variables aleatorias, o sea:

𝑆𝐶𝑡𝑟𝑎𝑡 /(𝑡 − 1) 𝐶𝑀𝑡𝑟𝑎𝑡


= = 𝐹𝑜 ,
𝑆𝐶𝑒𝑒 /𝑡(𝑟 − 1) 𝐶𝑀𝑒𝑒
Tiene distribución Fde Fisher & Snedecor con(t-1) y t(r-1) grados de libertad, bajo Ho.
Ese cociente es la estadistia apropiada para evaluar la Ho, o sea: t1=. . . =t1=0.

Así, se puede decidir por el rechazo de Ho, al nivel ∝ de significancia si:

en que F(;t1; t (r1)), es el cuantil de orden (1) de la distribución F con (t1) y t (r1) grados
de libertad, como se muestra en la gráfica siguiente:

Sí el valor observado de F (Fo) es superior al valor crítico F(;t1; t (r1)), la Ho es rechazada, por
lo tanto
se concluye que existen diferencias significativas entre los efectos de los tratamientos.
2.2.6 Análisis de varianza o variación con aplicación de la prueba de F

El esquema del análisis de varianza abreviado como ANDEVA, ANOVA (ANalysis Of


VAriance) o bien ANVA; y las expresiones necesarias para la aplicación de la estadística F,
para la prueba de hipótesis se presentan en el siguiente cuadro.

Regla de Decisión
Rechazar Ho. Si Valor de F  F crítico (gl trat; gl error; )
No Rechazar Ho. Si Valor de F < F crítico (gl trat; gl error; )

Fcrítica = Valor crítico de F encontrado en la tabla F de Fisher & Snedecor, considerando los
grados de libertad de tratamientos (v1), los grados de libertad del error (v2) y un
determinado nivel de significancia ()

2.2.7 Coeficiente de Variación (CV)

Se le puede considerar como medida relativa de la variación que no es posible controlar en el


experimento (error experimental) y se calcula de la siguiente forma:

√𝐶𝑀𝑒𝑒
𝐶𝑉 = 𝑥100
𝑌̅..
El coeficiente de variación da una idea de la precisión del experimento, a un valor alto de CV
corresponde un alto error experimental, lo cual indica que existe poca capacidad del
experimento para
detectar diferencias significativas entre los tratamientos.

“De modo general, altos coeficientes de variación indican experimentos mal manejados”, pero
no siempre. El hecho de que el coeficiente de variación sea alto puede deberse no solamente al
mal
manejo del experimento, sino también a:

a) tipo de variable de respuesta (escala de medición).


b) tipo de tratamientos.
c) errores en el análisis de la información, etc.
El CV puede ser utilizado para comparar la precisión experimental de variables experimentales
semejantes. Es conveniente que el investigador revise bibliografía sobre los valores de
coeficiente de variación obtenidos en cada cultivo y condición donde se realizó el experimento
(por ejemplo, un valor de CV=10% puede ser considerado un valor bajo, pero para algunas
condiciones no).

Considere la siguiente situación donde se tienen las siguientes observaciones de una variable
de respuesta:

Observe que hubo una reducción del valor del CV% para la variable transformada. Por eso, el
CV% no siempre es un buen indicador de la precisión experimental (Dos Anjos, 2003). Para
más información sobre control de calidad de experimentos puede consultar el texto de Storck et
al. (2011).

S-ar putea să vă placă și