Sunteți pe pagina 1din 19

UNIVERSIDAD FRANCISCO DE PAULA SANTANDER

PLAN DE ESTUDIO DE INGENIERÍA AMBIENTAL


ASIGNATURA DE BIOESTADÍSTICA

GUÍA DE APRENDIZAJE DE BIOESTADÍSTICA


TEMA DISEÑO EXPERIMENTAL

Conceptos fundamentales

Un experimento diseñado es una prueba o serie de pruebas en las cuales se inducen


cambios deliberados en las variables de entrada de un proceso o sistema, de manera que sea
posible observar e identificar las causas de los cambios en la respuesta de salida.

El diseño experimental es una estructura de investigación donde al menos se manipula una


variable y las unidades son asignadas aleatoriamente a los distintos niveles o categorías de
la variable o variables manipuladas. Para establecer un buen diseño experimental se
necesita definir con claridad el concepto de variable y los tipos de variables que pueden
medir en el experimento.

Variable se puede precisar como una característica de objeto de estudio susceptible de


tomar más de una valor o de expresa en varias categorías. Existen diferentes tipos de
variables las cuales se presentan en cuadro 1.

Cuadro 1. Tipos de variable y su definición.

Tipo de variable Definición Sinónimos

Variable que indica si el tratamiento o Variable resultante.


Dependiente manipulación de la variable independiente Variable de criterio.
tuvo algún efecto. Efecto.

Variable que se manipula para examinar su Variable predictiva.


Independiente impacto en una variable dependiente o Causa.
resultante. Factor.

Variable relacionada con la variable Variable


Extraña o
dependiente o independiente pero que no Amenazadora.
Interviniente
forma parte del experimento.
Se puede afirmar que el diseño experimental estudia procesos. Un proceso puede
considerarse como una caja negra a la cual ingresan diversas variables que interactúan para
producir un resultado. Las variables que ingresan al proceso se denominan variables de
entrada (factores) y el resultado, variable de salida (respuesta). El nivel de la variable de
salida depende de los niveles que adopten las variables de entrada. La búsqueda de
combinaciones óptimas de las variables de entrada da lugar al diseño experimental, el cual
es una prueba (o un conjunto de pruebas) durante la cual se realizan cambios sistemáticos y
controlados a las variables de entrada para medir el efecto sobre la variable de salida
óptima. Figura 1.

El diseño experimental (DE) utiliza técnicas como análisis de varianza, análisis gráficos y
las comparaciones múltiples. Diseñar un experimento significa planear un experimento de
modo que reúna la información pertinente al problema bajo investigación. El DE es la
secuencia completa de pasos tomados con antelación, para asegurar que los datos se
obtendrán apropiadamente de modo que permitan un análisis objetivo que conduzca a
deducciones válidas con respecto al problema bajo estudio.

La necesidad de un diseño de experimento surge de la inquietud de responder a


preguntas como:

(1) ¿Cuáles son los factores que se estudiaran en esta investigación?

(2) ¿Qué factores afectan las características que se van a analizar?

(3) ¿Cómo se va a medir el efecto de los factores estudiados?

(4) ¿Cuántas veces deberá ejecutarse el experimento?

(5) ¿Cuál será la forma de análisis o tipo de diseño experimental?

(6) ¿A partir de que valores se considera importante el efecto de un factor?


1. Objetivos de un diseño de experimento

(1) Proporcionar la máxima cantidad de información pertinente al problema bajo


investigación.

(2) El diseño, plan o programa debe ser tan simple como sea posible.

(3) Proporcionar métodos que permitan obtener la mayor cantidad de información válida
acerca de una investigación, teniendo en cuenta el factor costo y el uso adecuado del
material disponible mediante métodos que permitan disminuir el error experimental.

2. Principios básicos del diseño de experimentos.

(1) Replicación o Repetición. Es el número de ocasiones que se efectúa una misma condición
experimental en la prueba o experimento que se está haciendo. Es la reproducción o réplica
del experimento básico (asignación de un tratamiento a una unidad experimental). Las
principales razones por las cuales es deseable la repetición son: primero porque proporciona
una estimación del error experimental, siendo tal estimación confiable a medida que
aumenta el número de repeticiones, y segundo permite estimaciones más precisas del
tratamiento en estudio.

(2) Aleatorización. Asignación al azar de tratamiento a las unidades experimentales. Una


suposición frecuente en los modelos estadísticos de un diseño de experimentos es que: las
observaciones o los errores están distribuidos independientemente, la aleatorización hace
válida esta suposición.

(3) Control Local. Cantidad de balanceo, bloqueo y agrupamiento de las unidades


experimentales que se emplean en el diseño estadístico de un experimento.

3. Conceptos básicos

(1) Experimento. Prueba o series de pruebas en las que se hacen cambios deliberados en
las variables de entrada de un proceso (los factores que se estudian) o sistema para observar
e identificar las razones de los cambios que pudieran observarse en la respuesta de salida.
(2) Unidad experimental. Unidad a la cual se le aplica un sólo tratamiento (que puede ser
una combinación de muchos factores) en una reproducción del experimento. Diferencia
entre unidad experimental y unidad observacional

Cuando en un ensayo clínico veterinario, a varios perros se les aplican diferentes


medicamentos, cada perro es una UE y si, por otra parte, a cada perro se la aplica una
pomada sobre los pies, entonces cada pie es una UO.

(3) Error experimental. Describe la situación de no llegar a resultados idénticos con dos
unidades experimentales tratadas de igual forma y refleja: (a) errores de experimentación,
(b) errores de observación, (c) errores de medición, (d) variación del material experimental
(esto es, entre unidades experimentales), (e) efectos combinados de factores extraños que
pudieran influir las características en estudio, pero respecto a los cuales no se ha llamado la
atención en la investigación.

(4) Agrupamiento. Colocación de un conjunto de unidades experimentales homogéneas en


grupos, de modo que los diferentes grupos puedan sujetarse a distintos tratamientos.

(5) Bloqueo. Distribución de las unidades experimentales en bloques, de manera que las
unidades dentro de un bloque sean relativamente homogéneas, de esta manera, la mayor
parte de la variación predecible entre las unidades queda confundida con el efecto de los
bloques.

(6) Balanceo. Obtención de las unidades experimentales, el agrupamiento, el bloqueo y la


asignación de los tratamientos a las unidades experimentales de manera que resulte una
configuración balanceada.

(7) Tratamiento o combinación de tratamientos. Conjunto particular de condiciones


experimentales que deben imponerse a una unidad experimental dentro de los confines del
diseño seleccionado.

(8) Factor. Una variable independiente que tiene influencia sobre la respuesta de salida.
Generalmente, se trabaja con más de una variable independiente y con los cambios que
ocurren en la variable dependiente, cuando ocurren variaciones en una o más variables
independientes.

(9) Confusión. Cuando los efectos de dos o más factores no se pueden separar.

(10) Grados de libertad. Estos se refieren al número de términos independientes en un test


particular. Teniendo n como el número de términos, los grados de libertad se calculan
mediante n-1. Los grados de libertad son el número de variables aleatorias independientes
de la muestra.
Ejemplo

Ahora supongamos que nos ponen a elegir un par de números cuya suma es 7. Es claro que solo
un número puede elegirse libremente, pues el segundo queda fijado, una vez se conozca el
primero. Aunque aquí hay dos variables, en esta situación solo una es independiente, por lo que
el número de grados de libertad se reduce de dos a solo uno, por la imposición de la restricción
x + y = 7, el punto ahora es libre de moverse en el plano XY pero restringido a permanecer
sobre la recta x + y = 7. Esta línea es un espacio unidimensional que está contenido en el
espacio bidimensional original.

Suposición es la realización de conjeturas sobre alguna cosa (hechos, causas que los han
originado, entre otras), que se realizan en base a indicios o a analogías frente a hechos o
causas similares.

La suposición puede llegar a ser confundida con la hipótesis, que en términos


epistemológicos - hipótesis (método científico)- es un paso posterior: la conclusión
provisional que se ha obtenido como consecuencia de la observación y precede a la
experimentación.

Los supuestos previos a un razonamiento son las premisas. Si son en los que se basa toda
una ciencia son los axiomas.

Existe un uso estereotipado del término "supuesto", para indicar la sospecha, o al menos la
posibilidad de que lo que se va a añadir a continuación no sea cierto o sea impropio decirlo;
equivalente al uso estereotipado del término "presunto" como salvaguardia jurídica
(presunción).

TRANSFORMACIONES DE DATOS.

Entre las suposiciones del análisis de varianza están las siguientes:

a). Que las distintas muestras se han sacado de poblaciones cuyas distribuciones son
normales.

b). Que las poblaciones de dichas muestras cuentan con varianza iguales.

Existen ciertos casos en los cuales desde un principio se puede afirmar que los datos
disponibles no cuentan con una distribución normal, por lo que se deben llevar a cabo
transformaciones para acercar dichos datos a una distribución normal.

Para verificar si los datos siguen una distribución normal se somete a una prueba de X2. En
estadística y estadística aplicada se denomina prueba χ² (pronunciado como "ji-cuadrado" y
a veces como "chi-cuadrado") a cualquier prueba en la que el estadístico utilizado sigue una
distribución χ² si la hipótesis nula es cierta.
I. NÚMEROS DÍGITOS.

A veces se obtienen resultados con números pequeños, en su mayoría números dígitos


ejemplo conteo de frutos, conteo de insectos en campos bien tratados etc. En este caso los
datos originales (números dígitos se sustituyen por su raíz cuadrado. Cuando hay valores de
cero, se añade 0,5 a todos los datos originales antes de sacar la raíz cuadrada.

Ejemplo:

Conteo de números de frutos por plantas:

a). Datos originales:

b). Datos transformados: X '= √0.5 + X

Con estos datos transformados, se realiza el análisis de varianza de la forma habitual.


II. CAMPO GRANDE DE VARIACIÓN.

En los casos donde existen diferencias muy grandes entre los diferentes valores de los
tratamientos se recomienda una transformación logarítmica. Por ejemplo se pueden
encontrar unos pocos insectos en una parcela tratada con una sustancia efectiva, mientras
que en otras no tratadas la cantidad de insectos pudren alcanzar valores muy grandes.

Ejemplo:

Conteos de insectos en 8 parcelas.

100; 1000; 200; 500; 300; 50; 2000 y 400.

Estos datos no presentan una distribución normal, sin embargo si se consideran los
logaritmos se aproximan a una distribución normal.

Log. 2.0; 3.0; 2.3; 2.7; 2.5; 1.7; 3.3 y 2.6.

III. FRECUENCIAS RELATIVAS.

Las frecuencias relativas, están sujetas a la distribución binomial que a veces puede diferir
notablemente de una distribución normal, sobre todo cuando los datos son muy pequeños y
muy grandes. Se debe realizar la transformación de los datos si la mayoría de estos no se
encuentran entre un 30 y 70%.

Ejemplo:
Porciento de germinación de 3 variedades
a). Datos originales
b). Datos transformados

Diseño completamente al azar (DCA)

El diseño completamente al azar (DCA) es el más simple de todos los diseños, sólo
considera dos fuentes de variabilidad: los tratamientos y el error aleatorio. Se llama
completamente al azar porque todas las corridas experimentales se realizan en orden
aleatorio completo; en apariencia no existe ninguna restricción a la aleatorización, es decir,
si durante el estudio se hacen en total N pruebas, estas se corren al azar, de manera que los
posibles efectos ambientales y temporales se repartan equitativamente entre los
tratamientos.

Los tratamientos se asignan aleatoriamente a las unidades experimentales. Sea cual sea el
objeto del análisis, deben revisarse los supuestos de necesarios para hacer buenas
estimaciones e inferencias apropiadas.

En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un


valor aproximado de un parámetro de una población a partir de los datos proporcionados
por una muestra. Por ejemplo, una estimación de la media de una determinada característica
de una población de tamaño N podría ser la media de esa misma característica para una
muestra de tamaño n.1
Recordemos que se puede plantear un constaste de hipótesis así:

LA HIPOTESIS ESTADISTICA

Ho: i = 0 (Todos los tratamientos tienen el mismo efecto sobre la variable en estudio)

1= 2=…= K

H1: i  0 (No todos los tratamientos tienen el mismo efecto sobre la variable en estudio)

Al menos un i es diferente

Modelo Lineal

yij     i   ij i  1, 2, . .., k ; j  1, 2, ..., n

La j-ésima
repetición en la
j-ésima muestra.
* Anexo A raíces
griegas

La media
poblacional
El error experimental
asociado a la
observación yij.
Efecto de i-ésimo
tratamiento

Las variancias generadas por cada


Supuestos del modelo población de tratamientos son iguales

En un DCA se tienen k poblaciones o tratamientos, independientes y con medias


desconocidas µ1 ,µ2,,µ 3,µ 5, k, y varianzas también desconocidas pero que se suponen
iguales (=σ2). Las población pueden ser k métodos de producción, k tratamientos, k grupos,
etc. y sus medias se refieren o son medidas en términos de la variable de respuesta. Se
comparan las poblaciones, en principio mediante la hipótesis de igualdad de medias.
El número de tratamientos k es determinado por el investigador y depende del problema
particular de que se trata. El número de observaciones por tratamiento (n) debe escogerse
con base en la variabilidad que se espera observar en los datos, a la diferencia mínima que
el experimentador considera que es importante detectar y al nivel de confianza que se desea
tener en las conclusiones. Con este tipo de consideraciones, generalmente se recomiendan
entre 10 y 30 mediciones en cada tratamiento. Se usa n = 10 cuando las mediciones dentro
de cada tratamiento tienen un comportamiento consistente (con poca dispersión).

En el otro extremo, se recomienda n = 30 cuando las mediciones muestran bastante


dispersión. Cuando es costoso o tardado realizar las pruebas para cada tratamiento, se
puede seleccionar un número menor de repeticiones, con lo cual sólo se podrán detectar
diferencias grandes entre los tratamientos.

El análisis de varianza (ANOVA) para el diseño completamente al azar (DCA)

El nombre de análisis de varianza (ANOVA) viene del hecho de que se utilizan cocientes
de varianzas (la razón o comparación entre la media aritmética y la desviación típica o
estándar) para probar la hipótesis de igualdad de medias. La idea general de esta técnica es
separar la variación total en dos partes: la variabilidad debida a los tratamientos y la debida
al error. Cuando la primera predomina claramente sobre la segunda es cuando se concluye
que los tratamientos tienen efecto, es decir, las medias son diferentes. Cuando los
tratamientos contribuyen igual o menos que el error, se concluye que las medias son
iguales.

El análisis de varianza se caracteriza por

• Establece relaciones entre variables.


• Estudian la relación estadística entre variables para tomar decisiones.
• En el Análisis de Variancia el objetivo es comparar los distintos niveles de la ó las
variables independientes o factores para establecer diferencias significativas en la
variable dependiente o respuesta.

En el caso que se rechace la hipótesis nula en un análisis de varianza, es necesario ir a


detalle y ver cuáles tratamientos son diferentes. A continuación se presentan algunos
métodos para realizar estas comparaciones los cuales se dividen en: Pruebas de rango
múltiple y Métodos gráficos.

Cuando se rechaza HO : µ 1 = µ 2 = µ3 =… = µ k = µ y se acepta H1 : µ i ≠ µ j ; para algún


i ≠ j; es necesario investigar cuales tratamientos resultaron diferentes o cuales tratamientos
provocan la diferencia. Esto se evalúa mediante comparaciones de rangos múltiples.

PRUEBAS DE RANGO MULTIPLE


• METODO LSD (Diferencia mínima significativa)
• METODO DE TUKEY
• METODO DE DUNCAN
• METODO DE DUNNET (Comparación de tratamientos con un control)
• METODO DE SHEFFE
• METODO DE NEWMAN KEULS

METODOS GRAFICOS

• DIAGRAMA DE CAJAS SIMULTANEOS


• GRAFICOS DE MEDIAS

METODO LSD (Diferencia mínima significativa)

La cantidad LSD se llama Diferencia mínima significativa (last significant difference) ya que es la
diferencia mínima que debe haber entre dos medias muéstrales para poder considerar que los
tratamientos correspondientes son significativamente diferentes. Así cada diferencia de medias
muestrales en valor absoluto que sea mayor que el número LSD se declara significativa.

Método de Tukey (HSD). En este procedimiento se usa la distribución de probabilidad de


rango estudentizado.

Método de Duncan. Si las k muestras son de igual tamaño, se acomodan los k promedios en
orden ascendente y el error estándar de cada promedio.

Prueba de Shapiro-Wilks para normalidad.

Consideremos una muestra aleatoria de datos X1;X2; …..;Xn que proceden de cierta
distribución desconocida. Se quiere verificar si dichos datos fueron generados por un
proceso normal mediante las hipótesis estadísticas

H0: Los datos proceden de una distribución normal


H1: Los datos no proceden de una distribución normal
Ejemplo de ejercicio manual de diseño experimental completamente al azar
EJEMPLO DE EJERCICIO DE DISEÑO EXPERIMENTAL COMPLETAMENTE
AL AZAR EN EL PROGRAMA COMPUTACIONAL STATGRAPHICS.

1. Un ingeniero de producción animal necesita saber ¿Qué efecto tiene los diferentes tipos
de dieta sobre el peso de sus codornices?

Este ingeniero utilizó 3 diferentes tratamiento y obtuvo el siguiente resultado

Tratamiento PESO en gramos (Objetivo: maximizar peso)


Dieta
D1 143 145 148 147 146 142 145 148 150 142 144 142
D2 138 140 138 139 138 139 142 144 145 138 139 138
D3 128 127 128 122 124 128 132 125 126 128 129 130

Variable dependiente: peso


Factor: dieta
Nivel de Factor. 3 (tratamiento)
Unidad experimental codornices

El Statgraphics permite el chequeo de los supuestos más importantes para el análisis, por lo
que una vez realizado el análisis de varianza se procede al chequeo.

Construcción de la matriz de datos

Los datos ha de esta en dos columnas. En una de estas estarán los valores de la variable
respuesta y en otros valores numéricos que representen a los niveles del factor. El valor
numérico que se elige para representa los niveles del factor es irreversible.

Ingreso Datos

La caja de diálogo de ingreso de datos solicita los nombres de las columnas que contienen
las mediciones Y y los niveles del factor X:
Ingreso de variables comparar… análisis de varianza…. Anova simple
• Variable Dependiente: columna numérica que contiene las n observaciones de Y.
• Factor: columna numérica o no numérica que contiene un identificador para los niveles
del factor X.
• Selección: selección de un subgrupo de datos.

Resumen del Análisis

El Resumen del Análisis muestra el número de niveles de X y el número total de


observaciones n.

Variable dependiente:
Factor:
Número de observaciones:
Número de niveles:

Gráfico de Dispersión

La ventana Gráfico de Dispersión grafica los datos por nivel del factor X.
ABCD
Resumen Estadístico

La ventana Resumen Estadístico calcula un número de diferentes estadísticas que se


emplean comúnmente para resumir una muestra de datos de variables:

La mayoría de las estadísticas caen en una de tres categorías:

1. Medidas de tendencia central – estadísticas que caracterizan el “centro” de los datos.

2. Medidas de dispersión – estadísticas que miden la dispersión de los datos.

3. Medidas de forma – estadísticas que miden la forma de los datos con respecto a una
distribución normal.

Las estadísticas incluidas en la tabla se controlan por las definiciones de configuración en la


ventana Estadísticas de la caja de diálogo Preferencias. Estas selecciones pueden
cambiarse usando la Ventana de Opciones.

De interés particular son:

1. Medias muestrales j Y : la fuerza de ruptura promedio para cada material.


2. Desviaciones estándar muestrales j s : las desviaciones estándar para cada material.
3. Sesgo y curtosis estandarizados: Estas estadísticas deben estar entre –2 y +2 si los datos
vienen de una distribución normal.

Gráfico de Caja y Bigotes

Esta ventana presenta un gráfico de caja y bigotes para Y en cada nivel de X.


Es un tipo de gráfico estadístico que permite resumir información utilizando 5 medidas
estadísticas: el valor mínimo, el primer cuartil, la media, el tercer cuartil y el valor máximo.
Además proporciona una idea de la tendencia central del conjunto de datos, la dispersión de
los mismos y la posible presencia de datos atípicos. Un gráfico de este tipo consiste en un
rectángulo (caja), donde los lados más largos muestran el recorrido entre cuartiles. Dicho
rectángulo se ubica a escala sobre un segmento que tiene como extremos los valores
mínimo y máximo dela variable. Las líneas que quedan abajo y arriba de la caja se llaman
Bigotes .La media está representada por un punto que generalmente está ubicado dentro de
la caja. En algunas gráficas se acostumbra denotar la mediana como una línea que divide la
caja de cuartiles, pero en este caso este estadístico no fue utilizado.

Tabla de ANOVA

Para determinar si las medias de q grupos difieren o no significativamente unas de otras, se


puede realizar un análisis de varianza simple (o de un criterio de clasificación). Los
resultados se presentan en la Tabla de ANOVA:

La tabla divide la variabilidad que existe en las n mediciones entre dos componentes:

1. Un componente “intra grupos”, que mide la variabilidad dentro del tratamiento.

2. Un componente “entre grupos”, que mide la variabilidad entre diferentes tratamientos.


De particular importancia es la razón de F, que prueba la hipótesis de que la respuesta
media para todos los niveles de X es la misma. Formalmente, prueba la hipótesis nula
H0: μ1 = μ2 = ...= μq versus la hipótesis alterna
HA: no todas las μj iguales
Si F es lo suficientemente grande, se rechaza la hipótesis nula.

La significancia estadística de la razón de F es mucho más fácil de juzgar por su valor de P.


Si el valor de P es menor que 0.05, la hipótesis nula de medias iguales se rechaza al nivel
de significancia del 5%, como en el presente ejemplo. Esto no implica que cada una de las
medias sea significativamente diferente de cada una de las otras. Simplemente implica que
no todas las medias son iguales. Determinar qué medias son significativamente diferentes
de cuáles otras requiere de pruebas adicionales, como se trata más adelante.

Pruebas de Rangos Múltiples

Para determinar qué medias muestrales son significativamente diferentes de cuáles otras, se
pueden realizar las Pruebas de Rangos Múltiples:

muestrales estimadas. Se muestran:


• Casos: el número de observaciones nj.
• Media: la media muestral estimada Yj .
• Grupos Homogéneos: una ilustración gráfica de qué media es significativamente
diferente de cuáles otras, basada en los contrastes exhibidos en la segunda mitad de la tabla.
Cada columna de X’s indica un grupo de medias dentro de las cuales no hay diferencia
estadísticamente significativa. Por ejemplo, la primera columna en la tabla anterior contiene
una X para los materiales C y D, indicando que sus medias no son significativamente
diferentes. De igual modo, los materiales B y C no muestran diferencias significativas. La
media del material A, por otro lado, es significativamente mayor que la media de cualquier
otro material.
• Diferencia – la diferencia entre las dos medias muestrales.
Tabla de Medias

Esta tabla presenta la media de cada nivel junto con un intervalo de incertidumbre:

Gráfico de Medias

Las medias de los niveles pueden ser graficadas junto con los intervalos de incertidumbre:

Contraste de Varianza

Uno de los supuestos subyacentes al análisis de varianza es que las varianzas de las
poblaciones de donde provienen las muestras son la misma. La ventana Contraste de
Varianza realiza cualquiera de varias pruebas para verificar este supuesto:
Contraste de Varianza

Prueba Valor-

Las hipótesis a contrastar en la prueba son:


Hipótesis Nula: todas las σj son iguales
Hipótesis Alt.: no todas las σj son iguales

Las cuatro pruebas son:

1. Prueba de Cochran: compara la máxima varianza intra-muestra con la varianza


intramuestra promedio. Un valor de P menor de 0.05 indica una diferencia significativa
entre desviaciones estándar intra-muestra a un nivel de significancia del 5%. La prueba es
apropiada sólo si todos los tamaños de grupo son iguales.

2. Prueba de Bartlett: compara un promedio ponderado de las varianzas intra-muestra con


su media geométrica. Un valor de P menor de 0.05 indica una diferencia significativa entre
desviaciones estándar intra-muestra a un nivel de significancia del 5%. La prueba es
apropiada tanto para tamaños de grupo iguales como diferentes.

3. Prueba de Hartley: calcula la razón entre la mayor varianza muestral y la menor. Esta
estadística debe ser comparada con una tabla de valores críticos, tal como la que se
encuentra en Neter et al. (1996). Para 6 muestras y 62 grados de libertad para el error
experimental, H tendría que exceder aproximadamente 2.1 para ser estadísticamente
significativa a un nivel de significancia del 5%. Nota: esta prueba sólo es apropiada si el
número de observaciones dentro de cada nivel de es el mismo.

Pruebas de Kruskal-Wallis y Friedman

Una alternativa al análisis de varianza estándar que compara las medianas de los niveles en
vez de las medias es la Prueba de Kruskal-Wallis. Esta prueba es mucho menos sensible a
la presencia de valores atípicos que un ANOVA simple estándar y debe usarse siempre que
el supuesto de normalidad dentro de los niveles no es razonable. Prueba las hipótesis:

Hipótesis Nula: todas las medianas de los niveles son iguales


Hipótesis Alt.: no todas las medianas de los niveles son iguales
ANEXO 1.

S-ar putea să vă placă și