Sunteți pe pagina 1din 13

CURSO :

DISEÑO Y ANÁLISIS DE
EXPERIMENTOS I

DOCENTE:
AGUILAR LUNA VICTORIA MIGUEL
ANGEL

ALUMNO :

MAXIMO MANUEL ALAYO MAYO

TRABAJO :

TAREA ENCARGADA

ESPECIALIDAD:

ESTADISTICA E INFORMATICA

HUACHO 2018
1. ¿QUE ENTIENDES POR UNA PRUEBA DE HIPOTESIS ESTADISTICA?
DESCRIBA SUS PASOS CON UN EJEMPLO

Una prueba de hipótesis es una regla que especifica si se puede aceptar o


rechazar una afirmación acerca de una población dependiendo de la evidencia
proporcionada por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población:
la hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que
se probará. Por lo general, la hipótesis nula es un enunciado de que "no hay
efecto" o "no hay diferencia". La hipótesis alternativa es el enunciado que se
desea poder concluir que es verdadero de acuerdo con la evidencia
proporcionada por los datos de la muestra.

Con base en los datos de muestra, la prueba determina si se puede rechazar la


hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es
menor que el nivel de significancia (denotado como α o alfa), entonces puede
rechazar la hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis


están diseñadas para seleccionar la más probable de dos hipótesis. Sin
embargo, al diseñar una prueba de hipótesis, establecemos la hipótesis nula
como lo que queremos desaprobar. Puesto que establecemos el nivel de
significancia para que sea pequeño antes del análisis (por lo general, un valor
de 0.05 funciona adecuadamente), cuando rechazamos la hipótesis nula,
tenemos prueba estadística de que la alternativa es verdadera. En cambio, si
no podemos rechazar la hipótesis nula, no tenemos prueba estadística de que
la hipótesis nula sea verdadera. Esto se debe a que no establecimos la
probabilidad de aceptar equivocadamente la hipótesis nula para que fuera
pequeña.

Entre las preguntas que se pueden contestar con una prueba de hipótesis
están las siguientes:

¿Tienen las estudiantes de pregrado una estatura media diferente de 66


pulgadas?

¿Es la desviación estándar de su estatura igual a o menor que 5 pulgadas?

¿Es diferente la estatura de las estudiantes y los estudiantes de pregrado en


promedio?

¿Es la proporción de los estudiantes de pregrado significativamente más alta


que la proporción de las estudiantes de pregrado?
Ejemplo de cómo realizar una prueba de hipótesis básica
Usted puede seguir seis pasos básicos para configurar y realizar correctamente una
prueba de hipótesis. Por ejemplo, el gerente de una fábrica de tuberías desea
determinar si el diámetro promedio de los tubos es diferente de 5 cm. El gerente sigue
los pasos básicos para realizar una prueba de hipótesis.

NOTA

Debe determinar los criterios para la prueba y el tamaño de muestra necesario antes
de recolectar los datos.

Especificar las hipótesis.

En primer lugar, el gerente formula las hipótesis. La hipótesis nula es: la media de la
población de todos los tubos es igual a 5 cm. Formalmente, esto se escribe como: H0:
μ=5

Luego, el gerente elige entre las siguientes hipótesis alternativas:

Como tiene que asegurarse de que los tubos no sean más grandes ni más pequeños
de 5 cm, el gerente elige la hipótesis alternativa bilateral, que indica que la media de la
población de todos los tubos no es igual a 5 cm. Formalmente, esto se escribe como
H1: μ ≠ 5

Elegir un nivel de significancia (también denominado alfa o α).

El gerente selecciona un nivel de significancia de 0.05, que es el nivel de significancia


más utilizado.

Determinar la potencia y el tamaño de la muestra para la prueba.

1. El gerente utiliza un cálculo de potencia y tamaño de la muestra para


determinar cuántos tubos tiene que medir para tener una buena probabilidad
de detectar una diferencia de 0.1 cm o más con respecto al diámetro objetivo.

2. Recolectar los datos.

Recoge una muestra de tubos y mide los diámetros.

3. Comparar el valor p de la prueba con el nivel de significancia.


Después de realizar la prueba de hipótesis, el gerente obtiene un valor p de
0.004. El valor p es menor que el nivel de significancia de 0.05.

4. Decidir si rechazar o no rechazar la hipótesis nula.

El gerente rechaza la hipótesis nula y concluye que el diámetro medio de todos


los tubos no es igual a 5 cm.

2. DIGA UD. EL CONCEPTO DE UNIDAD DE OBSERVACIÓN Y VARIABLE


RESPUESTA

Unidad de la observación:
Corresponde a la entidad mayor, primaria o representativa de lo que va a ser objeto
específico de estudio en una medición y se refiere al qué o quién es objeto de interés
en una investigación. Por ejemplo: Condiciones de hacinamiento de las familias del
Municipio de Soyapango, San Salvador. Unidad de Análisis: Familias del Municipio de
Soyapango.

Debe estar claramente definida en un protocolo de investigación y el investigador debe


obtener la información a partir de la unidad que haya sido definida como tal, aun
cuando, para acceder a ella, haya debido recorrer pasos intermedios.

Las unidades de análisis pueden corresponder a las siguientes categorías o entidades:

 Personas
 Grupos humanos
 Poblaciones completas
 Unidades geográficas determinadas
 Eventos o interacciones sociales (enfermedades, accidentes, casos de
infecciones intrahospitalarias, etc)
 Entidades intangibles, susceptibles de medir (exámenes, días, camas)

Variables de respuesta:
Es la característica del producto cuyo valor interesa mejorar mediante el diseño de
experimentos.

3. INDIQUE QUE SE ENTIENDE EN ESTADISTICA POR ERROR TIPO I Y ERROR


TIPO II

Ninguna prueba de hipótesis es 100% cierta, puesto que la prueba se basa en


probabilidades siempre existe la posibilidad de llegar a una conclusión incorrecta.
Cuando usted realiza una prueba de hipótesis, puede cometer dos tipos de error: tipo I
y tipo II. Los riesgos de estos dos errores están inversamente relacionados y se
determinan según el nivel de significancia y la potencia de la prueba. Por lo tanto,
usted debe determinar qué error tiene consecuencias más graves para su situación
antes de definir los riesgos.
Error de tipo I:
Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de tipo I. La
probabilidad de cometer un error de tipo I es α, que es el nivel de significancia que
usted establece para su prueba de hipótesis. Un α de 0.05 indica que usted está
dispuesto a aceptar una probabilidad de 5% de estar equivocado al rechazar la
hipótesis nula. Para reducir este riesgo, debe utilizar un valor menor para α. Sin
embargo, usar un valor menor para alfa significa que usted tendrá menos probabilidad
de detectar una diferencia si esta realmente existe.

Error de tipo II:


Cuando la hipótesis nula es falsa y usted no la rechaza, comete un error de tipo II. La
probabilidad de cometer un error de tipo II es β, que depende de la potencia de la
prueba. Puede reducir el riesgo de cometer un error de tipo II al asegurarse de que la
prueba tenga suficiente potencia. Para ello, asegúrese de que el tamaño de la muestra
sea lo suficientemente grande como para detectar una diferencia práctica cuando esta
realmente exista.

La probabilidad de rechazar la hipótesis nula cuando es falsa es igual a 1–β. Este


valor es la potencia de la prueba.

Ejemplo de error de tipo I y tipo II

Para entender la interrelación entre los errores de tipo I y tipo II, y para determinar cuál
error tiene consecuencias más graves para su situación, considere el siguiente
ejemplo.

Un investigador médico desea comparar la efectividad de dos medicamentos. Las


hipótesis nula y alternativa son:

Hipótesis nula (H0): μ1= μ2


Los dos medicamentos tienen la misma eficacia.

Hipótesis alternativa (H1): μ1≠ μ2


Los dos medicamentos no tienen la misma eficacia.

Un error de tipo I se produce si el investigador rechaza la hipótesis nula y concluye


que los dos medicamentos son diferentes cuando, en realidad, no lo son. Si los
medicamentos tienen la misma eficacia, el investigador podría considerar que este
error no es muy grave, porque de todos modos los pacientes se beneficiarían con el
mismo nivel de eficacia independientemente del medicamento que tomen. Sin
embargo, si se produce un error de tipo II, el investigador no rechaza la hipótesis nula
cuando debe rechazarla. Es decir, el investigador concluye que los medicamentos son
iguales cuando en realidad son diferentes. Este error puede poner en riesgo la vida de
los pacientes si se pone en venta el medicamento menos efectivo en lugar del
medicamento más efectivo.

Cuando realice las pruebas de hipótesis, considere los riesgos de cometer errores de
tipo I y tipo II. Si las consecuencias de cometer un tipo de error son más graves o
costosas que cometer el otro tipo de error, entonces elija un nivel de significancia y
una potencia para la prueba que reflejen la gravedad relativa de esas consecuencias.

4. DIGA UD. QUE CLASE DE ASIMETRIA Y CURTOSIS EXISTEN EN UN


CONJUNTO DE DATOS

Momentos de una distribución


Los momentos de una distribución son medidas obtenidas a partir de todos sus datos y
de sus frecuencias absolutas. Estas medidas caracterizan de tal forma a las
distribuciones que si los momentos de dos distribuciones son iguales, diremos que las
distribuciones son iguales. Podemos decir que dos distribuciones son más semejantes
cuanto mayor sea el número de sus momentos que coinciden.
Se define el momento de orden h respecto al origen de una variable estadística como:

Es inmediato observar que, para h = 1, a1 es la media de la distribución. Se defina el


momento central de orden h o momento respecto a la media aritmética de orden ah
como:

Forma de una distribución


Cuando dos distribuciones coinciden en sus medidas de posición y dispersión, no
tenemos datos analíticos para ver si son distintas. Una forma de compararlas es
mediante su forma. Bastará con comparar la forma de sus histogramas o diagramas
de barras para ver si se distribuyen o no de igual manera. Para efectuar este estudio
de la forma en una sola variable, hemos de tener como referencia una distribución
modelo. Como convenio, se toma para la comparación la distribución Normal de media
0 y varianza 1. En particular, es conveniente estudiar si la variable en cuestión está
más o menos apuntada que la Normal. Y si es más o menos simétrica que ésta, para
lo que se definen los conceptos de Asimetría y Curtosis, y sus correspondientes
formas de medida.
La asimetría y su medida
El objetivo de la medida de la asimetría es, sin necesidad de dibujar la distribución de
frecuencias, estudiar la deformación horizontal de los valores de la variable respecto al
valor central de la media. Las medidas de forma pretenden estudiar la concentración
de la variable hacia uno de sus extremos. Una distribución es simétrica cuando a la
derecha y a la izquierda de la media existe el mismo número de valores, equidistantes
dos a dos de la media, y además con la misma frecuencia. Una distribución es
Simétrica si x = Me = Mo En caso contrario, decimos que la distribución es Asimétrica,
y entonces puede ser de dos tipos:
La curtosis y su medida
El concepto de curtosis o apuntamiento de una distribución surge al comparar la forma
de dicha distribución con la forma de la distribución Normal. De esta forma,
clasificaremos las distribuciones según sean más o menos apuntadas que la
distribución Normal. Coeficiente de Curtosis de Fischer El Coeficiente de Curtosis o
Apuntamiento de Fischer pretende comparar la curva de una distribución con la curva
de la variable Normal, en función de la cantidad de valores extremos e la distribución.
Basándose en el dato de que en una distribución normal se verifica que:
5. EN QUE CONSISTE EL ANALISIS DE VARIANCIA

Un análisis de varianza (ANOVA) prueba la hipótesis de que las medias de dos o


más poblaciones son iguales. Los ANOVA evalúan la importancia de uno o más
factores al comparar las medias de la variable de respuesta en los diferentes niveles
de los factores. La hipótesis nula establece que todas las medias de la población
(medias de los niveles de los factores) son iguales mientras que la hipótesis alternativa
establece que al menos una es diferente.

Para ejecutar un ANOVA, debe tener una variable de respuesta continua y al menos
un factor categórico con dos o más niveles. Los análisis ANOVA requieren datos de
poblaciones que sigan una distribución aproximadamente normal con varianzas
iguales entre los niveles de factores. Sin embargo, los procedimientos de ANOVA
funcionan bastante bien incluso cuando se viola el supuesto de normalidad, a menos
que una o más de las distribuciones sean muy asimétricas o si las varianzas son
bastante diferentes. Las transformaciones del conjunto de datos original pueden
corregir estas violaciones.
Por ejemplo, usted diseña un experimento para evaluar la durabilidad de cuatro
productos de alfombra experimentales. Usted coloca una muestra de cada tipo de
alfombra en diez hogares y mide la durabilidad después de 60 días. Debido a que está
examinando un factor (tipo de alfombra), usted utiliza un ANOVA de un solo factor.

Si el valor p es menor que el nivel de significancia, entonces usted concluye que al


menos una media de durabilidad es diferente. Para información más detallada sobre
las diferencias entre medias específicas, utilice un método de comparaciones múltiples
como el de Tukey.

El nombre "análisis de varianza" se basa en el enfoque en el cual el procedimiento


utiliza las varianzas para determinar si las medias son diferentes. El procedimiento
funciona comparando la varianza entre las medias de los grupos y la varianza dentro
de los grupos como una manera de determinar si los grupos son todos parte de una
población más grande o poblaciones separadas con características diferentes.

6. QUE ES UN DISEÑO EXPERIMENTAL

“Un buen diseño experimental es aquel que proporciona la información requerida con
el mínimo esfuerzo experimental”. La información requerida se refiere a que los datos
permitan un análisis objetivo que conduzca a conclusiones válidas con respecto al
problema que se estudia, en cuanto al esfuerzo experimental se entiende por el ahorro
de tiempo, dinero, personal y material experimental. Vale hacer énfasis en
características como:

6.1 Simplicidad: la selección de los tratamientos y su disposición en el


experimento debe ser lo más simple posible, pero consistente con los objetivos
del problema.
6.2 Grado de precisión: el experimento debe ser capaz de medir diferencias entre
tratamientos, con el grado de precisión deseado, lo cual está muy asociado a
diseño empleado, al tamaño de la unidad experimental y al número de
repeticiones.
6.3 Ausencia de errores sistemáticos: las unidades experimentales que reciben
el mismo tratamiento no deben tener diferencias sistemáticas con las que
reciben cualquier otro tratamiento, para poder obtener una buena estimación
del efecto de los tratamientos.
6.4 Amplio rango de validez de las conclusiones: es deseable tratar de que las
conclusiones a las que se llegue, tengan un rango de validez lo más amplio
posible. Repetir en el tiempo y/o espacio un experimento ayuda para esto, los
experimentos factoriales también son útiles para este propósito.
6.5 Grado de incertidumbre: un buen experimento deber permitir calcular la
probabilidad de que los resultados hayan sido obtenidos únicamente por
casualidad, es decir, que debe proveer los datos suficientes y necesarios para
contrastar objetivamente la hipótesis nula.
7. CUALES SON LOS PRINCIPIOS BASICOS PARA UN DISEÑO EXPERIMENTAL
7.1 Repetición

Se refiere al número de unidades experimentales que recibirán cada tratamiento, y


es determinado a partir de informaciones sobre la variabilidad de las unidades
experimentales en términos de la variable dependiente. La importancia de la
repetición está en proporcionar una estimación del error experimental (varianza), y
además posibilita la estimación de las medias de los tratamientos. El número de
repeticiones a ser utilizado es fijado por la experiencia del investigador y
dependerá de la grandeza del error deseado y de la variabilidad del material en
estudio. En general se tiene como regla práctica, que el número mínimo de
parcelas que irá a componer un experimento es de 20 y que el error experimental
(residuo) debe tener por lo menos 10 grados de libertad (Gomes, 2000). Una
solución para determinar el número de repeticiones es citada por Gomes (2000), y
consiste en el uso de la prueba de Tukey y es dada por la siguiente ecuación:

q = amplitud total estudentizada para el experimento a ser realizado


(valor
tabulado)

s2 = es el cuadrado medio del error (o residuo) del experimento


anterior, con n2 grados de libertad

F(n1 ,n2 , α ) = valor tabulado para el nivel α de significancia seleccionado.

d = diferencia mínima que deberá ser estadísticamente probada


por el experimento.

7.2 Aleatorización

Se refiere a la asignación de los tratamientos a las unidades experimentales, de tal


manera que todas las unidades tengan la misma probabilidad de recibir un
determinado tratamiento, a través de sorteo o de la tabla de números aleatorios.
Aleatorizar los tratamientos significa eliminar tendencias, errores sistemáticos y
preferencias que puedan darse en la distribución de los tratamientos a las
unidades experimentales. Si la repetición hace posible una prueba de hipótesis, la
aleatorización contribuye a hacerla válida. Su función es evitar posibles
inducciones en las conclusiones de la investigación y garantizar la independencia
de los datos, tornando las estimaciones de las medias de los tratamientos y del
error experimental no tendencioso. Los principios básicos de repetición y de la
aleatorización son obligatorios en cualquier diseño experimental.

7.3 Control local

Se refiere a restringir la aleatorización de los tratamientos a grupos de unidades


experimentales con poca variabilidad entre sí. Este principio es aplicado cuando se
sabe “a priori” de la existencia de variación en el ambiente experimental, no
pudiendo correr el riesgo de efectuar una aleatorización completa de los
tratamientos en las unidades experimentales. Esta situación puede y es muchas
veces resuelta de forma satisfactoria a través de un agrupamiento de unidades
experimentales homogéneas entre si y, dentro de esos grupos de unidades
homogéneas, también conocido como bloques, es realizada la aleatorización. Este
procedimiento es adoptado con la finalidad de hacer más eficiente el experimento,
incrementando la sensibilidad de las pruebas de significancia al reducir la magnitud
del error experimental.

8. QUE ENTIENDES POR EXPERIMENTO FACTORIAL DENTRO DE UN DISEÑO


DE EXPERIMENTOS

El término “experimento factorial” o “arreglo factorial” se refiere a la constitución de los


tratamientos que se quieren comparar.
Diseño de tratamientos es la selección de los factores a estudiar, sus niveles y la
combinación de ellos.
El diseño de tratamientos es independiente del diseño experimental que indica la
manera en que los tratamientos se aleatorizan a las diferentes u.e. y las formas de
controlar la variabilidad natural de las mismas.
Así, el diseño experimental puede ser completamente al azar, bloques al azar, bloques
al azar generalizados, cuadro latino, etc. y para cada uno de estos diseños se puede
tener arreglo factorial de los tratamientos, si estos se forman por la combinación de
niveles de varios factores.
A ambos tipos de diseños, el de tratamientos y el experimental, les corresponde un
modelo matemático.
Así, por ejemplo, si el diseño experimental es bloques al azar, el modelos es:
yij = µ + τi + βj + ǫij
respuesta = media general + efecto de tratamiento + efecto de bloque + error
Si se trata de un diseño factorial, los tratamientos se forman combinando los niveles
de los factores en estudio, de manera que el efecto del tratamiento τi se considera a su
vez compuesto de los efectos de los factores y sus interacciones. Por ejemplo, si son
dos factores en estudio se tiene:
τi = τkl = αk + γl + ξkl
tratamiento = factor A + factor B + interacción AB

Las ventajas de los experimentos factoriales son:


1. Economía en el material experimental al obtener información sobre varios
factores sin aumentar el tamaño del experimento. Todas las u.e.se utilizan para
la evaluación de los efectos.
2. Se amplía la base de la inferencia en relación a un factor, ya que se estudia
en las diferentes condiciones representadas por los niveles de otros factores.
Se amplía el rango de validez del experimento.
3. Permite el estudio de la interacción, esto es, estudiar el grado y forma en la
cual se modifica el efecto de un factor por los niveles de los otros factores.
Una desventaja de los experimentos factoriales es que requiere un gran número de
u.e., sobre todo cuando se prueban muchos factores o muchos niveles de algunos
factores, es decir, se tiene un número grande de tratamientos. (factoriales
fraccionales).
Suponga un diseño con dos factores: A con a niveles y B con b niveles, en diseño
completamente al azar. (Factorial a × b completo, balanceado, efectos fijos)

Sea yijk la respuesta para la k-ésima u.e. del nivel i de A y j de B.


yijk = µ + τi + βj + γij + ǫijk
i = 1, . . ., a j = 1, . . ., b k = 1, . . ., n
Las hipótesis que se prueban son:
H01 : γij = 0 ∀ i, j
H02 : τi + ¯γi. = 0 ∀ i
H03 : βj + ¯γ.j = 0 ∀ j

Ejemplo de un factorial 2 × 2 sin y con interacción.

Conocer la interacción es más útil que conocer los efectos principales. Una interacción
significativa frecuentemente oscurece la significancia de los efectos principales.
Cuando hay interacción significativa, se deberán examinar los niveles de un factor,
digamos A, con los niveles del o de los otros factores fijos, para tener conclusiones
acerca del efecto principal A.
Dos factores: A con a niveles y B con b niveles. Se dice que se tiene un factorial a × b,
con diseño completamente al azar (bloques, etc.). Se tienen ab tratamientos.

S-ar putea să vă placă și