Sunteți pe pagina 1din 17

“INFLUENCIA DEL TAMAÑO DE EFECTO EN EL CÁLCULO DEL TAMAÑO

DE MUESTRA PARA PRUEBAS ESTADÍSTICAS”


1. INTRODUCCIÓN

Actualmente hay múltiples análisis estadísticos que nos permiten verificar la relación

existente entre una u otra variable de estudio, como por ejemplo la significancia estadística,

pruebas de hipótesis entre otras. En este sentido el tamaño efecto, también conocido como “effec

size”, hablando en términos estadísticos, es una prueba cuyo valor nos permite ver cuánto ha

afectado la variable independiente (IV) a la variable dependiente (DV) en un estudio

experimental. En términos más sencillos es una forma de cuantificar el tamaño de la diferencia

entre dos grupos (Coe Robert, 2002). Este tamaño de efecto solo puede ser calculado después

de realizar una prueba estadística adecuada para determinar la importancia. A diferencia de las

pruebas de significancia, esta es independiente del tamaño de muestra.

En la estadística se conocen diversas pruebas, mediante el presente trabajo de investigación

se conocerá la influencia de este tamaño de efecto en ciertas pruebas estadísticas, para una mayor

solidificación de conocimientos, cada prueba presentada estará acompañada de un ejemplo de

aplicación.

2. MARCO TEÓRICO
El tamaño de efectos es una forma de cuantificar el tamaño de la diferencia entre grupos. De

igual manera es una manera de conocer las magnitudes de las diferencias (grande, moderada o

pequeña), lo que permite hablar de la importancia de las diferencias encontradas.

Este puede ser calculado a través de: una diferencia estandarizada entre medias, correlación

entre la variable independiente y dependiente.

Por diferencias de medias.- Existen múltiples maneras de cálculo como ser:

 Delta de Gauss.- Se define como la diferencia de medias entre el grupo experimental y el

grupo control dividido por la desviación típica del grupo control.

1
𝑀1 − 𝑀2
∆=
𝜎𝑔𝑟𝑢𝑝.𝑐𝑜𝑛𝑡𝑟𝑜𝑙

 d de Cohen.- Usado para el cálculo de dos grupos independientes Es la diferencia entre las

dos medias dividido por el pooled de la desviación estándar. Es una medida descriptiva.

Para Cohen la desviación típica puede ser utilizada cuando las varianzas de los dos grupos

son homogéneas.

𝑀1 − 𝑀2
𝑑̂ =
𝑆𝑝𝑜𝑜𝑙𝑒𝑑

Con tamaños de muestras iguales: 𝑆𝑝𝑜𝑜𝑙𝑒𝑑 = √0,5(𝑠12 − 𝑠22

Con tamaños de muestras diferentes. 𝑆𝑝𝑜𝑜𝑙𝑒𝑑 = √∑ 𝑝𝑗 𝑠𝑗2 . Para cada grupo, S2j:

varianza dentro del grupo. Pj =nj/N: la proporción del número total de las

puntuaciones (en ambos grupos, N) que se encuentran en ese grupo (nj).

La interpretación de este método:

o PEQUEÑO d = 0.2

o MEDIANO d = 0.5

o GRANDE d = 0.8

 G de Hedges.- Cálculo para dos grupos independientes.


𝑋1−𝑋2
Homogeneidad de varianzas: 𝑔 = 𝑆

Usa el cálculo de la desviación estándar típica:

2
2.1 Anova

Un análisis de varianza (ANOVA) prueba la hipótesis de que las medias de dos o más

poblaciones son iguales. Los ANOVA evalúan la importancia de uno o más factores al comparar

las medias de la variable de respuesta en los diferentes niveles de los factores.

El estadístico f para el caso de comparación de medias en más de dos grupos, es el análisis

característico utilizado para analizar la comparación de medias en más de dos grupos

corresponde al análisis de varianza (ANOVA) de un factor.

 Eta cuadrada (ɳ2).- Es la varianza del tratamiento expresada como proporción de la varianza

total. Por lo tanto si η2 es la varianza del tratamiento, entonces 1- η2 es la varianza de error.

Expresado como:

𝜂2 𝑓2
𝑓 = √1−𝜂2 Donde 𝜂2 = 1−𝑓2

De acuerdo con Cohen se puede traducir en proporciones de varianza:

 Efecto pequeño representa el 1% de la varianza.

 Efecto medio representa 6% de la varianza.

 Efecto grande representa 14% de la varianza.

La eta cuadrada de la suma de cuadrados es la variabilidad explicada por el efecto

estudiado, respecto a la suma de cuadrados total.

𝑆𝑆𝑒𝑓𝑒𝑐𝑡𝑜
𝜂2 =
𝑆𝑆𝑒𝑟𝑟𝑜𝑟

Cohen considera una f de:

 Efecto pequeño 0,10

 Efecto medio 0,25.

3
 Efecto grande 0,40.

 Eta cuadrada parcial (𝜼𝟐𝒑 ).- Cuando un factor es naturalmente variable en la población de

interés y de la muestra, entonces la varianza asociada a ella se debe incluir en el denominador

de la fuerza de efecto estimador, uso de eta cuadrada parcial (𝜼𝟐𝒑 ). Pero cuando un factor es

experimental y no está presente en la población de interés, entonces la varianza asociada a

éste razonablemente pueda ser excluido del denominador. Uso de η2.

En la eta cuadrada parcial se explica con respecto a la suma de esa suma de cuadrados más

la del error, la residual.

𝑆𝑆𝑒𝑓𝑓𝑒𝑐𝑡
𝜂𝑝2 =
𝑆𝑆𝑒𝑓𝑓𝑒𝑐𝑡 + 𝑆𝑆𝑒𝑟𝑟𝑜𝑟

Omega cuadrada (ω2).- Coeficiente de asociación (Weimer, 1996). Se usa cuando se

requiere conocer el grado de intensidad la asociación entre una variable nominal y otra ordinal.

Es un estimador común de la fuerza de la asociación entre la variable del tratamiento y la

dependiente en un arreglo de ANOVA de un solo criterio de clasificación. (Castro Manuel,

2014)

SCTRAT − (k − 1) ∗ MCerror
ω2 =
SCT + MCerror

 SCTRAT: Suma de cuadrados entre tratamiento.

 MCerror: Cuadrado medio del error.

 SCT: Suma de cuadrados totales.

 K: Número de tratamientos.

Interpretación del rango de ω2:

 Intensidad de la relación débil: 0,00 a 0,29.

4
 Intensidad de la relación moderada: 0,30 a 0,69.

 Intensidad de la relación fuerte: 0,70 a 1,00.

Ejemplo.- Se aleatoriza una cohorte de 45 sujetos en tres grupos (k = 3) de 15 sujetos cada

uno para investigar el efecto de diferentes fármacos hipoglucemiantes. Particularmente, la

concentración de glucosa en sangre es de 8.6 ± 0.2 mmol / L para el grupo placebo, 7.8 ± 0.2

mmol / L para el grupo de drogas 1 y 6.8 ± 0.2 mmol / L para el grupo de drogas 2.

Para eta cuadrado:

Para omega:

2.2 Regresión lineal múltiple

La regresión lineal es una técnica estadística destinada a analizar las causas de por qué pasan

las cosas. A partir de los análisis de regresión lineal múltiple podemos:

 Identificar que variables independientes (causas) explican una variable dependiente

(resultado).

 Comparar y comprobar modelos causales.

 Predecir valores de una variable, es decir, a partir de unas características predecir de

forma aproximada un comportamiento o estado.

El estadístico f2 es utilizado en caso de procedimientos de regresión lineal múltiple y se

estima a partir del coeficiente de regresión al cuadrado (R2).

5
El tamaño de efecto para esta prueba es la siguiente:

R2
f2 
1 R 2

El coeficiente de determinación (R2), se define como la proporción de la varianza total de la

variable explicada por la regresión. El coeficiente de determinación, también llamado R

cuadrado, refleja la bondad del ajuste de un modelo a la variable que pretender explicar.

El resultado del coeficiente de determinación oscila entre 0 y 1. Cuanto más cerca de 1 se

sitúe su valor, mayor será el ajuste del modelo a la variable que estamos intentando explicar.

Donde:

Es la expresión de la varianza, además 𝑌̂, representa una estimación de la

variable original Y, por otra parte 𝑌̅, es el promedio de la variable.

Cohen consideró que un f2 de 0.02 era un efecto pequeño, 0.15 un efecto medio y 0.35 un

efecto grande. Los valores de f2 traducidos en proporciones de varianza pueden ser conseguidos

dividiendo f2 entre (1 + f2): un efecto pequeño representa el 2% de la varianza en la variable de

criterio, un efecto medio representa el 13% y uno grande efecto 26%. (Karl L. Wuensch, 2017)

2.3 Pruebas T y Z
El tamaño del efecto indica la eficacia cuantificada entre los distintos niveles de la variable

independiente, complementado así la información ofrecida por la probabilidad de ocurrencia de

la hipótesis nula, pues además de confirmar la existencia de diferencias también informa de la

magnitud de éstas.
6
El tamaño del efecto es un índice en una métrica común que indica la magnitud de una

relación o efecto (Cohen, 1988), por ejemplo se puede expresar en términos de diferencias

estandarizadas como la media del grupo experimental menos la media del grupo control dividido

por la desviación estándar común (véase para el cálculo por ejemplo Kirk, 1996, Friedman, 1982

y Snyder y Lawson, 1993)

Existen diversos procedimientos de estimación del tamaño del efecto; por ejemplo, el

coeficiente de determinación, eta cuadrado, omega cuadrado, Phi, etc. (Rosnow, Rosenthal y

Rubin, 2000; Sink y Stroh, 2006; Trusty, Thompson y Petrocelli, 2004; Vacha y Thompson,

2004). La diferencia estandarizada de medias o parámetro delta (δ) obtenida mediante la g de

Hedges ajustada (gajust), siguiendo para ello las directrices de Ledesma, Macbeth y Cortada de

Kohan (2008).

Para obtener la gajust primeramente se debe realizar el cálculo de g y después su ajuste. El

parámetro g se obtiene mediante la siguiente formula:

Siendo, X 1 la media aritmética del grupo 1, X 2 la media aritmética del grupo 2, n1 el tamaño

muestral del grupo 1, S1 la varianza de las puntuaciones del grupo 1, n2 el tamaño muestral del

grupo 2 y S2 la varianza de las puntuaciones del grupo. Posteriormente, se ajusta g de la

siguiente manera:

7
Donde:

La gajust estima la diferencia entre las medias de los grupos y estandariza dicha diferencia

dividiéndola entre la desviación típica unificada de los dos grupos, con lo que el procedimiento

aporta un parámetro tipificado (puntuación z), al que finalmente se le elimina el sesgo derivado

del tamaño muestral. Así, este parámetro expresa un valor tipificado que en última instancia es

de gran utilidad ya que permite inferir mediante la tabla de la curva normal el porcentaje de

casos que un grupo está por debajo del promedio del otro grupo. Como contrapartida, es

necesario el cumplimiento de los supuestos de normalidad y homocedasticidad, especialmente

con tamaños muestrales pequeños (por ejemplo, menos de 30 observaciones por grupo) (Pardo

y San Martín, 2004).

Los aspectos más importantes que destacan del tamaño del efecto son las siguientes:

1. El tamaño del efecto es relativamente fácil de calcular.

2. El tamaño del efecto, como expresión de desviación típica o de varianza explicada,

proporciona una interpretación intuitiva de los resultados y de la magnitud de las diferencias,

pudiendo considerarse un indicador de significación práctica y no siendo incompatible con la

significación estadística

3. El tamaño del efecto permite comparar diferencias entre variables con distinta métrica por

ser adimensional.

4. El tamaño del efecto es un estadístico que facilita la acumulación de conocimiento, pues

permite la comparación meta-analítica de los resultados de distintas investigaciones que tienen

un mismo objeto de estudio.

8
5. El tamaño del efecto mantiene mayor independencia que la significación estadística, con

respecto a la influencia del tamaño de la muestra.

Medidas paramétricas del tamaño de efecto:

Donde:

N: tamaño total de la muestra de estudio


n: tamaño de muestra para cada condición
Ejemplo.-La muestra está formada por 271 participantes de los que 53% son hombres (grupo

1; n1= 142), con edades comprendidas entre 12 y 18 años (M=14,44, DT=1,52), y el 48% son

mujeres (grupo 2; n2= 129), también con edades comprendidas entre 12 y 18 años (M=14,46;

DT= 1,52). Los participantes fueron seleccionados mediante muestreo no aleatorio incidental,

por motivos de facilidad de acceso. El objetivo del estudio era analizar si hombres y mujeres

adolescentes difieren en sus niveles de condición física, para lo que se midieron tres variables

dependientes: fuerza, velocidad y flexibilidad.

9
Se procedió con estadística inferencial de contraste de grupos, estableciendo desde un primer

momento niveles de confianza α y β iguales a 0,05 y 0,10, respectivamente. Los análisis se

llevaron a cabo con ayuda de la aplicación informática IBM SPSS Statistics 18.

Mediante prueba t de Student para dos muestras independientes se compararon dos grupos

en las variables dependientes, obteniendo probabilidades alfa que permitieron rechazar las tres

hipótesis nulas planteadas. Es decir, es plausible inferir con un nivel de confianza del 99% que

es falso que los hombres tengan igual o menor fuerza que las mujeres (t=11,87; gl=213,13; p˂

,001), que los hombres sean igual o menos veloces que las mujeres (t=- 10,57; gl=269; p˂ ,001),

o que los hombres tengan igual o mayor flexibilidad que las mujeres (t=-5,61; gl=269; p˂ ,001).

Procediendo a la estimación del tamaño del efecto mediante gajust, se obtuvo las siguientes

magnitudes delta: δ fuerza = 1,39, δ velocidad = 1,27 y δ flexibilidad = 0,68.

10
Posteriormente, utilizando la Tabla de distribución normal estandarizada, analizando la

probabilidad que acumula cada una de las diferencias tipificadas (véase por ejemplo Vincent,

2005) se infieren tres nuevos resultados: el 91% de las mujeres tiene una fuerza igual o inferior

al promedio de los hombres (puntuación z=1,39), el 89% de las mujeres tiene igual o menor

velocidad que el promedio de los hombres (puntuación z=1,27), y el 75% de los hombres tiene

una flexibilidad igual o inferior al promedio de las mujeres(puntuación z=0,68)

11
3.

El estudio concluyo que durante la adolescencia hombres y mujeres son distintos en sus

capacidades físicas de fuerza, velocidad y flexibilidad. Por lo que procedio a contrastar los dos

grupos con Prueba t de Student para muestras independientes en las tres variables dependientes,

observándose la misma significación estadística en todas las ocasiones: p˂ 0,001. Es decir, la

probabilidad de que se produzca un error por falso positivo es inferior al 1% en las tres variables.

Los valores δ obtenidos, indicaron que la diferencia de mayor magnitud entre los grupos se

sitúa en la variable fuerza, seguida de la velocidad, y finalmente la flexibilidad.

3.1 Pruebas Chi2


Este procedimiento calcula el tamaño del efecto de la prueba de Chi-cuadrado. Según su

aporte, el procedimiento proporciona efecto estimaciones de tamaño para pruebas de bondad de

ajuste de Chi-cuadrado y para pruebas de independencia de Chi-cuadrado.

12
La prueba de Chi-cuadrado a menudo se usa para probar si los conjuntos de frecuencias o

proporciones siguen ciertos patrones. Los dos casos más comunes se encuentran en pruebas de

bondad de ajuste y pruebas de independencia en tablas de contingencia.

La prueba de bondad de ajuste de Chi-cuadrado se usa para probar si un conjunto de datos

sigue una distribución particular. Por ejemplo, es posible que desee probar si un conjunto de

datos proviene de la distribución normal.

La prueba de Chi-cuadrado para la independencia en una tabla de contingencia es otra

aplicación común de esta prueba. Aquí los individuos (personas, animales o cosas) se clasifican

por dos variables de clasificación (nominales u ordinales) en una tabla de contingencia

bidireccional. Esta tabla contiene los recuentos del número de individuos en cada combinación

de categorías de fila y categorías de columna. La prueba de Chi-cuadrado determina si hay

dependencia (asociación) entre las dos variables de clasificación.

Para cada celda de una tabla que contiene m celdas, hay dos proporciones consideradas: una

especificada por un valor nulo hipótesis y la otra especificada por la hipótesis alternativa.

Las hipótesis alternativas son aquellas que ocurren en los datos. Defina p0i como la

proporción en la celda i dada por el nulo, hipótesis y p1i para ser la proporción en la celda i de

acuerdo con la hipótesis alternativa. El tamaño del efecto, W, es calculado usando la siguiente

fórmula

La fórmula para calcular el valor de Chi-cuadrado, χ2, es

13
Donde N es el recuento total en todas las celdas. Por lo tanto, la relación entre W y χ2 es

Ejemplo.- Suponga que está planeando una encuesta con el objetivo principal de evaluar si

el estado civil está relacionado con el género.

Decide adoptar cuatro categorías de estado civil: nunca casado, casado, divorciado, viudo.

En la población que usted está estudiando, estudios anteriores han encontrado los siguientes

porcentajes en cada una de estas categorías:

Nunca se casó 27%

Casado 39%

Divorciado 23%

Viudo 11%

Decide que desea calcular el tamaño del efecto cuando los porcentajes individuales para

hombres y mujeres son:

Género: Masculino Femenino

Nunca se casó 22% 32%

Casado 46% 33%

Divorciado 22% 24%

Viudo 10% 11%


14
El valor de W gira fuera a ser 0.143626. (NCSS, 2015)

3.2 Pruebas R2 –Pearson


Con respecto a la regresión lineal con una variable independiente (predictor) y el término de

intercepción (que corresponde al valor promedio de Y), la medida ES se da a través del

coeficiente de determinación o r 2 (ec. 3.1 en la Tabla 1 ). Cabe destacar que, en esta forma más

simple del modelo, r 2 no es más que el valor al cuadrado de r. Esto no debería sorprender

porque si existe una relación entre las variables, entonces puede usarse para lograr la predicción,

de modo que cuanto más fuerte sea la relación, mejor será la predicción. Para la regresión lineal

múltiple, donde tenemos más de un predictor, podemos usar la f 2 de Cohen en su lugar

(ecuación 3.3a en la Tabla 1 ) en la que r 2se corrige por la cantidad de variación que los

predictores dejan sin explicar. A veces, el r 2 ajustado (ec. 3.2 en la Tabla 1 ) generalmente se

presenta junto a r 2 en regresión múltiple, en la que se realiza la corrección para el número de

predictores y los casos. Debe notarse que tal cantidad no es una medida del efecto, sino que

muestra cuán adecuado es el conjunto real de predictores con respecto a la predictividad del

modelo.(Lalong Cristiano, 2016)

2
(∑(𝑥 − 𝑥̅ )(𝑦 − 𝑦̅))2
𝑟 =
̅̅̅2
∑(𝑥 − 𝑥̅ )2 ∑(𝑦 − 𝑦)

2
(1 − 𝑟 2 )𝑝
𝑟 2 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 = 𝑟𝑎𝑑𝑗 = 𝑟2 −
𝑁−𝑝−1

15
Ejemplo.- La forma más fácil de entender cómo funciona el ES medido a través de r es
mirar los datos dispersos:

En ambos paneles, las líneas discontinuas representan el valor promedio de X (vertical) y de

Y (horizontal). En el panel A, el coeficiente de correlación era cercano a 1 y los datos daban la

impresión visual de estar en una línea recta. En el panel B, los datos de Y se reordenaron

aleatoriamente con respecto a X, lo que resultó en un coeficiente r muy cercano a cero, aunque

el valor promedio de Y no cambió. De hecho, los datos parecían estar dispersos aleatoriamente

sin ningún patrón. Por lo tanto, el efecto que hizo que X e Y se comportaran de manera similar

en A desapareció por la clasificación aleatoria de Y, ya que la aleatoriedad es, por definición, la

ausencia de cualquier efecto.

4. CONCLUSIONES
El tamaño de efecto es una herramienta bastante útil al momento de cuantificar, cuanta

diferencia existe entre una variable y otra, o entre dos grupos de análisis diferente, El tamaño

del efecto enfatiza el tamaño de la diferencia en lugar de ingresar en el análisis el tamaño de la

muestra. Por otra parte el tamaño del efecto es una herramienta importante para informar e

interpretar la efectividad, no nos informa únicamente si la prueba que estamos realizando

funciona o no, si se rechaza o se aceptan las hipótesis nulas. Esta herramienta nos permite medir

en qué grado se puede rechazar, ver que tan grande son las diferencias.

16
Una de las mayores importancias es al momento de realizar una comparación de las medidas

o resultados obtenidos de diversas variables que no son iguales, estos no presentan una escala

igual, los investigadores o experimentadores a menudo se inventan escalas o adaptan sus

variables a una ya conocida, existente, cuya interpretación sea familiar para las demás personas,

por tanto el tamaño de efecto nos permite compara la diferencia o variación de las variables de

estudio bajo una misma escala.

Finalmente su aplicación es extensa, ya que para cada prueba probabilística existen fórmulas

determinadas, que se ajustan prácticamente al tipo y modelo de estudio que se esta optando.

5. BIBLIOGRAFÍA
Coe Robert, (2002). Es el tamaño del efecto, Qué tamaño de efecto es y por qué es
importante. Escuela de Educación, Universidad de Durham, 12-14
Castro Cárdenas Manuel (2014). Statistical power and effect size calculating in
g*power: complementary analysis of statistical significance testing and its application in
psychology. SALUD & SOCIEDAD, V. 5 No. 2 PP. 210 – 224
Ares, V. M. (1999). La prueba de significación de la «hipótesis cero» en las
investigaciones por encuesta. Metodología de Encuestas, 1(1), 47-68.
Navarro, M. D. F., Llobell, J. P., & Pérez, J. F. G. (2000). Tamaño del efecto del
tratamiento y significación estadística. Psicothema, 12(Su2), 236-240.
Frías-Navarro, M. D., Pascual-Llobell, J., & García-Pérez, J. F. (2001). Significación
sustantiva y depresión infantil. Revisado, 6(15), 2010.
Tejero-González, C. M., Castro-Morera, M., & Balsalobre-Fernández, C. (2012).
Importancia del tamaño del efecto. Una ejemplificación estadística con medidas de condición
física. Revista Internacional de Medicina y Ciencias de la Actividad Física y del
Deporte/International Journal of Medicine and Science of Physical Activity and Sport, 12(48),
715-727.
Ledesma, R., Macbeth, G., & de Kohan, N. C. (2010). Tamaño del efecto: revisión
teórica y aplicaciones con el sistema estadístico ViSta. Artículos en PDF disponibles desde
2007 hasta 2013. A partir de 2014 visítenos en www. elsevier. es/rlp, 40(3), 425-439.

17

S-ar putea să vă placă și