Sunteți pe pagina 1din 13

Pruebas

estadísticas
inferenciales
Por: Juan Alfonso Méndez Zavala
Pruebas para dos variables Nominales o Categóricas
Estadísticos No-Paramétricos
Pruebas para dos muestras independientes
(categóricas)
Dos muestras Independientes.
 Prueba de la Probabilidad exacta de Fisher Se considera cuando la vv.ii. Es
dicotómica y divide a la muestra en
Se emplea en el caso de que ambas variables sean dos grupos mutuamente
dicotómicas. excluyentes.

La mejor representación gráfica de


estos datos es a través de los
Gráficos de Barras Agrupadas

Tabla de
Contingencias 2x2
Pruebas para dos muestras independientes
(categóricas)
Prueba χ para dos muestras independientes
2
Dos muestras Independientes.
Se emplea en el caso de que ambas variables sean Se considera cuando la vv.ii. Es
dicotómicas o en el caso de que exista alguna de dicotómica y divide a la muestra en
estas variables que sea politómica. dos grupos mutuamente
excluyentes.
La vv.dd puede ser dicotómica o
politómica.
La mejor representación gráfica de
estos datos es a través de los
Gráficos de Barras Agrupadas

Tabla de Contingencias 2x2 o


de 2 x K
Población objeto

  𝑯 𝟎 : 𝝁 𝟏=𝝁𝟐
Muestra 1 Muestra 2
  𝑯 𝒂 : 𝝁 𝟏 ≠ 𝝁𝟐

Pruebas para 2 muestras independientes


(Cuantitativas)
Estadísticos paramétricos y No-paramétricos
Prueba t de Student para 2 muestras independientes (paramétrica)
Se emplea cuando el resultado de la prueba de bondad de ajuste
Kolmogorov-Smirnov (DKS) resulta no significativa (p > 0.050).

Es la prueba indicada para un diseño de investigación inter-


sujetos donde la vv.ii es dicotómica y la vv.dd es escalar con
distribución normal. La mejor representación
visual de esta prueba es el
gráfico de barras con
barras de error (intervalos
  hipótesis nula indica que no existen diferencias
Su de confianza, desviación
significativas en la vv.dd en función de las dos muestras estándar o error de la media).
independientes (dicotomía), es decir, tanto el grupo 1 como
el grupo 2 son semejantes en puntuación en vv.dd.

Si los valores de significatividad son inferiores al valor α (p


≤ 0.050) entonces se rechaza la hipótesis nula que señala
semejanza entre grupos y se retiene la hipótesis alterna,
se concluye que los grupos presentan diferencias
estadísticamente significativos en la vv.dd.
Prueba u de Mann-Whitney para 2 muestras
independientes (No-paramétrica)
Se emplea cuando el resultado de la prueba de bondad de ajuste
Kolmogorov-Smirnov (DKS) resulta significativa (p < 0.050).

Es la prueba indicada para un diseño de investigación inter-


sujetos donde la vv.ii es dicotómica y la vv.dd es Ordinal o La mejor representación
cuando es escalar pero no cumple con la distribución normal. visual de esta prueba es el
Diagrama Box Plot
Diagrama de caja y bigote).

  hipótesis nula indica que no existen diferencias


Su
significativas en la vv.dd en función de las dos muestras
independientes (dicotomía), es decir, tanto el grupo 1 como
el grupo 2 son semejantes en puntuación en vv.dd.

Si los valores de significatividad son inferiores al valor α (p


≤ 0.050) entonces se rechaza la hipótesis nula que señala
semejanza entre grupos y se retiene la hipótesis alterna,
se concluye que los grupos presentan diferencias
estadísticamente significativos en la vv.dd.
  𝑯 𝟎 : 𝝁 𝟏 = 𝝁𝟐 = 𝝁 𝟑
Población objeto   𝑯 𝒂 : 𝝁 𝟏 ≠ 𝝁𝟐 ≠ 𝝁𝟑

Muestra 3 o
Muestra 1 Muestra 2
k

Pruebas para K muestras independientes


Pruebas Paramétricas y No-paramétricas
Prueba ANOVA de un factor (Paramétrica)
ANOVA es el acrónimo de Analysis of Variance.
Es una técnica estadística que se emplea cuando la vv.ii es
un factor (variable nominal politómica) y la vv.dd es escalar
y cumple con distribución normal (DKS, p > 0.050). co Se
m
co plet
n a
Es una prueba para diseños inter-sujetos donde existen más pru una
Po eba
de 2 grupos o clases (K ≥ 3) st-
Ho
c
  hipótesis nula indica que no existen diferencias
Su Mejor visualización con Gráfico
significativas en la vv.dd en función del factor (politómico), de barras con barras de error
es decir, el grupo 1, grupo 2 y grupo 3 o k, son semejantes o con Box Plot.
en puntuación en vv.dd.

Si los valores de significatividad son inferiores al valor α (p


≤ 0.050) entonces se rechaza la hipótesis nula que señala
semejanza entre grupos y se retiene la hipótesis alterna,
se concluye que los grupos (o algunos de ellos) presentan
diferencias estadísticamente significativos en la vv.dd.
Prueba H de Kruskal-Wallis (No-paramétrica)
Alternativa no paramétrica al ANOVA.
Es una técnica estadística que se emplea cuando la vv.ii es
un factor (variable nominal politómica) y la vv.dd es Ordinal
o escalar pero no cumple con distribución normal (DKS, p <
0.050).

Es una prueba para diseños inter-sujetos donde existen más


de hipótesis
2 grupos onula
clases (K ≥ que
3) no existen diferencias Mejor visualización con Gráfico
 Su indica de barras con barras de
significativas en la vv.dd en función del factor (politómico), error o con Box Plot
es decir, el grupo 1, grupo 2 y grupo 3 o k, son semejantes
en puntuación en vv.dd.

Si los valores de significatividad son inferiores al valor α (p


≤ 0.050) entonces se rechaza la hipótesis nula que señala
semejanza entre grupos y se retiene la hipótesis alterna,
se concluye que los grupos (o algunos de ellos) presentan
diferencias estadísticamente significativos en la vv.dd.
Pruebas de Asociación entre variables cuantitativas
Correlación como estadística paramétrica y no-paramétrica
La
correlación
  Spearman: Estadístico
De
admisible a mediciones ordinales
y escalares no-paramétricas ya
que es una medida de asociación
entre dos variables que requiere
del ordenamiento en serie (Siegel
1978).

De Pearson: estadístico admisible


para variables escalares y análisis
paramétricos. Este coeficiente
permite conocer el tipo y fuerza
de asociación lineal entre dos
variables (Pardo & San Martín,
2012).
Correlaciones entre dos variables
Consiste en evaluar el grado de asociación lineal
de cada una de las variables con el resto de variables.
La mejor visualización se realiza con un Gráfico de
Dispersión o Nube de puntos

Anatomía de una
Matriz de
Correlaciones
V1 V2 V3 V4 V5 V6 V7
V1 1 .232* .469** .161 .132 .058 .294**
V2 1 .189 .125 .203 .142 .171
V3 1 -.009 .034 .037 .340**
V4 1 .241* .043 .141
V5 1 .139 .157
Nota de
V6 1 .323** probabilidad:
V7 1 *p ≤ .05
**p ≤ .01

S-ar putea să vă placă și