Documente Academic
Documente Profesional
Documente Cultură
VILLARREAL
I. Introducción……………………………………………………………….......
II. Conceptos Elementales
II.I Definición……………………………………………………………….
II.II Características…………………………………………………………
II.III Ventajas y desventajas del Análisis no Paramétrico………………
III. Análisis no paramétricos
III.I Pruebas estadísticas no paramétricos más utilizadas
Ji cuadrada o Chi Cuadrada………………………………….
Para una variable………………………………………
Para dos variables…………………………………….
Ejemplos………………………………………………..
Prueba de rangos con signos ………………………………
Prueba de signos……………………………………….
Uso de la aproximación normal a la binomial……….
Prueba de hipótesis acerca de una mediana………...
Prueba de rangos con signos de Wilcoxon para
muestras dependientes…………………………………
Ejemplos……………………………………………….
Prueba de Mann-Withney ……………...…………………….
Ejemplos………………………………………………..
Prueba de Kruskal- Wallis……………………………………
Ejemplos……………………………………………….
III.II Prueba de Bondad de Ajuste de Kolmogorov-Smirnov (KS)…….
Pruebas para una muestra …………………………………
Concepto
Simulación de datos con distribución normal,
exponencial, uniforme y Poisson
Ejemplos
Pruebas para dos muestras independientes………………..
Concepto
Estadístico de prueba
Ejemplos
Ejercicios propuestos
IV. Conclusiones…………………………………………………………………….
V. Anexos……………………………………………………………………………
VI. Bibliografía……………………………………………………………………….
ANÁLISIS NO PARAMÉTRICO
Introducción
La estadística clásica se divide en descriptiva e inferencial (inductiva). La descriptiva
busca conocer el comportamiento general de una población a partir de la medición de
características presentes en sus individuos y la aplicación de medidas de resumen
(medidas de tendencia central o dispersión, frecuencias absolutas o relativas) y
métodos de visualización (tablas y gráficos). En este contexto no es necesario cumplir
ningún supuesto para que las conclusiones obtenidas tengan validez.
Ahora bien, en favor de las pruebas paramétricas, estos métodos son los
recomendables cuando se cumplen los supuestos sobre las distribuciones de las
variables en la población de estudio.
II.Conceptos Elementales
II.I DEFINICIÓN
Análisis no paramétrico
1. Si se puede utilizar una prueba paramétrica y se usa una no paramétrica hay una
pérdida de información.
PRUEBAS NO PARAMÉTRICAS
𝑘
2
(𝑂𝑖 − 𝐸𝑖 )2
𝑋 =∑
𝐸𝑖
𝑖=1
Donde:
𝑂𝑖 = frecuencias observadas
𝐸𝑖 =frecuencias esperadas (teóricas)
PARA 2 VARIABLES
b) Prueba de Homogeneidad de varias muestras cualitativas, consiste en comprobar
si varias
muestras de un carácter cualitativo proceden de la misma población (por ejemplo:
¿estas
tres muestras de alumnos provienen de poblaciones con igual distribución de
aprobados? Es
necesario que las dos variables medibles estén representadas mediante categorías con
las
cuales construiremos una tabla de contingencia.
El conjunto de posibles valores de las observaciones se divide en k conjuntos disjuntos:
A1, A2, ..., Ak.; clasificando en ellos las observaciones de cada muestra. Si nij
representa el número de observaciones de la muestra i que pertenecen al conjunto Aj ,
los datos pueden tabularse en lo que se denomina una tabla de contingencia.
Si el número de signos “+” mas o “–” menos es mayor que n/2, emplee la siguiente
formula como el estadístico de prueba:
Si el número de signos “+” más o “–” menos es menor que n/2, el estadístico de prueba
z es
La prueba t de Student por pares (o apareada), que se describió en el capítulo 11, tiene
dos requisitos. Primero, las muestras deben ser dependientes. Recuerde que las
muestras dependientes se caracterizan por una medición, algún tipo de intervención y
luego otra medición. Por ejemplo, una compañía importante inicio un programa de
“bienestar”
al inicio del ano. Se inscribieron 20 personas en la parte de reduccion de peso del
programa. Para comenzar, se pesaron todos los participantes. Luego se pusieron a
dieta, hicieron ejercicio, etc., para reducir de peso. Al final del programa, que duro seis
meses, todos los participantes se pesaron de nuevo. La diferencia en su peso entre el
inicio y el final del programa es la variable de interés. Observe que hay una medición,
una intervención y luego otra medición. El segundo requisito para la prueba t por pares
es que la distribución de las diferencias siga la distribución normal de probabilidad. En
el ejemplo sobre el bienestar de la compañía, esto requiere que las diferencias en los
pesos de los 20 participantes sigan la distribución normal de probabilidad. En ese caso,
dicha suposición es razonable. Sin embargo, hay casos en que interesaran
las diferencias entre observaciones independientes y no se podrá suponer que la
distribución de las diferencias se aproxima a una distribución normal. Con frecuencia,
encontrara problemas con la suposición de normalidad
cuando el nivel de medición en las muestras sea ordinal, en lugar de intervalo
o de razón. Por ejemplo, suponga que este día hay 10 pacientes en cirugía en la clínica
3. La supervisora de enfermería pide a las enfermeras Benner y Jurris que califiquen a
cada uno de los pacientes en una escala de 1 a 10 de acuerdo con la dificultad de los
cuidados que debe recibir. La distribución de las diferencias en las calificaciones quizá
no se aproxime a la distribución normal, y, por tanto, no sería adecuada la prueba t por
pares. En 1945, Frank Wilcoxon desarrollo una prueba no paramétrica, con base en las
diferencias en muestras dependientes, que no requiere la suposición de normalidad.
Esta prueba se denomina prueba de rangos con signo de Wilcoxon. En el siguiente
ejemplo se dan los detalles de su aplicación
3. PRUEBA DE MANN-WHITNEY
𝑁1 ∗ (𝑁1 + 1)
𝑈 = 𝑁1𝑋𝑁2 + − 𝑅1
2
𝑁2 ∗ (𝑁2 + 1)
𝑈2 = 𝑁2𝑋𝑁1 + − 𝑅2
2
Donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los
rangos de las observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la
hora de ordenarlas. No obstante, si su número es pequeño, se puede ignorar esa
circunstancia.
Distribución del estadístico
La prueba calcula el llamado estadístico U, cuya distribución para muestras con más
de 10 observaciones se aproxima bastante bien a la distribución normal.
La aproximación a la normal, z, cuando tenemos muestras lo suficientemente grandes
viene dada por la expresión:
𝑈𝑖 − 𝜇𝑊
𝑍=
𝜎𝑊
Donde mU y σU son la media y la desviación estándar de U si la hipótesis nula es
cierta, y vienen dadas por las siguientes fórmulas:
𝑁1𝑋𝑁2
𝜇𝑤 =
2
𝑁1 ∗ 𝑁2(𝑁1 + 𝑁2 + 1)
𝜎𝑤 = √
12
La prueba de MWW para el caso de muestras pequeñas se usa siempre que los
tamaños de las muestras de ambas poblaciones sean menores o iguales a 10.
Para poder entenderlo tomamos un ejemplo
Ejemplo 1
La mayoría de los alumnos de la escuela Johnston provienen de la escuela
Garfield o de la escuela Mulberry. La cuestión que desean resolver los directivos
de la escuela Johnston es si la población de los estudiantes que provenían de la
escuela Garfield es idéntica, en términos de preparación académica, a la
población de los estudiantes que provenían de la escuela Mulberry. Para este
problema utilizaremos un nivel de confianza del 95%,
PASO 1: Es reconocer que estas muestras no cumplan con los supuestos de la
normalidad , es decir, no tienen que ser normales para saber esto tenemos a las pruebas
de Kolmogórov-Smirnov que las utilizamos para muestras mayores a 30 y la prueba
de Shapiro-Wilk cuando son menores a 30
PASO 2: ESTABLECER LAS HIPOTESIS
H0: Las dos poblaciones son idénticas en términos de preparación académica
Ha: Las dos poblaciones no son idénticas en términos de preparación académica
PASO 3: SE ESTABLECEN LOS RANGOS
4(4 + 1)
𝑈1 = 4𝑋5 + − 11 = 19
2
5(5 + 1)
𝑈2= 5𝑋4 + − 34 = 1
2
U U
Z
U
Donde U y σU son la media y la desviación estándar de U si la hipótesis nula es
cierta, y vienen dadas por las siguientes fórmulas:
n1 n 2 n1n2 (n1 n2 1)
U U
2 12
En la tabla observamos que el tiempo de espera más corto, 35 minutos, es del quinto
paciente muestreado en el Piedmont Hospital. El tiempo más largo, 107 minutos, le tocó
al séptimo paciente muestreado en el Swedish Medical Center.
En este caso, las muestras provienen de poblaciones independientes, que son los tres
hospitales. Pero suponga que no quiere asumir que hay una varianza igual en los
tiempos de espera en los tres hospitales o que estos tiempos de espera siguen una
distribución de probabilidad normal. La falta de estos dos criterios significa que no se
cubren los requisitos de ANOVA, así que no se puede utilizar esta técnica. En vez de
eso, recurrimos a la prueba de Kruskal-Wallis, donde no se requieren estas
suposiciones.
El primer paso en la prueba de hipótesis es formular las hipótesis nula y alternativa.
Al despejar H. se obtiene
Como el valor calculado de H (5.38) es menor que el valor crítico de 5.99, no se rechaza
la hipótesis nula. No hay evidencia suficiente para concluir que existe una diferencia
entre los tiempos de espera en los tres hospitales.
Al igual que las pruebas de chi-cuadrado para una muestra y binomial, la prueba
Kolmogorov-Smirnov (K-S) para una muestra (Kolmogorov, 1933) es una prueba de
bondad de ajuste: Sirve para contrastar la hipótesis nula de que la distribución de una
variable se ajusta a una determinada distribución teórica de probabilidad. Pero a
diferencia de las primeras, que han sido diseñada más bien para evaluar el ajuste de
variables categóricas, la prueba de K-S para una muestra se adapta mejor a situaciones
en las que se interesa evaluar el ajuste de variables cuantitativas.
Para contrastar la hipótesis nula de bondad de ajuste, la prueba de K-S se basa en la
comparación de dos funciones de distribución (o funciones de probabilidad
acumuladas): una función de distribución empírica F(Xi) y una función de distribución
teorica F0(Xi)
Para obtener la función de distribución empírica F(Xi) se comienza ordenando los
valores de Xi de forma ascendente, es decir, desde el valor más pequeño X1 hasta el
más grande Xn
Tras esto, la función de distribución empírica para cada valor de Xi se obtiene de la
siguiente manera: F(Xi) = i/n (i se refiere al rango correspondiente a cada observación).
La forma de obtener la función de distribución teórica depende la distribución concreta
propuesta en la hipótesis. Si la distribución propuesta es, por ejemplo, la uniforme, la
función de distribución teórica para cada valor de Xi se obtiene así: F0(X1) = (Xi – X1) (Xn
– X1). Si la distribución teórica propuesta es, por ejemplo, la de Poisson, entonces la
función de disribución teórica se obtiene así:
Una vez obtenidas las distribuciones empírica y teórica, el estadístico de K-S se calcula
a partir de la diferencia D más grande existente entre F(Xi) y F0(Xi)
cero. Ni a una distribución de Poisson si la media de la variable vale cero o los valores
no son, todos ellos, enteros negativos.
El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara la función
de distribución acumulada observada de una variable con una distribución teórica
determinada, que puede ser la normal, la uniforme, la de Poisson o la exponencial.
La Z de Kolmogorov-Smirnov se calcula a partir de la diferencia mayor (en valor
absoluto) entre las funciones de distribución acumuladas teórica y observada. Esta
prueba de bondad de ajuste contrasta si las observaciones podrían razonablemente
proceder de la distribución especificada.
Esta prueba sirve para contrastar la hipótesis de que dos muestras proceden de la
misma población. Para ello, compara las funciones de distribución (funciones de
probabilidad acumuladas) de ambas muestras: F1(Xi) y F2(Xi). A diferencia de lo que
ocurre con la prueba de U de Mann-Whitney, que permite comparar dos promedios
poblaciones, la prueba de Kolmogorov-Smirnov es sensible a cualquier tipo de diferencia
entre las dos distribuciones (tendencia central, simetría, variabilidad, etc.)
Para obtener las funciones de distribución de las dos muestras se comienza asignando
rangos a los valores de Xi . Esta asignación de rangos se realiza de forma separada
para cada muestra y los empates se resuelven asignando el rango promedio a las
puntuaciones empatadas.
Tras asignar rangos a los valores de ambas muestras, la función de distribución empírica
para cada valor de Xi, se obtiene, en cada muestra, de la siguiente manera: Fj(Xn) = i/n
(donde i se refiere al rango correspondiente a cada observación). A continuación se
obtienen las diferencias DI = F1(Xi) - F2(Xi), donde F1(Xi) se refiere a la función de
distribución de la muestra de mayor tamaño. Una vez obtenidas las diferencias Di, la
hipótesis de las dos muestras proceden de la misma población se pone a prueba
utilizando una tipificación de la diferencia más grande en valor absoluto (Smirnov, 1939,
1948):
https://www.actaodontologica.com/ediciones/2016/1/art-6/
https://bookdown.org/cjrinconr/no_parametrica/no_parametrica.html#1_intr
oducci%C3%B3n
http://www.medigraphic.com/pdfs/pediat/sp-2003/sp032i.pdf
https://www.uoc.edu/in3/emath/docs/Chi_cuadrado.pdf
https://www.upg.mx/wp-content/uploads/2015/10/LIBRO-13-Estadistica-
para-administracion-y-economia.pdf
http://materias.unq.edu.ar/pye/Trabajos%20Pr%C3%A1cticos/Tablas%20de%
20Estadistica.pdf
https://www.uco.es/servicios/informatica/windows/filemgr/download/ecolog
/Metodos%20analisis%20datos.pdf