Sunteți pe pagina 1din 92

Estadstica no parametrica

metodos basados en rangos

Por:
Jimmy A. Corzo S.
Profesor Asociado Departamento de Estadstica
Universidad Nacional de Colombia
18 de septiembre de 2000

Indice general
1. Introducci
on

1.1. Un poco de historia

. . . . . . . . . . . . . . . . . . . . . .

1.2. Algunos problemas tpicos en estadstica no parametrica . .

10

1.2.1. Una muestra . . . . . . . . . . . . . . . . . . . . . .

10

1.2.2. Dos muestras . . . . . . . . . . . . . . . . . . . . . .

11

1.2.3. Independencia . . . . . . . . . . . . . . . . . . . . .

12

1.2.4. Modelos lineales . . . . . . . . . . . . . . . . . . . .

12

Escalas de medida . . . . . . . . . . . . . . . . . . . . . . .

16

1.3.1. Nominal . . . . . . . . . . . . . . . . . . . . . . . . .

16

1.3.2. Ordinal o de rango . . . . . . . . . . . . . . . . . . .

17

1.3.3. Intervalo

. . . . . . . . . . . . . . . . . . . . . . . .

17

1.3.4. Razon . . . . . . . . . . . . . . . . . . . . . . . . . .

18

1.3.

2. Problemas de una muestra

20

2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

2.2. Dos pruebas para la bondad del ajuste . . . . . . . . . . . .

20

2.2.1. Prueba de KolmogorovSmirnov . . . . . . . . . . .

21

2.2.2. Distribucion asintotica de Dn y D+


n . . . . . . . . .

23

INDICE GENERAL

2.2.3. Prueba 2 para bondad de ajuste . . . . . . . . . . .

24

2.3. Prueba de rachas para aleatoriedad . . . . . . . . . . . . . .

26

2.3.1. Distribucion exacta del n


umero total de rachas R . .

28

2.3.2. Distribucion asintotica de R

. . . . . . . . . . . . .

29

2.4. Modelo de localizacion con distribucion arbitraria. . . . . . .

30

2.4.1. La prueba del signo . . . . . . . . . . . . . . . . . .

32

2.4.2. Distribucion asintotica de S y aproximacion de la


region crtica . . . . . . . . . . . . . . . . . . . . . .

34

2.4.3. Potencia de una prueba . . . . . . . . . . . . . . . .

35

2.4.4. Potencia de la prueba del signo . . . . . . . . . . . .

36

2.5. Modelo de una muestra con distribucion continua simetrica

36

2.5.1. Rangos en el problema de una muestra . . . . . . . .

37

2.5.2. La prueba del rango signado de Wilcoxon . . . . . .

39

2.5.3. Distribucion asintotica de T y aproximacion de la


region crtica . . . . . . . . . . . . . . . . . . . . . .

42

2.6. Manejo de empates . . . . . . . . . . . . . . . . . . . . . . .

43

2.6.1. Empates en la prueba del signo . . . . . . . . . . . .

44

2.6.2. Uso de rangos promedios en la prueba del rango


signado de Wilcoxon . . . . . . . . . . . . . . . . . .

44

2.7. Estimacion (metodo de Hodges Lehmann) . . . . . . . . . .

46

2.7.1. Introduccion . . . . . . . . . . . . . . . . . . . . . .

46

2.7.2. Estimaciones basadas en la estadstica de la prueba


del signo . . . . . . . . . . . . . . . . . . . . . . . . .

49

2.7.3. Estimadores de Hodges Lehmann (H-L) . . . . . . .

51

2.7.4. Estimaciones de H-L basadas en la estadstica del


rango signado de Wilcoxon . . . . . . . . . . . . . .

53

INDICE GENERAL

3. Problemas de dos muestras

56

3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

3.2. Pruebas para la alternativa general . . . . . . . . . . . . . .

57

3.2.1. La prueba de rachas de Wald-Wolfowitz . . . . . . .

57

3.2.2. Prueba de Kolmogorov-Smirnov para dos muestras .

59

3.3. Una prueba para la alternativa de localizacion . . . . . . . .

60

3.3.1. Rangos en el problema de dos muestras . . . . . . .

62

3.3.2. La estadstica de rangos de Mann-WhitneyWilcoxon . . . . . . . . . . . . . . . . . . . . . . . .

63

3.3.3. Distribucion exacta de U . . . . . . . . . . . . . . .

64

3.3.4. Distribucion asintotica de U y W y aproximacion de


la region crtica . . . . . . . . . . . . . . . . . . . . .

65

3.4. Estimaciones basadas en la estadstica de


Wilcoxon para el problema de dos muestras . . . . . . . . .

66

3.5. Manejo de empates . . . . . . . . . . . . . . . . . . . . . . .

67

3.6. Una prueba para la alternativa de escala . . . . . . . . . . .

69

3.6.1. Prueba de Mood . . . . . . . . . . . . . . . . . . . .

70

3.6.2. Distribucion exacta y momentos de MN . . . . . . .

71

3.6.3. Distribucion asintotica de MN . . . . . . . . . . . .

71

4. Problemas de K muestras

72

4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . .

72

4.2. Arreglos de una va y prueba de Kruskal - Wallis . . . . . .

72

4.2.1. La prueba de Kruskal - Wallis . . . . . . . . . . . . .

74

4.2.2. Manejo de empates . . . . . . . . . . . . . . . . . . .

75

INDICE GENERAL

4.2.3. Una prueba para detectar las fuentes de significancia


en arreglos de una va . . . . . . . . . . . . . . . . .

76

4.2.4. Una prueba para la alternativa ordenada en arreglos


de una va . . . . . . . . . . . . . . . . . . . . . . . .

78

4.3. Arreglos de dos vas y prueba de Friedman . . . . . . . . .

78

4.3.1. La prueba de Friedman . . . . . . . . . . . . . . . .

80

4.3.2. Manejo de empates . . . . . . . . . . . . . . . . . . .

80

4.3.3. Una prueba para detectar las fuentes de significancia


en arreglos de dos vas . . . . . . . . . . . . . . . . .

82

4.3.4. Una prueba para la alternativa ordenada en arreglos


de dos vas . . . . . . . . . . . . . . . . . . . . . . .

83

5. Asociaci
on y correlaci
on

84

5.1. Coeficiente de correlacion por rangos de


Spearman . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85

5.1.1. Prueba basada en el coeficiente de correlacion de


Spearman . . . . . . . . . . . . . . . . . . . . . . . .

86

5.1.2. Distribucion exacta de la estadstica de prueba . . .

87

5.1.3. Distribucion asintotica de rs

. . . . . . . . . . . . .

88

5.1.4. Manejo de los empates . . . . . . . . . . . . . . . . .

88

5.2. Coeficiente de correlacion de Kendall . . . . . . . . . . . .

88

5.2.1. Manejo de los empates . . . . . . . . . . . . . . . . .

90

Captulo 1

Introducci
on
En terminos muy generales un procedimiento de inferencia estadstica tiene que ver con la extraccion de una muestra aleatoria X de alguna
poblacion con distribucion F (a esta distribucion se le llamara aqu distribuci
on muestreada), que depende de uno o varios parametros desconocidos
acerca de los cuales se quiere hacer alguno de los dos siguientes tipos de
inferencia:
Verificacion (o rechazo) de una hipotesis acerca del valor de un parametro desconocido. Problema de prueba de hip
otesis.
Estimacion puntual o por intervalo del valor de un (os) parametro(s)
desconocido(s). Problema de estimaci
on.
Los metodos utilizados para resolver cualquiera de los problemas planteados dependen principalmente de los supuestos que se hagan acerca de F , la
distribucion de X. En el problema de prueba de hipotesis en los metodos
parametricos son necesarios supuestos sobre la forma funcional de F para
poder obtener regiones crticas o de rechazo de la hipotesis que sean optimas en alg
un sentido (por ejemplo las pruebas uniformemente mas potentes
obtenidas para distribuciones que son miembros de la familia exponencial).
En el problema de estimacion cuando se conoce la forma funcional de F
se pueden obtener estimadores maximo verosmiles. En ambos casos, la obtencion de los resultados optimos requiere el conocimiento de la forma
de la distribucion muestreada.
6

7
A los procedimientos que requieren muy pocos o muy debiles supuestos
acerca de las distribuciones muestreadas, como por ejemplo continuidad o
simetra de F , suele llamarseles metodos no parametricos. Una distincion
adicional puede hacerse para aquellos metodos que, con o sin el supuesto
sobre la forma funcional de la distribucion muestreada, utilizan para estimacion de parametros o para las pruebas de hipotesis estadsticas cuyas
distribuciones no dependen de la distribucion muestreada. A estos metodos se les conoce como metodos de distribuci
on libre. Dado que para muchos de los metodos de distribucion libre se requieren muy pocos o muy
debiles supuestos acerca de la distribucion muestreada, estos se encuentran frecuentemente en la literatura como parte de los procedimientos no
parametricos. Debido a que no hay acuerdo total entre los especialistas respecto a esta clasificacion, en estas notas se hara referencia a los metodos
no parametricos en general sin hacer esta u
ltima distincion.
Los metodos no parametricos son de especial utilidad y tienen ventajas
sobre los metodos parametricos clasicos en las siguientes situaciones:
Cuando los datos disponibles se encuentran en escala ordinal o en
escala nominal (en este u
ltimo caso no existen metodos parametricos).
Cuando la distribucion muestreada no es exactamente la requerida
por un metodo parametrico optimo para el mismo problema.
Cuando los datos tienen problemas con observaciones extremas porque
el efecto de estas sobre los rangos es menor, es decir, los metodos no
parametricos son un poco mas robustos en este sentido que los metodos parametricos.
Para muestras peque
nas, cuando no se dispone de las tablas de la
distribucion de la estadstica de prueba, la construccion de las regiones
crticas es relativamente simple.
Para muestras grandes, ya que la mayora de las distribuciones asintoticas de las estadsticas utilizadas son normales.
Sin embargo, los metodos no parametricos presentan desventajas en las
siguientes situaciones:
Se satisfacen todos los supuestos requeridos para utilizar metodos
parametricos optimos.

CAPITULO 1. INTRODUCCION

Se quiere un nivel de significancia dado fijo, (digamos del 0.05). En el


caso no parametrico, en muchos casos no es posible obtenerlo exactamente debido a que la mayora de las estadsticas utilizadas son
discretas.
El calculo de la potencia de las pruebas no parametricas es en general
mucho mas complicado que en el caso parametrico.
Para problemas multivariados existen muy pocas posibilidades de utilizacion de los metodos no parametricos.
El contenido del curso es lo que a mi juicio constituye los resultados
teoricos mas importantes de los metodos de inferencia estadstica basados
en rangos para problemas de una, dos y K muestras, y el problema de
asociacion y correlacion en muestras bivariadas. La presentacion se hizo lo
mas sistematica posible; se intento en todos los casos decir primero cual
es el tipo de datos disponibles para cada problema tratado, seguidamente
se muestra el sistema de hipotesis que se quiere probar, la estadstica de
prueba, los momentos y la forma de calcular la distribucion exacta de la
estadstica (cuando es posible); despues se presenta la forma como se puede
aproximar la region crtica a partir de la distribucion asintotica de la estadstica de prueba y al final se introducen las alteraciones que sufren las
estadsticas y las regiones crticas en presencia de empates. Se trato de ilustrar en todos los casos la forma de calculo de la estadstica con un ejemplo.
Por razones de completitud en el problema de una muestra se incluye tambien la prueba -cuadrado para la bondad del ajuste aunque esta no sea
una prueba de rangos. Naturalmente los u
nicos metodos no parametricos
no son solamente los basados en rangos, pero si son posiblemente los que
se encuentran mejor sustentados teoricamente y mas desarrollados en la
actualidad y es por esta razon que se incluyen como eje central del curso.
En las secciones 2 y 3 se presentan los fundamentos de las pruebas de
hipotesis y de la estimacion puntual y por intervalos a partir de estadsticas
de rangos en problemas de una y dos muestras.
En la seccion 4 se presentan las bases para el manejo de las pruebas de
hipotesis en problemas de clasificacion respecto a uno o dos criterios, y en
problemas de muestras bivariadas (correlacion por rangos). Para cada problema se presenta de manera sistematica el tipo de informacion requerida
para la prueba (o para la estimacion); se establece la region crtica para la
prueba de la hipotesis en cuestion y, cuando es posible, se presenta un meto-

1.1. UN POCO DE HISTORIA

do para calcular las distribuciones exactas de las estadsticas de prueba bajo


la hipotesis nula. En la mayora de los casos se presentan las distribuciones
lmite de las estadsticas de prueba bajo la hipotesis nula sin mencionar la
forma teorica de obtener el resultado. Muchas de las situaciones se ilustran
con ejemplos tomados directamente de textos reconocidos en el contexto
de la estadstica no parametrica como el de Lehmann y Dabrere (1964), el
de Hettmansperger (1984) y el de B
unning y Trenkler (1994) y otras con
ejemplos mas reales y adaptados a nuestra cotidianidad.
Para terminar, es conveniente tener en cuenta que estos apuntes son producto de la experiencia de haber dictado varias veces el curso de estadstica
no parametrica para la carrera de Estadstica en la Universidad Nacional
de Colombia y han sido adaptados de varios textos clasicos sobre el tema,
mencionados en la bibliografa, especialmente del texto de Hettmansperger
(1984), del cual fue tomado el orden de presentacion y varios de los ejemplos
y explicaciones graficas.
Mis especiales agradecimientos a mi alumna Andrea Robles del curso
de Estadstica no parametrica de la carrera de Estadstica quien con su
incisiva forma de preguntar ayudo mucho en la correccion de la version
que entregue en clase y despues con su dedicacion corrigio personalmente
aspectos de sintaxis y semanticos en el texto.

1.1.

Un poco de historia

Uno de los trabajos mas antiguos conocidos en estadstica no parametrica data de del a
no de 1710 y fue realizado por Arbuthnot. En el se utiliza
la prueba del signo para examinar las proporciones de nacimientos de hombres y mujeres como prueba de la sabidura de la providencia divina.
Sin embargo, los primeros desarrollos de los metodos no parametricos se
produjeron a partir de los a
nos treinta con los trabajos de Hottelling &
Papst (1936), Friedman (1937), Kendall (1938), Smirnov (1939), Wald &
Wolfowitz (1940). Un desarrollo sistematico de la teora se inicio con los
trabajos de Wilcoxon (1945) y Mann & Whitney (1947) seguidos por los trabajos de Hodges y Lehmann (1956, 1960, 1962, 1963, 1967)1 en los que descubrieron el sorprendente resultado de que las pruebas de rangos pierden
1
Toda la bibliografa de este par
agrafo se encuentra citada en B
unning y Trenkler
(1999) y en Hettmansperger (1984)


CAPITULO 1. INTRODUCCION

10

muy poca eficiencia cuando se comparan con la prueba t bajo el modelo de


distribuci
on normal, y pueden ser mucho m
as eficientes que esta para modelos de distribuciones con colas alargadas2 . En la decada de los 60 Hodges
& Lehmann obtuvieron tambien estimaciones puntuales y por intervalo de
parametros de localizacion, basadas en estadsticas de rangos, mostrando
ademas que estos metodos de estimacion heredan varias propiedades de las
estadsticas de prueba que los generaron. Tambien en esta decada, Hajek
desarrollo una poderosa teora para obtener las distribuciones asintoticas
de las estadsticas de rango, que permitio la construccion de estadsticas de
prueba mas generales basadas en rangos.
Las pruebas de rangos para el analisis de dise
nos de experimentos fueron
tambien introducidas por Hodges & Lehmann a principios de los a
nos sesenta y posteriormente desarrollada por Puri & Sen. Las pruebas de rangos y
los metodos de estimacion para modelos de regresion simple fueron estudiadas por Adichie (1967a, 1967b), y para el modelo lineal general tambien
fueron estudiadas por Adichie (1978). La mayora de la teora de distribuciones asintoticas requerida para el modelo lineal se debe al trabajo de
Jureckova (1969). Con sus resultados es posible desarrollar versiones unificadas basadas en rangos para el analisis de conjuntos de datos mas complejos cuya aplicacion, hoy en da, puede ser implementada en computador
a traves de paquetes especiales para esto o programando directamente los
procedimientos.
Debido a que los metodos estadsticos no parametricos son relativamente
nuevos, muchos de ellos son todava desconocidos entre los investigadores
de las diferentes areas. El objetivo del curso es, en consecuencia, dar a
conocer algunos de los mas importantes de estos metodos y proporcionar
un entrenamiento basico para las aplicaciones.

1.2.

1.2.1.

Algunos problemas tpicos en estadstica no


param
etrica
Una muestra

En el problema de una muestra la informacion disponible generalmente


es una muestra aleatoria X1 , . . . , Xn de una distribucion continua F con
2

Hettmansperger (1984) P
ag. vii


1.2. ALGUNOS PROBLEMAS TIPICOS EN ESTADISTICA NO PARAMETRICA

11

mediana . El interes esta generalmente en alguno de los siguientes problemas estadsticos:


Estimacion de la mediana, o de cualquier otro cuantil
o fractil de F .

Por ejemplo, la mediana se puede estimar por X( n ) + X( n +1) /2
2
2
cuando n es par y por X (n+1) , cuando n es impar.
2

Pruebas de hipotesis acerca de la mediana o acerca de los cuantiles.


Por ejemplo, H0 : = 0 frente a la alternativa K1 : 6= 0.
Prueba de hipotesis sobre la simetra de la distribucion muestreada
F . Por ejemplo, para = 0, H0 : F (x) = 1 F (x).
Pruebas de bondad de ajuste H0 : F = F0 para alg
un F0 conocido.
2 ), 2 conocido, probar H : F (x) =
Por ejemplo,
si
F
=
N
(0,

0
0

1/ 2 exp(x2 /2 2 ).
Estimacion de la distribucion muestreada F (x) (este tema no se trata
explcitamente en este curso).

1.2.2.

Dos muestras

La informacion disponible consiste en una muestra X1 , . . . , Xn de una


distribucion F y una segunda muestra Xm+1 , . . . , XN , donde N =
m + n, de una distribucion G, y se quiere probar la hipotesis acerca
de la igualdad de las distribuciones H0 : F (x) = G(x), frente alguna
alternativa general de la forma K1 : F (x) 6= G(x).
Un caso especial del anterior problema es cuando la hipotesis H0 :
F (x) = G(x) se quiere contrastar contra una alternativa de la forma K1 : F (x) = G(x ), 6= 0. La alternativa K1 se denomina
alternativa de localizacion debido a que las dos distribuciones solo
se diferencian porque la distribucion de G de la segunda muestra se
encuentra desplazada por el valor de hacia la derecha o hacia la
izquierda seg
un < 0 o > 0. Por tanto el problema se puede formular tambien como H0 : = 0 contra la alternativa K1 : 6= 0.
Al anterior problema se le llamara aqu un problema de localizaci
on.
Otras alternativas de localizacion son K2 : > 0 y K3 : < 0.
Un segundo caso especial de la alternativa general es cuando la hipotesis H0 : F (x) = G(x) se quiere contrastar contra una alternativa de


CAPITULO 1. INTRODUCCION

12

la forma K1 : F (x) = G ((x )/), 6= 1, en el cual la diferencia


entre las dos distribuciones se debe u
nicamente a un cambio en la
escala, debido a que el parametro de localizacion se considera conocido y com
un a las dos distribuciones. Al anterior problema se le
llamara aqu un problema de escala.
Aquellas situaciones en las que se observa la misma caracterstica
dos veces en el mismo individuo o en dos individuos gemelos en
alg
un sentido se llamaran problemas de muestras pareadas. Estos
problemas tambien se encuentran en la literatura como problemas de
una muestra en los que se analiza la diferencia entre las dos mediciones
como si fuera una muestra de diferencias.

1.2.3.

Independencia

Ahora la informacion disponible consta de una muestra aleatoria bivariada (X1 , Y1 ), . . . , (Xn , Yn ) de una distribucion F (x, y) y el interes esta en la
hipotesis sobre la independencia entre ellas. Por ejemplo, si se denota por
alg
un parametro de asociacion entre X y Y , entonces puede ser de interes
el contraste de la hipotesis H0 : = 0 frente a la alternativa K1 : 6= 0.

1.2.4.
1.2.4.1.

Modelos lineales
Regresi
on lineal

El problema consiste en que para las variables Y, X1 , X2 , . . . , Xp , se


supone la relacion lineal o modelo lineal de la forma:
Y = 0 + 1 X1 + 2 X2 + + p Xp + ,
donde es una variable aleatoria con distribucion continua de media cero
y varianza constante 2 . El interes esta en estimar y probar hipotesis sobre
los parametros desconocidos del modelo 0 , 1 , . . . , p , sin hacer supuestos
adicionales de la distribucion .


1.2. ALGUNOS PROBLEMAS TIPICOS EN ESTADISTICA NO PARAMETRICA

1.2.4.2.

13

Problemas de K muestras. Clasificaci


on respecto a un
criterio

En este caso la informacion se puede representar en un arreglo de la


forma:
X = (Xij ) , i = 1, . . . , nj ; j = 1, . . . , K,
en el cual Xij representa la i-esima observacion de una muestra aleatoria de
una distribucion Fj , es decir, la columna con elementos X1j , X2j , . . . , Xnj ,j
es una muestra aleatoria de la distribucion Fj . As, las columnas de X
representan K muestras aleatorias independientes entre s.
Hay tres situaciones tpicas que pueden describirse con el arreglo X:
Situaci
on 1: Aplicacion del tratamiento 1 sobre n1 unidades experimentales independientes, el tratamiento 2 sobre n2 unidades experimentales
independientes de las anteriores, y as sucesivamente hasta el tratamiento K
sobre nK unidades experimentales independientes de todas las K 1 anteriores. As las columnas del arreglo X representan la informacion obtenida
despues de la aplicacion de los K tratamientos. Puesto que en general en
esta situacion no es posible seleccionar aleatoriamente las unidades experimentales sobre las que se aplican los tratamientos, las inferencias hechas en
este caso solo son validas para el grupo de unidades experimentales.
Situaci
on 2: Extraccion de la muestra aleatoria de tama
no N =

K
P

nj

j=1

de alguna distribucion desconocida para luego clasificarla en grupos mutuamente excluyentes con respecto a alguna caracterstica de interes (por ejemplo genero: masculino, femenino; categoras socio-profesionales: obreros,
mandos medios, directivos; estado civil: solteros, casados, divorciados, viudos; nivel educativo: universitario, bachillerato, primaria, sin educacion); en
este caso las columnas de X contienen la informacion de los grupos generados por el criterio o variable de clasificacion. La validez estadstica de
las inferencias que se hacen en este caso dependen generalmente del dise
no
muestral utilizado.
Situaci
on 3: Extraccion de K muestras aleatorias independientes e independientes entre s de K poblaciones de tama
nos n1 , n2 , . . . , nK respectivamente. En este caso la validez estadstica de las inferencias tambien
dependen del dise
no muestral.


CAPITULO 1. INTRODUCCION

14

En cualquiera de las situaciones anteriores y con las restricciones mencionadas sobre la validez de las inferencias hechas, se supone que la informacion se ajusta al siguiente modelo lineal:
Xij = j + eij ,
donde los eij son variables aleatorias independientes con distribucion continua de media cero y varianza constante 2 para todo i, j.
Se quiere probar la hipotesis sobre la igualdad de las medianas de las
K muestras:
H0 : 1 = = K ,
contra alguna de las siguientes alternativas:
Alternativa de localizaci
on
H1 : i1 6= i2 , para al menos un par i1 6= i2 .
Alternativa de tendencia
H1 : 1 K , con al menos una desigualdad estricta.
En particular cuando K = 2, H1 : 1 < 2 es una alternativa de
tendencia en un problema de dos muestras.

1.2.4.3.

Problemas de K muestras. Clasificaci


on respecto a dos
criterios

En este caso la informacion esta contenida en una matriz n K :


X = (Xij ) ,

i = 1, . . . , n, j = 1, . . . , K ,

donde Xij representa la i-esima observacion de una muestra aleatoria de la


distribucion Fij = Fi (x j ), de manera que Fi es la distribucion de las observaciones en la i-esima fila (bloque) y j es la mediana dentro de la j-esima
columna. En este modelo, las columnas pueden representar cualesquiera de
las tres situaciones consideradas en el caso de clasificacion respecto a un
solo criterio, mientras que las filas generalmente representan un segundo
criterio de clasificacion de la informacion.


1.2. ALGUNOS PROBLEMAS TIPICOS EN ESTADISTICA NO PARAMETRICA

15

Se supone que los Xij se ajustan al modelo:


Xij = i + j + eij ,
donde los eij son variables aleatorias independientes con distribucion continua de media cero y varianza constante 2 para todo i, j.
Se quiere probar la hipotesis sobre la igualdad de las medias de las K
muestras:
H0 : 1 = = K ,
contra alguna de las siguientes alternativas:
Alternativa de localizaci
on
H1 : i 6= j , para al menos un par i 6= j,
es decir al menos un par de muestras se distinguen entre s.
Alternativa de tendencia
H1 : 1 K , con al menos una desigualdad estricta.
1.2.4.4.

Modelos para establecer la generalidad o particularidad


de los resultados de los experimentos

Modelo 1: Modelo aleatorizado para comparaci


on de tratamientos
Se dispone de N individuos que se asumen conocidos, que para el caso
de dos tratamientos (o tratamiento versus control) se separan en dos grupos
m y n individuos respectivamente, y se asignan aleatoriamente uno de los
grupos para que reciba uno de los tratamientos (o el control) y el otro para
que reciba el otro tratamiento (o el control). Los resultados en esta situacion
son solo validos para los individuos que participan en el experimento.
Modelo 2: Modelo poblacional para la comparaci
on de dos tratamientos
Se selecciona una muestra aleatoria (probabilstica) de N individuos de
una poblacion de usuarios potenciales de los tratamientos. Se separan los
N individuos en dos grupos de n y m individuos para que reciban uno y
otro tratamiento (o tratamiento y control) respectivamente. Los resultados
en este caso son validos para poblacion muestreada.


CAPITULO 1. INTRODUCCION

16

Modelo 3: Comparaci
on de dos atributos o subpoblaciones a partir de
una muestra para cada una
En el caso de dos atributos se extrae una muestra de tama
no m de
la primera subpoblacion o individuos con el atributo 1 y una muestra de
tama
no n de la segunda subpoblacion o individuos con el atributo 2 y se
comparan las dos muestras por medio de la caracterstica de interes. Los
resultados son validos para cada poblacion de atributos.
Ejemplo 1.2.1. Nivel de recordacion de marcas de gaseosas entre hombres
y mujeres.
Modelo 4: Comparaci
on de dos atributos o subpoblaciones a partir de
una muestra de la poblaci
on total
Una muestra de tama
no N es seleccionada de la poblacion de interes
y se clasifica por atributo. Se compara la caracterstica estudiada en las
submuestras generadas por los atributos. Los resultados son validos para
la poblacion total.
Ejemplo 1.2.2. En la banca la cartera en general se puede clasificar en: al
da, morosa e inrrecuperable.
Modelo 5: Modelo para la comparaci
on de dos conjuntos de medidas
Conjuntos independientes de m y n medidas son obtenidas de dos
fuentes o por dos metodos diferentes.

1.3.

Escalas de medida

1.3.1.

Nominal

Tambien llamada escala de clasificacion, por ejemplo: barrios de la ciudad, las localidades en Bogota, la division poltica de nuestro pas en departamentos.
Clasifica los objetos de acuerdo con reglas previamente definidas. La
caracterizacion de las clases se hace asignando smbolos o n
umeros que
no implican ordenamiento o valores sino que solo sirven para clasificar.
Esta escala es invariante ante transformaciones biunvocas o biyectivas; por
ejemplo la asignacion de nombres a los 32 departamentos en que se divide

1.3.

ESCALAS DE MEDIDA

17

polticamente nuestro pas, puede reemplazarse por n


umeros consecutivos
de 1 a 32, sin que estos n
umeros signifiquen nada mas que la identificacion
de los departamentos.

1.3.2.

Ordinal o de rango

Se asigna a los individuos un puesto o rango que los ordena. Es decir,


los objetos se distinguen entre s por alguna caracterstica que permite
ordenarlos. En el sentido matematico se dice que hay una relacion de orden
entre las unidades examinadas que se define a traves de la medicion de
alguna caracterstica de ellas. Dicho de otra forma, se trata de un enfilamiento de las unidades de acuerdo con niveles de intensidad medidos de
alguna variable, por ejemplo: listas de los puestos ocupados por deportistas,
semestre en que se encuentra un estudiante universitario, puesto que ocupan
los estudiantes de un curso por sus notas, rangos de los militares. Si embargo
las diferencias o cocientes entre datos de escala ordinal no tienen sentido.
Ejemplos de datos en escala ordinal son el Premio Nobel de Literatura que
se concede al mejor escritor, pero no se puede decir que tan mejorque
los otros es el ganador; de la misma manera no se puede decir que el mejor
estudiante es cinco veces mejor que el quinto o algo as.
Por su capacidad de distinguir y ordenar, la escala ordinal es sensible
a cambios en escala. Solo se mantiene estable frente a transformaciones
monotonas estrictamente crecientes. Por ejemplo el nivel de las clases A, B,
C y D, se puede establecer asignando la siguiente transformacion monotona
creciente:
A 1

B2

C3

D4

Los cuantiles o las estadsticas de rangos son invariantes ante transformaciones monotonas crecientes.

1.3.3.

Intervalo

Temperaturas, tiempos de duracion. En esta escala las distancias entre


medidas tienen significado, cosa que no ocurra con la escala ordinal. Se
presenta exclusivamente en n
umeros reales y es cuantitativa en contraste
con las anteriores escalas consideradas. Por ejemplo para determinar la


CAPITULO 1. INTRODUCCION

18

velocidad de desplazamiento de un objeto es necesaria la distancia entre el


punto de partida y el de llegada.
La escala de intervalo es invariante ante transformaciones lineales de la
forma:
y = ax + b, a > 0.
As por ejemplo, cuando se mide la temperatura en grados Celsius o grados
Fahrenheit no hay diferencia, dado que la relacion entre las dos es y =
1,8x + 32, donde y esta en grados Fahrenheit y x en grados Celsius.
La escala de intervalo tiene las siguientes propiedades:
No tiene un cero u
nico (cero grados Fahrenheit no es lo mismo que
cero grados Celsius).
El cociente de dos diferencias se mantiene para transformaciones lineales. Es decir, si yi = axi + b, i = 1, 2, 3, 4, entonces
y1 y2
ax1 + b ax2 b
x 1 x2
=
=
y3 y 4
ax3 + b ax4 b
x3 x 4
o sea que el cociente de distancias y 0 s es igual al cociente de distancias
entre x 0 s.
El cociente de dos medidas distintas se modifica con cambios en la
escala:
y1
ax1 + b
x1
=
6= .
y2
ax2 + b
x2
Algunas medidas estadsticas que se dan en escala de intervalo son la
media, el coeficiente de correlacion y la varianza, aunque el cero en la varianza pueda interpretarse como u
nico en el sentido de que significa ausencia
de varianza.

1.3.4.

Raz
on

Peso, longitud, area, volumen, corriente, temperatura en grados Kelvin


(el cero corresponde a -273.16 grados Kelvin, temperatura en la que hay
ausencia de movimiento de partculas). Se diferencia de la escala de intervalo

1.3.

ESCALAS DE MEDIDA

19

en que esta si posee un cero fijo que se mantiene estable para transformaciones de la forma Y = Ax.
Para tal transformacion, el cociente entre dos medidas tambien se mantiene
estable:
y1
x1
= .
y2
x2
El coeficiente de variacion y los n
umeros ndices son ejemplos de indicadores estadsticos medidos en escala de razon.

Captulo 2

Problemas de una muestra


2.1.

Introducci
on

En este captulo se presentan pruebas para tres problemas tpicos en


estadstica cuando se trata de analizar informacion de una sola muestra
proveniente de una distribucion arbitraria continua: para la bondad de
ajuste de los datos a una distribucion dada fija se presentan la prueba
de KolmogorovSmirnov y la conocida prueba 2 . Para aleatoriedad de los
datos se introduce la prueba de rachas y, para la alternativa de localizacion,
se dan dos alternativas: la prueba del signo para el caso en que la distibucion muestreada es cualquier distribucion arbitraria continua y la prueba
del rango signado de Wilcoxon en el caso en el que se puede suponer que
los datos provienen de una distribucion simetrica.

2.2.

Dos pruebas para la bondad del ajuste

Estas pruebas son u


tiles cuando se quieren validar supuestos acerca
de la distribucion muestreada, especialmente en el caso de los metodos
parametricos clasicos.
20

2.2. DOS PRUEBAS PARA LA BONDAD DEL AJUSTE

2.2.1.

21

Prueba de KolmogorovSmirnov

La informacion disponible en este problema es una muestra aleatoria


que se representa por la sucesion X1 , X2 , . . . , Xn de variables aleatorias
independientes identicamente distribuidas (v.a. i.i.d.), con funcion de distribucion continua F . Las hipotesis de interes establecen comparaciones con
una distribucion conocida F0 y son:

Hip
otesis de
igualdad con
alternativa
de dos colas
Hip
otesis
>
con
alternativa
de una cola
(I)
Hip
otesis
<
con
alternativa
de una cola
(II)

Hip
otesis nula
H0

Hip
otesis
alternativa
K1

Interpretaci
on de la
alternativa

F (x) = F0 (x),
x R, F0
conocida y fija

F (x) 6= F0 (x),
para al menos
un x R

Las dos distribuciones


se distinguen en al
menos un punto

F (x) F0 (x),
x R, F0
conocida y fija

F (x) < F0 (x),


para al menos
un x R

F (x) F0 (x),
x R, F0
conocida y fija

F (x) > F0 (x),


para al menos
un x R

La
distribuci
on
hipotetica esta por
encima de la distribuci
on muestreada en al
menos un punto
La
distribuci
on
hipotetica esta por
debajo de la distribuci
on muestreada en al
menos un punto

La estadstica de Kolmogorov-Smirnov utiliza la estimacion muestral natural de la funcion de distribucion, la cual cuenta la proporcion de
observaciones menores o iguales que x y se define como sigue:

k
Fn (x) =

x X(1) ,
X(k) x < X(k+1) para k = 1, 2, . . . , n,
x X(n) ,

donde X(1) < X(2) < < X(n) son las estadsticas de orden de la muestra.
Las estadsticas utilizadas para las pruebas varan dependiendo de las
alternativas as:

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

22

Hip
otesis
Hipotesis de igualdad
con alternativa de dos
colas
Hipotesis > con
alternativa de una cola
(I) <
Hipotesis 6 con
alternativa de una cola
(II)>

Estadstica de prueba
Dn = sup|F0 (x) Fn (x)|

Regi
on crtica
Dn k1

xR

Dn+ = sup(F0 (x) Fn (x))

+
Dn+ k1

Dn = sup(Fn (x) F0 (x))

Dn k1

xR

xR

donde k1 es tal que P (Dn k1 ) = 1 , k1


y k1
. Se definen de
manera analoga y se obtienen de las tablas de valores crticos presentadas
por ejemplo en Sprent (1989, Tabla A3, Pag. 234) y en Gibbons (1992,
Tabla F, Pag. 487). En algunas tablas se encuentra k en lugar de k1 ,
+

donde k es tal que P (Dn k ) = . Los valores k1 , k1


, y k1
+
tambien se pueden obtener de la distribucion exacta de Kn , Kn , y Kn
(Vease por ejemplo Gibbons 1971, Pag. 77 y ss).

Sorprendentemente aunque las tres estadsticas dependen de F0 , estas


son de distribucion libre, es decir su distribucion no depende de la distribucion muestreada, Gibbons (1971, p 76).
Ejemplo 2.2.1. (B
unning & Trenkler, 1994). Estudio de consumo de gasolina de vehculos particulares. Se dispone de una muestra de 10 vehculos,
para los cuales se hicieron mediciones del consumo en litros por cada 100
km. Se quiere saber si los datos se ajustan a una distribucion Normal de
media 12 y varianza 1.

x(1)
x(2)
x(3)
x(4)
x(5)
x(6)
x(7)
x(8)
x(9)
x(10)

Consumo
11.5
11.8
12.0
12.4
12.5
12.6
12.8
12.9
13.0
13.2

Normal
0.3085
0.4207
0.5000
0.6554
0.6915
0.7257
0.7881
0.8159
0.8413
0.8849

Fn (x(i) )
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0

Fn (x(i1) )
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9

Dn+
0.2085
0.2207
0.2000
0.2554
0.1915
0.1257
0.0881
0.0159
0.0587
0.1151

Dn
0.3085
0.3207
0.3000
0.3554
0.2915
0.2257
0.1881
0.1159
0.0413
0.0151

23

2.2. DOS PRUEBAS PARA LA BONDAD DEL AJUSTE

En la anterior tabla, Fn (x(i) ) es el valor de Fn en x(i) y Fn (x(i1) ) es el


valor de Fn en x(i1) con Fn (x(0) ) = 0. Ademas,
 x 12 



Dn+ =
Fn (x(i) )
1


 x 12 


Dn = Fn (x(i1) )

1

La diferencia maxima se obtiene para x(4) = 12,4 con un valor de D10


=
0,3554. Como el valor de k0,05 = 0,409 (Tabla F de Gibbons, 1992), es mayor
que el calculado no se puede rechazar H0 .

Manejo de los empates Como la funcion de distribucion emprica


esta definida incluso en el caso de que ocurran empates, la u
nica modificacion en el calculo de Fn es que los saltos no son de tama
no 1/n sino del
tama
no o longitud del empate. Por ejemplo, si hay cuatro observaciones
empatadas el salto sera de 4/n. Por lo anterior, ni el calculo de Dn , Dn+ , y
Dn ni la estructura de la prueba se alteran.

Distribuci
on asint
otica de Dn y D+
n

2.2.2.

Cuando F0 es una distribucion continua se puede aproximar la distribucion de las estadsticas de prueba de la siguiente manera:
lm P

Dn
n

= Q1 (),

donde
Q1 () = 1 2

(1)k1 e2k

2 2

> 0.

k=1

La region crtica para la alternativa de dos colas en este caso es Dn


, donde 1 es tal que Q1 (1 ) = 1 . Los valores de para
los niveles de significacion mas utilizados se encuentran en la tabla F de
Gibbons.

1
n

Para la alternativa de un cola (I) la aproximacion es:


lm P

Dn+

= Q2 (),

donde Q2 () = 1 e2

> 0.

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

24

En este caso se rechaza H0 cuando Dn+


Q2 (1 ) = 1 .

1
n

donde 1 es tal que

Por ejemplo, para =0.01, Q2 () =0.99 implica =1.5741; entonces


para n = 20, se rechaza la hip
otesis nula a favor de la alternativa de una
+
cola (I), cuando Dn =1.5741/ 20 =0.35.

2.2.3.

Prueba 2 para bondad de ajuste

Nuevamente la informacion disponible consiste en una muestra aleatoria X1 , . . . Xn , con funcion de distribucion arbitraria F no necesariamente
continua. Las observaciones deben distribuirse en k clases mutuamente excluyentes como sigue:
Clases
N
umero de observaciones

donde

k
P

1
n1

2
n2

...
...

k
nk

nj = n.

j=1

La hipotesis que se quiere probar es (llamada bondad de ajuste de F a


F0 );
H0 : F (x) = F0 (x),

para todo

x R,

F0 conocida y fija,

frente a la alternativa
K1 : F (x) 6= F0 (x),

para por lo menos un x R.

La estadstica de prueba que se utiliza se construye de la siguiente manera: Sea pi la probabilidad de que la variable aleatoria X tome un valor
en la clase i bajo H0 , es decir pi es la probabilidad de que la variable X
tome un valor en la clase i cuando su distribucion es F0 (x). Entonces el
n
umero esperado de observaciones en la clase i es npi . La decision sobre
la bondad del ajuste se toma sobre la base de la estadstica propuesta por
Pearson(1900):
k
X
(ni npi )2
2 =
.
npi
i=1

25

2.2. DOS PRUEBAS PARA LA BONDAD DEL AJUSTE

La hipotesis nula se rechaza cuando 2 21,



es tal que P 2 21, k1 = 1 .

k1 ,

donde 21,

k1

Al valor 21,k1 , se le llama (1 a)-esima cuantil superior de la distribucion -cuadrado con k 1 grados de libertad. Demostraciones sobre
la convergencia de la distribucion de la estadstica 2 a la distribucion cuadrado se encuentran por ejemplo en B
unning & Trenkler (1994) basada
en la distribucion de Poisson, en Manoukian (1986) basada en el teorema
del limite central para vectores aleatorios, y en Gibbons & Chakraborti
(1992) basada en la estadstica de la razon de verosimilitud.
La distribucion exacta de la estadstica 2 bajo la hipotesis nula se
obtiene como sigue: sean N1 , N2 , . . . , Nk , variables aleatorias tales que Nj es
el n
umero de Xs de la muestra que caen en la j-esima categora. Entonces
como bajo H0 la distribucion F0 (x) es totalmente conocida y por esto es
posible calcular la probabilidad p1 de que n1 observaciones caigan en la categora 1, la probabilidad p2 de que n2 observaciones caigan en la categora
2, y as sucecivamente hasta la probabilidad pk de que nk observaciones
k
P
caigan en la categora k, donde
nj = n. Entonces el vector aleatorio
j=1

(N1 , N2 , . . . , Nk ) tiene distribucion multinomial:


P (N1 = n1 , . . . , Nk = nk ) =

n!
pn1 pn2 pnk k ,
n1 !n2 ! nk ! 1 2

y por tanto,
P (2 x) =

X
((n1 , ,nk ):x)

n!
pn1 pn2 pnk k ,
n1 !n2 ! nk ! 1 2


donde (n1 , , nk ) : 2 x significa que la suma se hace sobre todas
aquellas k-tuplas (n1 , . . . , nk ) tales que 2 x. Como se puede ver los
calculos de la distribucion exacta pueden resultar bastante engorrosos en
la medida en que aumente el valor de n. Por esta razon la prueba se utiliza
preferiblemente para valores grandes de n de manera que la aproximacion
por la distribucion -cuadrado sea buena.
Observaciones respecto a las dos pruebas de bondad de ajuste
La distribucion exacta de Dn y Dn+ se puede construir para valores
peque
nos de N , (N 40), mientras que la prueba -cuadrado solo

26

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

puede utilizarse para valores grandes de n dado que la distribucion


de la estadstica de prueba es aproximada.
Dn+ y Dn sirven para probar hipotesis acerca de cuando la distribucion observada se aleja de la hipotetica en una direccion especfica,
mientras que la prueba -cuadrado solo sirve para distanciamientos
de la distribucion observada en ambas direcciones (es una prueba de
dos colas).
Para la prueba de KolmogorovSmirnov se utilizan todas las observaciones, mientras que para la prueba -cuadrado las observaciones
deben agruparse en clases, lo cual implica una perdida de informacion. El problema se presenta por lo arbitrario del n
umero y el ancho
de las clases.
En estudios sobre la potencia de la prueba, resulta frecuentemente
la prueba de KolmogorovSmirnov ligeramente mas potente que la
prueba -cuadrado, pero este argumento tiene poca fuerza si se tiene
en cuenta la generalidad de la hipotesis alternativa.
La prueba de KolmogorovSmirnov solo se puede utilizar bajo el
supuesto de que las observaciones vienen de una distribucion continua,
mientras que la prueba -cuadrado se puede utilizar para cualquier
distribucion arbitraria.

2.3.

Prueba de rachas para aleatoriedad

Por una racha se entiende, en terminos muy generales, una sucesion


de smbolos identicos. El caso mas sencillo y cotidiano es cuando se habla
de rachas de buena (mala) suerte refiriendose a situaciones repetidas en
las que las cosas funcionan bien (mal) durante alg
un perodo de tiempo.
As por ejemplo en los partidos de las eliminatorias para el mundial de
f
utbol se habla de la racha de buenos juegos de un equipo cuando gana
varios partidos seguidos. Tambien las sucesiones de alzas o bajas del
dolar diariamente son ejemplos de rachas.
Una manera general de motivar el uso de las pruebas para aleatoriedad
es notar que la mayora de los metodos estadsticos suponen que los datos
constituyen una muestra aleatoria, en el sentido de que son independientes
estadsticamente. Esto sugiere que lo primero que habra que verificar en el

2.3. PRUEBA DE RACHAS PARA ALEATORIEDAD

27

trabajo aplicado es el supuesto de aleatoriedad. Por otra parte, el objetivo


de una investigacion puede ser directamente el detectar tendencias o modificaciones de una caracterstica por medio de varias medidas repetidas de
esta en el transcurso del tiempo. En tales casos las pruebas de aleatoriedad
tienen utilidad natural.
La informacion disponible es una muestra 1 , 2 , . . . n , cuya distribucion es arbitraria, es decir, pueden estar en escala nominal, pero de tal
manera que los i esten ordenados respecto a alg
un criterio. Para el caso en
que las observaciones tienen un orden natural, por ejemplo observaciones
hechas en el tiempo, la sucesion observada tiene la forma de una sucesion
de smbolos de dos clases:
0000000000011111111110000011111000011000111010,
donde los unos representan la ocurrencia de un evento A y los ceros representan la no ocurrencia de A. Escrito de otra forma

1 ocurre el evento A,
j (x) =
j = 1, . . . , n.

0 no ocurre el evento A,
A esta sucesion se le llama sucesion dicotomizada o muestra docotomica.
Cada grupo de smbolos iguales en la sucesion 1 , . . . , n se llama una racha.
Una estadstica utilizada para la prueba de hipotesis de aleariedad es el
n
umero total de rachas R en la sucecion 1 , . . . , n .
Si la sucesion observada presenta muchas rachas entonces habra evidencia de que el evento A tiende a ocurrir y no ocurrir sistematicamente,
mientras que si hay muy pocas rachas esto sera un indicador de que hay
agrupamientos en alguno de los extremos de la sucesion. En los dos casos se
estara apoyando la hipotesis de que existe alg
un patron de comportamiento
en la sucesion observada. Las hipotesis de interes y sus regiones de rechazo
son:

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

28

Hip
otesis nula H0 :
Aleatoriedad: La sucesi
on 1 , . . . n es aleatoria

Aleatoriedad: La sucesi
on 1 , . . . n es aleatoria

Aleatoriedad: La sucesi
on 1 , . . . n es aleatoria

Hip
otesis Alternativa
K1 : no aleatoriedad: en
la sucesi
on 1 , . . . n existe alg
un patr
on de comportamiento no especificado
K2 : Agrupamientos: en
la sucesi
on 1 , . . . n existe tendencia una tendencia a los agrupamientos
K3 : Mezclas: en la sucesi
on 1 , . . . n existe tendencia a que los elementos esten sistem
aticamente mezclados

Regi
on de rechazo
0
o R r/2
R r/2

R r

R r

Aqu, r/2 es tal que P (R r/2 ) /2 y P (R r/2 ) /2, y el


0

nivel de significancia de la prueba de dos colas es . r y r se definen


de manera analoga. Las desigualdades en las anteriores probabilidades se
deben a que la distribucion de R es discreta y por eso, en general, no es
0
posible encontrar valores de r/2 y r/2 que acumulen en las colas de la
distribucion de R el valor exacto de .

2.3.1.

Distribuci
on exacta del n
umero total de rachas R

La distribucion exacta del n


umero total de rachas R formadas por m
unos y n ceros, con m y n fijos en la muestra dicotomizada es la siguiente1 :
m1  n1 
2 r/21 r/21

cuando r es par

m+n

m
P (R = r) =
 n1 
 n1 

m1
m1
(r1)/2

(r3)/2 + (r3)/2 (r1)/2


cuando r es impar

m+n
m

para r=2, 3,. . . , m+n


2mn
m+n
2mn(2mn m n)
V arR =
.
(m + n)2 (m + n 1)
E(R) = 1 +

Calculada por Wald & Wolfowitz (1940).

2.3. PRUEBA DE RACHAS PARA ALEATORIEDAD

29

Los valores crticos de la prueba de rachas para aleatoriedad se encuentran


en la Tabla D en Gibbons & Chakraborti, (1992).

2.3.2.

Distribuci
on asint
otica de R

Wald & Wolfowitz (1940) en el mismo artculo, mostraron que si el


tama
no de la muestra N crece de tal manera que m/N y n/N 1,
con 0 < < 1, entonces:


R
lm E
N
N

= 2(1 )

R
lm V ar = 42 (1 )2 ,
N
N

y ademas la variable aleatoria:

Z=

R 2N (1 )

2 N (1 )

converge a la distribucion normal estandar cuando N tiende a infinito. Entonces la region crtica para valores grandes de m + n rechaza la hipotesis
nula cuando |z| z1/2 .
Datos de naturaleza continua
Cuando los datos disponibles para el analisis de la aleatoriedad son de
naturaleza continua es decir de tipo cuantitativo, es necesario transformarlos o dicotomizarlos para obtener la sucesion de unos y ceros que permite
utilizar la estadstica de rachas. Una de las maneras de dicotomizar la muestra es la siguiente: Sean X1 , . . ., Xr observaciones ordenadas en el tiempo
provenientes de alguna distribucion continua F . Entonces la sucesion dicotomizada se construye as

j (x) =

1 si Xt < Xt1 ,

j = 2, . . . , T

otro caso,

El proceso implica la perdida de una observacion.

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

30

2.4.

Modelo de localizaci
on con distribuci
on
arbitraria continua (alternativa de localizacion)

Si X es una variable aleatoria (v.a.) con funcion de distribucion arbitraria F (x) = P (X x). Se define la mediana de X (o de F ) como aquel
punto tal que
1
P (X ) = P (X ) .
2
La igualdad solo se cumple cuando F es una funcion de distribucion con
densidad continua y en este caso la mediana es u
nica.
En la siguiente grafica se muestra una funcion de distribucion discreta
para la cual todos los dentro del intervalo [a, b) satisfacen la anterior
condicion.

1
2

P (X : (a, b]) 1/2

P (X : (a, b]) 1/2

Figura 1.

Ejemplo 2.4.1. Considerese la distribucion

F (x) =

x
6

x < 1,
x = 1, 2, 3, 4, 5, 6,
x > 6.

Entonces para < 3:


2
1
< ;
6
2
y por lo tanto se descartan valores de menores que 3.
P (X ) F (2) =

Por otra parte para 4:


P (X ) = F (, 4)

1
2
>
3
2

CON DISTRIBUCION
ARBITRARIA. . .
2.4. MODELO DE LOCALIZACION

31

pero
1
1
< ,
3
2
luego tambien se descartan valores mayores que 4 para .
P (X ) = 1 F ()

Finalmente como F () = 1/2 para 3 < 4, se concluye que la


mediana de la distribucion es un n
umero entre 3 y 4 sin incluir el 4.
Al conjunto de las funciones de distribuci
on absolutamente continuas
con mediana cero, se le denotara por:
0 = {F : F absolutamente continua y F (0) = 1/2 u
nicamente }
Ejercicio: Calcular la mediana de la distribucion uniforme (a, b) y de la
distribucion exponencial con parametro .
Modelo de muestreo
La informacion disponible en este problema es una muestra aleatoria
que se representa por la sucesion X1 , . . . XN de v.a.s independientes,
identicamente distribuidas con funcion de distribucion F (x ) donde F
0 . El problema es la prueba de la hipotesis:
H0 : = 0, versus K1 : > 0, o versus K2 : < 0, o versus K3 : 6= 0.
Observaci
on:
Cuando las observaciones no provienen de una distribucion en 0 ,
sino de alguna distribucion absolutamente continua con mediana ,
la prueba de la hipotesis acerca de un valor de H0 : = 0 con 0
conocido versus la alternativa K1 : > 0 se reduce a la hipotesis mencionada arriba, definiendo Yj = Xj 0 , porque entonces Y1 , . . . , YN
es una muestra de F 0 y la prueba de H0 : = 0 equivale a la
prueba de H0 : 0 = 0. La justificacion es que para = 0 se
cumple:
P (Yj ) = P (Xj 0 0 ) = P (Xj )
1
= = P (Xj ) = P (Yj ),
2
es decir, med (Yj ) = sii med (Xj ) = y por lo tanto H0 :
0 sii H0 : = 0

32

2.4.1.

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

La prueba del signo

La informacion disponible para realizar la prueba de la hipotesis es la


presentada en el modelo de muestreo presentado en la seccion anterior. La
estadstica de prueba utilizada es el conteo de las observaciones positivas
contenidas en la muestra y se define por:
S = # {Xi > 0} =

N
X

s(Xi ),

i=1

donde:
s(Xi ) =

1 si Xi > 0,
0 si Xi 0.

Distribuci
on y momentos de S
Bajo la hipotesis nula H0 : = 0, la estadstica S tiene distribucion
binomial con parametros N y p, donde p = 1/2. Para mostrarlo notese
que los Xi son v.a.s independientes y por eso los s(Xi ) tambien lo son de
manera que S es una suma de variables aleatorias independientes. Ademas,
p = P s(Xi = 1) = P (Xi > 0) y como bajo la hipotesis nula P (Xi > 0) =
1/2 entonces p = 1/2.
Para un nivel de significancia (0, 1) la prueba del signo rechaza
0
0
H0 : = 0 en favor de K1 : > 0 cuando S k , k es tal que
N    N
X
1
N
PH0 (S k ) =

j
2
0
0

j=k

a favor de K2 : < 0 cuando S k , k es tal que


PH0 (S k ) =

k    N
X
1
N
j=0

y a favor de K3 : 6= 0 cuando S k/2 o cuando S k1/2 + 1 o bien


S N k/2 , tal que
X N   1 N

k/2

PH0 (S k/2 ) =

j=0

CON DISTRIBUCION
ARBITRARIA. . .
2.4. MODELO DE LOCALIZACION

33

Notese que el valor de k se puede determinar desde la distribucion Binomial sin importar cual es la distribucion F 0 muestreada. En este
sentido se dice que S es de distribuci
on libre bajo H0 .
Por otra parte, bajo la hipotesis alternativa K1 : = 0 > 0, la distribucion de S sigue siendo Binomial pero con parametros N y p, donde
p = P (X > 0) = 1 P (X 0 0 ) = 1 F ( 0 ),
la cual depende de F y por esto S no es de distribucion libre bajo la
alternativa K1 2 .
Ejemplo 2.4.2. (Tomado de Hettmansperger, 1984, Pag. 2). En los a
nos
50, Matthews y otros investigadores realizaron un experimento acerca de la
forma como navegan los pajaros. En los entrenamientos de palomas mensajeras, las aves se entrenan para llegar a casa desde varias distancias a lo
largo de una lnea especfica de entrenamiento. Para determinar si las aves
encuentran el camino a casa de manera sistematica desde puntos con los que
no estan familiarizadas, se realizaron experimentos en los cuales se toman
las aves en das soleados y se dejan en libertad desde puntos ubicados a 90
y 180 grados de la lnea de entrenamiento. Una medida de interes era el
angulo entre la lnea de vuelo del pajaro cuando desaparece en el horizonte
y la lnea de entrenamiento. Los angulos se midieron entre 0 y 180 grados
de manera que no se distingue entre angulos por encima o por debajo de
la lnea de entrenamiento. Sea la mediana poblacional del angulo de error, cuando los pajaros no regresan a la casa este angulo es = 90o . Una
hipotesis de interes consiste en suponer que los pajaros navegan usando el
sol y que esto implica que < 90o . Entonces se construye una prueba para
la hipotesis H : = 90o contra la alternativa K1 : < 90o . Si se rechaza la
hipotesis nula solo se puede concluir que los pajaros regresaran a la casa.
Los datos son los siguientes:

Angulos
de error de palomas mensajeras liberadas en das soleados
6
7
9 17 18 18 22 28 32 35 36 42
42
42
48

48

51

52

53

55

56

57

58

63

72

83

91

97

El valor de la estadstica S es 2 porque solo hay dos observaciones


mayores que 90o . Para N = 28 se obtiene P (S 8) = 0,018. Por lo tanto
al 5 % se rechaza H0 .
2

N
otese que si la distribuci
on de una v.a. X tiene mediana 0 > 0, entonces Y = X
tiene distribuc`
on F con mediana igual a cero y por lo tanto P (X > 0) = 1 P (X
0) = 1 P (X ) = 1 F ().

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

34

2.4.2.

Distribuci
on asint
otica de S y aproximaci
on de la
regi
on crtica

En la siguiente discusion se usa la notacion SN para la estadstica S


definida en 2.4.1, lo cual hace resaltar su dependencia del tama
no de muestra.
Bajo cualquiera de las dos hipotesis H0 o K1 , la estadstica SN es una
suma de v.a.s independientes cada una de las cuales tiene distribucion
B(1, p) entonces SN tiene distribucion binomial con parametros N y p y
por lo tanto E(SN ) = N p y V arSN = N p(1 p) < , con p = P (Xi > 0).
Entonces se puede aplicar el teorema del lmite central para asegurar que
Z=

SN E(SN )

V arSN

tiene aproximadamente, una distribucion normal con media 0 y varianza 1


siempre que 0 < p < 1. Esto significa que
!
!
k E(SN )
SN E(SN )
k E(SN )

P (SN k) = P
,

=
V arSN
V arSN
V arSN
donde es la f. d. a. de la distribucion normal estandar.
Este hecho tambien suele llamarse convergencia en distribuci
on y se
escribe de la siguiente manera:
SN E(SN ) D

Z N (0, 1)
V arSN
Como SN B(N, p) entonces


E(SN ) = N p = N 1 F () ,


V arSN = N p(1 p) = N 1 F () F ().
Bajo la hipotesis nula H0 : = 0 y por tanto E(S) = N/2 y V ar(S) =
N/4. El valor crtico k se puede aproximar para un dado a partir de:
!
k

N/2

,
=1 p
N/4

CON DISTRIBUCION
ARBITRARIA. . .
2.4. MODELO DE LOCALIZACION

35

y por lo tanto
k N/2
p
= Z
N/4
es decir

k
= N/2 + Z N /2,

donde Z es tal que = 1 (Z ) y se llama -percentil superior de la


distribucion normal.
En muchos casos suele ser u
til hacer una correccion por continuidad para
aproximar la region crtica. Esto se hace suponiendo que el valor observado
de la estadstica, digamos t, es t 1/2 para hipotesis de colas laterales a la
derecha y t + 1/2 para hipotesis de colas laterales a la izquierda. De esta
manera, la region crtica aproximada para la prueba del signo es:

k
= N/2 + 1/2 + Z N /2.

2.4.3.

Potencia de una prueba

Intuitivamente la potencia de una prueba de hipotesis es la probabilidad


de rechazar la hipotesis nula cuando esta es falsa. Es decir la potencia de
una prueba es algo as como la capacidad que tiene la prueba para darse
cuenta de que la hipotesis nula es falsa.
Considerese la hipotesis nula H0 : = 0 y como alternativa K1 : >
0. Si para la prueba de la anterior hipotesis se utiliza una estadstica de
prueba S que rechaza H0 para valores grandes de S, es decir que rechaza H0
cuando S k para un k dado, entonces se puede definir mas formalmente
la potencia de la prueba como una funcion de como sigue:
() = P (S k; > 0).
As, () es la probabilidad de rechazar H0 : = 0 cuando es falsa, o
bien () es la probabilidad de rechazar H0 : = 0 cuando lo cierto es la
alternativa.
Por otra parte, la probabilidad de rechazar H0 cuando H0 es cierto
corresponde al error de tipo I y por lo tanto se espera que (0) = .
Como funcion de la funcion de potencia () es no decreciente y entre
mas rapido crezca mejor sera la prueba.

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

36

2.4.4.

Potencia de la prueba del signo

En particular para la prueba del signo se sabe que SN tiene distribucion


binomial con parametros N y p = 1 F (), tanto bajo la hipotesis nula
como bajo la alternativa. Entonces se puede determinar la potencia de la
prueba del signo exactamente como sigue:
() = P (SN k; > 0) =

N  
X
N
j=k

pj (1 p)N j

N  
X
N
j=k

j

1 F ()

N j

F ()

Si se utilizan los resultados sobre la distribucion asintotica de S, se


puede aproximar la potencia de la prueba del signo con la distribucion
normal por medio de:
!
!
S

N
k

N
p
k

N
p
N
p

(p)
p
.
=P p
=1 p
N p(1 p)
N p(1 p)
N p(1 p)
Un estudio comparativo de la potencia de la prueba del signo con respecto a la potencia de la prueba t-Student o respecto a alguna otra prueba
para el problema de localizacion en una muestra, suponiendo que la distribucion muestreada es diferente de la Normal, mostrara las ventajas o
desventajas de esta prueba frente a sus competidoras en condiciones no
normales (Vease por ejemplo Randless & Wolfe, 1979 cap. 4).

2.5.

Modelo de una muestra con distribuci


on
continua sim
etrica (alternativa de localizacion)

Bajo los supuestos hechos al principio de la seccion 2.4, la Prueba del


Signo es la prueba uniformemente m
as potente para la alternativa de una
cola bajo condiciones generales (Hettmansperger, 1984 Pag. 9 y ss.).
Para desarrollar un procedimiento similarmente potente pero utilizando
los rangos de las observciones, es decir, usando mas informacion, se introduce adicionalmente el supuesto de simetra de la distribuci
on muestreada

CONTINUA SIMETRICA

2.5. MODELO DE UNA MUESTRA CON DISTRIBUCION


37

que se expresa de la siguiente manera:


n
o
S = F : F 0 y F (x) = 1 F (x)
Si F S , se dice que F es una distribucion simetrica alrededor de cero
su mediana u
nica que es al mismo tiempo su media cuando esta existe.

Modelo de muestreo
muestra aleatoria: X1 , . . . , XN v.a.s independientes identicamente distribuidas con funcion de distribucion F (x ), donde F S . Entonces
es la u
nica mediana (y la media cuando existe) y se encuentra en el centro
de la distribucion. Nuevamente el problema de inferencia es la prueba de
la hipotesis:
H0 : = 0, versus K1 : > 0, o versus K2 : < 0, o versus K3 : 6= 0;
con F S .
Para desarrollar una prueba que utilice la informacion sobre la simetra
de la distribucion muestreada es necesario introducir el concepto de rango
de una observacion.

2.5.1.

Rangos en el problema de una muestra

Se define el rango Ri de la cantidad Xi , en la sucesion X1 , , XN


como el puesto que ocupa Xi en la sucesion ordenada X(1) , , X(N ) ; esto
significa que
Xi = X(Ri ) .
Por ejemplo, en la sucesion
X1
X2
X3
X4
X5
23,5 12,6 21,4 32,8 10,4
X(4) X(2) X(3) X(5) X(1)
los rangos de X1 , ..., X5 son:
R1 R2 R3 R4 R5
4
2
3
5
1

38

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

Notese por ejemplo que como R1 = 4 entonces X(R1 ) = X(4) = X1 = 23,5.


Tambien se define el anti-rango Dj de la j-esima estadstica de orden X(j)
como el subndice que tiene originalmente la observacion de donde proviene
X(j) . Esto significa que
XDj = X(j)
En el ejemplo de arriba las estadsticas de orden son:
X(1) X(2) X(3) X(4) X(5)
10,4 12,6 21,4 23,5 32,8
X5
X2
X3
X1
X4
y los anti-rangos
D 1 D2 D3 D4 D5 .
5
2
3
1
4
Notese por ejemplo que como D1 = 5 entonces XD1 = X(1) = X5 = 10,4.
Observese tambien que
DRi = i.
Se define el rango absoluto Ri+ de Xi como el rango de |Xi | en la sucesion
ordenada de los valores absolutos |X|(1) |X|(2) . . . |X|(N ) . Es decir,
|Xi | = |X|(R+ ) .
i

El anti-rango de |X|(j) es el subndice que tiene la observacion de donde


proviene |X|(j) , es decir,
|XDi | = |X|(j) .
Se define el rango signado de Xi al producto s(Xi )Ri+ , donde
s(Xi ) =

1 Xi > 0,
0 Xi 0.

Es decir, el rango signado de una observacion positiva es su rango absoluto, pero el rango signado de una observacion no positiva es cero.

CONTINUA SIMETRICA

2.5. MODELO DE UNA MUESTRA CON DISTRIBUCION


39

2.5.2.

La prueba del rango signado de Wilcoxon

Para la prueba de la hipotesis H0 : = 0 versus H0 : > 0 se puede


utilizar la estadstica del rango signado de Wilcoxon, que puede escribirse
de la siguiente forma:

T =

N
X

Ri+ s(Xi )

i=1

N
X

iWi ,

Wi = s(XDi ),

i=1

donde la segunda igualdad se obtiene reemplazando i por Di .


La region crtica se obtiene del hecho de que si muchas observaciones
son positivas y mas grandes que los valores absolutos de las negativas esto
sera indicador de que > 0 y por tanto los valores de T tenderan a ser mas
grandes. Consecuentemente se rechaza la hipotesis nula H0 : = 0 en favor
de la alternativa K1 : > 0 cuando
T k ,
donde k se determina de tal manera que para un nivel de significancia
(0, 1) dado y fijo, se cumpla P (T k) .
Distribuci
on y momentos de T
Como los Wi son v.a.s independientes e identicamente distribuidas
B(1, p); ademas, bajo H0 , E(Wi ) = P (XDj > 0) = p = 1/2 y V arWi =
p(1 p) = 1/4. Por lo tanto tambien:

E(T ) =

N
X

iE(Wi ) = N (N + 1)/4 (Ejercicio),

i=1

V arT = N (N + 1)(2N + 1)/24

(Ejercicio).

Los valores crticos se determinan a partir de la distribucion exacta de T , la


cual se calcula construyendo el conjunto de todas las maneras posibles como
pueden ocurrir observaciones positivas y negativas en la muestra. Para una
muestra de tama
no 4 la distribucion exacta de T se obtiene a partir de su

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

40

funcion de probabilidad como sigue:


Rangos
1
2
3
4
Valor de T

+
+
+
+
10

+
+
+
9

+
+
8

+
+

+
7

+
+
7

+
+
+

+
6

+
+

+
5

+
4

+
+

entonces la distribucion exacta de T es la siguiente:


k
P (T k)

0
1
16

1
2
16

2
3
16

3
5
16

4
7
16

5
9
16

6
11
16

7
13
16

8
14
16

9
15
16

10
1

Generalmente se encuentran tablas con los valores crticos de T (Vease


por ejemplo la tabla H en Lehmann, (1975)). Puede observarse que la distribucion de T es simetrica alrededor de 5. En general puede demostrarse
que T es simetrica alrededor de su valor esperado N (N + 1)/4.
Ejemplo 2.5.1. 3 reportan experimentos realizados para determinar la influencia del medio ambiente en la anatoma del cerebro. La hipotesis de tal
efecto se atribuye a un anatomista italiano de nombre Gaetano Malacarne
alrededor de 1780. En recientes experimentos se han asignado aleatoriamente tres ratones de cada una de doce camadas para permanecer en una
jaula estandar de laboratorio, una jaula enriquecida con varios juguetes y
una jaula empobrecida donde los ratones permanecen aislados. Se hacen
observaciones de medidas como el peso del cerebro, la actividad enzimatica
y el peso de la corteza cerebral. Para este caso se utilizara la medida de
la ganancia en peso de la corteza durante un perodo de tiempo especfico. Si se comparan los ratones de un entorno empobrecido con un entorno
enriquecido se tiene un experimento pareado, donde los pares se arman de
manera natural con ratones que pertenecen a la misma camada que tienen
la misma configuracion genetica. Sean X y Y las medidas del peso de la
corteza cerebral en el entorno empobrecido y en el entorno enriquecido
respectivamente. Entonces la variable aleatoria de interes es la diferencia
D = Y X. Bajo la hipotesis de no diferencia de los efectos de los dos
entornos, D tiene distribucion simetrica alrededor de 0. Denotando por
3
Tomado de Hettmansperger, (1984)). Rosenzweig et al.,(1972), (Vease referencia en
el texto de Hettmansperger

CONTINUA SIMETRICA

2.5. MODELO DE UNA MUESTRA CON DISTRIBUCION


41

el centro de la distribucion de D, el experimento produce 12 observaciones


D1 , ..., D12 , para la prueba de la hipotesis H0 : = 0 versus K1 : > 0. Las
observaciones son las siguientes:
Entorno
1
2
3
4
5
6
7
8
9
10

Enriquecido (Y )
689
663
653
740
699
690
685
718
742
651

Empobrecido (X)
657
646
642
650
698
621
647
689
652
661

11
12

687
679

612
678

Diferencia
32
17
11
90
1
69
38
29
90
10
|{z}
75
1

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

42

Diferencias ordenadas
1
1
10
|{z}

Rangos
1.5
1.5
3

11
17
29
32
38
69
75
90
90

4
5
6
7
8
9
10
11.5
11.5

Como solo hay una observacion negativa (10), el valor de la estadstica es


la suma de los rangos de las diferencias ordenadas excluyendo el rango de la
diferencia negativa: T = 75. En la Tabla H de Lehmann se lee que el valor
crtico para la prueba al nivel = 0,01 con N = 12 es 68, con lo cual se
rechaza la hipotesis nula H0 : = 0. Es decir el peso de la corteza cerebral
de los ratones criados en un ambiente enriquecido es significativamente
mayor que el de los ratones criados en el ambiente empobrecido.

2.5.3.

Distribuci
on asint
otica de T y aproximaci
on de la
regi
on crtica

Teorema 2.5.1. La estadstica T converge a la distribucion normal.

Consecuencia de este teorema es que la region crtica k se puede aproximar de la siguiente manera:
P (T k)
=P

T N (N + 1)/4
N (N + 1)(2N + 1)/24

=1 p
4

k N (N + 1)/4
N (N + 1)(2N + 1)/24

demostraci
on en Hettmansperger (1984)

k N (N + 1)/4

N (N + 1)(2N + 1)/24
!
= ,

43

2.6. MANEJO DE EMPATES

y por lo tanto para Z1 =

kN (N +1)/4
N (N +1)(2N +1)/24

k
= N (N + 1)/4 + Z1

se obtiene:

N (N + 1)(2N + 1)/24,

o bien, despues de la correccion por continuidad:


p
k
= N (N + 1)/4 + 0,5 + Z1 N (N + 1)(2N + 1)/24.

2.6.

Manejo de empates

Por el supuesto de continuidad de la distribucion muestreada en el caso


de las pruebas del signo y del rango signado de Wilcoxon, la probabilidad
de obtener observaciones iguales es cero. Sin embargo, en la practica es
posible que esto ocurra debido a inexactitud en los aparatos de medicion o
a errores en el supuesto de continuidad. Para tratar este problema existen
varias alternativas entre las cuales se mencionan aqu las tres mas comunes.
Eliminaci
on de observaciones empatadas
Si el n
umero de observaciones empatadas no es muy grande con respecto
al tama
no total de la muestra (digamos inferior al diez por ciento del total
de datos, aunque en muestras peque
nas este porcentaje debera ser inferior), se puede dejar de cada grupo de empates una de las observaciones
y realizar la prueba con la misma estadstica de prueba sin que se alteren
considerablemente los resultados de esta.
Asignaci
on aleatoria de los rangos a las observaciones empatadas
Este procedimiento consiste en asignar con alg
un procedimiento aleatorio
los rangos que le hubieran correspondido a las observaciones empatadas
si no hubiera habido empates. Este procedimiento garantiza que la distribucion de los rangos y por lo tanto la distribucion de la estadstica se
mantienen (Hajek, 1998, Pag. 131). Por ejemplo si los datos fueran:
1er grupo
de empates
1
2
2.1
2.1

2do grupo de empates


3
3.2

4
3.2

5
3.2

6
3.2

7
3.2

3er grupo de empates


8
4.1

9
4.1

10
4.1

entonces a las dos primeras observaciones se les asigna una de las 2! = 2


permutaciones de los rangos 1 y 2, a las cinco siguientes se les asigna una

44

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

de las 5! = 120 permutaciones de los rangos 3, 4, 5, 6 y 7 y a las tres


ultimas se les asigna una de las 3! = 6 permutaciones de los rangos 8, 9 y
10. En total se asigna de todas maneras una de las 10! permutaciones de
los enteros entre 1 y 10.
Asignaci
on de rangos promedio
El procedimiento consiste en asignar a las observaciones de cada grupo de
empates el promedio de los rangos que les hubieran correspondido si no
hubiera habido empates. Despues se calcula la region crtica usando la distribucion de los rangos promedio condicionada al n
umero de empates y a
la longitud de estos. La forma de hacerlo se ilustra mas adelante.

2.6.1.

Empates en la prueba del signo

Los empates en este caso ocurren cuando hay observaciones iguales a


cero (situacion 1) o iguales entre s (situacion 2).
Situacion 1: Sea n0 el n
umero de observaciones iguales a cero. Entonces la
manera mas com
un de tratar el problema cuando n0 es peque
no consiste en
eliminar las observaciones que son iguales a cero y tratar el problema con
la misma estadstica S pero basada en las n n0 observaciones diferentes
de cero. En este caso la estadstica S tambien tiene distribucion binomial
pero con parametros n n0 y p = 1/2. En todo caso, no sera conveniente
utilizar este procedimiento cuando n0 sea muy grande con respecto a n. El
caso 2 no altera el calculo de la estadstica de prueba porque para calcularla
solo se requiere saber si una observacion dada es positiva o no.

2.6.2.

Uso de rangos promedios en la prueba del rango


signado de Wilcoxon

Considerese el siguiente conjunto de datos: -2.1, -1.2, -0.5, 1.2, 2.2, en


el cual hay una observacion negativa empatada con una positiva. Entonces
los valores absolutos ordenados de este conjunto son 0,5, 1.2, 1,2, 2,1, 2.2,
donde los datos subrayados distinguen las observaciones negativas. Para
construir la region crtica es necesario encontrar las probabilidades asociadas a todos los valores posibles de los rangos promedio. Para esto se
muestran en la siguiente tabla los rangos sin empates que son los rangos
que hubieran correspondido a las observaciones si no hubiera empates, los
datos ordenados, los rangos promedio de las observaciones y el valor de la

45

2.6. MANEJO DE EMPATES

estadstica de Wilcoxon en presencia de empates:


Rangos sin empates
Datos ordenados
Rangos promedio

1
0,5
1

2
1,2
2,5

3
1,2
2,5

4
2,1
4

5
2,2
5

T =7.5

Para el calculo de la distribucion exacta en presencia de los empates se


procede a construir todos los resultados posibles de un experimento T =7.5
en el que hay tres observaciones negativas (representadas por xs) y dos observaciones positivas (representadas por ys), y los valores de la estadstica
T de Wilcoxon en presencia de los empates entre una observacion positiva
y una negativa. Estos calculos se muestran en la siguiente tabla:
Rangos promedio
1 2.5 2.5 4
5
Resultados posibles
x x
x y
y
x x
y x
y
x y
x x
y
y x
x x
y
x x
y
y
x
x y
x y
x
y x
x y
x
x y
y x
x
y x
y x
x
y
y
x x
x

T
9
7.5
7.5
6
6.5
6.5
5
5
3.5
3.5

La distribucion exacta de T condicionada al empate que ocurrio en la


muestra es la siguiente:
t
P (T = t)
P (T t)

3.5
2/10
2/10

5
2/10
4/10

6
1/10
5/10

6.5
2/10
7/10

7.5
2/10
9/10

9
1/10
1

Se puede ver que P (T 7,5) = 0,3 para valores grandes de N se puede


usar la aproximacion por la distribucion normal con la siguiente media y
varianza:
N (N + 1) b0 (b0 + 1)
E(T ) =
,
4

46

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

donde b0 es el n
umero de observaciones iguales a cero (o el n
umero de
diferencias iguales a cero en el caso de muestras pareadas)
V arT =

1
1 X
bi (bi 1)(bi + 1)
[N (N + 1)(2n + 1) b0 (b0 + 1)(2b0 + 1)]
24
48
i

entonces
T E(T )

,
V arT
se distribuye normal estandar, con T condicionada a los empates ocurridos
en la muestra.

2.7.
2.7.1.

Estimaci
on (m
etodo de Hodges Lehmann)
Introducci
on5

En este parrafo se describe un metodo de estimacion puntual y por


intervalo para la mediana de una distribucion, a partir de las estadsticas para las pruebas de hipotesis. Dado que las estadsticas de prueba de
muchos de los procedimientos no parametricos se pueden escribir en forma
de conteos como en el caso de la estadstica para la prueba del signo, los
resultados obtenidos en esta seccion se pueden extender facilmente a esos
otros procedimientos.
Una diferencia considerable entre los metodos de estimacion parametricos y los no parametricos es que en los metodos parametricos generalmente
se obtienen primero estimaciones puntuales de los parametros de interes y
a partir de estos se construyen estadsticas que sirven para los intervalos
de confianza y para las pruebas de hipotesis, mientras que en el contexto
no parametrico se utilizan las estadsticas de prueba de las hipotesis para
construir los estimadores y los intervalos de confianza de los parametros.
La metodologa no parametrica para obtener estimaciones puntuales y
de intervalo aprovecha un principio utilizado en el contexto parametrico
que se introduce a traves de la prueba t-Student para una muestra. Si los
valores observados de una m.a. son X1 , . . . , XN , se puede definir la siguiente
5
Los gr
aficos as como la estructura de presentaci
on de esta secci
on son tomados o
adaptados de Hettmannsperger (1984), P
ags. 13 a 17.

(METODO

2.7. ESTIMACION
DE HODGES LEHMANN)

47

funcion lineal de :

x
n
n

t() = n
=
+
x
,
s
s
s
donde s2 es la estimacion insesgada usual de la varianza 2 . En el siguiente
grafico se muestra t(), su distribucion bajo la hipotesis nula, es decir, la
distribucion de t(0) bajo el supuesto de normalidad de los Xi0 s y los puntos
crticos de la prueba de nivel para la hipotesis H0 .

t()
t(0)
t 2

n
n
t() =
X

S
S

=x

t 2


P t t 2 =
2

El estimador de es X
Figura 2.

Puesto que t(0) > t/2 , se rechaza la hipotesis nula al nivel de significancia . El intervalo del (1 )100 % de confianza se obtiene al invertir
la region de aceptacion de la hipotesis y aparece marcado en el eje por

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

48

los valores de L y U . Entonces:


P (L U ) = P (t/2 t() t1/2 )
= P (t/2 t() t/2 )
= P (|t()| t/2 )
= 1 ,
Ademas
t(L ) = t/2 =

lo cual implica que sn L = t/2


Pero t/2 = t1/2 y por esto:

s x

n
n
L +
x

s
s

y por lo tanto L = x
+ t/2 sn .

s
L = x
t1/2 .
n
similarmente como

n
n

t(U ) = t/2 =
U +
x

s
s

se concluye que

s
U = x
+ t1/2
n

De manera que [ L , U ] es el intervalo usual para la media bajo el


supuesto de normalidad de las observaciones. Por otra parte, el principio
que se usa para estimar a partir de t() es seleccionar el valor de que
corresponde al punto de simetra de la distribucion de t(0). En una amplia
clase de pruebas, tal punto corresponde a la moda de la distribucion nula de
la estadstica de prueba. En el caso de la distribucion t, la distribucion de
la estadstica t() toma su maximo valor cuando t() = 0, es decir, cuando
= x
.
Principio de estimaci
on
El anterior analisis sugiere estimar con aquel valor que produzca un
valor de la estadstica de prueba que este en el centro de su distribucion
nula, es decir, intuitivamente el valor mas probable si la distribucion de la
estadstica de prueba es continua y uno de los valores mas probables si es
discreta. Por otra parte los lmites del intervalo de confianza se construyen
con las preimagenes de los puntos crticos de la prueba asociada.

(METODO

2.7. ESTIMACION
DE HODGES LEHMANN)

2.7.2.

49

Estimaciones basadas en la estadstica de la prueba


del signo

Se define S() = S(Xi ) = #{Xi > } = #{Xi > 0}. Cuando


Dj = i se obtiene S() = #{X(i) > }, donde X(i) , i = 1, . . . , N , es la
i-esima estadstica de orden.
En la siguiente figura 3 se muestra, sobre el eje vertical para N par, la
distribucion nula de S, que es Binomial de valor esperado N/2.
Como se observa en la figura 3 S() es una funcion escalonada no creciente cuyos saltos ocurren en las estadsticas de orden. Aparte de esto,
S() es una funcion continua por la derecha.
S()
0

N
N1

NK1

N/2

K+1

0
2
1

X(1) X(2)

X(K+1)

X(N/2)

X(N/2+1) X(NK)

X(N1)

X(N)

Figura 3.6

Estimaci
on puntual de la mediana:
Al aplicar el principio de estimacion para propuesto arriba, se necesita
un valor de que produzca un valor de S() que este en el centro de su
distribucion nula. En este caso la distribucion nula de S() es binomial.
Cuando N es par la distribucion binomial es simetrica alrededor de N/2 y

50

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

por lo tanto, cualquier valor entre X(N/2) y X(N/2+1) sirve como estimador
de . Por convencion se utilizara:
X(N/2) + X(N/2+1)
=
2
es decir, la mediana de la muestra. Cuando N es impar, la estimacion de
se obtiene como el valor que se encuentra exactamente el centro de la
distribucion binomial, que coincide con = X((N +1)/2) .
Intervalo de confianza para la mediana basado en la prueba del
signo
Las siguientes desigualdades se deducen de lo anterior y por observacion
directa de la grafica anterior:
x(1) ,
S() N 1
x(2) ,
S() N 2
x(k+1) , S() N k 1.
< x(1) S() = N
< x(2) S() N 1
< x(3) S() N 2
< x(N k) S() N (N k 1) = k + 1.
De las anteriores desigualdades se obtienen las siguientes equivalencias
de eventos:
X(k+1) < X(N k) K + 1 S() N k 1,
y por lo anterior las siguientes igualdades:
P (X(k+1) < X(N k) ) = P (K + 1 S() N k 1)
= P (S() N k 1) P (S() < k + 1)
= 1 P (S() N k) P (S() k)
= 1 P (S() k) P (S() N k) .
|
{z
} |
{z
}
/2

/2

Bajo la hipotesis nula = 0 y por lo tanto P (S() k) = P0 (S(0) k).


De manera que escogiendo k tal que P (S k) = /2 en la distribucion
binomial, tenemos que

b
X(k+1) , X
(N k

(METODO

2.7. ESTIMACION
DE HODGES LEHMANN)

51

es un intervalo del (1 )100 % de confianza para , independiente de la


distribucion muestreada F 0 .
Ejemplo 2.7.1. (Continuacion ejemplo de las palomas mensajeras, 2.4.2).
Como los datos presentados para ese ejemplo se encuentran ordenados,
basta con tomar las observaciones 14 y 15 y promediarlas con lo cual se
obtiene que la mediana estimada para el angulo de error es = 45o .
Para la construccion de un intervalo de confianza para se procede
como sigue: buscar en la tabla de la distribucion binomial un valor k tal
que P (S k) sea lo mas cercano posible por debajo a 0.05. De la tabla de
la distribucion binomial se encuentra que P (S k) = 0,045 para
 k = 9, por
lo tanto el intervalo del 91 % de confianza para es: X(10) X(19) = [35, 53).
A continuacion se presenta una definicion formal de un estimador basado
en una estadstica de prueba propuesto por Hodges & Lehmann (1963).

2.7.3.

Estimadores de Hodges Lehmann (H-L)

Definici
on 2.7.1. (Estimador de Hodges y Lehmann): Sea X1 , . . . , XN una
muestra aleatoria de la distribucion F (x), F S y sea V una estadstica
para la prueba de la hipotesis H0 : = 0. Se define V () reemplazando Xi
por Xi , = 1, . . . , N . Se supone que V es no creciente en y que la
distribucion de V bajo H0 es simetrica alrededor de 0 y no depende de F .
Sean:
= sup{ : V () > 0 },
= inf{ : V () < 0 },
Entonces se define la estimacion de H-L para por:
+
=
2
en la siguiente figura se muestra el grafico de V () no creciente. Se
observa que para todo valor de la funcion V () toma valores mayores
o iguales que 0 , mientras que para valores de mayores que la funcion
V () esta siempre estrictamente por debajo de 0 , por ser una funcion
continua por la derecha.

52

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

V()
0
0
0

Figura 4.

Intervalo de confianza de Hodges Lehmann para la mediana


El correspondiente intervalo del (1)100 % de confianza para obtenido
por este metodo es [L , U ] donde L y U se definen como sigue:
L = inf{ : V () < C1 }
U = sup{ : V () > C2 }

y los valores C1 y C2 son tales que P (V C1 ) = P (V C2 ) = /2. En la


figura 5 se muestran los valores de L y U as como los de C1 y C2 .

(METODO

2.7. ESTIMACION
DE HODGES LEHMANN)

53

V()
0
C1

0
0

V () > C2

V() < C1

C2

{ : V () < C1 }

{ : V () > C2 }

Figura 5.

2.7.4.

Estimaciones de H-L basadas en la estadstica del


rango signado de Wilcoxon

En primer lugar es posible demostrar que T tiene distribucion simetrica alrededor de 0 (Veanse Randles & Wolfe). Para la construccion del
estimador de HodgesLehmann para basado en la estadstica del rango
signado de Wilcoxon, es necesario expresar a T como una funcion no creciente de . Esto se puede hacer por medio de los promedios de Walsh que
se definen a continuacion.
Definici
on: Para una muestra aleatoria X1 , . . . , XN se definen los N (N +
1)/2 promedios de Walsh por:
Xi + Xj
2

i j.

Sean Xi1 , . . . , Xip , las p observaciones positivas que tiene la muestra.


Entonces T es la suma de los rangos de estas observaciones en la sucesion
de valores absolutos. Notese que si Xj Xit entonces
Xit + Xj
0,
2
es decir los promedios de Walsh entre una observacion positiva y cualquiera
otra observacion menor o igual que ella son positivos. Esta situacion se
ilustra en la siguiente figura (figura 6).

CAPITULO 2. PROBLEMAS DE UNA MUESTRA

54

Xi

Xit

0
Figura 6.

Entonces el rango de cualquier observacion positiva es:


Rango de Xit = #

Xit +Xj
2

o
0, con Xj Xit , para todo t = 1, . . . , p.

Por lo anterior y dado que por definicion T es la suma de los rangos de


las observaciones positivas se concluye que T es el n
umero de promedios de
Walsh que son positivos. Es decir
(
)
Xi + Xj
T =#
> 0 , i j.
2
De esta manera la estadstica de Wilcoxon se puede escribir como funcion de , as:
(
)
Xi + Xj
T () = #
> , i j,
2
y es una funcion escalonada, no creciente y tiene saltos en los promedios
de Walsh. Puesto que bajo H0 : = 0 la distribucion de T es simetrica
alrededor de su valor esperado, se puede usar el metodo de Hodges-Lehmann
para estimar (de manera similar que para la prueba del signo), con la
mediana de los promedios de Walsh:
!
X
+
X
i
j
= medij
= medij (Wij ).
2
El intervalo del (1 )100 % de confianza para es


W(a+1) , W(La) ,
donde
P (T a) = /2 = P (T L a)

L=

N (N + 1)
.
2

(METODO

2.7. ESTIMACION
DE HODGES LEHMANN)

55

Para una ilustracion grafica de esta estimacion se puede reemplazar en la


figura ?? la estadstica S por T , N/2 por N (N + 1)/4 y las estadsticas
de orden por los promedios de Walsh ordenados W(1) < < W(L) donde
L = N (N + 1)/2.
Ejemplo 2.7.2. Recordemos que en el experimento de los ratones descrito
en el ejemplo 2.5.1, se rechazo la hipotesis de que la diferencia en el peso de
las cortezas cerebrales de los ratones sometidos a ambientes empobrecidos
y enriquecidos es igual a cero. Para estimar la mediana de la diferencia en
peso se calculan primero los L = (12 13)/2 = 78 promedios de Walsh y se
ordenan en orden ascendente. La diferencia mediana estimada es entonces

= med(Wij ) = W(39) + W(40) /2 = 36,5.
ij

Para calcular los lmites del intervalo de confianza, se encuentra en la tabla


de valores crticos de la estadstica de Wilcoxon, (Tabla H en Gibbons) que
P
 (T 14) = 0,026 = P (T 64) y por lo tanto el intervalo de confianza es
W(15) , W(64) = [11,0, 59,5).

Captulo 3

Problemas de dos muestras


3.1.

Introducci
on

En este captulo se presentan varias pruebas de hipotesis para determinar si las distribuciones muestreadas en un problema de dos muestras se
distinguen en alg
un sentido (por ejemplo por su parametro de localizacion),
y un metodo de estimacion del parametro de localizacion que diferencia las
distribuciones muestreadas.

Modelo de muestreo
El problema general de dos muestras se puede formular de la siguiente
manera: se consideran dos muestras aleatorias independientes entre s X1 , . . . , Xm
(llamada muestra 1) y Y1 , . . . , Yn (llamada muestra 2), provenientes de distribuciones absolutamente continuas F y G respectivamente, donde F (x) =
P (Xi x) y, G(y) = P (Yi y) i = 1, . . . , m, j = 1, . . . , n. Las hipotesis
de interes son:

56

3.2. PRUEBAS PARA LA ALTERNATIVA GENERAL

Descripci
on Hip
otesis
nula H0 :
(I) Alternati- F (x) = G(x)
para
todo
va general
xR

Hip
otesis alternativa K1 :
F (x) 6= G(x)
al menos un
xR

(II) Alternativa de un
cola (izquierda)

F (x) G(x), F (x) G(x),


para
todo al menos un
xR
xR

(III)
Alternativa
de un cola
(derecha)

F (x) G(x), F (x)  G(x),


para
todo al menos un
xR
xR

57

Interpretaci
on
de la alternativa
Las dos distribuciones se distinguen
en al menos un punto
Las probabilidades
de los valores de X
son mayores que las
de Y en al menos un
punto
Las probabilidades
de los valores de Y
son mayores que las
de X en al menos
un punto

Si se puede suponer que F y G son distribuciones normales que solo se diferencian en su media (en su varianza), entonces la prueba t (la
prueba F) es la mejor para la igualdad de las medias (de las varianzas).
Sin embargo, si por alguna circunstancia no es posible garantizar que las
dos distribuciones son normales, los mencionados procedimientos pueden
resultar sensibles a la violacion del supuesto de normalidad en el sentido de
que las pruebas pierden calidad, en cuanto a su potencia. En tal caso los
metodos no parametricos son una alternativa mas adecuada.

3.2.

Pruebas para la alternativa general

3.2.1.

La prueba de rachas de Wald-Wolfowitz

La prueba de rachas de Wald-Wolfowitz (Wald & Wolfowitz, 1940) es


posiblemente la mas antigua conocida para el problema de dos muestras con
alternativa general del tipo (I). La estadstica para esta prueba se construye
de la siguiente manera: sea X1 , . . . , XN , N = m + n, la muestra combinada
de las observaciones de las dos muestras, donde las primeras m representan
la muestra de las X, es decir Xi = Xi , i = 1, . . . , m y las segundas n representan la muestra de las Y , es decir Xi = Yi i = m+1, . . . , N . Las estadsticas de orden para la muestra combinada se denotan por X(1) , . . . , X(N ) .

58

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

Entonces se representan las observaciones de la muestra 1, en la sucesion


ordenada de la muestra combinada por unos, y las de la muestra dos por
ceros de la siguiente manera:
(
1 si X(j) viene de una obsevacion de muestra 1
i =
0 si X(j) viene de una observaciones de la muestra 2
La sucesion de unos y ceros as construida se llama muestra dicotomizada y contiene una racha por cada sucesion de observaciones de la misma
muestra que esten seguidas en la muestra combinada ordenada. Si las dos
muestras vienen de la misma distribucion, las rachas de unos y ceros estaran mas o menos bien mezcladas en la muestra dicotomizada es decir
habra varias rachas en la sucesion dicotomizada.
Con este argumento Wald & Wolfowitz utilizaron el n
umero total de
rachas R en la sucesion dicotomizada como estadstica de prueba para la
hipotesis con alternativa general, rechazando H0 cuando R toma valores
peque
nos. Es decir se rechaza H0 a favor de K1 la alternativa general cuando: R r , donde r se obtiene de la distribucion exacta o asintotica del
n
umero total de rachas como se menciono en 2.2 y 2.2.1
Notese sin embargo que si todas las observaciones de la muestra 1 son
menores que las de la muestra 2, la sucesion dicotomizada sera de la forma.
111
. . . 1} 000
. . . 0}
| {z
| {z
mveces

nveces

En tal caso R = 2 y significa que los valores de la primera muestra tienen


probabilidades mayores de ser mas peque
nos que los de la segunda, lo cual es
un indicador de que F (z) G(z). Es decir, valores peque
nos de la primera
muestra son mas probablesque valores peque
nos de la segunda muestra.
Analogamente cuando la estructura de la muestra es:
000
. . . 0} 111
. . . 1},
| {z
| {z
nveces

mveces

tambien R = 2, pero en este caso es un indicador de F (z) G(z), es decir, indica lo contrario que en el caso anterior. Entonces, por un lado el
valor peque
no de R es un indicador de que la prueba si distingue cuando las dos distribuciones son diferentes, pero no es capaz de distinguir en
que direccion.

3.2. PRUEBAS PARA LA ALTERNATIVA GENERAL

3.2.2.

59

Prueba de Kolmogorov-Smirnov para dos muestras

La informacion disponible consta otra vez de dos muestras aleatorias independientes X1 , . . . , Xm y Y1 , . . . , Yn , provenientes de distribuciones continuas F y G respectivamente. Como en el caso de una muestra es necesario
definir las distribuciones empricas de las dos muestras:

Fm (z) =

k
m

z < X(1)
X(k) z < X(k+1)
z X(m)

y,

Gn (z) =

k
n

z < Y(1)
Y(k) z < Y(k+1)
z Y(m)

Las estadsticas de prueba y las regiones de rechazo para cada una de


las hipotesis son las siguientes:
Hip
otesis

Hip
otesis

H0 :
F (x) = G(x)

K1 :
F (x) 6= G(x),

(II) F (x) G(x),

x R
F (x) G(x),

(III) F (x) G(x),

x R
F (x)  G(x),

(I)

x R

Estadstica de pureba

Regi
on de
rechazo

Km,n =
m
axz |Fm (z) Gn (z)|
para al menos un x R
+
Km,n
=
m
ax (Fm (z) Gn (z))
para al menos un x R
+
Km,n
=
m
ax (Gn (z) Fm (z))
para al menos un x R

Km,n > k1
+
+
> k1
Km,n

> k1
Km,n

La obtenci
on de la distribuci
on exacta de las tres estadsticas de prueba es
bastante engorrosa y no se presentar
a aqu. Tablas de valores crticos se encuentran
en Gibbons (1992, Tabla I).

3.2.2.1.

Distribuci
on asint
otica de Km,n y K+
m,n

La distribuci
on asint
otica de las estadsticas de prueba coincide (con excepci
on
de una constante), con la de las estadsticas de prueba para las pruebas de la
bondad del ajuste estudiadas en la secci
on anterior.
Teorema 3.2.1. Bajo la hip
otesis nula es una distribuci
on continua. Las distribu+
0
ciones lmite de Km,n y Km,n
para todo > 0 y N = mn/(m + n) son:

60

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS



lm P Km,n / N 0 = Q1 (),

m,n

donde Q1 () = 1 2

(1)k12k

k=1



+
lm P Km,n
/ N 0 = Q2 () ,

m,n

donde Q2 () = 1 + 2

+
En este caso se rechaza H0 para valores de Km,n
/ n a favor de la alternativa de localizaci
alogamente se rechaza a favor de la alternativa general
on y an
para Km,n / n.

3.3.

Una prueba para la alternativa de


localizaci
on

Acorde con el modelo de muestreo, la informaci


on disponible consiste en dos
muestras aleatorias X1 , . . . , Xm y Y1 , . . . , Yn pero ahora la primera muestra viene
de una distribuci
on F (x x ) y la segunda muestra viene de una distribuci
on
F (x y ) F 0 . A la muestra de las X se le llama control y a la de las Y se
le llama tratamiento. N
otese que F no se supone simetrica pero tiene la misma
forma en las dos poblaciones. Sea = x y la diferencia en las medianas de las
poblaciones. Entonces el problema de inferencia es la prueba de la hip
otesis:
H0 : = 0

versus

K1 : > .

Sin perdida de generalidad se puede suponer que x = y por lo tanto que


las distribuciones muestreadas son F (x) y G(x) = F (x ) respectivamente, las
cuales solo difieren por su par
ametro de localizaci
on. Entonces el par
ametro de
interes es la diferencia en localizaciones y no los par
ametros mismos.
Ejemplo 3.3.1. La situaci
on se ilustrar
a a partir del llamado modelo de aleatorizaci
on. Se dispone de N unidades experimentales (unidades producidas por una
misma m
aquina, animales o plantas de la misma especie etc.), las cuales se separan
aleatoriamente en un grupo de tama
no m, que servir
an de controles y en otro de
tama
no n que recibir
an un tratamiento, con N = m + n. Representando por X
una medida inicial hecha sobre el grupo control y por Y la misma medida hecha
sobre el grupo tratado y si el tratamiento act
ua como una constante no negativa
sobre la medida inicial, entonces al probar la hip
otesis H0 : = 0, frente a la


3.3. UNA PRUEBA PARA LA ALTERNATIVA DE LOCALIZACION

61

alternativa K1 : > 0 se podr


a determinar si el tratamiento tuvo alg
un efecto o
no. Puesto que las N unidades experimentales vienen originalmente de la misma
poblaci
on, el modelo propuesto que especifica la misma distribuci
on muestreada
para tratamiento y control es u
til para esta situaci
on experimental.
N
otese que si se van a comparar atributos a partir de una muestra, naturalmente
es imposible controlar quien posee cual atributo, es decir, no hay asignaci
on aleatoria de los atributos a los sujetos observados; el supuesto de que la distribuci
on de
los atributos tiene misma forma bajo la hip
otesis nula no se satisface autom
aticamente. Cada atributo puede tener una distribuci
on especfica en la poblaci
on. En
este caso la utilidad de la prueba se limita a que pueda verificarse si los atributos
tienen la misma distribuci
on.
Ejemplo 3.3.2. (citado en Hettmansperger). Salk (1973) hizo un estudio para
analizar el efecto sosegador de las palpitaciones del coraz
on de la madre en su recien
nacido. Los recien nacidos se pusieron inmediatamente despues del nacimiento
durante cuatro das en una sala cuna y se llevaron donde sus madres solamente
a las horas normales de comida. El grupo tratado formado por 102 bebes fue
expuesto continuamente al sonido de palpitaciones del coraz
on de un adulto (72
palpitaciones por minuto a 80 decibeles). El grupo control se hizo con otros 112
bebes de la misma sala cuna. Por la forma como se realiza el experimento es muy
difcil asignar los bebes aleatoriamente a tratamiento y control, raz
on por la que
la validez de los resultados se limita a los bebes del experimento.
Una de las medidas de interes es el cambio de peso en gramos desde el da
del nacimiento hasta el cuarto da, cambio para el que se puede suponer la misma
distribuci
on para todos los recien nacidos. La expectativa es que el grupo tratado
debera ganar m
as peso que el grupo control, puesto que al escuchar palpitaciones
de coraz
on humano los bebes deberan llorar menos. Si X1 , . . . , Xm son los pesos
medidos en el grupo control y Y1 , . . . , Yn , los pesos medidos en el grupo tratado,
entonces X1 , . . . , Xm y Y1 , . . . , Yn , son muestras aleatorias de F (x) y F (x), F
0 respectivamente. Se quiere probar H0 : = 0 versus la alternativa K1 : > 0.
Por monitoreo de la sala cuna, se observ
o que el grupo expuesto a latidos del
coraz
on llor
o el 38 % del tiempo mientras que el grupo control llor
o el 60 % del
tiempo. Adem
as el 70 % del grupo expuesto gan
o peso lo que contrasta con el
33 % que gan
o peso en el grupo control. El grupo expuesto mostr
o una ganancia
mediana de 40 gramos mientras que el grupo control mostr
o una perdida mediana
de 20 gramos.
Una prueba muy com
un para probar la hip
otesis formulada en el problema
anterior es la prueba de Wilcoxon. Antes de presentar la estadstica utilizada en
la prueba de Wilcoxon es necesario introducir los rangos en el problema de dos
muestras y alguna notaci
on y propiedades adicionales de estos.

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

62

3.3.1.

Rangos en el problema de dos muestras

Nuevamente es necesario utilizar la muestra combinada X1 , . . . , XN , N = m +


n, donde Xi = Xi i = 1, . . . , m, y Xm+j = Yj , j = 1, . . . , n y sean X(1) , . . . , X(N )
las correspondientes estadsticas de orden. Al puesto que ocupa Xi en la muestra
combinada denotado por Qi se le llama el rango de Xi . El puesto o rango de una
observaci
on coincide entonces con el n
umero de observaciones menores o iguales
que ella. Es decir,
Xi = X(Qi ) .
Entonces, bajo la hip
otesis nula H0 : = 0, los Qi tienen las siguientes
propiedades:
Propiedades de los rangos

(3.1)

Proposici
on 1.
P (Qi = s) =

1
s = 1, . . . i = 1, . . . , N
N

Demostraci
on Al fijar un valor de Qi solo permutan los restante N 1. Entonces
P (Qi = s) = (N 1)!/N ! = 1/N
Ejemplo. para N = 3

Q1
1

Q2
2

Q3
3

1
2

3
1

2
3

2
3
3

3
1
2

1
2
1

P (Q2 = 3) = 1/3 puesto que solo hay dos de las


ocurre.

N (N 1)
Propocici
on 2. P (Qi = s, Qj = t) =

seis permutaciones en que esto

s 6= t
1 i 6= j N
s=t

Demostraci
on Como arriba, al fijar dos valores Qi y Qj solo permutan los


3.3. UNA PRUEBA PARA LA ALTERNATIVA DE LOCALIZACION

63

restantes N 2. Entonces
P (Qi = s, Qj = t) =

1
(N 2)!
=
.
N!
N (N 1)

Propocici
on 3.
N +1
i = 1, . . . , N.
2

E(Qi ) =
Demostraci
on.
E(Qi ) =

s = 1N sP (Qi = s) =

1 X
(N + 1)
.
s = 1N s =
N
2

Propocici
on 4.
V arQi =

N2 1
i = 1, . . . , N.
12

Demostraci
on
N

1 X 2 (N + 1)2
V arQi = E Q2i E 2 (Qi ) =
s
N s=1
4

N2 1
(N + 1)(2N + 1) (N + 1)2

=
.
6
4
12

Propocici
on 5.
Cov(Qi , Qj ) =

(N + 1)
1 i 6= j N.
12

Demostraci
on Ejercicio. Sugerencia utilice el hecho de que
Cov(Qi , Qj ) = E(Qi , Qj ) E(Qi )E(Qj ).
y que
N
X
s=1

3.3.2.

N
X
t=1

N
X
t=1

t2 +

N
N X
X

st.

s=1 t=1

La estadstica de rangos de Mann-WhitneyWilcoxon

Para probar H0 : = 0 versus K1 : > 0, Wilcoxon (1945) propuso el


siguiente procedimiento:
1.

Ordenar de menor a mayor la muestra combinada.X1 , . . . , XN .

2.

Determinar los correspondientes rangos y luego calcular la suma U de los


rangos de los tratados o sea de las observaciones Y .

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

64
3.

Rechazar H0 si U k; es decir, si U es muy grande. En otras palabras,


grandes valores de U indican que el grupo tratado ocup
o las u
ltimas posiciones en la muestra combinada, o sea que el tratamiento condujo a valores
m
as grandes de los Y 0 s que de los X 0 s. Los valores crticos para la prueba se pueden leer en la Tabla B de Lehmann (1975) o se pueden obtener
directamente a partir de la distribuci
on exacta de U .

3.3.3.

Distribuci
on exacta de U

 
N
arreglos distinguibles de m X 0 s y n Y 0 s que
n
corresponden a todas las maneras posibles como pueden mezclarse las dos muestras
en orden ascendente en la muestra combinada.
Se construyen todos los

En la siguiente tabla se ilustran estos c


alculos para el caso m = 3 y n = 2.
Rangos
2 3 4
y x x
x y x
x x y
y y x
x x x
y x y
y x x
x y y
x y x
x x y

1
y
y
y
x
y
x
x
x
x
x

Arreglos

5
x
x
x
x
y
x
y
x
y
y

U
3
4
5
5
6
6
7
7
8
9

W
0
1
2
2
3
3
4
4
5
6

La columna de W = U n(n+1)
se utiliza m
as adelante. La distribuci
on exacta
2
de U se muestra en la siguiente tabla:
U

P (U = u)

1
10
1
10

1
10
2
10

1
5
4
10

1
5
6
10

1
5
8
10

1
10
9
10

1
10

P (U u)

Para calcular el valor esperado y la varianza de U se procede como sigue.


Sean R1 , . . . , Rn los rangos de Y1 , . . . , Yn en la muestra combinada. Entonces la
estadstica para la prueba de Wilcoxon se puede escribir como:
U=

n
X
i=1

Ri .


3.3. UNA PRUEBA PARA LA ALTERNATIVA DE LOCALIZACION

65

La estadstica U es la suma de los rangos de las unidades que recibieron


tratamiento en el experimento.
Utilizando las propiedades de los rangos obtenidas en (3.1) se obtiene (ejercicio):
E(U ) =

n(N + 1)
mn(N + 1)
y V ar(U ) =
.
2
12

Otra expresi
on para U es la propuesta por Mann & Whitney (1947), que adem
as
ser
au
til en la construcci
on de un intervalo de confianza para :
U =W +

n(n + 1)
,
2

(3.2)

donde
W =

m X
m
X

(Yi Xi ) = #(Yi Xi > 0), con (x) =

i=1 j=1

1 x>0
0 x0

esta equivalencia se demuestra en ecuaci


on (3.5).

En la expresi
on anterior se nota que W cuenta el n
umero de observaciones de
las Y que son mayores que las X. Tambien se deduce de all que (Ejercicio):
E(W ) = mn/2 y V ar(W ) = mn/(N + 1)/12

(3.3)

Dada la relaci
on entre U y W , la regi
on crtica de cualquiera de las estadsticas se
puede obtener a partir de la de la otra.
Nota: Para prop
ositos de la prueba de hip
otesis es m
as sencillo utilizar U , pero
para construcci
on del intevalo de confianza de y su estimador puntual es mejor
usar la expresi
on #(Y i Xj > 0).

3.3.4.

Distribuci
on asint
otica de U y W y aproximaci
on de
la regi
on crtica

En vista de la equivalencia de las estadsticas U y W es suficiente analizar


la conducta asint
otica de una de ellas, en este caso W . Puesto que W no es una
suma de variables aleatorias independientes, no se puede aplicar directamente el
teorema del lmite central para aproximar su distribuci
on. El siguiente teorema da
las condiciones bajo las cuales la estadstica W converge a la distribuci
on normal,
resultado que permite aproximar la regi
on crtica cuando los tama
nos de muestra
son suficientemente grandes y satisfacen las condiciones exigidas por el teorema.

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

66

Teorema 3.3.1. Sea W la estadstica de Mann-Whitney-Wilcoxon. Si los tama


nos
de las dos muestras crecen de tal forma que lm m
= , o < < 1, N = m+n,
n
m,n

entonces bajo la hip


otesis nula H0 : = 0, (W EW )/ V arW converge en
distribuci
on a N (0, 1). Demostraci
on en Hettmansperger ((1984), P
ags. 137-139).

3.4.

Estimaciones basadas en la estadstica de


Wilcoxon para el problema de dos muestras

Antes de construir el estimador se demuestra la expresi


on 3.2 que relaciona U
con W :
Como U =

n
P

Ri conviene la siguiente expresi


on para Ri :
Pm
Pn
Ri = #(Xj Yi ) + (Yj Yi ) = j=1 (Yi Xj ) + j=1 (Yi Yj ),
(
1 x 0,
donde (x) =
0 x < 0,
i=1

entonces la suma sobre i en la ecuaci


on anterior produce la siguiente expresi
on
para U :
U=

n
X

Ri =

i=1

m
n X
X

(Yi Xj ) +

n
n X
X

i=1 j=1

(Yi Yj ),

i=1 j=1

o bien, sumando en el orden de las estadsticas de orden de los Y 0 s Y(1) , . . . , Y(n)


en el segundo par de sumas:
U=

m
n X
X

(Yi Xj ) +

i=1 j=1

n
n X
X

(Y(i) Yj ).

(3.4)

i=1 j=1

En la anterior expresi
on el primer par de sumas est
a indicando el n
umero total de
diferencias positivas en la muestra. Para el segundo par de sumas observar que
n
X

(Y(i) Yj ) = #{Yj Y(i) } = i,

j=1

y por lo tanto para la doble suma vale:


n X
n
X

(Y(i) Yj ) =

j=1 j=1

n
X

i=

j=1

n(n + 1)
.
2

reemplazando este resultado en (3.4) se obtiene


U=

n
n X
X
j=1 j=1

(Yi Xj ) +

n(n + 1)
n(n + 1)
=W +
.
2
2

(3.5)

3.5. MANEJO DE EMPATES

67

El estimador de HodgesLehmann y el correspondiente intervalo de confianza


para se construyen utilizando la expresi
on 3.2 para W . Se define W como funci
on
de por:
W () = #(Yi Xj > ), i = 1, . . . , n, j = 1, . . . , m,
y se observa que W () es una funci
on no creciente en ; adem
as se puede demostrar que su distribuci
on es simetrica alrededor de su valor esperado mn/2,
supuestos necesarios para el estimador de Hodges Lehmann. Entonces el estimador de Hodges Lehmann para es:
= med(Yi Xj ).
i,j

on D(1) , . . . , D(mn) , se construye


Ordenando las diferencias (Yi Xj ) en la sucesi
el intervalo del (1 )100 % de confianza para :
h

D(k+1) , D(mnk)
donde k se escoge de manera que P (W k) = /2 bajo la hip
otesis nula.
Usando la correcci
on por continuidad se puede aproximar el k por la distribuci
on normal as:
r
mn
mn(m + n + 1)
0,5 Z/2
.
k=
2
12

3.5.

Manejo de empates

Aqu, como en el caso de una muestra, los empates se tratan con cualquiera de
los metodos descritos para tratarlos en la secci
on 2.6, en especial para el metodo
de asignaci
on de rangos promedio se construye la distribuci
on de la estadstica de
Wilcoxon condicionada al n
umero y tama
no de los empates.
Por ejemplo, para m = 3 y n = 2 considerese la muestra:
X1 = 2,1, X2 = 1,2, X3 = 0,5, Y1 = 1,2, Y2 = 2,2,
en la cual hay 2 observaciones empatadas. La muestra combinada ordenada es
0,5, 1,2, 1,2, 2,1, 2,2
Entonces se procede a calcular las probabilidades asociadas a todos los valores
posibles de los rangos promedio. Para esto se muestran en la siguiente tabla los
rangos sin empates (que son los rangos que hubieran correspondido a las observaciones si no hubiera habido empates), los datos ordenados, los rangos promedio de
las observaciones y el valor de la estadstica de Wilcoxon en presencia de empates:

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

68

Rangos sin empates


Datos ordenados
Rangos promedios

1
0,5
1

2
1,2
2,5

3
1,2
2,5

4
2,1
4

5
2,2
5

T =7.5

Despues se construyen todas las maneras posibles como pueden ocurrir las m = 3
y las n = 2 observaciones de la muestra combinada, ordenados de manera ascendente. Para cada arreglo se calcula el valor de la estadstica de U de Wilcoxon
y las probabilidades asociadas a ellos (parte A de la siguiente tabla). Despues se
calcula la funci
on de probabilidad de la estadstica y su funci
on de distribuci
on
(parte B de la tabla):
A
Resultados posibles

P (T = t)
1
10
1
10
1
10
1
10
1
10
1
10
1
10
1
10
1
10
1
10

3,5

3,5

6,5

6,5

7,5

7,5

B
t

P (T = t)

P (T t)

0,2

0,4

6,5

0,2

0,7

7,5

0,2

0,9

0,1

Se puede ver que P (T = 7,5) = 0,1.


Para m y n grandes se puede usar la aproximaci
on por la distribuci
on normal
con
E(U ) =

1
n(N + 1)
2

V arU =

mn(N + 1)
=
12

mn

r
P

b3i bi

i=1

12N (N 1)

donde bi es la longitud del i-esimo empate (n


umero de observaciones empatadas
en el i-esimo grupo).
bi
i,...,r N

Esta aproximaci
on solo se usa en caso de que m
ax

sea acotado pero lejos

de uno cuando N . Es decir cuando la longitud del mayor de los empates


no este muy cerca de 1.

3.6. UNA PRUEBA PARA LA ALTERNATIVA DE ESCALA

3.6.

69

Una prueba para la alternativa de escala

El problema surge en el mismo contexto de dos muestras provenientes de distribuciones continuas que tienen la misma mediana pero que se distinguen por un
par
ametro de escala. Concretamente, sean X1 , . . . , Xm y Y1 , . . . , Yn dos muestras
aleatorias, pero ahora la primera muestra X1 , . . . , Xm viene de una distribuci
on
F (t/1 ) y la segunda muestra Y1 , . . . , Yn viene de una distribuci
on F (t/2 ), F 0 .
Tambien en este caso, como para la alternativa de localizaci
on, se construye la
muestra combinada X1 , . . . , XN , N = m + n, donde Xi = Xi i = 1, . . . , n y
Xm+j = Yj , j = 1, . . . , n y se ordenan las observaciones en la muestra combinada
ordenada X(1) , . . . , X(N ) . Cuando el supuesto sobre la igualdad de las medianas
no se cumple, es necesario suponer que al menos la diferencia = 1 2 entre
las medianas de las dos poblaciones se conoce. En este caso la transformaci
on
X 1 , . . . , Xm 1 garantiza que las dos muestras tienen la misma mediana 2 ,
la cual puede restarse a las dos sucesiones de datos para que ambas queden con
mediana igual a cero. Por u
ltimo si las medianas 1 y 2 de las dos poblaciones son
conocidas, entonces las transformaciones X 1 , . . . , Xm 1 y Y 2 , . . . , Yn 2
tienen la misma mediana igual a cero.
Definiendo el cociente entre los par
ametros de escala de las dos muestras por

= 1 /2 ,
el interes se centra en la prueba de la hip
otesis que compara los dos par
ametros
de escala as:

Hip
otesis Hip
otesis alnula H0
ternativa

Interpretaci
on de la alternativa

=1

K1 : 0 < 6= 1

Las dos muestras se distinguen por su par


ametro
de escala.

=1

K2 : > 1

La primera muestra es m
as dispersa que la de
las Y 0 s.

=1

K3 : 0 < < 1

La segunda muestra es m
as dispersa que la de
las X 0 s.

Por otra parte, si se supone que X1 , . . . , Xm viene de una distribuci


on F y
Y1 , . . . , Yn viene de otra distribuci
on G, entonces para = 1 /2 > 0, las hip
otesis
se pueden formular tambien de la siguiente manera:

CAPITULO 3. PROBLEMAS DE DOS MUESTRAS

70
Hip
otesis
nula H0

Hip
otesis
alternativa

Interpretaci
on de la alternativa

G(x) = F (x)
x R

K1 : G(x) = F (x),
para alg
un x R,
0 < 6= 1

Las dos muestras se distinguen por su


par
ametro de escala.

G(x) = F (x)
x R

K2 : G(x) = F (x),
para alg
un x R,
>1

La muestra de las X 0 s es m
as dipersa
que la de las Y 0 s.

G(x) = F (x)
x R

K3 : G(x) = F (x),
para alg
un x R,
0<<1

La muestra de las Y 0 s es m
as dipersa
que la de las X 0 s.

Es conveniente aclarar que hasta el momento no se ha hecho ning


un supuesto
sobre la existencia de las varianzas de las distribuciones muestreadas y por lo
tanto las hip
otesis que se van a probar no necesariamente son hip
otesis sobre tales
varianzas.

3.6.1.

Prueba de Mood

La idea para la prueba se basa en los cuadrados de las distancias entre los
rangos i de las observaciones de una de las muestras y el rango medio de estas
(N + 1)/2:

2
N +1
i
.
2
Estos desvos son indicadores de que entre m
as lejos se encuentre el rango de una
observaci
on de su rango medio m
as dispersa se le puede considerar. La estadstica
de prueba es:
(
2
N 
X
1 si X(i) proviene de la muestra 1,
N +1
MN =
i
zi , zi =
2
0 si X(i) proviene de la muestra 2.
i=1
Las regiones de rechazo para las hip
otesis de interes son las siguientes:
Hip
otesis
nula H0

Hip
otesis
alternativa

Regi
on de rechazo

=1

K1 : 0 < 6= 1

MN k/2 o MN k1/2

=1

K2 : > 1

MN k1

=1

K3 : 0 < < 1

MN k

3.6. UNA PRUEBA PARA LA ALTERNATIVA DE ESCALA

3.6.2.

71

Distribuci
on exacta y momentos de MN

Se obtiene a partir de todos los arreglos distinguibles de las dos muestras como
en el caso de la estadstica de Wilcoxon para la alternativa de localizaci
on en dos
muestras. El valor esperado y la varianza de la estadstica son (Vease demostraci
on
en Gibbons. (1984, P
ags. 265-266)):
E(MN ) =

m(N 2 1)
mn(N + 1)(N 2 4)
y V ar(MN ) =
.
12
180

La distribuci
on de MN es simetrica u
nicamente en el caso en que m = n.

3.6.3.

Distribuci
on asint
otica de MN

Bajo condiciones relativamente generales se puede demostrar que la distribuci


on de la estadstica de Mood converge a la distribuci
on normal de manera que
para muestras grandes las regiones crticas se construyen a partir de:
MN m(N 2 1)/12
Z=p
,
mn(N + 1)(N 2 4)/180
En tal caso las regiones crticas para la prueba son:
H0

Hip
otesis
Alternativa

=1

K1 : 6= 1,
>0

=1

K2 : > 1

=1

K3 : < 1,
>0

mn(N + 1)(N 2 4) m(N 2 1)

MN Z 2
180
12
o
r
2
mn(N + 1)(N 4) m(N 2 1)
+
MN Z 2
180
12
r
mn(N + 1)(N 2 4) m(N 2 1)
+
MN Z
180
12
r
mn(N + 1)(N 2 4) m(N 2 1)
MN Z

180
12

Captulo 4

Problemas de K muestras:
Arreglos de una y dos vas
4.1.

Introducci
on

En este captulo se introducen metodos basados en rangos que permiten comparar localizaci
on en m
as de dos poblaciones. Se presentan dos modelos; en el
primero de ellos se dispone de K muestras independientes. Este modelo suele llamarse un arreglo de una va. El interes est
a en probar la hip
otesis de que todas las
muestras vienen de la misma poblaci
on. La prueba m
as usada en este caso es la de
Kruskal Wallis. En el segundo modelo tambien se quieren comparar K muestras
independientes pero los datos pueden estar influidos por una segunda variable y
por lo tanto se pueden clasificar de dos maneras; la poblaci
on de donde vienen y
el bloque o categora de la segunda variable a la que pertenecen. A este modelo se
le llama arreglo de dos vas y la prueba m
as conocida y usada para la comparac
on
de los par
ametros de localizaci
on de las K muestras es la prueba de Friedman.

4.2.

Arreglos de una va y prueba de Kruskal Wallis

Como se anunci
o arriba, en un arreglo de una va se dispone de K muestras
independientes para las cuales se quiere probar una hip
otesis sobre igualdad de
las distribuciones de donde estas provienen, frente a la alternativa de que estas
difieren en alg
un sentido. En el caso que se trata aqu, el interes est
a en diferencias
entre sus par
ametros de localizaci
on.

72

4.2. ARREGLOS DE UNA VIA Y PRUEBA DE KRUSKAL - WALLIS

73

Modelo de muestreo
Se dispone de K muestras
X1,1 , . . . , XN1 ,1 , X1,2 , . . . , XN2 ,2 , . . . , X1,K , . . . , XNK ,K .
extradas de las distribuciones F (x1 ), F (x2 ), . . . , F (xK ) respectivamente,
donde F 0 y 1 , . . . , K son las medianas de las K poblaciones. El problema
de inferencia es la prueba de la hip
otesis:
H0 : 1 = = K versus K1 : i 6= j para alg
un i 6= j con i, j = 1, . . . , K.
La hip
otesis nula especifica u
nicamente que las medianas son todas iguales pero
no dice cu
al es la mediana com
un. Otra forma de expresar la hip
otesis nula es
definiendo j = j+1 j j = 1, . . . , K 1. Entonces la hip
otesis nula se puede
expresar:
H0 : 1 = = K1 = 0.
Ejemplo 4.2.1. (Tomado de Hettmansperger (1984)). En un estudio sobre la influencia de la base sangunea en la conducta, Terkel & Rosenblatt (1968) inducen
conducta materna en ratas vrgenes inyect
andolas con plasma sanguneo de ratas
que acaban de tener un parto. Luego se exponen las ratas vrgenes a la presencia de
cras de rata y se mide el tiempo hasta que comienzan a acariciar a los cachorros.
Acariciar es una conducta maternal que generalmente aparece dentro de las 48
horas siguientes del parto. Por otra parte, se sabe que esta misma conducta se da
tambien en las ratas vrgenes cuando se dejan con cachorros cerca de cinco das.
Por lo tanto, se espera que el plasma maternal reduzca este tiempo en las ratas
inyectadas con el. Para el experimento se usaron 32 ratas vrgenes de 60 das de
edad que fueron asignadas aleatoriamente a los siguientes 4 grupos de 8 ratas.
Grupo 1. Ratas inyectadas con plasma sanguneo de ratas que acaban de tener
parto.
Grupo 2. Ratas antes del celo que recibieron sangre de ratas antes del celo.
Grupo 3. Ratas en celo que recibieron plasma sanguneo de ratas en celo.
Grupo 4. Ratas inyectadas con una soluci
on salina (placebo).
Entonces se considera que los datos fueron obtenidos de cuatro poblaciones con
funciones de distribuci
on F (x i ), i = 1, . . . , 4, F 0 y la hip
otesis que se
un par i 6= j
quiere probar es: H0 : 1 = 2 = 3 = 4 versus K1 : i 6= j para alg
con i, j = 1, . . . , 4. En caso de que sea rechazada, se quiere saber tambien cu
ales
grupos son significativamente diferentes. En general los datos se pueden visualizar
en una tabla o arreglo de K columnas en el que la j-esima columna representa la
j-esima muestra y tiene Nj filas que corresponden a las Nj observaciones de una
poblaci
on con distribuci
on F (x j ), F 0 . La estrategia de Kruskal Wallis
para construir la prueba es calcular los rangos de la muestra combinada de tama
no
N = N1 + N2 + + NK y comparar las sumas (o promedios) de los rangos por
columnas. El procedimiento se discute a continuaci
on.

CAPITULO 4. PROBLEMAS DE K MUESTRAS

74

4.2.1.

La prueba de Kruskal - Wallis

Sea Rij el rango de Xij en el conjunto la muestra combinada, se define:


Rj =

Nj
X

Rij

Rj =

i=1

Los Rj satisfacen

K
P

Rj
Nj

N=

K
X

Ni .

i=1

Rj =N (N + 1)/2. La distribuci
on bajo H0 de los Rij as co-

j=1

mo el valor esperado, la varianza y la covarianza son los mismos que en el caso de


K
P
dos muestras pero utilizando N =
Ni . Adem
as,
i=1

E ( Rj ) =

Nj (N + 1)
2

E ( Rj ) =

N +1
.
2

N (N +1)

Puesto que la diferencia Rj j 2


representa la distancia entre la suma de
los rangos de los individuos de la j-esima muestra y el rango esperado de estos bajo la hip
otesis nula, se espera que grandes valores de estas diferencias acumuladas
apoyen la hip
otesis alternativa de no igualdad de las medianas de las distribuciones
muestreadas.
La estadstica de Kruskal - Wallis para la prueba de la hip
otesis H0 : 1 = = K
es la siguiente

2
K
X
12
1
Nj (N + 1)
Rj
H=
,
N (N + 1) j=1 Nj
2
y puede expresarse tambien como siguiente (ejercicio):
K

H=

2
X Rj
12
3(N + 1).
N (N + 1) j=1 Nj

La distribuci
on exacta de esta estadstica se puede calcular construyendo, como
en el caso de dos muestras, todos los N !/(N1 !N2 ! . . . NK !) arreglos de las observaciones combinadas, las cuales son igualmente probables bajo la hip
otesis nula.
Sin embargo este proceso puede resultar tedioso y largo si se tiene en cuenta que
hay que construir una tabla de valores crticos para cada K. Es decir desde el
punto de vista pr
actico esta alternativa no resulta muy u
til. Por esta raz
on es
conveniente desarrollar la metodologa de construcci
on de la regi
on crtica va
distribuci
on asint
otica de la estadstica de prueba. Valores crticos de la estadstica para la prueba de Kruskal - Wallis se encuentran en la Tabla K de Gibbons
(1992, P
ag. 503), Para otros valores de K y de Nj la estadstica H se distribuye
asint
oticamente como una 2K1 bajo la condici
on de que:
Nj
j ,
N

0 < j < 1.

(4.1)

4.2. ARREGLOS DE UNA VIA Y PRUEBA DE KRUSKAL - WALLIS

75

La prueba de Kruskal - Wallis rechaza la hip


otesis nula H0 : 1 = = K al nivel
de significancia aproximado cuando:
H > 21 ;K1 ,
donde 21 ;K1 es tal que P ( 6 21 ;K1 ) = 1 donde es una variable
aleatoria con una distribuci
on -cuadrado con K 1 grados de libertad.

4.2.2.

Manejo de empates

Aunque te
oricamente la probabilidad de que se presenten observaciones empatadas en la muestra es igual a cero porque las distribuciones muestreadas se
suponen absolutamente continuas, es inevitable que en la pr
actica se presenten
observaciones empatadas. En este caso se puede utilizar la siguiente estadstica
modificada:
H =
1

H
r b3 b ,
P
j
j
j=1

(4.2)

N 3 N

donde r es el n
umero de grupos empatados y bj es el n
umero de empates en el jesimo grupo. En el c
alculo de r se tiene en cuenta que una observaci
on no empatada
es un grupo de tama
no 1. La hip
otesis nula la cual es H0 : 1 = = K se rechaza
cuando
H > 21 ;K1
Ejemplo 4.2.2. (Tomado de Hettmansperger (1984 P
ag. 187)). La caracterstica
observada en el experimento de las ratas es el tiempo que transcurre hasta que
aparece la conducta esperada y la unidad de tiempo es la longitud de una sesi
on
de observaci
on. Por ejemplo, 0.5 significa que la conducta maternal se inicio a la
mitad de la primera sesi
on de observaci
on. Los datos recolectados se presentan en
la siguiente tabla:

CAPITULO 4. PROBLEMAS DE K MUESTRAS

76

Plasma
materno

Plasma antes
del celo

Plasma
despu
es del
celo

Soluci
on
salina

Obs

Rij

Obs

Rij

Obs

Rij

Obs

Rij

0.5

1.1

0.4

0.9

0.7

1.6

1.9

10

2.1

11

1.0

3.7

18

2.4

13.5

3.0

16

1.2

4.3

20

2.8

15

4.7

21.5

1.7

4.7

21.5

3.9

19

6.4

25

2.3

12

5.6

24

5.4

23

6.6

26.5

24

13.5

6.6

26.5

11.4

31

8.5

28

17

8.8

29

20.4

32

10

3.1

30

Rj

68.5

153

144.5

162

E ( Rj )

132

132

132

132

El valor de la estadstica H es 7.85 y resulta mayor que 210,05 ;3 = 7,81 y por


lo tanto se rechaza la hip
otesis H0 : 1 = 2 = 3 = 4 a favor de la alternativa
K1 : 1 , 2 , 3 , 4 no son todos iguales.
Empates:
En el anterior ejemplo, hay 26 empates de tama
no 1 y tres empates de tama
no 2,
por tanto, bj = 2 en tres de los casos y bj = 1 en los restantes 26 casos. Entonces
para el c
alculo de H en (4.2) basta observar que b3j bj = 6 en tres casos y
r (b3 b )
P
j
j
18
b3j bj = 0 en los restantes 26 casos, de manera que 1
N 3 N = 1 32736 =
j=1

0,99945, lo cual en este ejemplo (por ser tan pocos y tan cortos los empates) no
hace cambiar considerablemente el valor de H ni la decisi
on sobre la hip
otesis nula.

4.2.3.

Una prueba para detectar las fuentes de significancia


en arreglos de una va

Cuando la prueba de Kruskal - Wallis rechaza la hip


otesis nula solo se puede
concluir que hay diferencias entre las localizaciones de las poblaciones comparadas.
Entonces es necesario hacer todas las K(K 1)/2 comparaciones posibles por pares
para determinar las responsables de las diferencias. Tales comparaciones se basan
en la diferencia de los rangos promedio por muestras (por columnas). La estadstica

4.2. ARREGLOS DE UNA VIA Y PRUEBA DE KRUSKAL - WALLIS

77

utilizada para la prueba es:


1
Dij = (Rj Ri ) ,
N
la cual bajo la hip
otesis nula tiene
N + 1h 1
1 i
E ( Dij ) = 0, V ar Dij =
.
+
12
Nj
Ni
Bajo el supuesto (3.1) se obtiene, despues de multiplicar y dividir por N el
denominador de V ar Dij :
1h1
1i
V ar Dij
N .
+
12 j
i
oticamente coEn estas condiciones se pude demostrar que Dij seh distribuye
i asint
1
1
1
2
mo una normal de media cero y varianza = 12 j + i .
Para hacer la prueba se procede como sigue: sea el nivel de significancia global
de la prueba y
2
,
(4.3)
0 =
K(K 1)
la probabilidad de error tipo I en una de las pruebas. Entonces la hip
otesis H0 :
i = j se rechazar
a frente a la alternativa K1 : i 6= j al nivel de significancia 0
si:
p
|Dij | > Z 0 V ar Dij ,
2

donde Z 0 es tal que P (Z > z 0 ) =


2
2
s
|Rj Ri | > z 0
2

0
2 ,

o bien cuando



N (N + 1) 1
1
.
+
12
Nj
Ni

Observaci
on:


p
Para la interpretaci
on de 0 n
otese que 0
= P |Dij | > Z 0 V ar Dij es la
2
probabilidad de error tipo I en una de las pruebas. Por tanto, la probabilidad de
incurrir en al menos un error tipo I en todas las pruebas es:
[
 X 

p
p
P
|Dij | > Z 0 V ar Dij 6
P |Dij | > Z 0 V ar Dij
2

i<j

i<j

K(K 1) 0
= .
2
Por lo tanto, tomar 0 = 2/K(K 1) equivale a acotar la probabilidad de incurrir
en al menos un error tipo I en todas las K(K 1) pruebas realizadas.
=

Ejercicio: Hacer las pruebas comparando por pares para determinar cuales son
los que se diferencian significativamente.

CAPITULO 4. PROBLEMAS DE K MUESTRAS

78

4.2.4.

Una prueba para la alternativa ordenada en arreglos


de una va

En algunas ocasiones existe informaci


on acerca del orden en que se encuentran
los tratamientos o las muestras. En este caso la hip
otesis nula H0 : 1 = = K se
contrasta contra la alternativa K1 : 1 6 6 K , donde al menos una desigualdad
es estricta. La prueba de Terpstra (1952) y Jonckheere (1954) utiliza la estadstica:
X
J=
Wij ,
i<j

donde
Wij = #(Xvj Xui ),

v = 1, . . . , Nj

u = 1, . . . , Ni

es el n
umero de observaciones de la muestra j que exceden a las de la muestra i.
La prueba de Jonckheere - Terpstra rechaza la hip
otesis H0 : 1 = = K a
favor de la alternativa K1 : 1 6 6 K cuando

J 6 E( J ) + Z V ar J ,
donde
E (J ) =

X Ni Nj
i<j

porque

K
P

j=1

Nj

2

K
P
j=1

V ar J =

Nj2 + 2

PP

=N

K
X
Nj2
j=1

Ni Nj y

i<j



K
X
1
N 2 (2N + 3)
Nj2 (2Nj + 3)
72
j=1

on normal.
y Z el -esimo cuantil superior de la distribuci

4.3.

Arreglos de dos vas y prueba de Friedman

En los arreglos de una sola va o direcci


on, se comparan K muestras con el
objeto de detectar diferencias significantes entre las poblaciones muestreadas. El
modelo de aleatorizaci
on consiste en asignar aleatoriamente los N individuos utilizados en el experimento a los K tratamientos. Sin embargo, una alta variabilidad

4.3. ARREGLOS DE DOS VIAS Y PRUEBA DE FRIEDMAN

79

entre los sujetos dentro de las muestras puede enmascarar las diferencias existentes entre los K tratamientos. Para disminuir el efecto de esta variabilidad en
muchos casos se suelen separar los individuos en subgrupos m
as homogeneos que
se denominan bloques y se realizan las comparaciones dentro de los bloques. En la
pr
actica esta situaci
on se denomina un modelo de bloques completos aleatorizados
y se presenta en alguna de las siguientes dos situaciones:
1.

Se dispone de N = nk unidades experimentales (individuos, objetos, etc.)


y se separan en n grupos (bloques) con K unidades cada uno, teniendo la
precauci
on de que los grupos sean homogeneos en el sentido de contener
individuos parecidos entre s. Por ejemplo, si las unidades son variedades
de cafe, las K unidades de un grupo deben ser de la misma variedad, si las
unidades son personas, entonces deben ser de la misma edad, el mismo sexo,
etc. Despues se asignan aleatoriamente K tratamientos a los K individuos de
cada grupo de manera que cada individuo reciba solo un tratamiento. As la
informaci
on obtenida despues de realizar el experimento se puede arreglar
en una tabla de n filas (grupos o bloques) por K columnas (tratamientos).

2.

Una situaci
on ligeramente diferente pero que puede ser descrita por este
modelo es cuando m jueces (bloques) estan ordenando K productos (tratamientos). En este caso no hay independencia entre tratamientos pues se
trata del mismo juez calificando cada vez un producto diferente.

Las dos anteriores situaciones se describen a continuaci


on:

Modelo de muestreo
Para la primera situaci
on se supone que las observaciones son variables aleatorias independientes Xij , i = 1, . . . , n j = 1, . . . , K, de distribuciones Fi (x
j ), Fi 0 , i = 1, . . . , n. Es decir Fi es la distribuci
on de las observaciones en el
i-esimo bloque y dentro del i-esimo bloque j es la mediana del j-esimo tratamiento. Para la segunda situaci
on se supone que la observaci
on en el i-esimo bloque
(Xi1 , . . . , XiK ) proviene de una distribuci
on conjunta Fi (x1 1 , . . . , xK K ),
y que la distribuci
on de cualquier permutaci
on de los tratamientos dentro de un
bloque es la misma. El interes en cualquiera de los dos casos, esta en contrastar
la hip
otesis H0 : 1 = = K contra la alternativa K1 : no todos los 0 s son
iguales. Sea Rij el rango de Xij entre Xi1 , . . . , XiK que son las observaciones denn
P
tro del i-esimo bloque. Entonces Rj =
Rij es la suma de los rangos del j-esimo
i=1

tratamiento. Este esquema se muestra en la siguiente tabla:

CAPITULO 4. PROBLEMAS DE K MUESTRAS

80

Tratamientos

4.3.1.

Bloques

R11

R12

R1K

2
..
.

R21
..
.

R22
..
.

R2K
..
.

Rn1

Rn2

RnK

R1

R2

RK

La prueba de Friedman

En 1937 Friedman propuso la estadstica:


2
K 
X
12
n(K + 1)
M=
Rj
,
nK(K + 1) j=1
2
o equivalentemente:
M=

X
12
R2
nK(K + 1) j=1 j

3n(K + 1),

donde las constantes se escogen de manera que M tenga distribuci


on asint
otica
2(K1) . La hip
otesis nula se rechaza cuando
M > 21 ; K1 .

4.3.2.

Manejo de empates

En este caso los empates representan un problema solo cuando se encuentran


dentro del mismo bloque. Cuando son pocos se puede usar el rango promedio
dentro de los bloques que contengan empates. Si son muchos se puede corregir la
estadstica de prueba as:
12
M =

K
P


Rj

j=1

nK(K + 1)

1
K1

n(K+1)
2

n
P
i=1



rj
P

j=1

2

,
b3ij K

umero de grupos con empates dentro del i-esimo bloque i = 1, . . . , n,


donde ri es el n
bij , con j = 1, . . . , ri , es el n
umero de observaciones empatadas en el j-esimo grupo

4.3. ARREGLOS DE DOS VIAS Y PRUEBA DE FRIEDMAN

81

de empates del i-esimo bloque y los Rj se calculan asignando rangos promedios a


los grupos empatados. Bajo la hip
otesis nula, la estadstica M tiene distribuci
on
2
otesis H0 : 1 = =
con K 1 grados de libertad y por tanto se rechaza la hip
K cuando:
M > 21 ; K1 .
Ejemplo 4.3.1. (tomado de Lehmann (1975), P
ag. 266). Relaciones entre asociaci
on y memoria. Para estudiar el efecto de las asociaciones emocionales sobre la
memoria, se le pidi
o a 15 sujetos recordar el ttulo de 18 historias que ellos haban
escrito anteriormente. Las historias se clasificaron en aquellas que tenan mensajes
positivos y se distinguen con (+), aquellas con un mensaje neutro es decir ni positivo ni negativo (0) y aquellas historias con mensaje negativo (). Entonces se
tienen n = 15 bloques y K = 3 tratamientos y N = 45 datos en total. La siguiente
tabla contiene el n
umero de historias olvidadas de acuerdo con el mensaje +, 0,
para los 15 individuos del experimento.

Individuos

Tipo de historia

10

11

12

13

14

15

Los rangos asignados a los datos son los siguientes:

CAPITULO 4. PROBLEMAS DE K MUESTRAS

82

Individuos

Tipo de historia
+

1,5

1,5

2,5

2,5

2,5

2,5

1,5

1,5

1,5

1,5

10

11

1,5

1,5

12

13

14

1,5

1,5

15

Totales por tratamiento

25,5

28

Entonces el valor de la estadstica despues de corregirla por los empates es


(ejercicio verificar los c
alculos):
M =

4,43
= 5,021.
0,883

valor que no permite rechazar al nivel de significancia del 5 % pues 210,055,2 = 5,8.

4.3.3.

Una prueba para detectar las fuentes de significancia


en arreglos de dos vas

Para saber cu
ales tratamientos son los que originan las fuentes de significancia,
se hacen pruebas por pares utilizando las sumas de los rangos por tratamiento.
Entonces se declara significante la diferencia entre i y j si:
|Rj Ri | > Z 2
donde 0 =

2
K(K1) ,

0
2

= 1 (Z 0 ).
2

nk(K + 1)
,
6

4.3. ARREGLOS DE DOS VIAS Y PRUEBA DE FRIEDMAN

4.3.4.

83

Una prueba para la alternativa ordenada en arreglos


de dos vas

Cuando se quiere probar la hip


otesis nula H0 : 1 = = K contra la
alternativa K1 : 1 6 6 K , se puede utilizar la estadstica propuesta por Page
(1963):


K 
K +1
1 X
n(K + 1)
j
Rj
,
Q=
n j=1
2
2
donde E( Q ) = 0 y
V ar Q =

K 2 (K 2 1)(K + 1)
.
144

La prueba dePage rechaza la hip


otesis nula al nivel de significancia aproximado
si Q > Z V ar Q , donde Z es el -esimo cuantil superior de la distribuci
on
normal.

Captulo 5

Asociaci
on y correlaci
on
Las medidas de asociaci
on pueden entenderse como medidas de coincidencia o
de concordancia entre dos variables o entre los rangos que las representan. En esta
secci
on se introducen algunas medidas de correlaci
on por rangos y de asociaci
on
entre dos variables X y Y y las pruebas de hip
otesis asociadas a ellas.

Modelo de muestreo
Muestra aleatoria (X1 , Y1 ), . . . , (Xn , Yn ) proveniente de una distribuci
on bivariada continua F (x, y), con distribuciones marginales continuas FX (x) y FY (y).
Es decir, los datos corresponden a la observaci
on de dos caractersticas observadas simult
aneamente sobre un grupo de n individuos. Sin perder generalidad,
se puede suponer que las parejas de datos se encuentran ordenadas con respecto
a la primera componente del par, es decir que X1 < X2 < < Xn . En este caso
al asignar rangos a las dos caractersticas simult
aneamente se obtiene la sucesi
on
(1, S1 ), . . . , (n, Sn ), donde S1 , . . . , Sn son los rangos de los Y s.

84

POR RANGOS DE
5.1. COEFICIENTE DE CORRELACION
SPEARMAN

5.1.

85

Coeficiente de correlaci
on por rangos de
Spearman

Este coeficiente propuesto por Spearman en 1904, es una versi


on del coeficiente de correlaci
on de Pearson pero calculado sobre la sucesi
on transformada
(1, S1 ), . . . , (n, Sn ) de rangos en las dos variables:



n
P
n+1
i n+1
S

i
2
2
rs = s i=1

2 n 
2 ,
n
P
P
n+1
n+1
i 2
Si 2
i=1

i=1

el cual despues de algunas manipulaciones algebraicas sencillas se puede expresar


como:
X
6
di 2 ,
2
n(n 1) i=1
n

rs = 1

di = 1 Si .

(5.1)

Demostraci
on: N
otese que (ejercicio):

n 
X
n+1
n(n2 1)
i
=
.
2
12
i=1
Por otra parte
2 X
2
n 
n 
X
n+1
n+1
Si
i
=
,
2
2
i=1
i=1
pues la suma sobre los Si es solo una permutaci
on de los sumandos de la suma
sobre i. As el denominador completo es:
n(n2 1)
.
12
Para el numerador basta escribirlo como



n 
n 
n 
X
X
n+1
n+1 n+1 X
n+1
i
i
i
Si
=
Si ,
2
2
2
2
i=1
i=1
i=1
porque

n
P
i=1


i

n+1
2

n+1
2
n
P

rs =

i=1

= 0. Entonces (ejercicio):

i

n+1
2

n(n2 1)
12


Si

n
P

i=1

iSi

n(n+1)2
4

n(n2 1)
12

(5.2)

86

Y CORRELACION

CAPITULO 5. ASOCIACION

Finalmente, n
otese que (ejercicio):
n
X

di 2 =

n
X
n(n + 1)(2n + 1)
2
iSi ,
3
i=1

iSi =

n(n + 1)(2n + 1) 1 X 2

di .
6
2 i=1

i=1

entonces
n
X

i=1

Reemplazando el resultado anterior en 5.1 se obtiene 5.2.


N
otese que por ser ri el coeficiente de correlaci
on aplicado sobre los rangos
satisface:
1 6 rs 6 1.
Para verificar que los extremos s ocurren, basta tener en cuenta que rs = 1 cuando
las dos variables concuerdan perfectamente, es decir en el caso en que Si = i para
2
P
todo i, porque entonces
di 2 = 0. Por otra parte, para que rs = 1 es necesario
i=1

que los rangos de las dos sucesiones vayan en direcciones opuestas, lo cual ocurre
cuando Si = n i + 1. En este caso basta demostrar que (ejercicio):
n
X
i=1

di =

n
X
i=1

(i (n i + 1))2 =

n(n2 1)
.
3

Para la interpretaci
on es suficiente tener en cuenta que valores cercanos a uno
indican asociaci
on positiva o directa entre las variables (aumento en X implica
aumento en Y , disminuci
on en X implica disminuci
on en Y , y viceversa en ambos
casos). Valores cercanos a menos uno indican asociaci
on negativa o inversa entre
las variables (aumento en X implica disminuci
on en Y , disminuci
on en X implica
aumento en Y , y viceversa en ambos casos).

5.1.1.

Prueba basada en el coeficiente de correlaci


on de
Spearman

El coeficiente de Spearman puede utilizarse como estadstica de prueba de


la hip
otesis de independencia entre las dos variables en consideraci
on frente a
alternativas de una y dos colas. Las hip
otesis de interes y los valores crticos se
muestran en la siguiente tabla:

POR RANGOS DE
5.1. COEFICIENTE DE CORRELACION
SPEARMAN

87

Hip
otesis
nula

Alternativas

Interpretaci
on
de la alternativa

Regi
on crtica

X y Y son independientes

K1 : X y Y
est
an correlacionadas

X y Y est
an correlacionadas

rs > rs, 2 o rs 6 rs,1 2

K2 : est
an correlacionadas
positivamente

X implica Y o
X implica Y

rs > rs,1

K2 : est
an correlacionadas
negativamente

X implica Y o
X implica Y

rs 6 rs,

5.1.2.

Distribuci
on exacta de la estadstica de prueba

Como n es fijo, la distribuci


on de rs solo depende de

n
P

di 2 . Bajo la hip
otesis

i=1

nula las dos variables son independientes y por lo tanto todas las n! permutaciones
de los enteros 1, . . . , n, tiene la misma probabilidad de ocurrir. Por lo anterior la
distribuci
on de rs se puede obtener construyendo estas permutaciones. Por ejemplo, para n = 3 se construyen las 3! = 6 permutaciones de los enteros 1, 2 y 3:

S1

S2

S3

n
P

iSi

Valores de D

rs

i=1

14

1.0

13

0.5

13

0.5

11

-0.5

11

-0.5

10

-1.0

As la distribuci
on exacta de rs es:

Distribuci
on de probabilidades

Funci
on de distribuci
on

-1

-0.5

0.5

-1

-0.5

0.5

P (rs = r)

1/6

1/3

1/3

1/6

P (rs 6 r)

1/6

3/6

5/6

88

5.1.3.

Y CORRELACION

CAPITULO 5. ASOCIACION

Distribuci
on asint
otica de rs

Los rangos de las observaciones de Y satisfacen las mismas propiedades que


los rangos en el problema de dos muestras, as que:
E ( Si ) =

n+1
n2 1
n+1
, V ar Si =
, Cov ( Si , Sj ) =
,
2
12
12

y con esto se puede demostrar que


E ( rs ) = 0

V ar rs =

1
.
n1

Con lo anterior tambien se demuestra que (Vease Hettmansperger (1984)):

rs
Z=q
= n 1 rs
1
n1

tiene distribuci
on normal para grandes valores de n.

5.1.4.

Manejo de los empates

Como en la mayora de los casos de estadsticas de rango, la presencia de


empates en los datos se maneja usando los rangos promedio y corrigiendo la estadstica por la ocurrencia de los empates. En este caso el coeficiente de Spearman
corregido es el siguiente:
n(n2 1) 6

n
P

di 6( bx by )

i=1

rsE = p
,
(n(n2 1) 12 bx)(n(n2 1) 12 by )
donde di = Ri Si , Ri y Si son los rangos promedio de los X 0 s y de los Y 0 s en
presencia de empates y
n

bx =

1 X
1 X
(bj 1)2 bj , by =
(cj 1)2 cj ,
12 j=1
12 j=1

donde bj es el n
umero de observaciones empatadas en el j-esimo grupo de empates
de la serie de las X, y cj es el n
umero de observaciones empatadas en el j-esimo
grupo de empates de la serie de las Y .

5.2.

Coeficiente de correlaci
on de Kendall

Este coeficiente se basa en el grado de concordancia o discordancia entre pares


de observaciones las cuales se miden de la siguiente manera:

DE KENDALL
5.2. COEFICIENTE DE CORRELACION

89

Se dice que los pares (Xi , Yi ) y (Xi , Yj ), con i 6= j son concordantes Xi Xj > 0
y Yi Yj > 0 o Xi Xj < 0 y Yi Yj < 0 son discordantes Xi Xj > 0 y
Yi Yj < 0 o Xi Xj < 0 y Yi Yj > 0.
Las concordancias y discordancias se pueden expresar tambien como sigue. Sea

1 si x > 0,
sg(x) =
0 si x = 0,

1 si x < 0,
entonces los pares (Xi , Yi ) y (Xi , Yj ) son concordantes si sg(Xi Xj )sg(Yi Yj ) =
1 y son discordantes si sg(Xi Xj )sg(Yi Yj ) = 1.
Definiendo P como el n
umero de pares concordantes y Q como el n
umero de pares
discordantes, se calcula el exceso de concordancias sobre el exceso de discordancias
por la diferencia:
XX
S =P Q=
sg(Xi Xj )sg(Yi Yj ).
i<j

Este ndice de exceso de concordancias vara desde n(n 1)/2 cuando todos
los pares son discordantes (todos los productos de signos son negativos), hasta
n(n 1)/2 cuando todos los pares son concordantes (todos los productos de signos
son positivos). Entonces m
ax {S} = n(n 1)/2. El coeficiente de Kendall
(1938) es:
=

S
2(P Q)
=
m
ax S
n(n 1)

El n
umero total de comparaciones posibles de los n pares es n(n1)/2, n
umero que
coincide con la suma de las concordancias y las discordancias. Es decir, P + Q =
n(n 1)/2, as que P = n(n 1)/2 Q. Reemplazando este valor de P se obtiene
la siguiente expresi
on m
as com
un para :


2 n(n1)

2Q
2
4Q
=1
.
=
n(n 1)
n(n 1)
Como para obtener se dividi
o por el m
aximo se tiene inmediatamente que:
1 < < 1,
donde = 1 cuando todos los pares son concordantes en la misma direcci
on,
= 1 cuando todos los pares son concordantes en direcciones opuestas,
y = 0 cuando no hay ninguna concordancia.

90

5.2.1.

Y CORRELACION

CAPITULO 5. ASOCIACION

Manejo de los empates

Cuando se presentan casos en que no puede calificarse un par de concordante o


discordante y el n
umero de pares en los que ocurre esto es peque
no, puede utilizarse
la misma estadstica. Cuando son muchos se debe corregir de la siguiente manera
(Kendall, (1970) citado por B
unning y Trenkler (1994)):
=q

n(n1)
2

P Q
q
,
Tx n(n1)

T
y
2

donde
n

1X 2
Tx =
(bj bj ),
2 j=1

1X 2
Ty =
(cj cj ),
2 j=1

y bj y cj son las longitudes de los empates de las X 0 s y las Y 0 s respectivamente.

Bibliografa
[1] Arbuhnot, J. (1710). An Argument for Divine Providence, taken from de
Konstant Regularity Observed in Births of both Sexes. Phil. Trans, 27, 186190.
[2] B
unning, H. Trenkler, G. (1994). Nichtparametrische statistische Methoden.
Walter de Gruuyter, Berlin. New York.
[3] Conover, W.(1999). Practical nonparametric statistics. Wiley. NY.
[4] DAgostino, R. B., Stephens, M. A. (1986). Goodness-of-fit-thechniques. Marcel Dekker, New York.
[5] Gibbons, J. D, Chakraborti, S. (1992). Nonprametric Statistical Inference.
Marcel Dekker Inc., New York.
[6] Gibbons, J. D. (1971). Nonprametric Statistical Inference. McGraw-Hill, New
York.
[7] Hettmansperger, T. (1984). Statistical Inference Based on Ranks. John Wiley
& Sons. New York.
[8] Hollander , M. Wolfe, D. A. (1973). Nonparametric Statistical Methods. John
Wiley & Sons. New York.
[9] H
ajek, J. Sid
ak, Z. (1967). Theory of Rank Tests.
[10] H
ajek, J. Sid
ak, Z. Sen, P. (1999). Theory of Rank Tests.
[11] Landry , L. Lepage, Y. (1992)Empirical behaviour of some tests for normality.
Comm, Statist. Simul. Comput. 21, 971-999.
[12] Lehmann, E. L. (1975). Nonparametrics: Statistical Methods Based on Ranks.
McGraw-Hill, New York.
[13] Manoukian, E. (1986). Mathematical Nonparametric Statistics. Gordon and
Breach Sience Publishers. New York.

91

92

BIBLIOGRAFIA

[14] Pearson, K. (1900). On the criterion that a given system from the probable
in the case of correlated system of variables is such that it can be reasonable
supposed to have arisen from random sampling. Phil. Mag. Ser. (5) 50, p
157-175.
[15] Randles, R. Wolfe, D. (1979). Introduction to The Theory of nonparametric
Statistics. John Wiley & Sons. New York.
[16] Serfling, R. (1980). Approximation Theorems of Mathematical Statistics.
John Wiley & Sons. New York.
[17] Siegel, S. (1995). Estadstica No parametrica Aplicada a las ciencias de la
conducta. Trillas, Mejico.
[18] Sprent, P. (1989). Applied Nonparametric Statistical Methods.
[19] Wald, A. Wolfowitz, J. (1940). On a test whether two samples are from the
same population. Ann. Math. Statist. 11, 147-162.

S-ar putea să vă placă și