Sunteți pe pagina 1din 25

Cap. 5. Inferencias acerca de un vector de medias.

CAPITULO 5

INFERENCIAS ACERCA DE UN VECTOR DE MEDIAS

5.1. Inferencias acerca del vector de medias.

Esta es una de las primera secciones metodologicas de esta asignatura. Utilizaremos los
conceptos de las secciones anteriores, desarrollando técnicas para el análisis de datos.
La mayor parte de algún análisis esta centrado con la inferencia, esto es, se llegan a
conclusiones validas sobre la base de una información muestral.

Trataremos sobre inferencia acerca de un vector de medias población y sus partes


componentes. Uno de los mensajes centrales del análisis multivariante es que p
variables correlacionadas pueden ser analizados conjuntamente.

En la teoría univariante para determinar si un valor especifico,  o , es un valor posible

para la media poblacional  , este problema puede ser formulado como una prueba de
hipótesis de la forma:
H o : μ  μ o contra H1 : μ  μ o

Aquí Ho es la hipótesis nula y H1 es la hipótesis alternativa (bilateral o de dos colas).

Si X1, X2, ...., Xn es una muestra aleatoria de una población normal, el estadístico de
prueba ( para n < 30) es:
n n

(X  μ o )
Xj
j1
( X
j1
j  X )2
t ~ t ( n1) , donde X  y s2 
s/ n n n 1

Se rechaza Ho que  o es un valor posible de  , si el valor de t  t (1  /2 , n -1 ) o

t  t (1   / 2 , n -1 ) , es decir si el valor observado de t excede al valor tabular t (1  /2 , n -1 ) .

Rechazar Ho , es cuando t es grande es equivalente a rechazar Ho si su cuadrado,


Cap. 5. Inferencias acerca de un vector de medias. 2

( X  μo )2
t 
2
2
 n( X  μ o )( s 2 ) 1 ( X  μ o ) es grande. (1)
s /n

La variable t2 en la expresión (1) es la distancia cuadrada de la media muestral X al


valor μ o . La distancia unitaria esta expresada en términos de s / n . Cuando X y s2
son observadas, la prueba es: rechazar Ho a favor de H1 , al nivel de significancia α, si

n( X  μ o )(s 2 ) 1 ( X  μ o )  t (12  α / 2 , n  1) (2)

Si Ho no es rechazado, se concluye que  o es un valor posible para una media


poblacional normal.

De la correspondencia conocida entre la región de aceptación para la prueba de


H o : μ  μ o contra H1 : μ  μ o y el intervalo de confianza para  , tenemos:

x  μo
No rechazar H o : μ  μ o al nivel de significancia α, o  t (1  α/2, n 1) es
s/ n
equivalente a que  o debe hallarse en el intervalo de confianza del (1- α)x100%

s s
x  t (1 / 2,n1)   o  x  t (1 / 2,n1) (3)
n n

El intervalo de confianza consiste de todos aquellos valores de  o que pueden no ser

rechazados por el test de H o : μ  μ o .

Consideremos ahora el problema de determinar si un vector μ o es un valor posible para


la media de una distribución normal multivariante. Una generalización de la distancia
cuadrada en la expresión (1) es su análogo multivariante:

1
S
T 2  (X  μ o )   (X  μ o )  n(X  μ o ) S 1 (X  μ o ) (4)
n
Cap. 5. Inferencias acerca de un vector de medias. 3

n
μ 10 
X j
1 n
μ 
 (X j  X)(X j  X) μo   
j1
X  S 
20
donde: , y
(p x 1) n (p x p) n  1 j1 (p x 1)   
 
μ p0 

El estadístico T2 es llamado T2 de Hotelling en honor de Harold Hotelling, pionero en


el análisis multivariante quién fue el primero en obtener su distribución muestral.

El estadístico
(n  p) 2
·T ~ F(p,n p) (5)
(n  1)p

donde Fp, n – p denota una variable aleatoria con una distribución F con p y n-p grados de
libertad.

El estadístico T2 dado en la expresión (4) puede es usado para hacer inferencias acerca
del vector de medias. Es decir, es el estadístico de prueba de H o : μ  μ o contra

H1 : μ  μ o .

La regla de decisión es, rechazar Ho al nivel de significancia α si

(n  1)p
T 2  n(X  μ o ) S 1 (X  μ o )  ·F( α ; p, n p) (6)
(n  p)

Ejemplo 1. Sea la matriz de datos para una muestra aleatoria de tamaño n = 3 de una
población normal bivariante,
6 10 8
X
9 6 3

9
Evalué la observación T2 para μ o    . Cuál es la distribución muestral de T2 en este
5
caso ?-
Cap. 5. Inferencias acerca de un vector de medias. 4

Solución.-
 6  10  8 
 x1   3  8
De la muestra se obtiene, x          y s11  4 s12  3 s11  9
 x 2   9  6  3  6
 3 

 4  3  1/3 1/ 9 
De esta manera, S    y por lo tanto S -1  
 3 9 1 / 9 4/27 
De la expresión (19),
1/3 1/9  8  9   2 / 9 7
T 2  3 8  9, 6  5        1/27   9
4/27  6  5
3 1 , 1
1/9  

Antes de que la muestra sea seleccionada, el estadístico T2 tiene una distribución de


(3  1)2 1
F2,32  4F2,1 , o también que T 2 ~ F2,1 .
(3  2) 4

Ejemplo 2.- La transpiración de 20 mujeres sanas fue analizada, mediante una nueva técnica
de diagnostico en la facultad de medicina de la universidad de Wisconsin –USA. Tres
componentes fueron medidos: X1 = velocidad de transpiración, X2 = contenido de sodio, y
X3 = contenido de potasio. Los resultados que llamaremos datos de transpiración, son
presentados a continuación:

Individuo X1 X2 X3
(Velocidad de transpiración ) Sodio potasio

1 3.7 48.5 9.3


2 5.7 65.1 8.0
3 3.8 47.2 10.9
4 3.2 53.2 12.0
5 3.1 55.5 9.7
6 4.6 36.1 7.9
7 2.4 24.8 14.0
8 7.2 33.1 7.6
9 6.7 47.4 8.5
10 5.4 54.1 11.3
11 3.9 36.9 12.7
12 4.5 58.8 12.3
13 3.5 27.8 9.8
14 4.5 40.2 8.4
15 1.5 13.5 10.1
16 8.5 56.4 7.1
17 4.5 71.6 8.2
18 6.5 52.8 10.9
19 4.1 44.1 11.2
20 5.5 40.9 9.4

Fuente. Richard Johnson y Dean Wichern. Apllied Multivariate Statistical Analysis


Cap. 5. Inferencias acerca de un vector de medias. 5

La prueba de hipótesis es: H o : μ  4, 50, 10 contra H1 : μ  4, 50, 10 al nivel
de significancia del 10%.

Solución.

Se supone que los datos de transpiración están distribuidos como una normal
multivariante.
4 4
1) Las hipótesis son H o : μ  50 contra H1 : μ  50
 
   
10  10 

2) Nivel de significancia, α = 0.10

3) Estadística de prueba: en este caso utilizaremos el estadístico

T 2  n(X  μ o ) S 1 (X  μ o )

4) Región critica:

(20 - 1)3
T2  ·F( 0.10; 3,17)  (3.353)(2.437)  8.17 ,
(20  3)

donde F( 0.10; 3,17)  2.437

5) Cálculos: De los datos se obtienen:

 4.640   2.879 10.002  1.810 


X  45.400  S   10.002 199.798  5.627 
   
 9.965   1.810  5.627 3.628 

 0.586  0.022 0.258 


y S   0.022
-1
0.006  0.002 
 0.258  0.002 0.402 

entonces
 0.586  0.022 0.258   4.640  4 
T 2  20  4.640  4, 45.400  50, 9.965  10   0.022 0.006  0.002  45.400  50
 0.258  0.002 0.402   9.965  10 

 0.640 
 20  0.640 , - 4.600 , - 0.035   4.600   9.74
 0.035 
Cap. 5. Inferencias acerca de un vector de medias. 6

6) Decisión. Se observa que T2 = 9.74 > 8.17 y por tanto se rechaza Ho al nivel de
significancia del 10%.

Cuando la hipótesis nula Ho es rechazada, entonces uno o más de las componentes de


medias, o alguna combinación de medias, difiere también mucho de los valores
establecidos del vector μ   4, 50, 10.

5.2. El estadístico T2 de Hotelling y la prueba de razón de verosimilitud.

Supongamos que se tiene una muestra x1, x2,..., xn (n > p) La función de verosimilitud
es dado por
n

1   ( x j  μ)  1 ( x j  μ ) / 2
L(μ, )  e j 1

(2 ) np/2 
n /2

Para determinar si μ o es un valor posible de μ , se utiliza el estadístico llamado el


estadístico de razón de verosimilitud, dado por:

n /2
max L(μ o , )
 ˆ 
Razón de verosimilit ud  λ  
   (7)
max L(μ, )  ˆ 
μ,   o 

n n
ˆ  1  ( x j  x )( x j  x )  y
donde  ˆ o  1  ( x j  μ o )( x j  μ o ) 

n j1 n j1

 
ˆ 
Nota. El estadístico equivalente λ 2 / n    es llamado Lamdda de Wilks.
ˆo 
 

Específicamente, la prueba de razón de verosimilitud de H o : μ  μ o contra H1 : μ  μ o ,


rechaza Ho si
Cap. 5. Inferencias acerca de un vector de medias. 7

n
 n 2
 ˆ 
n /2 

 ( x j  x )( x j  x )  

λ   j1

   α (8)
ˆ  
n
 o 
  (x j  μ o )(x j  μ o ) 
 j1 

donde λα es escogido tal que la probabilidad de (8) cuando la hipótesis nula es verdadera
es igual a su nivel de significancia.

Teorema 1.- Sea X1, X2, ...., Xn es una muestra aleatoria de una población N p (μ, ) .

Entonces la prueba dada en la expresión (6) basado en el estadístico T2 es equivalente al


estadístico de prueba de razón de verosimilitud de H o : μ  μ o contra H1 : μ  μ o ,
debido a que
1
 T2 
λ 2/n

 1   (9)
 (n  1) 

Aquí Ho es rechazado para pequeños valores de λ 2 / n o , equivalentemente, para valores


grandes de T2. Los valores críticos de T2 son determinado de la expresión

 (n  1)p 
α  P T 2  ·F(  ; p, n p)  .
 (n  p) 

De la relación (9) se muestra que T2 puede ser calculado de dos determinantes, así se
evita el calculo de S-1. Resolviendo para T2 , tenemos:

ˆo
(n  1) 
(n - 1)  (x
j1
j  μ o )(x j  μ o )
T 
2
 (n  1)  - (n - 1) (10)
ˆ
 n

 (x
j1
j  x)(x j  x)
Cap. 5. Inferencias acerca de un vector de medias. 8

5.3. Regiones confidenciales y comparaciones simultáneas de medias.

Una región de confianza del (1-α )x100% para la media μ de una distribución normal p-
dimensional es el conjunto determinado para todos los μ , tal que:

p(n  1)
n(X  μ) S 1 (X  μ)  ·F(  ; p, n p) (11)
(n  p)
1 n 1 n
donde x  xj , S  (x j  x)(x j  x) y x1, x2, ..., xn son las
n j1 (n - 1) j1
observaciones muestrales.

Para determinar si algún μ o cae en la región confidencial (es un valor posible para μ ),

necesitamos calcular la distancia cuadrada generalizada n(X  μ o ) S 1 (X  μ o ) y

(n  1)p
comparar esto con ·F( α ; p, n p) . Si la distancia cuadrada es más grande que
(n  p)
(n  1)p
·F( α ; p, n p) , μ o no esta en la región confidencial.
(n  p)

Puesto que esto es análogo a probar H o : μ  μ o contra H1 : μ  μ o , se observa que la

región confidencial dada en (11) consiste de todos los vectores μ o para el cual la prueba
T2 puede no rechazar Ho a favor de H1 al nivel de significancia α.

 Podemos calcular los ejes de la elipsoide confidencial y sus longitudes relativas.


Estos son determinados de los eigenvalores λi y eigevectores ei de la matriz S.

La dirección y longitud de los ejes de

p(n  1)
n(X  μ) S 1 (X  μ)  c 2  ·F(  ; p, n p)
(n  p)
son determinados por:
c i p(n  1)
 i F( , p,n p )
n n(n  p)
unidades a lo largo de los eigenvectores ei. Empezando en el centro x , los ejes de la
elipsoide confidencial son
Cap. 5. Inferencias acerca de un vector de medias. 9

p(n  1)
 λi F( , p ,n p ) e i donde S ei = λi ei , i= 1, 2, …, p. (12)
n( n  p )

Ejemplo 1. Un periódico matutino lista los siguientes precios de carros usados de una
determinada marca, con edad de antigüedad (X1) en años y precio de venta (X2 ) en
miles de dólares.

x1 3 5 5 7 7 7 8 9 10 11

x2 2.30 1.90 1.00 0.70 0.30 1.00 1.05 0.45 0.70 0.30

Para los n = 10 pares de observaciones, se determina que:

 7.2   5.956 - 1.299  0.47156 1.392 


x  S S -1  
0.97  - 1.299 0.44   1.392 6.382 

La elipse confidencial del 95% para μ consiste de todos los valores (μ 1 , μ 2 ) que
satisfacen:

0.47156 1.392   7.2  μ1  2(9)


10· 7.2  μ1 , 0.97  μ 2    F(0.05,2,8)  10.03275
 1.392 6.382 0.97  μ 2  8

donde F(0.05, 2, 8) = 4.459

7
Ahora, supongamos que el vector μ    . Para ver si μ esta en la región confidencial,
1
calcularemos

0.47156 1.392   7.2  8 


10· 7.2  8, 0.97  1   3.74  10.03275
 1.392 6.382  0.97  1

y concluimos que esta en la región.


Cap. 5. Inferencias acerca de un vector de medias. 10

8
Esto es equivalente, a probar si H o : μ    puede ser rechazada a favor de
1
8
H1 : μ    .
1

- Por otro lado, los pares eigenvalores y eigenvectores para S son:

 0.976 
λ1 = 6.247 e1   
 0.218

0.218
λ2 = 0.149 e2   
0.976

La elipsoide confidencial conjunta es graficada en la siguiente figura 2.2. El centro esta


 7.2 
en x    , y las longitudes medias de los ejes mayor y menor son dado por:
0.97 

p(n  1) 2(9)
λ1 F( , p ,n p )  6.247 (4.459)  2.503
n( n  p ) 10(8)
y

p(n  1) 2(9)
λ2 F( , p ,n p )  0.149 (4.459)  0.387
n( n  p ) 10(8)

respectivamente.

x2 1

1 2 3 4 5 6 7 x1 1

Figura 5.1.- Una elipsoide confidencial del 95% para μ.


Cap. 5. Inferencias acerca de un vector de medias. 11

 0.976  0.218
Los ejes se extienden a lo largo de e1    y e2    cuando estos vectores
 0.218 0.976
son representados con x como el origen.

Además, la razón de longitud de los ejes mayor y menor es:

p(n  1)
2 1 F( , p ,n p )
n(n  p) 1 6.247
   6.474
p(n  1) 2 0.149
2 2 F( , p,n p )
n(n  p)

La longitud del eje mayor es 6.48 veces la longitud del eje menor.

5.3.1. Intervalos confidenciales simultaneas

Teorema 2. Sea X1, X2, ...., Xn es una muestra aleatoria de una población N p (μ, ) con

matriz de varianzas-covarianzas ∑. definida positiva. Entonces, simultáneamente para


 
todo   1 , 2 , ... ,  p , el intervalo

 p(n  1) p(n  1) 
  X  F(  , p, n p)S  ,  X  F( α , p, n p)S   (13)
   
 n(n p) n(n p) 

puede contener a la combinación lineal μ con probabilidad 1 – α.

Es conveniente referirse a los intervalos simultáneos dados en la expresión (13) como


intervalos T2, puesto que la probabilidad de cobertura es determinado por la distribución
de T2.

Las sucesivas elecciones    1, 0, ... , 0,    0, 1, ... , 0, y así sucesivamente


   0, 0, ... ,1 nos permiten concluir que:
Cap. 5. Inferencias acerca de un vector de medias. 12

p(n  1) p(n  1)
x1  F(  , p, n p) ·s11  μ 1  x 1  F(  , p, n p) ·s11
n(n  p) n(n  p)

p(n  1) p(n  1)
x2  F(  , p, n p) ·s22  μ 2  x 2  F(  , p, n p) ·s22
n(n  p) n(n  p)

  

p(n  1) p(n  1)
xp  F(  , p, n p) ·spp  μ p  x p  F(  , p, n p) ·spp
n(n  p) n(n  p)
(14)
todos permanecen simultáneamente con coeficiente confidenciales 1 – α.

Ejemplo 2. Consideremos nuevamente los datos del ejemplo 2 (ver sección 2.3), con
respecto a la transpiración examinada a 20 mujeres sanas. Se pide obtener los intervalos
confidenciales simultáneos del 95% para μ 1 , μ 2 y μ 3 .

Solución. . De los datos se han obtenido:

 4.640   2.879 10.002  1.810 


X  45.400  S   10.002 199.798  5.627 
   
 9.965   1.810  5.627 3.628 

Aquí,
p(n  1) 3(20  1) 3(19)
·F( α ; p, n p)  F( 0.05, 3, 8)  (4.066)  13.633
(n  p) (20  3) 17
Luego:
4.640  13.633  2.879  μ1  4.640  13.633  2.879
o
- 1.625  μ1  10.905

45.400  13.633  199.798  μ1  45.400  13.633  199.798


o
- 6.79  μ1  97.59
Cap. 5. Inferencias acerca de un vector de medias. 13

9.965 - 13.633  3.628  μ1  9.965  13.633  3.628


o
2.932  μ1  16.998

5.3.2. El método de Bonferroni para las comparaciones múltiples.

Este método alternativo para las comparaciones múltiples es llamado el método de


Bonferroni, porque esto es desarrollado de la desigualdad de probabilidad del mismo
nombre. Con un nivel de confianza global más grande o igual que 1 – α , se tienen los
siguientes intervalos t simultáneos.

s11 s
x1  t ( 1   / 2 p , n1)  μ1  x1  t ( 1   / 2 p , n1) 11
n n

s 22 s
x 2  t ( 1   / 2 p , n1)  μ 2  x 2  t ( 1   / 2 p , n1) 22
n n

  

s pp s pp
x p  t ( 1   / 2 p , n1)  μ p  x p  t ( 1   / 2 p , n1)
n n
(15)

Debido a que en la expresión (14) se proporcionan intervalos más fáciles de aplicar y


son intervalos confidenciales relativamente más pequeños necesarios para la inferencia,
se puede aplicar frecuentemente intervalos t simultáneos basados en el método de
Bonferroni.
Cap. 5. Inferencias acerca de un vector de medias. 14

Ejemplo 3. Consideremos otra vez los datos del ejemplo 2. Se pide obtener los
intervalos confidenciales Bonferroni simultáneos del 95% para μ 1 , μ 2 y μ 3

correspondientes a la elección de αi  0.05 / 3 , i = 1, 2, 3.

Solución .
Para n = 20 y t ( 1  0.05 / 2(3) , 19)  t ( 0.99167,19)  2.625 , obtenemos:

s11 2.879
x1  t ( 0.99167,19)  4.64  2.625 o 3.64  μ1  5.64
n 20

s 22 199.798
x 2  t ( 0.99167,19)  45.4  2.625 o 37.10  μ 2  53.70
n 20

s 33 3.628
x 3  t ( 0.99167,19)  9.965  2.625 o 8.85  μ 3  11.08
n 20

los intervalos de Bonferroni para combinaciones lineales μ y los análogos intervalos
T2 , tienen la misma forma general:
S 
 X  (valor critico)
n

5.3.3. Inferencia acerca de un vector de media para muestras grandes.

Cuando el tamaño de la muestra es grande, la prueba de hipótesis y las regiones


confidenciales para μ pueden ser construidos sin la suposición de una población
normal.

Todas las inferencias acerca de μ están basados sobre una distribución  2 . De la

expresión (15), se conoce que n(X  μ) S 1 (X  μ) es aproximadamente  2p y así,

 
P n(X  μ) S 1 (X  μ)   2p,1  1   (16)

donde  (21   , p ) es el percentil (1-α)x100 de la distribución  2p .


Cap. 5. Inferencias acerca de un vector de medias. 15

La ecuación (16) inmediatamente conduce para muestras grandes a una prueba de


hipótesis y a regiones confidenciales simultáneas. Estos procedimientos son resumidos
en los siguient1es teoremas.

Teorema 3. Sea X1, X2, ...., Xn una muestra aleatoria de una población con media μ y
matriz de covarianza definida positiva Σ. Cuando n.-.p es grande, la hipótesis
H o : μ  μ o es rechazada a favor de H1 : μ  μ o , al nivel de significancia α, si

n(X  μ o ) S 1 (X  μ o )   (12 -  , p) (17)

Aquí  (21   , p ) es el percentil (1-α)x100 de la distribución chi-cuadrado con p grados de

libertad..

Teorema 4. Sea X1, X2,...., Xn una muestra aleatoria de una población con media μ y
matriz de covarianza definida positiva Σ. Si n.-.p es grande,

S 
 X  χ (12 -  , p)
n

puede contener a μ , para todo  con probabilidad 1.-.α.

Consecuente, podemos construir los intervalos confidenciales

s11
x1  χ (12 -  , p) · contiene a μ 1
n
s 22
x2  χ (12 -  , p) · contiene a μ 2
n

 

s pp
xp  χ (12 -  , p) · contiene a μ p
n
Cap. 5. Inferencias acerca de un vector de medias. 16

5.4. Comparación de varias medias multivariantes.

Las ideas desarrolladas sobre inferencias acercas de un vector de medias, pueden ser
extendidos para manejar problemas que implican la comparación de varios vectores de
medias. La teoría se basa en la suposición de la distribución normal multivariante o
tamaños de muestras grandes. Para evitar aquellos problemas sobre la notación que
llega a ser un poco incomodo, se revisara los procedimientos univariantes para la
comparación de varias medias y entonces se generalizara a los correspondientes casos
multivariantes. Se presentaran ejemplos que nos permitirán reforzar los conceptos.

Empezaremos considerando vectores de medias apareadas. En posteriores secciones,


discutiremos la comparación entre varios vectores arregladas según los niveles de
tratamientos. La correspondiente prueba estadística depende sobre una partición de la
variación total en fracciones de variación atribuibles a las fuentes de tratamientos y del
error. Esta partición es conocida como el análisis de varianza multivariante
(multivariate análisis of variance, MANOVA).

5.4.1. Comparación de vectores de medias de dos poblaciones.

Consideremos muestras aleatorias de tamaño n1 de una población 1 y una muestra de


tamaño n2 de una población 2. las observaciones sobre p variables pueden ser arregladas
como:

Muestra Estadísticas
(Población 1)
n1 n1

 x1j
j1
 (x
j1
1j  x1 )(x1j  x1 )
x11 , x12 , . . . , x1n1 x1  S1 
n1 n1  1

(Población 2)
n2 n2

 x 2j
j1
 (x
j1
2j  x 2 )(x 2j  x 2 )
x 21 , x 22 , . . . , x 2n2 x2  S2 
n2 n 2 1
Cap. 5. Inferencias acerca de un vector de medias. 17

Se desea hacer inferencias acerca μ1  μ 2 ( o equivalente μ1  μ 2  0 ).

Suposición concerniente con la estructura de los datos.

1.- La muestra aleatoria X11 , X12 , . . . , X1n1 es una muestra aleatoria de tamaño n1 de una

población p-variante con vector de medias μ 1 y matriz de covarianzas Σ1.

2.- La muestra aleatoria X 21 , X 22 , . . . , X 2n2 es una muestra aleatoria de tamaño n2 de

una población p-variante con vector de medias μ 2 y matriz de covarianzas Σ2.


3.- Además, X11 , X12 , . . . , X1n1 son independiente de X 21 , X 22 , . . . , X 2n2 . (18)

Como veremos posteriormente, para muestras grandes, esta estructura es suficiente para
hacer inferencias acerca del vector μ1  μ 2 de orden p x 1. Sin embargo, cuando las
muestras n1 y n2 son pequeñas, más de una suposición es necesaria.

Suposiciones cuando los tamaños de muestras n 1 y n2 son pequeñas.

1.- Ambas poblaciones son normales multivariantes.

2.- Además, Σ1 = Σ2 (con igual matriz varianza-covarianza). (19)

Cuando Σ1 = Σ2 , denotamos su valor común por Σ. En este caso, el mejor estimador de


la covarianza común Σ es dado por:

n1 n2

 (x1j  x1 )(x1j  x1 )   (x 2j  x 2 )(x 2j  x 2 )


j1 j1 (n 1  1)S1  (n 2  1)S 2
ˆ  S combinada 
 
n1  n 2  2 n1  n 2  2

(20)

Para probar la hipótesis que μ1  μ 2  δ 0 , es un vector especifico, consideramos la

distancia cuadrada de x1  x 2 a δ 0 .
Cap. 5. Inferencias acerca de un vector de medias. 18

Sea ahora, E(X1  X 2 )  E(X1 )  E(X 2 )  μ1  μ 2 .

De la suposición de independencia dada en la expresión (18), implica que X1 y X 2 son


independientes y de esta manera Cov( X1 , X 2 )  0 , entonces,

1 1 1 1 
Var( X1  X 2 )  Var( X1 )  Var( X 2 )          (21)
n1 n2  1
n n 2 

1 1 
Debido a que Scombinada es un estimador de Σ, vemos que   S combinada es un
 n1 n 2 

estimador de Var( X1  X 2 ) .

La prueba de razón de verosimilitud de: H 0  μ1  μ 2  δ 0

Esta basado sobre el estadístico de distancia cuadrada, T2, y es dado por: Rechazar Ho si

1
 1 1   (n 1  n 2  2)p
T  ( x1  x 2  δ 0 )    S combinada  ( x1  x 2  δ 0 ) 
2
F(1 α , p , n1  n 2  p  1)
  n 1 n 2   (n 1  n 2  p  1)
(22)

Teorema 5. Considerando que X11 , X12 , . . . , X1n1 es una muestra aleatoria de tamaño n1

de una N p (μ1 , ) y X 21 , X 22 , . . . , X 2n2 es una muestra aleatoria independiente de

tamaño n2 de una N p (μ 2 , ) , entonces

1
  1 1  
T   x1  x 2  (μ1 - μ 2 )    S combinada 
2
x 1  x 2  (μ1 - μ 2 )
 n 1 n 2  

(n 1  n 2  2)p
esta distribuido como F( p , n1  n 2  p  1) .
(n 1  n 2  p  1)

Por consiguiente,
Cap. 5. Inferencias acerca de un vector de medias. 19

   1 1  
1

P x1  x 2  (μ1 - μ 2 )     S combinada  x1  x 2  (μ1 - μ 2 )   c 2   1 - 
  n 1 n 2   
 
(23)
donde
(n 1  n 2  2)p
c2  F(1 α , p , n1  n 2  p  1)
(n 1  n 2  p  1)

Ejemplo 4.- 50 barras de jabón son fabricados por cada uno de los dos métodos
empleados en la producción. Dos características de calidad son medidas, X1.= espuma y
X2 = suavidad.

Los datos resumidos de las barras de jabón por los métodos 1 y 2 son:

8.3 2 1
x1    S1  
4.1 1 6

10.2 2 1
x2    S1  
 3.9  1 4

Realizar la prueba de hipótesis Ho : μ1  μ 2 contra H1 : μ1  μ 2 , al nivel de


significancia del 5%. Suponga que las matrices de varianzas-covarianzas poblacionales
Σ1 y Σ2 son desconocidas pero iguales.

Solución.
 μ11   μ 21   μ11   μ 21 
1) Hipótesis: H o :      contra H1 :     
 μ12   μ 22   μ12   μ 22 
2) Nivel de significancia: α=0.05

3) Estadística de Prueba. Como las muestras n1 y n2 son grandes, bajo supuesto de es


 μ11   μ 21 
cierta la hipótesis nula H o :      , entonces el estadístico T2 es:
 μ12   μ 22 
Cap. 5. Inferencias acerca de un vector de medias. 20

1
  1 1  
T   x1  x 2     S combinada  x  x2  ~
2 106
1 F( 2 , 97)
 n 1 n 2   97

4) Región critica. Se rechaza Ho, si,

1
  1 1   (50  50  2)  2
T   x1  x 2     S combinada 
2
x 1  x2   F(0.95, 2, 97)  6.243
 n 1 n 2   (50  50  2  1)

5) Cálculos. Aquí tenemos,

(n 1  1)S1  (n 2  1)S 2 49  S1  49  S 2 1 4 2  2 1
S combinada     
n1  n 2  2 98 2 2 10 1 5

También:
8.3 10.2   1.9 
x1  x 2       
4.1  3.9   0.2
Luego,
1
 1 1  2 1  - 1.9
T  - 1.9 0.2     
2
     52.472
 50 50  1 5    0.2

6.- Decisión. Como el valor de T2=52.472 > 6.243, se rechaza Ho y se concluye que los
dos métodos de fabricación de producen diferentes resultados.

 Nota.- Si quisiéramos obtener la región confidencial del 95% para μ1  μ 2 ,


Tenemos que:
2 1   1.9 
S combinada   x1  x 2   
1 5  0.2
  1.9 
La elipse confidencial esta centrada en   . Los eigenvalores y eigenvectores de la
 0.2
matriz Scombinada mediante el programa Mathcad professional 2001 resultan:
Cap. 5. Inferencias acerca de un vector de medias. 21

 1.697
eigenvals ( S)  
 0.957 0.29 
 eigenvecs (S)   
 5.303 y  0.29 0.957

Es decir, aquí λ1= 5.303 y λ2= 1.697 , y los correspondientes eigenvectores e1 y e2 son:

0.290   0.957 
e1    y e2   
0.957   0.290 

La elipsoide confidencial se extienden a:

 1 1  p(n1  n2  2) 2 2(98)
λ i    F( , p ,n p )  λ i  F(0.95, 2,97)  λ i  0.5
 n1 n2  (n1  n2  p  1) 50 97

unidades a lo largo del eigenvector ei , o sea, 5.303  0.5  1.151 unidades en la


dirección de e1 y a 1.697  0.5  0.651 unidades en la dirección de e2.

μ12 – μ22

2.0

1.0

-1.0 1.0 μ11 – μ21

-1.0

Figura 5.2.- Una elipsoide confidencial del 95% para μ1 – μ2.

Se observa claramente que μ1  μ 2  0 no esta en la elipse y por lo tanto se rechaza Ho.


Cap. 5. Inferencias acerca de un vector de medias. 22

5.4.2. Intervalos confidenciales simultáneos.

Es posible derivar intervalos confidenciales para los componentes del vector μ1 – μ2. Se
supone que las poblaciones multivariantes son normales con matriz de covarianzas
común Σ.

(n 1  n 2  2)p
Teorema 6.- Sea c 2  F(1 α , p, n1  n 2 p 1) . Con probabilidad 1 – α ,
(n 1  n 2  p  1)

1 1 1 1
( X1  X 2 ) - c    S combinado   ( X1  X 2 )  ( X1  X 2 ) - c    S combinado 
 n 1 n2   n 1 n2 

puede cubrir (X1  X 2 ) para todo   (1 , 2 ,...,  p ) .

En particular μ1i  μ 2i puede encontrarse en:

1 1 
X1i  X 2i   c   Sii,combinado para i= 1, 2, . . . , p.
 n1 n 2 
(24)

Ejemplo 5.- Considerando otra vez los datos del ejemplo 1, tenemos los siguientes
estadísticos de resumen:
8.3 2 1
x1    , S1  
6
, n1 =50
4.1 1

10.2 2 1
x2    , S1  
4
, n2 =50
 3.9  1

Se pide encontrar intervalos de confianza simultáneos del 95% para la diferencia en los
componentes de la media.
Cap. 5. Inferencias acerca de un vector de medias. 23

Solución.
2 1
La matriz de covarianza muestral combinada es : S combinada  
1 5
y
(n1  n 2  2)p 98(2)
c2  F(1 α , p, n1  n 2 p 1)  F(0.95, 2,97)  6.243
(n1  n 2  p  1) 97

donde F( 0.95, 2, 97)  3.09 .

μ  μ 21 
Con μ1  μ 2   11  , los intervalos confidenciales simultáneos del 95% para la
μ12  μ 22 
diferencia población son:

11   21 :

1 1 1 1
8.3  10.2  6.243     2  11   21  8.3  10.2  6.243     2
 50 50   50 50 
o
1.193  11   21  2.607

12   22 :

1 1 1 1
4.1  3.9  6.243     5  12   22  4.1  3.9  6.243     5
 50 50   50 50 
o
 0.917  12   22  1.317

De acuerdo a los intervalos resultantes, se nota que ambos procesos producen barras de
jabón con la misma suavidad (X2), puesto que el valor cero esta contenido en dicho
intervalo, es decir, 12   22 . Pero aquellas barras de jabón del segundo proceso tienen

más espuma (X1), es decir,  21  11 (debido a los valores positivos de ambos limites).
Cap. 5. Inferencias acerca de un vector de medias. 24

Observación .

1.- Los intervalos confidenciales simultáneos de Bonferroni del 100(1-α)% para la


diferencias de p medias poblacionales son:
Para la diferencias de medias: μ1i  μ 2i

1 1 
X1i  X 2i   t ( 1   / 2 p, n  n2  2 )
  Sii,combinado (25)
 n1 n 2 
1

donde t ( 1   / 2 p , n1  n2  2) es un valor de la distribución t con (n1 + n2 – 2) grados de


libertad, tal que P T  t ( 1  α / 2 p, n1  n 2  2)   1 - α /2p .

2. -El caso cuando las varianzas poblacionales Σ1= Σ2

Sea los tamaños muestrales tal que, n1  p y n2  p son grandes. Una elipsoide
confidencial del 100(1-α)% para vector μ1 – μ2 es dado por todos los μ1 – μ2 que
satisfacen:

1

x1  x 2  (μ1 - μ 2 )  1 S1  1 S 2  x1  x 2  (μ1 - μ 2 )  χ (12  α, p)


 n1 n2 
(26)

donde  (21   , p) el un percentil 100(1-α)% de una distribución chi-cuadrado con p

grados de libertad.

También, intervalos confidenciales simultáneos 100(1-α)% para todas las


combinaciones lineales (μ1  μ 2 ) son dados por

1 1 
(μ1  μ 2 ) pertenece a (μ1  μ 2 )  χ (12  α , p)  S1  S 2  (27)
 n1 n1 
Cap. 5. Inferencias acerca de un vector de medias. 25

 Las sucesivas elecciones    1, 0, ... , 0,    0, 1, ... , 0, y así sucesivamente


   0, 0, ... ,1 nos permiten obtener los intervalos confidenciales simultáneos
del (1 – α)x100% para las combinaciones lineales:

 μ 11  μ 21 
μ  μ 
 (μ1  μ 2 )  1 , 0, 0, ..., 0 
22 
  12
 μ 11  μ 21 ,
  
 
μ 1p  μ 2p 

X11  X 21  χ (12  α , p) S11

 (μ1  μ 2 )  0 , 1, 0, ... , 0 μ1  μ 2   μ12  μ 22

X12  X 22  χ (12  α , p) S 22

  

(μ1  μ 2 )  0 , 0, ..., 1μ1  μ 2   μ1p  μ 2p

X1 p  X 2 p  χ (12  α , p) S pp

donde las varianzas S11, S22, .., Spp son los elementos de la diagonal de la matriz

1 1
S1  S2 .
n1 n2

S-ar putea să vă placă și