Sunteți pe pagina 1din 81

Notas de Clase

Muestreo Estadstico

Mayo Luz Polo Gonzalez


Profesora Asistente
Departamento de Estadstica
Universidad Nacional de Colombia

Febrero 2017
Captulo 1

Conceptos b
asicos del muestreo

Este captulo constituye una breve introduccion a la teora relacionada con el mues-
treo probabilstico, considerando como punto de partida la revision de algunos conceptos
fundamentales que permiten la comprension de la teora de muestreo a desarrollar en los
siguientes captulos. Los conceptos y teora desarrollados en este captulo estan basados
en gran parte, en el texto Model Assisted Survey Samplingde Sarndal, Swensson y
Wretman (1992).

1.1. Algunos Conceptos Importantes


Encuesta: Es una investigacion parcial sobre un conjunto finito llamado pobla-
cion, cuyo objetivo es reunir informacion sobre una poblacion de interes.

Censo: Es un tipo especial de encuesta donde se observan todos los elementos de


la poblaci
on.

Muestra probabilistica: Es una muestra seleccionada mediante un procedimieto


muestral que cumple las siguientes condiciones:

Se puede definir un conjunto de muestras ` = {s1 , s2 , ..., sm } que son posibles


bajo el procedimiento muestral
Una probabilidad conocida p(s) es asociada a cada muestra
El procedimiento da a cada elemento en la pobalcion una probabilidad de
selecci
on distinta de cero
Se debe seleccionar la muestra mediante un mecanismo aleatorio que asigne
a cada muestra una probabilidad p(s)

Marco muestral: Es cualquier dispositivo que permite identificar y ubicar los


elementos de la poblaci
on finita de interes. Existe una diferencia entre elementos
y unidades muestrales:

Elementos muestrales: Son los objetos pertenecientes a la poblacion de in-


teres, sobre los cuales se desea medir y observar una o varias caractersticas.
Unidades muestrales: Son los objetos que aparecen en el marco muestral.

2
1.1. ALGUNOS CONCEPTOS IMPORTANTES 3

Nota: No siempre coinciden los elementos y las unidades muestrales, cuando son
las mismas es posible un muestreo directo de elementos.

Poblacion objetivo: Se denota por U, es el conjunto de elementos sobre el cual


se desea reunir informacion para estimar los parametros de interes.

Poblaci on del marco: Se denota por Um , es el conjunto de todos los elementos


que est
an relacionados directamente como unidades en el marco.
Nota: En la practica, no siempre coinciden estas dos poblaciones, esto es U 6= Um

Imperfecciones del marco:

Sobrecobertura: Existe sobrecobertura cuado un elemento esta en el marco


pero no en la poblacion objetivo. Ejemplos:
Un registro de empresas, donde una o varias empresas ya no existen pero
siguen apareciendo en el marco muestral.
Cuando el elemento aparece en el marco muestral pero no pertenece a la
poblaci
on:
Poblaci
on objetivo: PYMES (Peque nas y medianas empresas) Marco:
Listado de empresas en donde aparece una que no puede ser catalogada
como PYMES
Subcobertura: Existe subcobertura cuando los elementos estan en la poblaci
on
pero no est
an en el marco. Ejemplo: Registros de nacimiento no actualizados
Listados duplicados: Sucede cuando un elemento aparece dos o mas veces en
el marco.

Marco de areas: Es un marco geografico cuyos objetos son areas (conjuntos de


elementos). Ejemplo: mapa de una ciudad.

OBSERVACIONES IMPORTANTES

1. De las tres imperfecciones que puede presentar un marco, la mas grave es la


subcobertura.

2. Cuando existe solamente sobrecobertura: En este caso, U Um Si se seleccio-


na una muestra probabilstica de Um , se esta garantizando que el procedimiento
muestral que permite seleccionar esta muestra, da a cada elemento en Um una
on distinta de cero, y como U Um todo elemento en U
probabilidad de inclusi
tiene una probabilidad de inclusion distinta de cero. En este caso no hay inconve-
nientes con el muestreo probabilstico. Se recomienda utilizar la teora de muestreo
relacionada con dominios o subpoblaciones.

3. Cuando existe subcobertura unicamente: En este caso Um U , por lo tanto los


elementos estan en U Um tienen probabilidad de inclusion igual a cero (no se
garantizan muestras probabilsticas). Si se selecciona una muestra probabilstica
de Um , se obtendr
an estimadores validos para Um pero no para U
Captulo 2

Ideas sobre estimacion en


muestras probabilsticas

2.1. Ideas b
asicas
Consideremos las siguientes notaciones:
U : Universo o Poblaci
on.
U = {1, 2, ..., k, ..., N } o U = {e1 , e2 , ..., ek , ..., eN }
Y : Variable de estudio.
yk : Valor de la variable en el k-esimo elemento.
N : Tama
no de la poblaci
on (Se asume conocido).
s: Muestra
ns : Tama
no de la muestra
P
El objetivo es estimar el par
ametro: ty = U yk (Total de la variable Y )

Diseno muestral: Es una funcion p(.) que asigna a cada muestra s, la probabilidad
de ser seleccionada bajo un procedimiento muestral.

Sean

S Una variable aleatoria con distribucion de probabilidad p()

s Un valor de la variable aleatoria S.

P el conjunto de todas las muestras.

El cardinal de P es 2N , (el conjunto de subconjuntos de U , incluyendo U y ).

4
DE PRIMER Y SEGUNDO ORDEN
2.2. PROBABILIDADES DE INCLUSION 5

Tambien se tiene que P (S = s) := p(s), observe que p(s) es una distribucion de proba-
bilidad sobre el conjunto de todas las muestras por tanto, se cumple:

(i) p(s) 0, s P
P
(ii) p(s) = 1
sP

P0 el conjunto de las muestras posibles, o de otra forma, es el conjunto de muestras cuyo


p(s) > 0

Algunos conceptos importantes

Etapa de dise no: Es el periodo en el cual, aplica el dise


no muestral y la muestra
probabilstica es seleccionada.

Etapa de estimaci on: Periodo en el cual, la informacion ya ha sido recolectada


y se obtienen las estimaciones correspondientes.

Estrategia muestral: Esta conformada por el dise


no muestral y un estimador.

Nota: Debe tenerse en cuenta, que la finalidad de un estudio en muestreo, es comparar


estrategias muestrales y no dise
nos muestrales.

2.2. Probabilidades de inclusi


on de primer y segundo or-
den
2.2.1. Probabilidad de inclusi
on de primer orden del k-
esimo elemen-
to: k
Es la probabilidad de que el k-esimo elemento sea incluido en la muestra.

El evento en el cual, el k-esimo elemento es incluido en la muestra es un evento


aleatorio asociado con la variable aleatoria Ik , que se define como:

1 si k S
Ik =
0 en otro caso

Ik se conoce como Funci


on Indicatriz de Pertenencia
Observaci
on: Ik es una funcion de la v.a S, esto es, Ik = Ik (S)
Veamos:
P
k = P (k S) = P (Ik = 1) = p(s)
S3k
6CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

2.2.2. Probabilidad de inclusi


on de segundo orden : kl
Es la probabilidad de que los elementos k y l sean incluidos en la muestra.

1 si k, l S
Ik Il =
0 en otro caso
Ahora:
P
kl = P (k, l S) = P (Ik Il = 1) = p(s)
S3k,l

Notas:
1. Cuando k = l se tiene que kk = k :
kk = P (Ik Ik = 1) = P (Ik2 = 1) = P (Ik = 1) = k
2. kl = lk
3. Si se tiene un Universo conformado por N elementos y un dise no muestral p() es
aplicado, se cuenta con N probabilidades de inclusion de primer orden:
1 , 2 , ...k , ...N .
4. Si se cuenta con un universo conformado
 por N elementos y con un dise
no muestral
p() aplicado, entonces se tienen N2 = N (N21) probabilidades de inclusion de
segundo orden.
5. Un muestreo probabilstico debe garantizar que k > 0 k U (Condicion 3 de
muestra probabilstica).
6. Se dice que un dise
no muestral es medible si se cumple:
(i) k > 0 k U
(ii) kl > 0 k 6= l U
La segunda condici on garantiza que se puedan calcular estimaciones de la
varianza y se puedan obtener intervalos de confianza validos basados en la
informaci
on recolectada en la muestra.

2.3. Estadstico y sus propiedades

Un estadstico es una funci


on de valores reales, cuyas magnitudes son distintas para
cada realizaci
on del experimento. La expresion matematica asociada al estadstico debe
permitir que este pueda ser calculado para cualquier resultado del experimento.

Un estadstico ser
a denotado como Q(S), por lo que es una funcion de valores reales
de S.
2.4. INDICATRIZ DE PERTENENCIA
FUNCION 7

2.3.1. Propiedades de un Estadstico:


Valor Esperado: P
E(Q(S)) = E(Q) = p(s)Q(s)
sS

Varianza :
V ar(Q(S)) = E(Q(S) E(Q))2 = p(s)(Q(s) E(Q))2
P
sS

Covarianza :
Sean Q1 (S) = Q1 y Q2 (S) = Q2 dos estadsticos entonces:

Cov(Q1 , Q2 ) = E[(Q1 (S) E(Q1 ))(Q2 (S) E(Q2 ))]


X
= p(s)[Q1 (s) E(Q1 )][Q2 (s) E(Q2 )]
sP

Ejemplos:

Ik (S)
P
ns = U Ik (S) (tama
no de muestra)
P
s yk
P
Ps yk (Raz
on de totales de las variables)
s zk

Notas

1. Las variables de estudio NO son consideradas variables aleatorias, sino sim-


plemente variables en el sentido de que para cada elemento en la poblaci on
toma un valor distinto.
2. Si se selecciona una muestra s entonces, denotamos como Q(s)el valor del
estadstico para dicha muestra.
3. Q(S) es una variable aleatoria.

2.4. Funci
on indicatriz de pertenencia
Se tienen las siguientes propiedades:

1. E(Ik ) = k

2. V (Ik ) = k (1 k )

3. Cov(Ik , Il ) = kl k l
8CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

Demostraciones

1.
X
E(Ik ) = p(s)Ik (s)
s`P
X X
= 1 p(s) + 0 p(s)
S3k kS
/
X
= p(s) = k
S3k

2.

V (Ik ) = E(Ik2 ) [E(Ik )]2


= E(Ik ) k2
= k (1 k )

3.

Cov(Ik , Il ) = E(Ik Il ) E(Ik )E(Il )


= kl k l
= kl

Notas:

1. Si k = l Cov(Ik , Il ) = Cov(Ik , Ik ) = V (Ik ) = k (1 k ) = kk

2. La Cov(Ik , Il ) puede ser cero, positiva o negativa y dependera del dise


no muestral.

2.5. Tama
no de Muestra ns
P
ns = U Ik (S) Se tienen las siguientes propiedades:
P
1. E(ns ) = U k

k ]2 +
P P PP
2. V (ns ) = U k [ U U kl
k6=l
2.5. DE MUESTRA NS
TAMANO 9

Demostraciones

1.
X
E(ns ) = E( Ik )
U
X
= E(Ik )
U
X
= k
U

2.
X
V (ns ) = V ( Ik )
U
X XX
= V (Ik ) + Cov(Ik , Il )
U k6=l U
X XX
= k (1 k ) + (kl k l )
U k6=l U
X X XX XX
= k k2 + kl k l
U U k6=l U k6=l U
X XX XX
= k + kl k l
U k6=l U U
!2
X XX X
= k + kl k
U k6=l U U

2.5.1. Tama
no de Muestra fijo
Se dice que un dise
no p() es de tamano fijo, si para p(s) > 0, todas las muestras
seleccionadas mediante ese dise
no tienen exactamente n elementos.

Si el dise
no p() es de tama
no fijo, se cumple:
P
(i) U k = n
PP
(ii) U kl = n(n 1)
k6=l

P
(iii) lU kl = k (n 1)
k6=l
10CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

Demostraciones

(i)
X
k = E(ns )
U
= E(n) = n

(ii)
XX XX X
kl = kl k
k6=l U U U
XX
= E(Ik Il ) n
U
XX
= E( Ik Il ) n
U
X X
= E( Ik Il ) n
U U
= E(n n) n = n(n 1)

(iii)
X X
kl = kl kk
lU lU
k6=l
X
= E(Ik Il ) k
lU
X
= E( Ik Il ) k
lU
X
= E(Ik Il ) k
U
= E(Ik n) k
= E(Ik ) E(n) k
= k n k
= k (n 1)

2.6. Estimadores y sus propiedades


Definici
on de Estimador

Un estimador es un estadstico, es decir, es una funcion de valores reales sobre S,


que permite aproximarnos a una cantidad poblacional desconocida llamada parametro,
el cual, denotamos por: b = (S)
b
2.6. ESTIMADORES Y SUS PROPIEDADES 11

Definici
on de Par
ametro:

Es una funci
on de valores de una variable en toda la poblacion, esto es:

= f (y1 , y2 , ..., yN )

Ejemplos:
P
Total de una variable: U yk
P
yk
Media poblacional: y U = N
U

1
Varianza poblacional: Sy2U = y U )2
P
N 1 U (yk

Distribuci
on Muestral del Estimador:

Se define como el conjunto de todos los valores que puede asumir el estimador con
las correspondientes probabilidades bajo un dise
no muestral p(.)

P
P (b = c) = p(s)
sP

Con P = {s; (s)


b = c}

2.6.1. Algunas Propiedades del Estimador


P
Valor Esperado: E()
b = p(s)(s)
b
sP

b = P p(s)[(s)
Varianza: V () b 2
b E()]
sP

q
Error est
andar: V ()
b

Sesgo (B): B() b


b = E()

Error cuadr b = E(b )2 = V ()


atico medio: ECM () b + B 2 ()
b

V ()
b
Coeficiente de Variaci
on: CV ()
b =
E()
b

Coeficiente de Variaci
on Muestral: En la practica, no conocemos V ()
b sino
V
b ()
b
Vb ();
b CVs ()
b =
b
Notas: Se consideran aceptables valores del CV ()
b menores del 15 %
12CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

OBSERVACIONES IMPORTANTES
1. Una estimacion es una valor particular del estimador calculado a partir de la
informaci
on recolectada en la muestra. En general una estimacion se denota: (s).
b

2. Una de las caractersticas deseables de un estimador es que sea Insesgado o apro-


ximadamente Insesgado.

3. Un estimador se dice que es aproximadamente Insesgado si el sesgo es despreciable


para muestras grandes.

4. Si un estimador es muysesgado, NO se pueden obtener intervalos de confianza


validos desde el punto de vista estadstico, porque se ve afectada la probabilidad
de cobertura del I.C.

2.7. El -Estimador y sus Propiedades


Sea Y una
P variable de interes, el parametro que deseamos estimar es el total pobla-
cional: ty = U yk .

El -estimador o estimador de Horvitz-Thompson viene dado por:


P yk
t =
b s k , Con k > 0 k U

Tambien puede expresarse como:


P yk
t =
b U Ik k , Con k > 0 k U

2.7.1. Propiedades del -estimador


1. E(bt ) = ty (Es Insesgado).
PP yk yl
2. V (b
t ) = U kl k l

Demostraciones:

1.
X 
yk
E(t ) = E
b Ik
U k
X yk
= E(Ik )
U k
X yk
= k
U k
X
= yk
U
= ty
2.7. EL -ESTIMADOR Y SUS PROPIEDADES 13

2.
X 
yk
V (b
t ) = V Ik
U k
X y2 XX yk yl
k
= V (Ik ) + Cov(Ik , Il )
U 2 U k l
k k6=l
X yk2 X X yk yl
= kk 2 + kl
U k U k l
k6=l
XX yk yl
= kl
U k l

Para kl > 0 k, l U , se tiene:


X X kl yk yl
Vb (b
t ) =
s
kl k l

Vb (b
t ) es un estimador insesgado de V (b
t ).

Demostracion:
Se debe probar: E(Vb (b
t )) = V (b
t )
X X 
kl y k yl
E(Vb (b
t )) = E
s kl k l
X X 
kl yk yl
=E Ik Il
U kl k l
XX kl yk yl
= E(Ik Il )
U kl k l
XX yk yl
= kl
U k l
= V (b
t )

OBSERVACIONES IMPORTANTES
1. El -estimador tiene en cuenta el peso de cada elemento (k ).
2. En general, si el k-esimo elemento tiene probabilidad de inclusion k ; 1k indica el
n
umero de elementos de la poblacion representados por el k-esimo elemento de la
muestra.
3. La varianza del -estimador depende en gran parte de la covarianza, si se asume
que yk > 0 k U y si Cov(Ik , Il ) < 0, entonces la varianza del -estimador se
reduce.
4. Las variables indicadoras generalmente NO son ni independientes ni identicamente
distribuidas.
14CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

Resultado 1:

Si p() es un dise
no de tama
no fijo, se tiene otra expresion para la varianza del -
estimador, la cual viene dada por:

1 XX yk yl
t ) =
V (b kl ( )2
2 k l
U

Se conoce como varianza de Yates

Resultado 2:

Las dos expresiones de la varianza; que son, la varianza de Horvitz-Thompson y la


de Yates son equivalentes.

1 XX yk yl XX yk yl
kl ( )2 = kl
2 k l k l
U U

Demostraci
on:

2
y2 X X y2

1 XX yk yl 1 XX yk yl 1 XX
kl = kl k2 + kl kl l2
2 U k l 2 U k U k l 2 U l
y 2
XX yk yl X X
= kl kl k2
U k l U k

Veamos que:

!
XX y2 X y2 X
kl k2 = k
kl
U k k2
kU lU
2.7. EL -ESTIMADOR Y SUS PROPIEDADES 15

Tenemos:
X X X
kl = kl k l
lU lU lU
X
= E(Ik Il ) nk
lU
 X 
= E Ik Il nk
U
= nE(Ik ) nk
= nk nk
=0

Por lo cual,
XX yk2
kl =0
U k2
De esta forma queda demostrado.

Resultado 3:
kl yk yl 2
t ) = 12
PP
Vb (b s kl ( k l ) con kl > 0 k 6= l U es un estimador insesgado
de la varianza debida a Yates:

E(Vb (b
t )) = V (b
t )

Demostraci
on:
X X kl E(Ik Il )  yk 2
1 y l
t )) =
E(Vb (b
2 U kl k l
  2
1 XX yk yl
= kl
2 k l
U
= V (b
t )

OBSERVACIONES IMPORTANTES
1. Las expresiones para las varianzas de Horvitz-Thompson y Yates son iguales, pero
sus correspondientes estimadores NO lo son.

2. Ambos estimadores de la varianza requieren que kl > 0 k 6= l U .

3. Para cualquier muestra S se puede cumplir que kl > 0 k 6= l s, pero esto no


garantiza que se cumpla para k 6= l U , as que se pueden calcular estimadores
insesgados para esa muestra pero estos NO son validos desde el punto de vista
estadstico. Ejemplo: Dise
no Sistematico con una sola replica.
16CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

4. El estimador de la varianza debido a Yates sera estrictamente positivo, siempre


que kl = kl k l < 0.

5. Existen algunos dise


nos no tradicionales, que dependiendo de los valores de y1 , y2 , ..., yN
pueden dar estimadores negativos para la varianza (para algunas muestras), los
cuales desde el punto de vista practico son inaceptables.

2.8. Dise
nos con Reemplazamiento

Figura 2.1: Ejemplos

En dise
nos con reemplazamiento, la muestra seleccionada puede contener elementos
repetidos, esto es, cada elemento en la muestra puede aparecer al menos una vez. Ejem-
plo: Muestreo Aleatorio Simple con reemplazamiento.

En dise
nos sin reemplazamiento, cada elemento seleccionado debe aparecer exacta-
mente una vez.

Algunos conceptos:
Muestra ordenada: Si tenemos m extracciones independientes, la muestra ordenada
es un conjunto expresado por: Sord = {k1 , k2 , ..., km } con ki : el elemento seleccio-
nado en la i-esima extracci
on.

Muestra s no ordenada: Est a asociada a la muestra ordenada, S Sord , y esta


conformada por todos los elementos distintos en la Sord : = {k : k = ki ; i =
1, 2, ..., m}

2.8.1. Muestreo Aleatorio Simple con reemplazamiento


Es un dise
no p() que tiene la siguiente expresion matematica:

1

Nm para las muestras ordenadas de tama
no m
p(s) = (2.1)
0 en otro caso

1 m

Para cada elemento k, k viene dado por: k = 1 1 N k = 1, 2, ..., N
2.9. INTERVALOS DE CONFIANZA 17

Prueba:

Se tienen m extracciones independientes.


1
Cada elemento tiene la misma probabilidad de seleccion N.

R: Numero de veces que ha sido extrado el elemento k de m extracciones efectua-


das.
 
1
R B m,
N
   r 
1 mr

m 1
P (R = r) = 1
r N N
La anterior es la probabilidad de que el elemento sea extrado r veces.

k se define como la probabilidad de que el elemento k sea extrado al menos una


vez:
1 m
 
k = P (R 1) = 1 P (R = 0) = 1 1
N
k = 1, 2, ..., N
1 m 2 m
   
kl = 1 2 1 1
N N
k 6= l = 1, 2, ..., N

2.9. Intervalos de Confianza


Un I.C en el contexto de muestreo se define como un intervalo aleatorio de la forma
[tInf (S), tSup (S)] donde tInf (S) y tSup (S) son estadsticos que cumplen:

tInf (S) tSup (S) para cada muestra S.

Sea P r[IC(S 3 t] la probabilidad de que el total desconocido t este contenido en el


I.C, esta es llamada nivel de confianza o probabilidad de cobertura del intervalo.

P [IC(s) 3 t] = 1
P
con = p(s)

Poc

Observaciones:
Po : Conjunto de muestras posibles bajo un dise
no dado. (muestras con p(m) > 0)
: Conjunto conformado por todas las muestras cuyos intervalos de confianza
Poc
no contienen al par P )
ametro.(Poc o
18CAPITULO 2. IDEAS SOBRE ESTIMACION
EN MUESTRAS PROBABILISTICAS

Un intervalo de confianza para t, con un nivel de confianza aproximadamente del (1


)100 % viene dado por:
q
t Z1 2 Vb (b
b t)
area a su izquierda es de 1 2 .
Con Z1 2 :Valor de Z cuya

Nota:
Para que el anterior I.C pueda ser construido, se requiere que:

i) La distribuci
on de b
t sea aproximadamente normal, con media t y varianza V (b
t).

ii) Exista un estimador Vb (b


t) que es consistente para V (b
t).
Captulo 3

Dise
nos muestrales

Los disenos muestrales con muestreo directo de elementos tienen dos caractersticas
esenciales:

i) Se cuenta con un marco muestral de elementos, esto es, un listado o un archivo


que permite identificar y ubicar cada elemento de la poblacion.

ii) Los elementos en el marco muestral, son las unidades muestrales.

Algunos ejemplos de dise


nos muestrales directos de elementos son:

Dise
no Bernoulli

Muestreo Aleatorio simple sin reemplazo y con reemplazo

Dise
no de Poisson

Dise
no Estratificado

Dise
no Proporcional al tama
no sin reemplazamiento (-PT)

Dise
no Proporcional al tama
no con reemplazamiento (P-PT)

Dise
no Sistem
atico

Dise
no por conglomerados en una etapa

3.1. Dise
no Bernoulli
Las caractersticas del dise
no Bernoulli son:

Cada elemento en la poblacion tiene la misma probabilidad de inclusion k .

La funci
on indicatriz de pertenencia I1 , I2 , . . . , Ik , . . . , IN son variables aleatorias
independientes e igualmente distribuidas. Por lo tanto se tiene:

19
20 CAPITULO 3. DISENOS
MUESTRALES

P (Ik = 1) = k =
P (Ik = 0) = 1 k = 1
Ik Bernoulli()
El tama no de muestra es variable, en particular, ns es una variable aleatoria que
se distribuye binomialmente con parametros N y . As
E(ns ) = N
V (ns ) = N (1 )
Def: Se dice que p() es un dise no Bernoulli, si su funcion p() tiene la siguiente expre-
sion matematica:
(
ns (1 )N ns para s de tama no ns y distintos elementos
p(s) =
0 en otro caso
Respecto a las probabilidades de inclusion de primer y segundo orden se tiene:
no Bernoulli k = , k U
1. En el dise

Demostracion
X
k = p(s)
s3k
     
N 1 N 1 N 1 2 N 2 N 1 N
= (1 ) + (1 ) + + (1 )0
0 1 N 1
      
N 1 N 1 N 1 N 2 N 1 N 1
= (1 ) + (1 ) + +
0 1 N 1
Haciendo L = N 1
      
L L L L1 L L
k = (1 ) + (1 ) + +
0 1 L
L  
!
X L k
= (1 )Lk
k
k=0
=
Luego k =

2. Adicionalmente, kl = 2 , k 6= l U

X
kl = p(s)
s3k,l
     
N 2 2 N 2 N 2 3 N 3 N 2 N
= (1 ) + (1 ) + + (1 )0
0 1 N 2
      
2 N 2 N 2 N 2 N 3 N 2 N 2
= (1 ) + (1 ) + +
0 1 N 2
BERNOULLI
3.1. DISENO 21

Haciendo L = N 2

      
2 L L L L1 L L
kl = (1 ) + (1 ) + +
0 1 L
L  
!
X L
= 2 k (1 )Lk
k
k=0
2
=

Luego kl = 2

Resultado 1: El estimador bajo el dise


no Bernoulli vien dado por:
X yk
tBE =
k
S
1 X
= yk

S

Resultado2:La varianza del -estimador en el dise


no Bernoulli es:

 XX yk yl
V tBE = kl
k l
U
1 XX
= 2 kl yk yl

U

1 X XX
kk yk2 +

= 2
kl yk yl

U U
k6=l

1 X XX
(1 )yk2 + ( 2 2 )yk yl

= 2


U U
k6=l
(1 ) X 2
= yk
2
U
1 X 2
= yk

U
 X
1
= 1 yk2

U
22 CAPITULO 3. DISENOS
MUESTRALES

Un estimador insesgado de V tBE viene dado por:




 X X kl yk yl
V tBE =
kl k l
S
X kk y 2 X X kl yk yl
K
= +
kk k2 kl k l
S S
k6=l
X (1 )
= yk2
3
S
X1
= yk2
2
S
 
1 1 X 2
= yk
2
S
 X
1 1
= 1 yk2

S

Mecanismo de Selecci
on de la muestra probabilstica bajo el Dise
no Bernoulli
Se generan N n
umeros aleatorios, 1 , 2 , . . . , N provenientes de una distribucion
U(0,1).

A cada elemento de la poblacion se le asigna un n


umero aleatorio.

Se fija una constante , 0 < < 1 tal que:

Si k < entonces el k-esimo elemento es seleccionado.


Si k entonces el k-esimo elemento no es seleccionado.

OBSERVACIONES IMPORTANTES
1. El -estimador es ineficiente bajo el dise
no Bernoulli.

2. Para el dise
no Bernoulli, se propone un estimador alterno, que generalmente va a
tener menor varianza que el -estimador.
P 
S yk
talt = N
ns

N2 
   
1 2 2 1 1 n 2
SY2U =

V talt = N 1 S YU = N 1 S YU
n N n N

3. Entre m as peque
no es el coeficiente de variacion de la variable Y mas eficiente
sera el estimador alterno talt .
V tBE

1
 1+ 2

V talt CV YU
3.2. MUESTREO ALEATORIO SIMPLE SIN REEMPLAZO (MAS) 23

3.2. Muestreo Aleatorio Simple Sin Reemplazo (MAS)


El diseno MAS sin reemplazo es el dise
no cuyo dise
no p() viene dado por la siguiente
expresi
on:

N1 para muestras de tama no n con elementos distintos
p(m) = ( n )
0 en otro caso

Notese que es un dise


no donde el tama
no de la muestra es fijo e igual a n

k Bajo el MAS sin reemplazo


N 1

n1
k = N

n
(N 1)!
(N n)!(n 1)!
=
N!
(N n)!n!
(N 1)! n!
=
(n 1)! N !
(N 1)!(n 1)!n
=
(n 1)!(N 1)!N
n
=
N
n
Entonces k = N

kl Bajo el MAS
N 2

n2
kl = N

n
(N 2!)
(N n)!(n 2)!
=
N!
(N n)!n!
(N 2)! n!
=
(n 2)! N !
(N 2)!(n 2)!(n 1)n
=
(n 2)!(N 2)!(N 1)N
n(n 1)
=
N (N 1)
24 CAPITULO 3. DISENOS
MUESTRALES

Entonces
n(n 1)
kl =
N (N 1)

Adicionalmente, si k = l entonces kk = k

Mecanismo de selecci
on de una muestra probabilstica bajo el MAS

Coordinado Negativo

Fan-Muiler and Rezucha

El mas sencillo es el coordinado negativo y consiste en:

i) Se generan N n umeros aleatorios 1 , 2 , . . . , N provenientes de una dis-


tribucion U(0,1) y a cada elemento en la poblacion se le asigna un n umero
aleatorio.

ii) Se ordenan los n


umeros aleatorios de menor a mayor.

iii) Los primeros n elementos asociados a estos n


umeros aleatorios ordenados
constituyen la muestra de tama
no n.

-Estimador bajo el MAS sin reemplazo

X yk
tM AS =
M
k
X yk
= n
M N
NX
= yk
n M
3.2. MUESTREO ALEATORIO SIMPLE SIN REEMPLAZO (MAS) 25

Varianza del -Estimador bajo el MAS sin reemplazo

 2
1 XX yk yl
V tM AS

= kl
2 U
k l

  2
1 X XX yk yl
= kk (0)2 + kl
2 U k l

U
k6=l
 2
1 XX yk yl
= kl n n
2 U N N
k6=l

1 X X N2
= 2
kl (yk yl )2
2 U
n
k6=l

Por otro lado

n(n 1) n2
kl = 2
N (N 1) N
N n(n 1) n2 (N 1)
=
N 2 (N 1)
N n N n N n 2 + n2
2
=
N 2 (N 1)
n(N n)
= 2
N (N 1)

Reemplazando en lo anterior:

   2 XX
n(N n) 1 N
V tM AS = (yk yl )2

2 2
N (N 1) 2 n U
k6=l
N n XX
= (yk yl )2
2n(N 1) U
k6=l
 XX
1 N
= 1 (yk yl )2
2(N 1) n U
26 CAPITULO 3. DISENOS
MUESTRALES

Ahora
XX XX
(yk yl )2 = (yk y U + y U yl )2
U U
XX
= [(yk y U ) (yl y U )]2
U
XX XX XX
= (yk y U )2 2 (yk y U )(yl y U ) + (yl y U )2
U U U
XX XX
= (yk y U )2 + (yl y U )2
k l l k
X X X X
= (yk y U )2 1+ (yl y U )2 1
k l l k
X X
=N (yk y U )2 + N (yk y U )2
k k
X
= 2N (yk y U )2
k

Luego se tiene que:


 
1 N X
V tM AS (yk y U )2

= 1 2N
2(N 1) n k
 2  !
N 1 X
= N (yk y U )2
n (N 1) k
N2  n 2
= 1 SYU
n N
Un estimador insesgado de la varianza del -estimador bajo el MAS viene dado
por:
 N2  n 2
V tM AS = 1 S YS
n N
Demostraci
on
 2
1 X X kl yk yl
V tM AS =


2 S
kl k l
k6=l

1 X X kl N 2
= 2
(yk yl )2
2 S
kl n
k6=l

1 kl N 2 X X
= (yk yl )2
2 kl n2 S
k6=l
3.2. MUESTREO ALEATORIO SIMPLE SIN REEMPLAZO (MAS) 27

Por un lado tenemos que:

n(N n)

kl N 2 (N 1)
=
kl n(n 1)
N (N 1)
N (N 1)(N n)n
= 2
N n(N 1)(n 1)
N n
=
N (n 1)

Y por otro lado se tiene:

XX XX
(yk yl )2 = (yk y S + y S yl )2
S S
XX
= [(yk y S ) (yl y S )]2
S
XX XX XX
= (yk y S )2 2 (yk y S )(yl y S ) + (yk y S )2
S U S
XX XX
2
= (yk y S ) + (yl y S )2
k l l k
X X X X
2
= (yk y S ) 1+ (yl y S )2 1
k l l k
X X
=n (yk y S )2 + n (yk y S )2
k k
X
2
= 2n (yk y S )
S
28 CAPITULO 3. DISENOS
MUESTRALES

As:
1 kl N 2 X X
V tM AS = (yk yl )2

2 kl n2 S
   2
1 N n N X
= 2n (yk y S )2
2 N (n 1) n2 S
N (N n) X
= (yk y S )2
n(n 1) S
  !
N 1 X
=N 1 (yk y S )2
n n1 S
 2 
N
= N SY2S
n
2 
N n 2
= 1 SYS
n N

3.3. Dise
no de Poisson
Es una generalizacion del dise
no Bernoulli. En un dise
no Poisson cada elemen-
to en la poblacion tiene una probabilidad de inclusion k distinta y su funcion
p() viene dada por:

(Q Q
kS k k(U S) (1 k ) para las muestras con elementos distintos.
p(s) =
0 en otro caso

Caractersticas
Es un dise
no de tama
no de muestra variable.

Las variables indicadoras I1 , I2 , . . . , IN son independientes y se cumple:

P (Ik = 1) = k
P (Ik = 0) = 1 k
X
Epo (ns ) = k
U
X
Vpo (ns ) = k (1 k )
U
DE POISSON
3.3. DISENO 29

El -estimador bajo el Dise


no Poisson

X yk
t(po) =
S
k

 XX yk yl
Vpo t(po) = kl
U
k l
X y2 X X yk yl
= kk k2 + kl
U
k U k6=l
k l
X yk2
= kk
U
k2
X yk2
= k (1 k )
U
k2
X 1 
= 1 yk2
U
k

Un estimador insesgado de la varianza del -estimador viene dado por:

 X X kl yk yl
Vpo t =
S
kl k l
X kk y 2
K
=
S
k k2
X k (1 k ) y 2
k
=
S
k k2
X 1 1

= 2
yk2
S
k k
X 1 1 
= 1 yk2
S
k k

Nota Importante
En la practica los k se calculan en terminos de una variable auxiliar X, esto
es, una variable que se conoce para todos los elementos de la poblacion y que es
proporcional a la variable de estudio Y .
nxk
k = P
U xk
1. Si nx
P k 1
U xk
30 CAPITULO 3. DISENOS
MUESTRALES

entonces P
U xk
xk
n
con n = E(nm ).

2. Si nx
P k >1
U xk
entonces
k = 1
se hace inclusion forzosa del elemento en la muestra.

Mecanismo de selecci
on de la muestra probabilstica bajo el Dise
no Poisson
umeros aleatorios 1 , 2 , . . . , N con k U (0, 1).
i) Se generan N n
ii) A cada elemento de la poblacion se le asigna un n
umero aleatorio.
iii) Si k < k el k-esimo elemento es seleccionado, en caso contrario no.

El estimador alterno bajo el Dise


no Poisson

P yk
N S
k
talt = P
1
S
k
 X (yk y U )2
V talt N SY2U
U
k

Notas importantes
El dise
no Poisson no se usa con mucha frecuencia en la practica, porque el
tamano de muestra es variable, y eso implica que el costo de la encuesta no
se tenga con exactitud. Sin embargo este dise
no es usado para modelar la no
respuesta en encuestas muestrales.
El diseno Poisson puede ser considerado como dise
no con probabilidad de-
sigual.
3.4. MUESTREO ESTRATIFICADO 31

3.4. Muestreo Estratificado


No es propiamente un dise no, sino que puede ser considerado como la combi-
nacion de varios dise
nos muestrales.

Caractersticas

1. La poblacion finita es dividida en subpoblaciones distintas, llamadas estra-


tos.
2. Al interior de cada estrato se aplica un dise
no muestral especfico (pe ()), el
cual permite seleccionar muestras probabilsticas al interior de cada estrato.
3. Las muestras probabilsticas se seleccionan independientemente en cada uno
de los estratos.
4. Se obtienen estimadores en cada uno de los estratos y el estimador global es
la combinacion de los estimadores en cada uno de los estratos.
5. Se obtienen las varianzas y las varianzas estimadas de los estimadores en
cada uno de los estratos, y la varianza o varianza estimada global se obtiene
como una combinacion de las varianzas o varianzas estimadas en cada uno
de los estratos.

Razones que justifican la aplicaci


on de un Muestreo Estratificado

1. La estratificacion se utiliza para disminuir la varianza de los estimadores. La


varianza se puede reducir seg un sea el grado en que difieren los estimadores
en cada uno de los estratos y el grado de homogeneidad existente dentro de
los estratos.
2. Se pueden necesitar diferentes procedimientos de muestreo, diferentes meto-
dos de observacion y de recoleccion de datos en diversas subpoblaciones.
3. Se requieren estimadores para distintas subpoblaciones, cada subpoblacion
puede ser tratada como un estrato.
4. Razones administrativas y de costos (Estudios Nacionales).

El -estimador bajo el Muestreo Estratificado

Sea U = {1, 2, . . . , k, . . . , N } conformado por una particion U1 , U2 , . . . , UE ,


esto es:
i) Ui 6= , i = 1, 2, . . . , E
ii) Ui Uj = , i 6= j
32 CAPITULO 3. DISENOS
MUESTRALES

SE
iii) i=1 Ui = U
Considere las siguientes notaciones:
Ne : N
umero de elementos en el estrato Ue
ne : N
umero de elementos en la muestra probabilstica seleccionada en el
estrato Ue .
N : Tama
no Poblacion (Conocido)
S = S1 S2 SE
La probabilidad de que ocurra S es la probabilidad de que ocurra S1 y S2 y
. . . y SE , esto es

P (S) = P (S1 S2 SE )
= P (S1 )P (S2 ) . . . P (SE )
El total poblacional viene dado por:
E
X
t = te
e=1
con
X yk
te =
M
k
e

La varianza y varianza estimada vienen dadas por:


E
 X
V te

V t =
e=1
E
 X
V t = V te

e=1

Por independencia, t son independientes en cada uno de los estratos.

Notas
Al interior de los estratos las observaciones deben ser lo mas homogeneas
posibles y entre los estratos heterogeneidad en las observaciones.
Si los estratos no estan conformados, se debe considerar una variable de
estratificacion que este altamente correlacionada con la variable de estudio.
Ejemplo: La variable edad de los empleados de una compa na puede ser una
buena variable de estratificacion si el interes es sobre alguna limitacion o
enfermedad de los empleados.
3.4. MUESTREO ESTRATIFICADO 33

Caso Particular: ESTMAS


Al interior de cada estrato se aplica un dise
no MAS.
E
X
t = te
e=1
E  
X Ne yke
=
e=1
ne
E
X
= Ne y e
e=1

La varianza del dise


no ESTMAS esta dada por:

E
X
V t = V te
 
e=1
E 
Ne2
  
X ne 2
= 1 SYUe
e=1
ne Ne

Y la varianza estimada es:

E
 X
V te

V t =
e=1
E 
Ne2
  
X ne 2
= 1 SYSe
e=1
ne Ne

Asignaci
on de tama
nos de muestras Bajo ESTMAS

Sean

ns : Tama
no de muestra de la muestra se

E
X
c = c0 + n e ce
e=1

donde c0 es el costo fijo y ce es el costo por estrato para encuestar los ele-
mentos en el estrato Ue .
34 CAPITULO 3. DISENOS
MUESTRALES

La idea general consiste en obtener un ne que minimice los costos para una pre-
cision dada (V ) o lo contrario que minimice V para un costo fijo.

Asumiendo que los ce son iguales para todos los estratos, se tienen las siguien-
tes opciones:

1. Asignaci
on Optima o Asignaci
on de Neyman

Ne SYUe
ne = n PE
e=1 Ne SYUe

No es aplicable si el estudio se hace por primera vez porque se desconoce


SYUe .
En encuestas repetidas, se utilizan los valores de SYUe de estudios anteriores
y de esta forma conseguir una asignacion aproximadamente optima.

2. Asignaci
on X-
optima

Ne SXUe
n e = n PE
e=1 Ne SXUe

Asumiendo una variable auxiliar X que toma valores positivos y ademas que
sea altamente correlacionada con la variable de estudio.

3. Asignaci
on Proporcional

Ne
ne = n
N
Puede ser calculado si los SYUe son iguales o aproximadamente iguales en
todos los estratos, en caso contrario, obtenemos estimadores con varianzas
mas grandes que con la asignacion de Neyman.

4. Asignaci
on Proporcional al total de Y
P
yk
ne = n PUe
U yk

Se puede aplicar siempre y cuando los CVYUe sean iguales o aproximada-


mente iguales en todos los estratos, porque de acuerdo a la asignacion de
Neyman se tiene:
3.4. MUESTREO ESTRATIFICADO 35

Ne SYUe
ne = n PE
e=1 Ne SYUe
SY
Ne Ue y Ue
y Ue
=n
PE S YU e
e=1 Ne y
y Ue Ue
P
yk
Ne CVYUe Ue
NPe
=n
PE Ue yk
e=1 Ne CVYUe
P Ne
y
e k
= n PE UP 
e=1 Ue y k
X
yk
e U
=nX
yk
U

5. Asignaci
on Proporcional al total de X
P
xk
ne = n PUe
U xk

Asumiendo que los CVXUe son aproximadamente iguales en todos los estratos
y ademas si la variable auxiliar esta altamente correlacionada con la variable
de estudio.

6. Asignaci
on de Potencia
Dada por Bankier (1988)
P 
Uexk CVYUe
ne = n PE P 
e=1 Ue x k CVYUe

con la potencia de la asignacion. Los valores mas comunes para son 12 y


1
3
.
Si se puede verificar que CVYUe son aproximadamente iguales en todos los
estratos entonces tenemos que:
P 
Ue x k
ne = n PE P 
e=1 Ue xk
36 CAPITULO 3. DISENOS
MUESTRALES

3.5. Estimaci
on de los tama
nos absolutos y relativos de
un dominio
Dominio se define como cualquier subpoblacion de interes sobre la cual se
desea estimar un parametro.

Sean:
Ud : Dominio de Interes, con Ud U .
Nd : Tama
no absoluto del dominio.
Pd : Tama
no relativo del dominio.
Sea (
1 si k Ud
Zdk =
0 si k
/ Ud
El total de la variable Zd es el mismo tama
no absoluto del dominio.
X
Zdk = Nd
U

El promedio de la variable Zd es el mismo tama


no relativo del dominio.

P
U Zdk
Zd =
N
Nd
=
N
= Pd
umero de elementos de S que caen en Sd , y pd = nnd . Se
P
Sean S Zdk = nd el n
asume N conocido y Nd desconocido. Bajo MAS sin reemplazo un estimador de
Nd viene dado por:

P
d = S Zdk
N
k
NX
= Zdk
n S
nd
=N
n
= N pd
La varianza del estimador viene dada por:
  N2  n 2

V Nd = 1 SZd
n N U
DE LOS TAMANOS
3.5. ESTIMACION ABSOLUTOS Y RELATIVOS DE UN DOMINIO37

con
1 X
SZ2 d = (Zdk Z dU )2
U N 1 U
Y un estimador insesgado de la varianza esta dado por la siguiente expresion:
  N2  n 2
V N
d = 1 SZd
n N S

con
1 X
SZ2 d = (Zdk Z dS )2
S n1 M
Ahora, un estimador de Pd viene dado por:

Nd
Pd =
N
1
= N pd
N
= pd

La varianza y estimador insesgado de la varianza tienen las siguientes expre-


siones:
 
1  
V Pd = 2 V Nd
N
  1  
V Pd = 2 V N d
N

3.5.1. Estimaci
on del total de una variable en un dominio cuando Nd
es desconocido
P
Sea td = Ud yk y sea la variable indicadora
(
yk si k Ud
ydk =
0 si k
/ Ud
X X
td = yk = ydk
Ud U

X yd
td = k

kM
NX
= yd
n M k
38 CAPITULO 3. DISENOS
MUESTRALES

La varianza y la varianza estimada vienen dadas por:


 N2  n 2

V td = 1 S Yd
n N U

 N 2  n 
V td = 1 SY2d
n N M

3.6. Efecto de Dise


no (deff )
Compara la varianza del -estimador bajo un dise
no p() distinto al MAS con
la varianza del -estimador bajo el MAS sin reemplazo.

Se compara con un dise


no p() cuyo tama
no de muestra esperado es igual a n,
esto es,
X
k = n
U

Vp (t )
def f (p(), t ) = (3.1)
VM AS (t )
Si def f < 1 entonces se gana eficiencia al usar p() en vez de MAS sin re-
emplazo.

Si def f > 1 entonces se pierde eficiencia al no usar un MAS sin reemplazo.

Ejemplo
Obtener el def f (Be, t )
1
P 2
1 U yk
def f (Be, t ) = 2

(3.2)
N  n 
1 SY2U
n N
Por otro lado se tiene:
X
(N 1) SY2U = (yk y U )2
"U #
X X X
= yk2 2 yk y U + y 2U
U U
" #U
X
= yk2 2N y 2U + N y 2U
U
" #
X
= yk2 N y 2U
U

3.7. DISENOS CON PROBABILIDAD PROPORCIONAL A UNA VARIABLE AUXILIAR39

Donde:
X
yk2 = (N 1) SY2U + N y 2U
U
SY2U
= N SY2U SY2U
+ N y 2U
SY2U
 
1 1
= N SY2U 1 +
N CVY2U
n
Asumiendo que = N
con E(ns ) = n y reemplazando en (3.2)

1
P 2
1 U yk
def f (Be, t ) = 2

N  n 
1 SY2U
n N  
N 2 1 1
1 N S YU 1 +
n N CVY2U
=
N2  n 2
1 SYU
n N
1 1
=1 +
N CVY2U
1
Para N relativamente grande se tiene que N
0, luego:
1
def f (Be, t ) 1 +
CVY2U
CV def f
0,4 7,25
0,5 5
0,6 3,77
0,7 3,041
0,8 2,56

3.7. Dise
nos con Probabilidad Proporcional a una variable
auxiliar
Son disenos muestrales cuyas probabilidades son proporcionales a una variable
auxiliar que esta altamente correlacionada con la variable de estudio.

Diseno con reemplazamiento con probabilidad de seleccion proporcional al


tama no (variable auxiliar, con valores positivos y conocidos, altamente co-
rrelacionada con la variable de estudio) P-PT
40 CAPITULO 3. DISENOS
MUESTRALES

Diseno con probabilidades de inclusion proporcionales a la variable auxiliar


(altamente correlacionada con la variable de estudio, sin reemplazamiento)
-PT

3.7.1. Dise
no con Probabilidad Proporcional al Tama
no y con Reem-
plazamiento o Dise
no P-PT
Sea U = {1, 2, . . . , N } una poblacion finita. A cada elemento de la poblacion
se le asigna una probabilidad de seleccion pk , se tienen p1 , p2 , . . . , pN tal que
X
pk = 1
U

Un primer elemento k es seleccionado con probabilidad de seleccion pk y es


devuelto a la poblacion.
Un segundo elemento es seleccionado del conjunto de probabilidades y es
devuelto a la poblacion y se siguen seleccionando elementos hasta la m-esima
extraccion.
La probabilidad de tener una muestra ordenada

P [(k1 , k2 , . . . , km )] = pk1 pk2 . . . pkm

Las extracciones son independientes

Estimador del Total bajo el Dise


no P-PT

Sea
X
t= yk
U

El estimador del total viene dado por:


m
1 X yki
tP P T =
m i=1 pki

Propiedades de tP P T

1. tP P T es insesgado para t

Demostraci
on:
 
yki yki
Sea Zi = y con P Zi = = pk i
pki pki

3.7. DISENOS CON PROBABILIDAD PROPORCIONAL A UNA VARIABLE AUXILIAR41

Asumiendo por simplicidad que Zi 6= Zj para i 6= j. Z1 , Z2 , . . . , Zm son


variables aleatorias independientes e igualmente distribuidas.

" m
#
1 X
E tP P T = E
 
Zi
m i=1
m
1 X
= E(Zi )
m i=1
m  !
1 X X yki
= Zi Pr Zi =
m i=1 U
pk i
m
!
1 X X yki
= pk
m i=1 U
pki i
m
!
1 X X
= yki
m i=1 U
m
1 X
= t
m i=1
mt
=
m
=t

2. La varianza viene dada por:

" m
#
1 X
V tP P T = V
 
Zi
m i=1
m
1 X
= 2 V (Zi )
m i=1
m
"  2 #
1 X X yki
= 2 t pki
m i=1 U pki
m
"  #
1 X X yk2i

yki
= 2 2t + t2 pki
m i=1 U p2ki pk i
 2
m X yki
= 2 t pki
m U pki
 2
1 X yki
= t pk i
m U pk i
42 CAPITULO 3. DISENOS
MUESTRALES

3. Un estimador insesgado de V tP P T viene dado por:


 

m  2
1 X yk i
V tP P T =
 
tP P T
m(m 1) i=1 pki

Demostraci
on

" m  2 #
h i 1 1 X y ki
E V tP P T = E tP P T
m m 1 i=1 pki
 2
1 X yk
= t pki
m U pki
= V tP P T
 

Nota
yk
De la formula de la V tP P T se puede ver que si
 
= t, k = 1, 2, . . . , N
pk
entonces

V (tP P T ) = 0

esto es si yk = t pk lo que equivale a afirmar que yk pk .

Lo cual quiere decir que si construimos los pk proporcionales a yk podremos


desde el punto de vista teorico tener V (tP P T ) = 0. Obviamente desde el punto de
vista practico NO es posible tal construccion porque los yk no son conocidos para
toda la poblacion.

Como una solucion alterna, se propone construir los pk proporcionales a xk


(con xk valores positivos de una variable aleatoria que esta altamente correlacio-
nada con Y ), y de esta forma se puede reducir la V (tP P T ). Se recomienda:

xk
pk = P
U xk

Caso Particular de PPT: MAS con Reemplazo

1
pk =
N

3.7. DISENOS CON PROBABILIDAD PROPORCIONAL A UNA VARIABLE AUXILIAR43

m
1 X yki
tM ASR =
m i=1 pki
m
1 X yki
=
m i=1 N1
m
NX
= yk
m i=1 i

La varianza viene dada por:

SY2
V tM ASR = N (N 1) U

m

Mecanismo de selecci
on de la muestra probabilstica bajo el Dise
no MAS
con Reemplazo
1. Para cada elemento K en la poblacion se tiene un valor xk de la variable
auxiliar. Con K=1,2,...,N
2. Se acumulan los valores de la variable auxiliar desde el primer elemento hasta
el N-esimo elemento.
P
3. Se generan m n umeros aleatorios entre 0 y U xk
4. El k-esimo elemento es incluido en la muestra si el n
umero aleatorio cumple
Ti1 < Ti y el proceso continua hasta que m unidades son seleccionadas.

Esquema General Del M


etodo Acumulativo Total
Elemento xk T otalesAcumulados
1 x1 x1 = T1
2 x2 x1 + x2 = T2
3 x3 x1 + x2 + x3 = T3
.. .. ..
. . .
N xN x1 + x2 + + xN = TN
Captulo 4

Muestreo de conglomerados y en
varias etapas

En un muestreo de conglomerados la poblacion esta conformada por grupos o


subpoblaciones donde cada subpoblacion es un conglomerado.

En un muestreo de conglomerados en una sola etapa, se selecciona una muestra


probabilistica de conglomerados mediante un disel
no pI (.) y luego se realiza censo
al interior de los conglomerados.

Se recomienda un muestreo de conglomerados en las siguientes situaciones:


Cuando NO se cuenta con un marco muestral de elementos y por tanto un
muestreo directo de elementos no es posible.
Cuando los elementos en la poblacion se encuentran ubicados en distintas
areas o puntos geograficos alejados entre si, en este caso un muestreo directo
resultara muy costoso.
Cuando la poblacion se encuentra conformada por grupos de elementos y en
este caso se cuenta con un marco muestral de grupos.

Notaci
on
Tenemos un universo finito U = {1...N }, el cual esta conformado por una
particion U1 , U2 ...UN , entonces se cumple:
i) Ui Uj = , i 6= j
S
ii) i=1 Ui = U

44
4.1. MUESTREO ALEATORIO SIMPLE DE CONGLOMERADOS 45

La muestra probabilstica SI de conglomerados es seleccionada mediante in


dise
no pI (.), con los siguientes argumentos.

Ii :Probabilidad de inclusion de primer orden del i-esimo conglomerado


P
Ii = pI (sI ) donde mI es una muestra particular de conglomerados.
SI 3i

Ikl :Probabilidad de inclusion de segundo orden para los conglomerados i,j


P
Iij = pI (sI )
SI 3i,j

Ii k, l Ui
Ikl = p(k, l S) =

Iij si k Ui ; l Uj

Expresiones generales

El estimador del total viene dado por:


X ti
t =
iS
Ii
I

La varianza esta dada por


XX ti tj
V (tcong ) = Iij
UI
Ii Ij

y su correspondiente varianza estimada


X X Iij ti tj
Vb (tcong ) =
S
Iij Ii Ij
I

4.1. Muestreo Aleatorio Simple de Conglomerados


Se debe contar con un marco muestral de conglomerados para seleccionar una
muestra probabilistica mediante un dise
no p(.) MAS sin reemplazo y posterior-
mente se observan todos los elementos en los conglomerados seleccionados.

Notaci
on
U : Universo Finito
46 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

UI : Poblacion de conglomerados, esto es,

SI : La muestra de conglomerados

NI : N
umero total de conglomerados en la poblacion

nI : Tama
no de la muestra SI si p(.) es un dise
no de tama
no fijo

nS I : Tama
no de la muestra SI en dise
nos muestrales de tama
no variables

S : Muestra de elementos

Nota:
En general el tama no de S, nSI es variable porque los tama nos de los conglo-
merados son diferentes independientemente si el dise
no p(.) es de tama no fijo.
Ii :Probabilidad de inclusion de primer orden del i-esimo conglomerado
P
Ii = pI (SI ) donde sI es una muestra particular de conglomerados.
SI 3i

SI visto como conjunto, formado por todas las muestras de sI .

Iij :Probabilidad de inclusion de segundo orden para los conglomerados i,j


P
Iij = pI (sI )
SI 3i,j

Estimador del Total Bajo el Dise


no de Conglomerados

Sea
X
t= yk
U

El estimador del total viene dado por:


X ti
t =
S
I i
I

La varianza esta dada por


XX ti tj
V (tcong ) = Iij
UI
Ii Ij
4.1. MUESTREO ALEATORIO SIMPLE DE CONGLOMERADOS 47

y su correspondiente varianza estimada


X X Iij ti tj
Vb (tcong ) =
S
Iij Ii Ij
I

Este dise
no sera eficiente si:

ti tj 1
i) = =C Ii = ti ; ti Ii ti , la varianza V(tcong )=0 y el
Ii Ij C
dise
no de conglomerados sera muy eficiente.

ii) Si se conocen Ni en la etapa de planeacion Ii Ni

Si las YUi son aproximadamente iguales V(tcong ) peque


na

Si las YUi son exactamente iguales V(tcong )=0

1 XX Ni YU Ni YU
porque V(tcong )= Iij ( 0 i )2 0 i
2 U
k Ni k Nj
I

0
pero ti =Ni YUi y Ii =k Ni

iii) Si los tama


nos de los conglomerados NO son iguales, no se recomienda usar
dise
nos con probabilidades de inclusion iguales.

4.1.1. Muestreo Aleatorio Simple De Conglomerados


pI ()=M.A.S. sin reemplazamiento.
P
nI SI yk NI X
Ii = ; tM ASC =NI = yk
NI nI nI S
I

NI2 nI 2 1 X
V(tM ASC )= (1 )StU ; St2U = (ti tUI )2
nI NI I I NI 1 U
I
P
UI ti
donde tUI =
NI
2
N nI 2 1 X
y Vb (tM ASC )= I (1 )StS ; St2S = (ti tsI )2
nI NI I I nI 1 S
I
P
t
SI i
donde tSI =
nI
48 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

4.1.2. Coeficiente De Correlaci


on Intracl
asica O Coeficiente De Ho-
mogeneidad
SY2 w
= 1-
SY2 u
SY2 u : La varianza de la variable Y considerando el universo como un todo.

SY2 w : varianza ponderada.


1
SY2 w = N N y Ui )2 ()
P P
I UI Ui (yk por otro lado se tiene que:

SY2U = Ni11 y Ui )2 (varianza del Y al interior del conglomerado Ui )


P
i P Ui (yk
yk
Ui
Ui (yk y Ui )2 =(Ni 1)SY2U (1)
P
con y Ui = Ni i

P P P
N NI = Ui Ni UI 1= UI (Ni 1) (2)

reemplazando (1) y (2) en ()


2
P
UI (Ni 1)SYU
SY2 w = P i
(puede ser vista como un promedio ponderado de
UI (Ni 1)

SY2U con pesos iguales a Ni 1).


i

El coeficiente de correlacion intraclasica satisface:


NI 1
1
N NI
Por definicion el mayor valor que puede tomar es 1.

Por analisis de varianza se tiene que:

SCT = SCD + SCE



suma de cuadrados suma de cuadrados dentro suma de cuadrados
del total del conglomerado entre conglomerados

y U )2 = UI ( Ui (yk y Ui )2 )+SCE
P P P
U (yk

(N 1)SY2U =(N NI )SY2w +SCE ; Ni (y Ui y U )2


P
con SCE= UI

como SCE0, se tiene que (N 1)SY2U (N NI )SY2w

SY2w N 1 SY2w N 1
2 2
SYU N NI SYU N NI
Luego,
4.1. MUESTREO ALEATORIO SIMPLE DE CONGLOMERADOS 49

SY2w N 1 N NI N + 1 NI 1 NI 1
=1 2
1 = =
S YU N NI N NI N NI N NI

NOTAS IMPORTANTES

SY2w
1. Si 2
> 1 SY2w > SY2U (mayor variabilidad de los conglomerados)
SYU
< 0(Negativo).

Indica en general que los elementos al interior de los conglomerados son muy
diferentes con respecto a la variable de estudio. Se justifica un diseno de
conglomerados en una sola etapa (se pueden observar todos los elementos).

SY2w
2. Si < 1 SY2w < SY2U (menor variabilidad de los conglomerados)
SY2U
> 0(Positivo).

Si > 0 y cercano a 1, indica en general que los elementos al interior de


los conglomerados son muy parecidos entre s con respecto a la variable de
estudio. ( Se recomienda en este caso un dise
no en dos etapas).

SY2 w
3. =0 si =1, esto es, en promedio la variabilidad al interior de los conglo-
SY2U
merados es igual a la variabilidad visto el universo como un todo.

4. =1 si SY2 w =0 ( No hay variabilidad al interior de los conglomerados. Dise


no
en dos etapas).

4.1.3. Efecto De Dise


no Del M.A.S.C ( Muestreo Aleatorio Simple De
Conglomerados)
N NI cov
deff(MASC,t )=1+ + donde
NI 1 N SY2 u
cov:covarianza entre Ni y Ni y 2Ui ; cov= NI11 N )(Ni y 2Ui )
P
UI (Ni

N
con N = :tama
no promedio de los conglomerados.
NI
50 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

OBSERVACIONES IMPORTANTES

Caso 1 Supongamos que los tama


nos de los conglomerados son iguales, esto es,
Ni =N Cov=0

N NI N NI NI NI (N 1)
deff(MASC,t )=1+ =1+ =1+
NI 1 NI 1 NI 1
NI
pero NI relativamente grande 1
NI 1

deff(MASC,t ) 1+(N 1) para NI relativamente grande.

? Si <0 deff(MASC,t )<1 VM ASC (t ) < VM AS (t ) se gana eficiencia


al usar M.A.S.C en vez de usar M.A.S.

? Si >0 y teniendo en cuenta N , VM ASC (t ) > VM AS (t ), asi sea peque


no
se pierde eficiencia, por lo que se usa un M.A.S.

nos de los conglomerados son diferentes y Cov > 0 deff(MASC,t )


Caso 2 Si los tama
puede ser muy grande.No se recomienda utilizar M.A.S.C. sino utilizar in-
formacion auxiliar para disminuir la varianza (t )

4.2. Dise
no Sistem
atico
El dise
no sistematico puede ser considerado como un caso particular del mues-
treo de conglomerados.Sean:

a: un n
umero entero fijo (intervalo muestral).

m: n
umero de comienzos aleatorios o replicas.

r:n
umero aleatorio (caso de una replica).

ri : i-esimo aleatorio (caso de mas de una replica).


N
n:tama
no de la muestra , es la parte entera de a
.

N puede ser expresado como: na + c con 0 c < a.


N
? Si c=0 el tama
no de la muestra sistematica es n y a
=n
SISTEMATICO
4.2. DISENO 51

% n cuando c < r a
?Si c > 0 El tama
no de la muestra sera
& n + 1 cuando r c

4.2.1. Dise
no Sistem
atico Con Una Sola R
eplica m=1
Forma de Selecci
on

i) Se genera un n
umero aleatorio r entre 1 y a.

ii) El segundo elemento de la muestra sistematica es r+a, el tercero es r+2a y


as sucesivamente hasta finalizar la lista.

iii) La muestra sistematica (Sr)


Sr=r, r + a, r + 2a, , r + (j 1)a ; con j=1,2,...,ns

Ejemplo

N=30 , a=5 , n=6 , c=0

Figura 4.1: Ejemplo ilustrativo

?Existen 5 muestras sistematicas No traslapadas.


? Cada muestra sistematica puede ser considerada como un conglomerado.

Nota

El dise
no sistematico con una sola replica:

i) Existen a muestras sistematicas no-traslapadas.


1
ii) Cada muestra sistematica tiene probabilidad de ser seleccionada a

iii) Cada muestra sistematica puede ser considerada como un conglomerado.

iv) El dise
no sistematico con una sola replica puede ser considerado como un
M.A.S de conglomerados, con nI =1 y NI =a. En este caso, no se tiene un
estimador de la varianza [ver f ormula de VbM ASC (t )]
52 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

4.2.2. Dise
no Sistem
atico con m
as de una R
eplica m > 1

Forma de Selecci
on

i) Se generan m n
umeros aleatorios (r1 , r2 , ..., rm ) entre 1 y ma.

ii)La muestra sistematica esta dada por:

n
M={k : k = ri + (j 1)ma; i = 1, 2, ..., m, j = 1, ..., m }

Ejemplo

N=100 ; n=20 ; m=2 ; a=5.

Generar numeros aleatorios entre 1-10.

Figura 4.2: Caso particular

cuantas muestras sistematicas posibles tienen


 
10 10! 8!9!10!
= = =45 muestras sistematicas posibles No traslapadas
2 2!8! 8!2
1 1
cada una con probabilidad  =
10 45
2
En general:

* El dise
no sistematico con m replicas (m > 1) puede ser considerado como
un muestreo aleatorio simple de conglomerados con nI = m y NI =ma.
En este caso, si se tiene un estimador de la varianza que puede ser obtenido
usando las formulas M.A.S.C.
4.3. MUESTREO EN DOS ETAPAS 53

NI X ma X
* tSIST =
P
ti = ti =a SI ti
nI SI
n S
I

NI2 nI 2
* V (tSIST )= (1 )S
nI NI tUI

NI2 nI 2 1 X
* V (tSIST )= (1 )StS ; con St2S = (ti tSI )2
nI NI I I nI 1 S
I

4.3. Muestreo En Dos Etapas


En un muestreo en dos etapas la muestra de elementos es obtenida como re-
sultados de dos etapas de muestreo.

Caractersticas

Se debe contar con un marco muestral de UPMs.


La poblaion de elementos es dividida en subpoblaciones llamadas unidades
primarias de muestreo(UPMs).
En la primera etapa se selecciona una muestra probabilistica de UPMs bajo
un dise
no muestral especfico pI ().
Para cada UPM seleccionada en la primera etapa se selecciona una mues-
tra de unidades (o submuestra) llamadas unidades secundarias del muestreo
(USMs) mediante un diseno muestral dado pi ().

Nota Importante

En un muestreo en dos etapas se debe cumplir:

i) Propiedad de invarianza en la segunda etapa

Cada vez que la i-esima UPM sea incluida en la primera etapa, se debe
utilizar el mismo dise
no pi (), esto es, pi (/SI )=pi ()

EJEMPLO

Considere un dise
no PPT-MAS
54 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

1a etapa: PPT de UPMs


2a etapa:M.A.S. de elemento

UI ={U1 , U2 , U3 , U4 , U5 , U6 , U7 , U8 , U9 , U1 0} ; SI ={U1 , U1 , U3 }

Si sale U1 en la 1a etapa M.A.S.(10,30), se debe aplicar siempre el mismo


dise
no M.A.S.(10,30)

Considere un dise
no MAS-MAS

1a etapa: M.A.S. de UPMs


2a etapa: M.A.S. de elementos

UI = {U1 , U2 , U3 , U4 }

M AS(20, 100) M AS(30, 150) M AS(15, 90) M AS(30, 100)

(4 , 2)
Si en la primera etapa M.A.S.
N, n
Todas las muestras posibles en la 1a etapa.

(U1 , U2 ) MAS(20,100)-MAS(30,150)
(U1 , U3 ) MAS(20,100)-MAS(15,90)
(U1 , U4 ) MAS(20,100)-MAS(30,100)
(U2 , U3 ) MAS(30,150)-MAS(15,90)
(U2 , U4 ) MAS(30,150)-MAS(30,100)
(U3 , U4 ) MAS(15,90)-MAS(30,100)

ii) Propiedad de independencia en la segunda etapa

La submuestra en cualquier UPM es llevada a cabo de manera independiente


de cualquier submuestra en la UPM.

Nota: El diseno en dos fases es una familia de muestras en 2 etapas que no


necesariamente cumplen con los requerimientos de invarianza e independencia.
Adicionalmente, el dise no en dos etapas es un caso especial del dise
no en dos fa-
ses, en el cual se tienen los requerimientos de invarianza e independencia.
4.3. MUESTREO EN DOS ETAPAS 55

Notaci
on

UI : Universo o poblacion de UPMs.

UI ={U1 , U2 , ..., UNI } o por simplicidad UI ={1, 2, ..., NI }

SI :muestra probabilstica de UPMs en la 1a etapa. SI UI .


S
S: La muestra final elementos. S= Si
iSI

no muestral en la 1a etapa.
PI (): Dise

no muestral en la 2a etapa.
Pi (): Dise

nSI : tama
no de muestra de SI si pI () es de tama
no variable.

nI : tama
no de muestra de SI si pI () es de tama
no fijo.

nsi : tama
no de muestra de Si si pi () es de tama
no variable.

ni : tama
no de muestra de Si si pi () es de tama
no fijo.

Esquema de muestreo en dos etapas de conglomerados

Figura 4.3: Esquema


56 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

4.3.1. t Un Dise
no en Dos Etapas de elementos
k :P(k S)=P(i SI k Si ) con k Ui

= P(i SI )*P(k Si /i SI ); k =k/i *Ii con k Ui


P
ns : n
umero total de elementos en s. Es decir, ns = nsi
iSI

Etapa Diseno P rob.Inc 1erOrden P rob.Inc 2o Orden


I PI () Ii Iij Iij = Iij Ii Ij
II Pi () k/i kl/i ok/i l/j kl/i = kl/i k/i l/i
Nota:Las unidades secundarias de muestreo pueden ser elementos o conglome-
rados, en el primer caso recibe el nombre Muestreo en dos etapas de elementos
y en el u
ltimo caso Muestreo en dos etapas de conglomerados.

Esquema de muestreo en dos etapas de elementos


P ti
tdosetapas = SI
Ii
yk
con ti : el -estimador de ti con respecto a la etapa dos con ti = Si
P
k/i

Prueba
P yk P P yk P P yk 1 X yk
tdosetapas = s
P
= SI Si = SI Si = SI
k k Ii k/i Ii S k/i
i

P ti
tdosetapas = SI
Ii

4.3.2. Varianza del -estimador con respecto a las dos etapas


Sean Vi : varianza debida a la segunda etapa.
PP yk yl
Vi = Ui kl/i k/i
l/i
Con la correspondiente varianza estimada
PP kl/i yk yl
Vbi = Si kl/i k/i l/i

ti tj Vi
PP P
VU P M = UI Iij Ii Ij ; VU SM = UI Ii

ti tj
Vdosetapas (t )=VU P M + VU SM ; Vdosetapas (t )= Vi
PP P
UI Iij Ii Ij + UI Ii
4.3. MUESTREO EN DOS ETAPAS 57

Prueba

De probabilidad se tiene:

E(X)=EA [E(X/A)] ; V(X)=VA [E(X/A)] + EA [V (X/A)]

Donde EA y VA son el valor esperado y la varianza con respecto a la distribu-


cion de probabilidad de A.

En el contexto de muestreo se tiene:

Se condiciona sobre el evento en el que la muestra SI es realizada en la etapa


uno.

EI EII (t )=EPI [E(t /SI )]

VI [EII (t )]=VPI [E(t /SI )]

EI VII (t )=EPI [V (t /SI )]

=
EII (t )=E(t /SI ) Epi (ti /Ii /SI )= SI Epi (ti /Ii )= SI tIi
P P P i
invarianza SI

=
VII (t )=V (t /SI ) i /Ii /SI )= S V (ti /Ii )= S V2i
P P P
S V ( t
independencia I I I Ii

Vdosetapas (t )=VI [EII (t )] + EI VII (t )


ti Vi ti Vi
P P P P
=VI [ SI Ii ] + EI [ SI 2Ii
]=VI [ UI Ii IIi ] + EI [ UI I ]
2Ii Ii
P t2 PP ti tj
P Vi
= UI Iii i2 + UI Iij Ii Ij + UI E (I )
2Ii I Ii
Ii
i6=j
ti tj Vi
PP P
= UI Iij Ii Ij + UI Ii

ti tj
PP
Sea VU P M = UI Iij Ii Ij

Su correspondiente estimador insesgado viene dado por:


Iij t tj P
- SI 1Ii ( 1Ii
PP
VbU P M = SI
i
Iij Ii Ij
1)Vbi
Vi Vbi
P P
VU SM = UI Ii
con su correspondiente estimador insesgado VbU SM = SI 2Ii

Finalmente, una expresion para la varianza estimada del -estimador en dos


etapas viene dada por:
58 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

Iij ti tj
Vbdosetapas (t )= Vbi
PP P
SI Iij Ii Ij
+ SI Ii

Ejemplos de dise
nos en dos etapas de elementos

MAS-MAS

1a etapa: Se aplica un M.A.S (NI , nI ) para solucionar UPMs


2a etapa: Se aplica un M.A.S (Ni , ni ) para solucionar USMs
P
tM ASM AS = S ti I Ii

yk
con ti = Si = si ynki = Nnii
P P P
k/i Si yk =Ni y Si
N i

tM ASM AS = NnII
P
SI Ni y Si

Con Varianza dada por:


N 2 Ni2
nI NI
VM ASM AS (t )= nII (1 )St2U ni
P
NI
+ nI UI ni (1 Ni
)SYU2
I i

con St2U = NI11 tUI )2 SY2U = Ni11 y Ui )2


P P
I UI (ti i Ui (yk
P P
UI ti Ui yk
donde tUI = NI
y Ui = Ni

Su correspondiente varianza estimada viene dada por:


N 2 Ni2
nI b NI
VbM ASM AS (t )= nII (1 ni
)SY2S
P
NI
)StS + nI SI ni (1 Ni
I i

con SbtS = nI11 SI (ti tSI )2 SY2S = ni11 Si (yk y Si )2


P P
I i


P P
SI ti yk
donde tSI = nI
y Si = Si
ni

ESTMAS-MAS

1a etapa:ESTMAS Las UPMs conforman los distintos estratos o mejor a


un, se
tienen los estratos conformadas por varias UPMs.

2a etapa:Dentro de las UPMs seleccionamos una M.A.S de USMs.


H
tEST M AS = th
P
h=1
tih
donde th = SIh
P
Iih

4.4. MUESTREO MULTIETAPICO 59

Figura 4.4: Ejemplo

yk
con tih = Sih ; Iih = NnIh ; k/ih = Nnih
P
k/ih Ih ih

H
NIH
tEST M ASM AS =
P
t
nIh ih
h=1
H
VEST M AS (t )= V (th )
P
h=1
NIh 2 2
Nih
nIh NIh nih
V (th )= nIh )St2U )SY2U
P
(1 NIh
+ nIh UIh nih (1 Nih
Ih ih

H 2 2
NIh nIh NIh Nih nih
VEST M AS (t )= )St2U )SY2U
P P
nIh
(1 NIh
+ nIh UIh nih (1 Nih
Ih ih
h=1
2
NIh 2
Nih
Vb (th ) = (1 NnIh )St2S NIh nih
)SY2s
P
nIh Ih
+ nIh SIh nih (1 Nih
Ih ih

H 2 2
NIh nIh NIh Nih nih
Vb (t )= )St2S )SY2s
P P
nIh
(1 NIh
+ nIh SIh nih (1 Nih
Ih ih
h=1

4.4. Muestreo Multiet


apico
Si el muestreo se hace en mas de dos etapas recibe el nombre de muestreo
multietapico.
ti
tretapas = SI
P
Ii
para r 2
60 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

ti tj
Vretapas (t )= Vi
PP P
UI Iij Ii Ij + UI Ii

Y su correspondiente estimador insesgado:


Iij ti tj
Vbretapas (t )= Vbi
PP P
SI Iij Ii Ij
+ SI Ii

Donde Vbi es un estimador insesgado de Vi ,i

4.4.1. Muestreo En Tres Etapas De Elementos


Algunas caractersticas

1. Se tienen tres etapas de muestreo.


2. Se debe contar con un marco muestral de UPMs.
3. Se debe cumplir con las propiedades de invarianza e independencia en cada
una de las etapas siguientes a la primera etapa.
4. La poblacion de elementos es dividida en subpoblaciones llamadas UPMs y
denotadas por :U1 , U2 , ..., Ui , ..., UNI .
5. En la primera etapa mediante un dise
no PI () se selecciona una muestra MI
de UPMs.
6. Dentro de cada UPMi se tiene una particion de NIIi USM, esto es,
UIIi = Ui 1, Ui 2, ..., Ui q, ..., U IIi
7. En cada i-esima UPM seleccionada en la primera etapa se selecciona una
muestra de USM mediante un dise no pIIi ().Las USMs son denotadas por
Ui1 , Ui2 , ..., Uiq , ..., UiNIIi y el universo de USMs(correspondiente a la i-esima
UPM) por: UIIi = {1, 2, , ..., q, ..., NIIi }
8. En cada USM seleccionada en la etapa II se aplica un dise
no piq () para
seleccionar una muestra de UTMs (elementos).

Notaci
on

U:Poblacion finita de elementos

UI : Universo de UPMs.

UIIi :Universo de USM correspondientes a la i-esima UPM.

SI :Muestra probabilstica de UPMs. SI UI



4.4. MUESTREO MULTIETAPICO 61

SIIi :Muestra probabilstica de USMs seleccionada de UIIi .SIIi UIIi .

Siq :Muestra de elementos seleccionada de Uiq para cada q seleccionado en la


a
2 etapa. Siq Uiq
S S
S:Muestra final de elementos.S = Siq
iSI qSIIi

Resumen
Etapa Diseno P rob.Inc 1erOrden P rob.Inc 2o Orden
I pI () Ii Iij Iij = Iij Ii Ij
II PIIi () IIq/i IIqr/i IIq/i = IIqr/i IIq/i IIr/i
III piq () k/iq kl/iq kl/iq = kl/iq k/iq l/iq
Nota importante:

Iii =Ii IIqq/i =IIq/i kk/iq =k/iq

Ni : Tama
no de Ui (i-esima UPM)

Niq : Tama
no de Uiq (iq-esima USM)

La muestra final de elementos denotada por m, puede ser expresada por:


S S
m= i MI q MIIi mi q

Esquema del muestreo en tres etapas de elementos

En un muestreo en tres etapas de elementos se tiene:


P P P
t = U yk ti = UIIi tiq tiq = Uiq yk
P
t = UI ti

P ti X tiq yk
t = SI ti = tiq = Siq
P
Ii SIIi
IIq/i k/iq
PP yk y l
Viq = Uiq kl/iq k/iq
l/iq
PP tiq tir
VIIi = UIIi IIqr/i
IIq/i IIr/i
P Viq
Vi =VIIi + UIIi
IIq/i
Vtresetapas (t )=VU P M + VU SM + VU T M
62 CAPITULO 4. MUESTREO DE CONGLOMERADOS Y EN VARIAS ETAPAS

Figura 4.5: Ilustracion

PP ti tj
con VU P M = UI Iij
Ii Ij
P VIIi
VU SM = UI
Ii
P P Viq
VU T M = UI ( UIIi )/Ii
IIq/i
El estimador insesgado para Vtresetapas (t )

P P Iij ti tj X Vbi
Vbtresetapas (t )= SI +
Iij Ii Ij S
Ii
I

PP IIqr/i tiq tir X Vbiq


Donde Vbi = sIIi +
IIqr/i IIq/i IIr/i S IIq/i
IIi
P P kl/iq yk yl
Vbiq = Siq
kl/iq k/iq l/iq
Captulo 5

Estimacion de par ametros


diferentes al total

En este captulo se estudiaran estimadores diferentes del total, tales como:


estimador de razon, medias de un dominio, varianzas poblacionales, coeficientes
de regresion, mediana, etc.

5.1. El Efecto del Sesgo sobre los Intervalos de Confianza


Considere la siguiente medida estadstica:

BR():Sesgo relativo del Estimador

B()
=q
BR() (5.1)

V ()

= E()
donde B() es el sesgo del estimador.
El sesgo relativo de un estimador adquiere importancia en los enunciados de con-
fianza, dado que los intervalos de confianza para se pueden expresar en terminos
del sesgo relativo del estimador como se vera a continuacion:
La probabilidad de que un intervalo contenga al parametro viene dada por:

 q q 

Po = P Z1 2 V () < < + Z1 2 V ()
 
= P Z1 BR() < Z < Z1 BR()
2 2

Prueba:

63
64 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

 q q 

Po = P Z1 2 V () < < + Z1 2 V ()

 q q 

= P + E() Z1 2 V () < + E() < + E() + Z1 2 V ()
 q q 

= P E() Z1 2 V () < + E() < E() + Z1 2 V ()
 q q 

= P E() Z1 2 V () < E() < E() + Z1 2 V ()
 q q 
= P E() > E()
+ + Z1 V () > E()
+ Z1 V ()
2 2
 q q 
Z1 V ()
= P r E() < E() < E()
+ Z1 V ()
2 2


E() E()

E()

=P q Z1 2 < q < q + Z1 2

V ()
V ()
V ()

 

= P BR() Z1 2 < Z < BR() + Z1 2
 

= P Z1 2 BR() < Z < Z1 2 BR()

Del resultado anterior se puede concluir que:


1. Si BR() = 0 entonces la probabilidad de cobertura del intervalo coincide
con la probabilidad deseada e igual a 1
|= 0,05 entonces Po = 0,9497 < 0,95 = 1
2. Si | BR()
|= 0,3 entonces Po = 0,9396 < 0,95 = 1
3. Si | BR()
4. En general, a medida que el sesgo relativo crece, la probabilidad de cobertura
del Intervalo de Confianza sera mucho menor que la deseada.
5. El efecto del sesgo sobre el Intervalo de Confianza puede ser ignorado si
| 0,1
| BR()

5.2. Consistencia e Insesgamiento Asint


otico
En el contexto de la teora de inferencia Estadstica se sabe que:

5.2. CONSISTENCIA E INSESGAMIENTO ASINTOTICO 65

1. Una sucesion de estimadores t1 , t2 , ..., tn , ... es asintoticamente insesgado si:

lm [E(tn )] = t
n

2. Una sucesion de estimadores es t1 , t2 , ..., tn , ... es consistente para t si para


cualquier > 0(fijo) se tiene:

lm P r[(tn t) > ] = 0
n

Estas definiciones (Insesgamiento asintotico y consistencia)en el contexto de


muestreo, no pueden ser extendidas de manera inmediata porque N (tama no de
la poblacion) es una cantidad fija, finita y n N , por lo tanto no tendra sentido
pensar en n
.
Para poder entenderlas en el contexto de muestreo se penso en sucesiones cre-
cientes de poblaciones donde tanto n como N varan.

Se tiene lo siguiente:

1. Sea una sucesion infinita de elementos, esto es, 1, 2, 3, ... y una sucesion de
valores de una variable de interes y1 , y2 , y3 , ...
2. Sea una sucesion creciente de poblaciones U1 , U2 , U3 , ...Uv donde Uv es la
poblacion conformada por los primeros Nv elementos, y adicionalmente U1
U2 ... Uv ..., por lo tanto N1 < N2 < ... < Nv < ... y n1 < n2 < ... <
nv < ..., cuando v , N n . Y
3. Sea bv un estimador de v de una poblacion Uv . Con este marco concep-
tual se pueden extender las definiciones de insesgamiento y el de estimador
consistente.

Definiciones
1. Un estimador v es asintoticamente insesgado para v si
] = 0
lm [Epv ()
v

2. Un estimador v es consistente para v si para cualquier > 0 (fijo) se tiene

lm P [| v v |> ] = 0
v
66 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

Notas Importantes
1. Sea un parametro que puede ser expresado como una funcion de tota-
les, esto es, = f (t1 , t2 , ..., tj , ..., tq ) donde tj = U y jk y y 1k , y 2k , ..., y qk son
los valores de las variables de estudio y1 , y2 , ..., yq observados en el k-esimo
elemento.
2. Su correspondiente
P yjk estimador viene dado por = f (t1 , t2 , ..., tq ) con
tj = S k

3. Si 1 , 2 , ..., r son estimadores consistentes para 1 , 2 , ..., r entonces para


muchas funciones f , f (1 , 2 , ..., r ) es consistente para f (1 , 2 , ..., r )

5.3. El -Estimador para Distintas Variables de Estudio


Se tienen q variables de estudio, esto es, Y 1 , Y 2 , ..., Y q y sea t = (t1 , t2 , ..., tq )T
el vector de totales ,donde tj = U y jk , con y jk igual al valor de la j-esima variable
observada en el k-esimo elemento.

t = (t1 , t2 , ..., tj , ..., tq )T es el vector de los -estimadores asociados a las


q-variables de estudio.

Resultado 1
t es un vector insesgado de t
Prueba:


E(t1 ) t1

E(t2 ) t2

E(t ) =

.. = ..

=t
. .

E(tq ) tq
Entonces E(t ) = t

Resultado 2
Sea tj el vector de los -estimadores, la matriz de varianzas y covarianzas de
t viene dada por:

V(t ) = E[(t t)(t t)0 ]


La matriz de varianzas y covarianzas del vector t es una matriz cuadrada de
orden q simetrica, cuyos elementos de la diagonal son varianzas de cada uno de
los -estimadores y los elementos por fuera de la diagonal son las covarianzas de

5.4. EL PARAMETRO DE TOTALES
COMO UNA FUNCION 67

dos totales estimados distintos.

Resultado 3
t ), que
Un estimador insesgado de la matriz V(t ) viene dada por la matriz V(
es una matriz cuadrada de orden q simetrica y cuyas componenetes de la diagonas
vienen dadas por las varianzas estimadas de cada uno de los -estimados, esto es

kl yjk yj 0 l
V (tj ) = M
kl k l
y elementos por fuera de la diagonal son las respectivas covarianzas estimadas
dadas por

c(tj , tj 0 ) = M klkl yjkk yj0ll


Prueba:

c(tj , tj 0 )] = c(tj , tj 0 )
E[
= U E(Ik , Il ) klkl yjkk yj0ll
y yj 0 l
= U kl kl
kl jk
k l


= c(tj , tj 0 )

5.4. El par
ametro como una funci
on de totales

= f (t1 , t2 , ..., tq )

Caso 1

Cuando f es una funcion lineal , esto es, = a0 + qj=1 aj tj , su correspondiente


P

estimador insesgado viene dado por: = a0 + qj=1 aj t .


P

= V [ Pq aj tj ] = Pq Pq0 Cov[ tj , tj 0 ].
Su V () j=1 j=1 j =1

= q
Su V ()
P P q
j=1 j 0 =1 Cov[ tj , tj 0 ].

Notas Importantes:
y su corres-
1. Cuando f es lineal se tienen expresiones exactas para la V ()

pondiente V ().
68 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

2. = a0 + S uk Pq
aj tj
P
k
, con uk = j=1
Prueba:
P uk
= a0 + S
k
Pq yjk P
= a0 + a
j=1 j S
P Pq aj yjkk
= a0 + S j=1
k

= V [P uk ] = PP kl uk ul
V () S k U k l

V () =
PP kl uk ul
S kl k l

Caso 2

Cuando f no es una funcion lineal:En este caso no se tiene expresiones exac-


tas para el sesgo y la varianza del estimador.
Se utiliza la tecnica de Linealizacion de Taylor para aproximar a un pseu-
doestimador 0 el cual si es una funcion lineal de t1 , t2 , ..., tq . De esta
forma se pueden obtener expresiones aproximadas para la V () y su corres-
pondiente estimador aproximado.

Nota Sobre Aproximaci


on Lineal

Figura 5.1: Aproximacion lineal



5.4. EL PARAMETRO DE TOTALES
COMO UNA FUNCION 69

La ecuacion de la recta tangente a la curva y = f (x) en el punto (a, f (a))


esta dada por:
y f (a) = m(x a)
y f (a) = f 0 (x)(x a)

f (x) = y = f (a) + f 0 (x)(x a)


f (x) = f (a) + f 0 (x)(x a)
f (x) f (a) + f 0 (x)(x a) Polinomio de Taylor de orden 1 en a para f (a)

Polinomio de Taylor de orden n

f 00 (a) f (n) (a)


Pn (x) = f (a) + f 0 (a)(x a) + (x a2 + . . . + (x a)n
2! n!
En el contexto de Muestreo, es aproximado por 0 usando el Polinomio de
Taylor de grado 1alrededor del punto (t1 , t2 , ..., tq ), esto es:
q

X
= 0 = + aj (tj tj )
j=1

con

f
aj = |
tj (t1 ,t2 ,...,tq )=(t1 ,t2 ,...,tq )

La varianza aproximada de que se denota por:


q
= V (0 ) = V ( uk ul
aj (tj )) =
X PP
AV () U kl
j=1
k l
con q
X
uk = aj yjk
j=1

=
PP kl uk ul
V () S kl k l
con q
f
|
X
uk = a
j yjk y a
j =
j=1
tj (t1 ,t2 ,...,tq )=(t1 ,t2 ,...,tq )
70 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

Nota Importante

Sea = f (t1 , t2 , ..., tj , ..., tq )con tj = U yjk y su = f (t1 , t2 , ..., tj , ..., tq )


P
correspondiente estimador. Via Linealizacion de Taylor se tiene:

= PP kl uk ul
1. AV () U k l

q
X
donde uk = aj yjk
j=1

PP
=
2. V () kl u
k u
l
S kl k l

q
X
donde uk = a
j yjk
j=1

f
con aj = |
tj (t1 ,t2 ,...,tq )=(t1 ,t2 ,...,tq )

f
a
j = |
tj (t1 ,t2 ,...,tq )=(t1 ,t2 ,...,tq )

5.5. Estimador de Raz


on
ty
Parametro de Interes: R = .
tz
Razon de dos totales desconocidos, donde y y zson dos variables de estudio.

Su correspondiente estimador R = ty . R
es aproximadamente insesgado.
tz
Ejemplos de Estimadores de Raz
on

1. zk : Ingresos en el k-esimo hogar.


yk :Cantidad de dinero pagada en servicios publicos.

R: Denota la porcion del ingreso utilizada en pagar servicios p
ublicos.

2. zk : N
umero de personas en el k-esimo hogar.
yk :Ingreso total del k-esimo hogar.
Denota el ingreso per capita.
R:

5.5. ESTIMADOR DE RAZON 71

Resultado 1
satisface:
El sesgo de R

[E(
2 R]2
R) V (tz )
=
[BR(R)] ()

V (R) t2z

Recuerde que; en general, se tiene que:


= E()
B()

es el sesgo relativo de
BR()

B()
E()
=q
BR() = q

V ()
V ()

Prueba (*):

tz ) = E(R
Cov(R, tz ) E(R)
E(tz )

= E(ty ) (E(R))E(t z)
z
= ty (E(R))t
z
= ty E(R)t
zE
= Rtz (R)t
R]
= tz [E(R)

2 tz )]2
[Cov(R,

[E(R R)] =
t2z
Cov(R, tz )
tz ) = r
(R, q

V (R) V (tz )

tz ) V (R)V
2 (R, (tz )
=
t2z
(tz )
V (R)V

t2z

porque 11
72 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

2 (tz )
V (R)V R]2
[E(R) V (tz )

[E(R) R]
2
tz
V (R) t2z

Lo importante del resultado anterior es que si

0
V (tz ) 0 = BR(R)

y se podran construir Intervalos de confianza validos desde el punto de vista


estadstico.
La
expresion a la izquierda de la desigualdad corresponde al sesgo relativo de R.
)
V (tz
|tz |
se conoce como el error estandar relativo de tz

5.5.1. El Estimador de Raz


on, Varianza y Estimador de la Varianza

X uk
=R
R 0 = R +
S
k

=R+P
R uk
S k

Pq
uk = j=1 aj yjk

R
a1 = |
ty (ty ,tz )=(ty ,tz )
1
=

|(ty ,tz )=(ty ,tz ) = t1
tz z

R
a2 = |
tz (ty ,tz )=(ty ,tz )
ty ty
= 2 |(ty ,tz )=(ty ,tz ) = 2
tz tz

luego
DE LA MEDIA POBLACIONAL POR ELEMENTO
5.6. ESTIMACION 73

1 ty
uk = yk 2 zk
tz tz
1
= (yk Rzk )
tz
1 k)
uk = (yk Rz

tz

X yk Rzk
R =R+ 1
tz S k

= 1
XX (yk Rzk ) (yl Rzl )
AV (R) kl
tz
2
U
k l

k ) (yl Rz
X X kl (yk Rz l)
= 1
V (R)
t2z S
kl k l

5.6. Estimaci
on de la Media Poblacional por Elemento
Parametro de Interes: yU (Media Poblacional). Un estimador insesgado de yU
viene dado por:

yU = tN
Siempre y cuando N sea conocido.
1
V (yU ) = V (t )
N2
1
V (yU ) = 2 V (t )
N

5.6.1. Media Muestral Ponderada


Cuando N es conocido o no, una expresion para el estimador de la Media
Poblacional viene dado por:
t
ty
ty
ty
yS = = = 1 =
N tz P tz
s k

=P
donde N 1
es el -estimador de N.
S k
74 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

Como ys es un estimador de razon podemos usar los resultados obtenidos en un


estimador de razon, esto es:
P yk
t
y S
= yS =
R = P 1k (Media Muestral Ponderada)
N S k

Notas Importantes

na mejor que yU .
1. En la mayora de los casos yS se desempe

nos M.A.S y EST.MAS, yS = yU


2. En los dise

3. La Media Muestral Ponderada ( y S ) puede ser considerada como un estimador


de razon, con zk = 1, k = 1, 2, ..., N , esto es,

ty
yS = tz

zk
Con tz = 1
P P
S k = S k

4. La Media Muestral Ponderada es un estimador aproximadamente insesgado


y no tiene expresiones exactas tanto para la varianza como para la varianza
estimada.

Resultado 1

Un estimador aproximadamente insesgado de la Media Poblacional viene dado


por la Media Muestral Ponderada:
P yk
S k
yS = P 1
S k

1 XX yk yU yl yU
AV (
yS ) = 2
kl ( )( )
N U
k l

Prueba (*):
X uk
= yS R
R 0 = yU +
S
k

uk = a1 yk + a2 zk
DE LA MEDIA POBLACIONAL POR ELEMENTO
5.6. ESTIMACION 75

yS
a1 = |
ty (ty ,tz )=(ty ,tz )
1 1
= P 1 |(ty ,tz )=(ty ,tz ) =
S k tz

yS
a2 = |
tz (ty ,tz )=(ty ,tz )
ty
= 2 |(ty ,tz )=(ty ,tz )
tz
ty ty 1 R
= 2 = =
tz tz tz tz

1 1 1
uk = yk Rzk = (yk Rzk )
tz tz tz
1 k)
uk = (yk Rz

tz

X 1 (yk Rzk )
yS ) = V [
AV ( ]
S
tz k
1 X yk Rzk 1 X y y
= 2V[ ( )] = 2 V [ ( k U )]
tz S
k tz S
k

t
yk Rzk yk ty 1
S( )
P P
Por otro lado se tiene que S k
= k
z

X (yk Rzk ) X yk ty X yk yU
k
= ( N
)= ( )
k k
S S S

de donde:
1 XX yk yU yl yU
AV (
yS ) = kl ( )( )
tz
2
U
k l

1 X X kl yk yS yl yS
V (
yS ) = 2 ( )( )
tz kl S
k l
76 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

Observaciones Importantes

na mejor que yU en las siguientes situaciones:


1. yS se desempe

a) En Dise
nos de tamano de Muestra Variable
Ejemplo: Considere yk = c k = 1, 2, ..., N

p() = Be()

P yk
S k
yS = P 1
S k
P c P 1
S S k
= P 1k = cP 1 =c
S k S k

yS = c

P yk
S k
yU =
N
1
P
S
=c
N
cns 1 c ns 1 c ns
= = =
N N N

c ns
yU = N

En este caso yS es mas estable que yU ya que este presenta mayor


variabilidad debido a que nm es variable.
b) Cuando k esta pobremente correlacionado con Y o cuando k esta
correlacionado negativamente con Y 1 , yU puede proporcionar un valor
pobre con respecto a yU .

2. Si N no es conocido o no, se puede usar y

3. yU solo es posible usarlo cuando N es conocido

nos MAS y ESTMAS, los estimadores ys y yU son iguales, en otros


4. En los dise
dise
nos, usualmente difieren.
1
Ver Ejemplo 5.7.3 Sarndal
DE LA MEDIA POBLACIONAL POR ELEMENTO
5.6. ESTIMACION 77

5. Un estimador alterno para la Media Poblacional para ciertos dise


nos con
tama
no de muestra variable viene dado por:
n X yk
yUalt =
N n s S k
P
donde n = E(ns ) = U k
a) Si el dise no fijo entonces yUalt = yU
no es de tama
b) Si todos los k entonces yUalt = yS
c) Si el tamano de muestra es variable, AV (yUalt ) puede ser mas peque
na
que AV (y S ) y V (yU )

5.6.2. Estimaci
on de la Media de un Dominio
Sean:
U :Universo o Poblacion Finita.
Ud :Un dominio de U, tal que Ud U .
Nd :Tama
no del dominio, Nd < N .
S: Muestra extrada de la poblacion U.
Sd : Es el conjunto formado por los elementos de la muestra que pertenecen al
dominio Ud .
Sd = S Ud
El tama
no de sd es aleatorio.
Nd es desconocido y los elementos que pertenecen a Ud no pueden ser identificados
de antemano.
Parametro de Interes: yUd (Media por Elemento en el Dominio Ud ).

X
yUd = yk
Ud
(
1 si k Ud
Sea Zdk =
0 en otro caso
P
U zdk yk tz y
yUd = P = d
U zdk tzd
Su correspondiente estimador:
P zdk yk P yk
s
sd k
ysd = P zdkk = P 1
s k sd k
78 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL

Resultado 1
Un estimador aproximadamente insesgado de la Media Poblacional de un do-
minio viene dado por:
P yk
sd k
ysd = P 1
sd k

1 XX yk yud yl yud
AV (
y sd ) = kl ( )( )
Nd 2
ud
k l

1 XX yk ysd yl ysd
V (
y sd ) = 2 kl ( )( )

Nd k l
s d

d = P
donde N 1
sd k

5.7. Estimaci
on de los Coeficientes de Regresi
on
Los parametros de interes son los coeficientes de regresion; B1 , B2 , ..., Bq de un
modelo de regresion:y = 1 Z1 , 2 Z2 + ... + q Zq , donde y y z1 , z2 , ..., zq son q + 1
variables de estudio.
Una muestra probabilstica es seleccionada mediante un dise
no muestral y yk , Z1k , Z2k , ..., Zqk
son observados para cada k S.
El objetivo es estimar los coeficientes de Regresion de acuerdo al criterio de Mni-
mos Cuadrados.

Notaci
on
Sean:
Zk :Un vector de q-componentes definido como Zk = (Z1k , Z2k , ..., Zqk )0 .
Z: Una matriz de orden qxN

Z11 Z12 . . . Z1N



Z21 Z22 . . . Z2N
Z=
... .. .. ..
. . .
Zq1 Zq2 . . . ZqN qxN
y1

y2
Y=
...

yN N x1
DE LOS COEFICIENTES DE REGRESION
5.7. ESTIMACION 79

Por la teora e Analisis de Regresion se tiene que:


B = (B1 , B2 , ..., Bq )0
B = (ZZ0 )1 ZY
donde ZZ0 es una matriz No-Singular.
En el contexto de Poblaciones Finitas se tiene que:

X 1 X
B=( Zk Z0 k ) Zk yk
U U

En el contexto de muestreo, el interes se centra en estimar los coeficientes


de regresion considerando o teniendo en cuenta las Probabilidades de Inclusion
asociadas al diseno muestral.Por tanto la inferencia estara basada en el dise
no
muestral y no en el modelo que origino los datos, luego, no es importante por el
momento las suposiciones sobre el modelo.

Ejemplo 1

q = 1, (Modelo Sin Intersecto)

Modelo:Y = B Z + , (Modelo Sin Intersecto)


Linea Recta que pase a traves del origen.
Z = (Z1 , Z2 , ..., ZN )0
U Zk y k
P
B=B= P 2
U Zk

Verificaci
on Z = (Z1 , Z2 , ..., Zn )

Z1

Z2
ZZ 0 = (Z1 , Z2 , ..., Zn )1xN
...

ZN N x1
= Z12 + Z22 + ... + ZN2
X
= Zk2
U
80 CAPITULO 5. ESTIMACION
DE PARAMETROS
DIFERENTES AL TOTAL


y1
y2
Zy = (Z1 , Z2 , ..., Zn )1xN
...

yN N x1
= Z1 y 1 + Z2 y 2 + ... + ZN y N
X
= Zk y k
U

P
Zk yk
B = PU 2
U Zk

Ejemplo 2

q = 2, (Modelo Con Intersecto)


Modelo:Y = B1 Z + B2 Z + ..., (Modelo Con Intersecto)

   
1 1 ... 1 B1
Z= B=
Z1 Z2 . . . ZN B2

P P P
N ( U Zk y k ) ( U Zk )( U y k )
B2 =
N ( U zk2 ) ( U Zk )2
P P

B1 = yU B2 zU

5.7.1. Estimaci
on de los coeficientes de Regresi
on en el Contexto de
Muestreo
El vector de parametros B se puede redefinir en terminos de totales poblacio-
nales.
Sean:
P
tjj 0 = U Zjk Zj 0 k = tj 0 j
DE LOS COEFICIENTES DE REGRESION
5.7. ESTIMACION 81

Con j = 1, 2, ..., q j 0 = 1, 2, ..., q


P
tj0 = U Zjk y k
T:Matriz Simetrica e igual a:
X
T= Zk Zk 0
U
X
t= Zk y k
U
B = T1 t Asumiendo que T1 existe
Por otro lado los correspondientes estimadores de tjj 0 y tj0 vienen dados por:
X Zjk Zj 0 k Zjk y k
tjj 0 = tj0 =
M
k k

X Zk Z0 X Zk y
k k
T= t=
S
k S
k

Por lo tanto:
X Zk Z0 1 X Zk y
1t = (
=T
B k
) ( k
)
S
k S
k
es un Estimador No Insesgado para B.
de donde B

Resultado 1
es un estimador aproximadamente insesgado de B.
B
La matriz de Varianzas y covarianzas aproximada viene dada por:
AV(B) = T1 VT1
Zj 0 l El
U kl ( k )( l )
PP Zjk Ek
donde V es una matriz simetrica qxq con elementos vjj 0 =
con Ek = y k Z0k B.
Un estimador de la matriz de Varianzas y Covarianzas es:
X Zk Z0 1 X Zk Zk 1
V (B) = (
k
) V ( )
S
k S
k

donde X X kl Zjk ek Zj 0 l el
jj 0 =
V

( )( )
kl k l
S

con ek = y k Z0k B

S-ar putea să vă placă și