Sunteți pe pagina 1din 6

6.3.

ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez


6.3. Estimadores Insesgados de
Varianza Uniformemente Mnima
El objetivo en esta parte sera encontrar al mejor estimador de (), bajo alg un criterio. Primero que nada
podramos pensar en encontrar al estimador T(X) = T(X
1
, X
2
, . . . , X
n
) que tenga el menor error cuadr atico
medio(ECM
()
(T(X))) para estimar (), sin embargo aqu surgen dos problemas, el primero es que tenemos
un espacio muy grande de estimadores para () y el segundo es que
ECM
()
(T(X)) = V ar(T(X)) + (E(T(X)) ())
2
(6.1)
y por lo tanto tendramos que encontrar estimadores que controlen su sesgo y su varianza, lo cual resulta muy
difcil. Entonces lo que se decide hacer es limitar la b usqueda de estimadores para (), s olo a los que son
insesgados para () y dentro de esta clase, de 6.1, podemos ver que lo que tenemos que hacer es encontrar al
estimador que tenga la menor varianza, formalmente lo que buscamos es:
Denicion (UMVUE)
Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|). Un estimador insesgado T(X) =
T(X
1
, X
2
, . . . , X
n
) de () es un UMVUE para () si y s olo si
1. E(T(X)) = () (T(X) es un estimador insesgado para ())
2. V ar(T(X)) V ar(W(X)) para cualquier otro estimador W(X) de ()
que cumpla que E(W(X)) = ()
A los estimadores que cumplan con la denicion anterior les llamaremos estimadores insesgados de varianza
uniformemente mnima, en ingles esto suele abreviarse como UMVUE (uniformly minimum-variance unbiased
estimator) y a lo largo de estas notas nos referiremos a ellos con esta abreviaci on. Es claro que si buscamos el
mejor estimador insesgado para (), el UMVUE es lo que debemos encontrar. Entonces lo que haremos en
esta seccion sera dirigir nuestros esfuerzos para encontrar UMVUEs.
Observacion: A lo largo de estas notas X = (X
1
, X
2
, . . . , X
n
) sera un vector de variables aleatorias y x =
(x
1
, x
2
, . . . , x
n
) seran los valores observados para esas variables aleatorias. Es importante hacer enfasis en este
punto pues es facil perderse y no saber con respecto a quien hay que calcular una probabilidad, una esperanza
o varianza.
6.3.1. Cota Inferior de Cramer-Rao
Encontrar UMVUEs no es facil, sin embargo tendremos varias herramientas a nuestra disposicion para tal
empresa, la primera de ellas es el siguiente
Teorema 1 (Cota Inferior de Cr amer-Rao)
Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|) y sea T(X) = T(X
1
, X
2
, . . . , X
n
) cualquier estimador insesgado de
(), si se cumplen ciertas condiciones de regularidad (las veremos m as adelante), entonces
V ar(T(X))
_
()

_
2
nE
_

2

2
log f
X
(X|)
_ (6.2)
y la igualdad se da si y s olo si existe una funci on k(, n) tal que
1
6.3. ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez

log L(|x) = k(, n)(T(x) ()) (6.3)


Observacion: La notacion en el Teorema 1 juega un papel importante, hay que poner atencion en que X
siempre representa una v.a. de esta forma no debe quedar ninguna duda sobre respecto a quien calcular
E
_

2

2
log f
X
(X|)
_
.
A la cantidad que esta del lado derecho de la desigualdad 6.2 se le conoce como cota inferior de Cr amer-Rao
(CICR).
Este teorema nos sera util en dos sentidos. Primero, mediante 6.2 tenemos una cota inferior para la varianza de
cualquier estimador insesgado de (), entonces si estamos buscando el UMVUE para () y encontramos un
estimador insesgado de () cuya varianza coincida con la CICR, hemos encontrado lo que est abamos buscan-
do. Segundo, mediante 6.3 tambien tenemos condiciones claras sobre las cuales la varianza del estimador T(X)
alcanza la CICR, entonces si logramos obtener una factorizaci on como la que muestra 6.3 para nuestro () de
interes, tambien habremos encontrado el UMVUE para ().
Las condiciones de regularidad para poder aplicar el Teorema 1 son las siguientes:
E(T(X))

= E
_
T(X)

_
V ar(T(X)) <

E
_

log L(|X)
_
=
_

__

log f
X
(x|)
_
f
X
(x|)
_
dx
Es claro que vericar las condiciones anteriores puede resultar muy difcil, sin embargo, podemos decir que estas
siempre se cumpliran para una familia muy ampla de distribuciones; la familia exponencial, que describiremos
al nal de la parte de estimacion puntual, pero por el momento diremos que incluye a las distribuciones: bino-
mial, exponencial, gamma, poisson, normal y muchas otras. Otro comentario importante es cuando no se puede
aplicar el Teorema 1, en general no sera aplicable cuando el dominio de f
X
(x|) dependa de , por ejemplo para
las variables uniformes continuas la cota inferior de Cramer-Rao no se podra aplicar.
Ejemplo: Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|) =
e

x
x!
con x = 0, 1, 2, . . . Supongamos que nos interesa
encontrar el UMVUE para () = . Primero encontraremos la CICR utilizando la ecuacion 6.2 y luego uti-
lizaremos la ecuaci on 6.3 para tratar de encontrar el estimador insesgado cuya varianza alcanza la CICR.
Se puede ver facilmente que
()

= 1 y que
log f
X
(X|) = +X log() log(X!)

log f
X
(X|) = 1 +
X

2
log f
X
(X|) =
X

2
E
_

2

2
log f
X
(X|)
_
=
1

2
E(X) =

2
=
1

Entonces para cualquier estimador insesgado T(X) de () se tiene que


V ar(T(X))
_
()

_
2
nE
_

2

2
log f
X
(X|)
_ =
1
n

=

n
2
6.3. ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez


Ahora vamos a utilizar la ecuaci on 6.3
L(|x) =
n

i=1
e

x
i
x
i
!

e
n

n
i=1
x
i
n

i=1
x
i
!
log L(|x) = n +
n

i=1
x
i
log log
n

i=1
x
i
!
Entonces para este problema la ecuaci on 6.3 queda como

log L(|x) = n +

n
i=1
x
i

=
n

( x )
En donde k(, n) =
n

, T(x) = x y () = , por lo tanto el estimador insesgado que alcanza la varianza


establecida por la CICR sera T(X) =

X. Entonces T(X) =

X es el UMVUE para () =
6.3.2. Estadsticas Sucientes y Completas
La cota inferior de Cr amer-Rao es una herramienta poderosa para encontrar UMVUEs, sin embargo, hay
muchos casos en los que el UMVUE de () existe y sin embargo su varianza es estrictamente mayor que
la cota inferior de Cr amer-Rao. Adem as, existen varias funciones de distribuci on para las cuales no podemos
aplicar la cota inferior de Cr amer-Rao pues no cumplen las condiciones de regularidad, en particular tenemos
la distribuci on uniforme continua. Entonces necesitamos desarrollar metodos mas robustas y generales para
encontrar UMVUEs, la herramienta de mas alcance para este n sera el teorema de Lehmann-Schee que
enunciaremos en esta seccion, sin embargo, antes de este teorema necesitamos la siguiente:
Denicion (estadstica completa)
Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|) y sea T(X) = T(X
1
, X
2
, . . . , X
n
) una
estadstica, entonces diremos que T(X) es completa si y s olo si
E(g(T(X)) = 0 P(g(T(X)) = 0) = 1 (6.4)
en donde g(T(X)) es cualquier funcion de T(X).
Esta denicion puede parecer irrelevante y fuera de lugar, pero mas adelante explicaremos su importancia,
primero vamos a entender lo que dice. La denicion establece que una estadstica T(X) es llamada completa si
para cualquier funcion de T(X) denotada como g(T(X)) se tiene que su valor esperado es cero (E(g(T(X)) = 0)
entonces con probabilidad uno y para cualquier valor del par ametro esa funcion tiene que ser cero, g(T(X)) = 0.
Observacion: Para saber que forma tiene E(g(T(X)) e igualar a cero, necesitamos conocer la distribuci on de
T(X), pues recordemos que
E(g(Y )) =
_

y
g(y)P
Y
(Y = y) si Y es una v.a. discreta
_

g(y)f
Y
(y)dy si Y es una v.a. continua
3
6.3. ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez


Para la denicion de estadstica completa se tiene que Y = T(X) g(Y ) = g(T(X)).
Ejemplo: Sea X
1
, X
2
, . . . , X
n
una m.a. de una Bernoulli(p) con 0 < p < 1, entonces sabemos que
T(X) =
n

i=1
X
i
Bin(n, p)
vamos a probar que T(X) =

n
i=1
X
i
es una estadstica completa y para hacer las cosas mas sencillas, renom-
braremos a la variable aleatoria como en la observaci on anterior, entonces sea
Y = T(X) =
n

i=1
X
i
Y Bin(n, p)
as hay que probar que si E(g(Y )) = 0 entonces P(g(Y ) = 0) = 1 para 0 < p < 1 y cualquier funcion g.
E(g(Y )) = 0

y=0
g(y)
_
n
y
_
p
y
(1 p)
ny
= 0
(1 p)
n
n

y=0
g(y)
_
n
y
__
p
1 p
_
y
= 0

y=0
g(y)
_
n
y
_
r
y
= 0
en la ultima igualdad r =
p
1p
para cualquier p en (0, 1) entonces 0 < r < . Para ver esto piensen a r
como funcion de p en (0, 1), entonces r(p) es una funcion continua en (0, 1), y si p 0 r 0 y si
p 1 r . Entonces tenemos un polinomio de grado n con variable r > 0 y coecientes g(y)
_
n
y
_
para y = 0, 1, . . . , n que siempre es igual a cero, sin importar el grado del polinomio ni el valor de r. Como
claramente para cualquier y tenemos que
_
n
y
_
1 entonces se tiene que tener g(y) = 0 para y = 0, 1, . . . , n, de
donde P(g(Y ) = 0) = 1 para cualquier p en (0, 1). Podra pensarse que puede haber una combinacion de g(y)
para y = 0, 1, . . . , n positivos y negativos de forma que

n
y=0
g(y)
_
n
y
_
r
y
= 0 sin embargo esto podra ser posible
para cierta r ja pero el hecho de que se cumpla para cualquier r con r > 0 asegura la armacion anterior
acerca de g(Y )
Teorema 2 (Lehmann-Schee)
Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|) si
1. S(X) es una estadstica suciente para y completa.
2. Sea T

(X) = T

(S(X)) otra estadstica que es funci on de S(X) y tal que E(T

(X)) = ()
T

(X) es un UMVUE para () y es unico


Ejemplo:(Importante) Sea X
1
, X
2
, . . . , X
n
una m.a. de f
X
(x|) =
1

1
(0,)
(x) con > 0. Vamos a encontrar un
UMVUE para () = .
El dominio de f
X
(x|) depende de por lo que no podemos aplicar la cota inferior de Cramer-Rao, entonces
vamos a emplear el Teorema 2.
Utilizando el teorema de factorizaci on encontraremos una estadstica suciente.
4
6.3. ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez


L(|x) =
n

i=1
f
X
i
(x
i
|) =
n

i=1
1

1
(0,)
(x
i
) (6.5)
=
1

n
n

i=1
1
(0,)
(x
i
) (6.6)
=
1

n
1
(0,)
(x
(n)
)
. .
g(x
(n)
|)
1
(0,x
(n)
)
(x
(1)
)
. .
h(x
1
,x
2
,...,x
n
)
(6.7)
Entonces ya tenemos g(x
(n)
|) y h(x
1
, x
2
, . . . , x
n
) de donde, por el teorema de factorizacion, la estadstica su-
ciente para es S(X) = X
(n)
. Ahora la pregunta es como llegamos de 6.6 a 6.7?
Estamos obteniendo una m.a. de una distribuci on uniforme continua (0, ) pensemos que n > 1
x
i
(0, ) i = 1, 2, . . . , n
0 < x
(1)
< x
(n)
y 0 < x
(n)
<
En donde x
(1)
y x
(n)
son la observaci on mas chica y mas grande respectivamente de la muestra observada.
Ahora necesitamos saber si S(X) = X
(n)
es una estadstica completa. Para esto necesitamos conocer la fdp de
X
(n)
, que viene dada por
f
X
(n)
(x) = nF
X
(x)
n1
f
X
(x) = n
_
x

_
n1
_
1

1
(0,)
(x)
_
Entonces si
E(g(X
(n)
)) = 0 (6.8)

_

0
g(x)nx
n1
_
1

_
n
dx = 0 (6.9)

_

0
g(x)x
n1
dx = 0 (6.10)

_

0
g(x)x
n1
dx =

0 = 0 (6.11)
g()
n1
= 0 > 0 (6.12)
En 6.9 simplemente ocupamos la formula para el calculo de la esperanza de g(X
(n)
) e igualamos a cero, pues
queremos saber si X
(n)
es una estadstica completa. Como tenemos una expresi on igualada a cero y la integral
es respecto a x, entonces
_
1

_
n
y n salen de la integral y despejamos, esto es lo que sucede de 6.9 a 6.10. De
6.11 a 6.12 derivamos con respecto a de los dos lados de la igualdad, y ocupamos el Teorema Fundamental
del Calculo. Todos los pasos han sido v alidos y llegamos a que g()
n1
= 0 > 0, pero esto sucede si y s olo
si g() = 0 > 0, de donde obtenemos que P(g(X
(n)
) = 0) = 1 > 0, por lo que X
(n)
es una estadstica
completa.
Hemos encontrado que X
(n)
es una estadstica suciente para y completa entonces estamos a un paso de
encontrar el UMVUE de () = , s olo tenemos que encontrar una funcion de X
(n)
que sea insesgada para
(). Esta es la parte mas sencilla, observemos que
E(X
(n)
) =
_

0
x
_
nx
n1
_
1

_
n
_
dx
5
6.3. ESTIMADORES INSESGADOS DE
VARIANZA UNIFORMEMENTE M

INIMA Carlos Erwin Rodrguez


=
n

n
_

0
x
n
dx
=
n
n + 1

De donde
n+1
n
X
(n)
es un estimador insesgado de () = que es funcion de una estadstica suciente para y
completa, entonces por el teorema 2 es un UMVUE para () =
El ejemplo anterior es clasico para mostrar como se aplica el teorema de Lehmann-Schee, un ejercicio extra que
vale la pena realizar es calcular V ar(
n+1
n
X
(n)
) y encontrar la cota inferior de Cramer-Rao (que por supuesto
sabemos que no es aplicable en este caso) y compararlas.
Observacion: Demostrar que se tiene una estadstica completa para poder usar el teorema 2 no es nada facil,
pero es un paso muy importante como se ver a a continuacion.
Supongamos que tenemos una estadstica T(X) insesgada para () y quisieramos saber si es un UMVUE de
(). Bajo ciertas condiciones, de forma muy sencilla, podemos construir un estimador
a
(X) insesgado de ()
tal que
V ar(
a
(X)) < V ar(T(X))
esto por supuesto acabara con nuestras esperanzas de encontrar el UMVUE de (). Vamos a mostrar como
a partir de T(X) podemos hallar
a
(X). Sea T(X) un estimador insesgado de () y sea W(X) un estimador
tal que E(W(X)) = 0, entonces hagamos

a
(X) = T(X) aW(X) con a R (6.13)
De la construccion anterior es inmediato que E(
a
(X)) = () y
V ar(
a
(X)) = V ar(T(X)) +a
2
V ar(W(X)) + 2aCov(T(X), W(X)) (6.14)
Para ciertos valores de () y la elecci on indicada de a, podemos hacer que
a
2
V ar(W(X)) + 2aCov(T(X), W(X)) < 0
entonces de 6.14 se tiene que
V ar(
a
(X)) < V ar(T(X))
Esta posibilidad para cada estimador T(X) insesgado de () acabara con nuestras esperanzas de encontrar
un UMVUE, la forma de evitar este problema es pedir que la estadstica T(X) sea completa. Vamos a ver
como funciona la completes, supongamos que T(X) es una estadstica completa, entonces por denicion, para
cualquier funcion g tal que se cumpla E(g(T(X))) = 0 va a implicar que con probabilidad uno g(T(X)) = 0 para
cualquier valor de . Si observamos detenidamente 6.13 nos daremos cuenta que el estadstico W(X) tal que
E(W(X)) = 0 necesariamente tiene que ser funcion de T(X), pero como T(X) es completa entonces W(X) = 0
con probabilidad uno para cualquier valor de , de donde en 6.14, Cov(T(X), 0) = 0. En resumen si la estadstica
es completa, la posibilidad de que el problema anterior sucede es eliminada y por lo tanto estaremos un paso
mas cerca de encontrar el UMVUE para ().
6

S-ar putea să vă placă și