Sunteți pe pagina 1din 18

Propiedades deseables en los estimadores puntuales

Luis Ramón Barrios Roqume

Maestría en Estadística Aplicada

1 / 18
Introducción

Es importante resaltar, que las etadísticas se emplean para estimar los


valores de parámetros desconocidos. Aquí estudiaremos con detalles el
concepto de estimación de parámetos mediante las propiedades deseables de
los estimadores (estadísiticas).
La estimación de parámetros involucra el uso de datos muestrales y algunas
estadisticas. Una forma de estimar parámetros es la estimación puntal.
En este sentido, se presentarán los criterios convenientes para la
determinación de los estimadores (T ) del parámetro desconocido (θ).

2 / 18
Antes de estudiar las propiedades

Sea X1 , X2 , ..., Xn una muestra aleatoria de tamaño n con función densidad


de probabilidad f (x , θ) y T = g(X1 , X2 , ..., Xn ) cualquier estadística. El
objetivo es encontrar una función g que proporcione la mejor estimación de
θ.
En la búsqueda del mejor estimador de θ se utilizará la cantidad llamada
error cuadrático medio que definiremos a continuación.

3 / 18
Error cuadrático medio
Sea T cualquier estimador de algún parámetro desconocido θ. Se define el
error cuadrático medio de T como:

ECM(T ) = E 2 (T − θ)

Puede reescribirse de la siguiente manera:

 
ECM(T ) = E T 2 − 2θT + θ2
 
= E T 2 − 2θE (T ) + θ2
= V (T ) + E 2 (T ) − 2θE (T ) + θ2
= V (T ) + (θ − E (T ))2
= V (T ) + (Sesgo (T ))2

4 / 18
Propiedad 1: Estimadores insesgados

Se dice que la estadística T = g(X1 , X2 , ..., Xn ) es un estimador insesgado


de parámetro θ, si E (T ) = θ para todos los posibles valores de θ. De esta
manera ECM(T ) = V (T ).

5 / 18
Ejemplo 1

Sea X1 , X2 , ..., Xn una muestra aleatoria de alguna distribución con función


Pn 2
2 ( Xi −X )
de probabilidad (densidad) f (x , θ). Muestre que S = i=1n−1 es un
estimador insesgago.

6 / 18
Propiedad 2: Estimadores consistentes

Sea T el estimador de un parámetro θ y sean T1 , T2 , ..., Tn una secuencia


de estimadores que representan a T con base en muestras de tamño
1, 2, ..., n respectivamente. Se dice que T es un estimador consistene para θ
si

lı́m P {|Tn − θ| ≤ ε} = 1
n−→∞

para todos los valores de θ y ε > 0.

7 / 18
Ejemplo 2.

Sean X1 , X2 , ..., Xn n variables aleatorias IID, tales que E (Xi ) = µ y


= σ 2 tienen un valor finito para i = 1, 2, ..., n. Entonces
V (Xi ) P
n
Xi
Xn = i=1
n es un estimador consistente de µ.

8 / 18
Teorema de la desigualdad de Tchebysheff

Sea X una variable aleatoria con una función (edensidad) de probabilidad


f (x ) de manera tal que tanto E (X ) = µ como V (X ) = σ 2 tienen un valor
finito. Entonces

1
P {|X − µ| ≤ kσ} ≥ 1 −
k2
o

1
P {|X − µ| > kσ} ≤
k2
para cualquier constante k ≥ 1.

9 / 18
Regresando al Ejemplo 2.

Sean X1 , X2 , ..., Xn n variables aleatorias IID, tales que E (Xi ) = µ y


= σ 2 tienen un valor finito para i = 1, 2, ..., n. Entonces
V (Xi ) P
n
Xi
Xn = i=1
n es un estimador consistente de µ.

10 / 18
Propiedad 3: Estimadores insesgados de varianza mínima

Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución cuya función


(densidad) de probabilidad es f (x , θ). Sea la estadística
T = g(X1 , X2 , ..., Xn ) un estimador de θ tal que E (T ) = θ y V (T ) es
menor que la varianza de culaquier otro estimador insesgado de θ para
todos los posibles valores de θ. Se dice entonces que T es un estimador
insesgado de varinza mínina de θ.

11 / 18
Cota inferior de Crámer-Rao

Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución con una


función (densidad) de probabilidad f (x , θ). Si T es un estimador insesgado
de θ, entonces V (T ) satisface la siguiente desigualdad

1
V (T ) ≥  
∂lnf (x ,θ) 2

nE ∂θ

12 / 18
Estimadores eficientes

Si T es cualquier estimador del parámetro θ tal que

1
V (T ) =  
∂lnf (x ,θ) 2

nE ∂θ

Entonces se dice que T es un estimador eficiente de θ.

13 / 18
Ejemplo 3.

Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución de Poisson de


parámero λ. Obtener el estimador eficinte de λ.

14 / 18
Propiedad 4: Estadísticas suficintes

Una estadística suficiente para un parámetro θ es aquella que utiliza toda la


información contenida en la muestra aleatoria con respecto a θ.

15 / 18
Teorema de factorización de Neyman

Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución con una


función (densidad) de probabilidad f (x , θ). Se dice que la estadística
T = g(X1 , X2 , ..., Xn ) es una estadística suficiente para θ si y sólo si la
función de verosimilitud puede factorizarse de la siguiente forma:

L(x1 , x2 , ..., xn , θ) = h(t, θ)u(x1 , x2 , ..., xn )

para cualquier valor t = g(x1 , x2 , ..., xn ) de T en done u(x1 , x2 , ..., xn ) no


contiene el parámetro θ.

16 / 18
Ejemplo 4.

Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución de Poisson de


parámero λ. Demostrar que el estimador eficinte λ también es una
estadística suficiente.

17 / 18
.

THANK YOU

18 / 18

S-ar putea să vă placă și