Sunteți pe pagina 1din 13

INFERENCIA ESTADÍSTICA

Notas de clase

Profesores: A. Leonardo Bañuelos S.


Nayelli Manzanarez Gómez
TEMA II S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.1
ESTIMACIÓN PUNTUAL DE PARÁMETROS
POBLACIONALES Sea una muestra aleatoria de tamaño extraída de una

población con media y variancia . Determinar si los siguientes


La estimación puntual de un parámetro relativo a una población es el valor estimadores son sesgados o insesgados.
numérico de un estadístico correspondiente a ese parámetro.
a)
En la elección de un estimador deben tenerse en cuenta las siguientes
propiedades: insesgabilidad, eficiencia, consistencia y suficiencia.
b)
INSESGABILIDAD

Cuando se obtiene una estimación puntual de un parámetro cualquiera, es c)


deseable que la distribución de dicha estimación se centre en el parámetro real (al
cual se le llamará parámetro-objetivo),si se cumple la condición anterior entonces Resolución
el estimador se llama insesgado.

a) Para determinar si tiene o no sesgo debe obtenerse .

es insesgado.

Fig. 2.1
b)

Definición 2.1
Sea un estimador puntual del parámetro . Entonces si

se dice que es un estimador insesgado de , de


lo contrario se dice que es sesgado.
INFERENCIA ESTADÍSTICA Tema II Pág. 2

Recordando que
c)
entonces:
y de forma similar
Pero

Es insesgado.*falta nota de la desviación estándar”


S)))))))))))))))))))))))))))))))))))))))
En la práctica se suelen preferir los estimadores insesgados sobre los
sesgados; por ello que cuando se desean hacer estimaciones con respecto a la
variancia de una población se utiliza el estadístico .

Es sesgado.
La siguiente tabla muestra algunos de los parámetros objetivos más
Otra forma de calcular si el estadístico es insesgado, es a través de comunes, juntos con sus valores esperados y sus variancias.

la variable aleatoria ji cuadrada.


Se desea obtener ,

pero se sabe que, para una v.a. ji cuadrada , si .

De donde

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 3

Parámetro- Tamaño de Estimador


objetivo las muestras puntual

y -

Tabla 2.1 Valores esperados y variancias de estimadores basados en Fig. 2.2


muestras grandes. En la figura 2.2 se observan las distribuciones de los estadísticos y

EFICIENCIA del parámetro , considerando que ambos estimadores son insesgados, se

Puesto que es posible obtener más de un estimador insesgado para el mismo prefiere al estadístico porque tiene menor variancia y esto repercute en
parámetro objetivo, deberá utilizarse el de mínima variancia, que recibe el
estimaciones con menos variabilidad.
nombre de estimador eficiente.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.2

Definición 2.2 Supóngase que se tiene una muestra aleatoria de tamaño de una

Sean y dos estimadores insesgados del parámetro , población denotada por y y . Sean

con variancias y , respectivamente, y

entonces la eficiencia relativa de con respecto de , ,


dos estimadores de . Determina cuál es el mejor estimador de .
se define como: Explicar la selección.
Resolución

y son estimadores insesgados; sin embargo

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 4

mientras que , puesto que

se concluye que es un estimador


La eficiencia relativa de a se define como
más eficiente que por lo que el mejor estimador es .

S)))))))))))))))))))))))))))))))))))))))

Error Cuadrático M edio


si entonces es mejor estimador que .
Cuando se desean comparar dos estimadores, de los cuales al menos uno no es S)))))))))))))))))))))))))))))))))))))))
insesgado, entonces la eficiencia relativa no se calcula como el cociente de las Ejemplo 2.3
variancias, sino como el cociente de los errores cuadráticos medios, .
Supóngase que , y son estimadores del parámetro . Si se

sabe que , , ,
Definición 2.3
El error cuadrático medio de un estimador , del parámetro , y , utilizando el criterio del error

se define como: cuadrático medio, determinar el mejor estimador.


Resolución
Para los primeros dos estimadores, se tiene que el error cuadrático
medio, , es:
El error cuadrático medio también puede escribirse en términos de la
variancia y del sesgo.

y para el tercer estimador

sumando y restando , se tiene:

Por lo que el mejor estimador es , puesto que tiene menor error

cuadrático medio.
S)))))))))))))))))))))))))))))))))))))))
CONSISTENCIA
Mientras mayor sea el tamaño de la muestra, la estimación deberá ser más
donde a la cantidad se le llama sesgo, o bien, error cometido,
precisa. Si el estimador cumple con la característica anterior entonces se llama
y se denota mediante la letra , entonces:
consistente. Por ejemplo es un estimador consistente de .
A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 5

Puesto que forman una muestra aleatoria de una


Definición 2.4
El estimador es consistente al estimar a si para cualquier población con media y variancia , entonces

se cumple: , y lo primero que se prueba es el insesgamiento de


los estimadores.

Para un estimador insesgado se puede probar la consistencia evaluando


el límite de la variancia cuando , i.e. un estimador insesgado de es
es insesgado
consistente si:

Cuando el estimador es sesgado, debe probarse que

es insesgado

para que sea consistente. Esto es, el límite del error cuadrático medio cuando
n tiende a infinito debe ser cero. Existen estimadores consistentes que son
sesgados.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.4 es insesgado

Sea una muestra aleatoria de una población con media


Los tres estimadores son insesgados.
y variancia . Considérense los tres estimadores siguientes para Para las variancias, puesto que ,
: entonces:

Determinar si los estimadores son consistentes para


Resolución

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 6

es un estimador suficiente para o no.


Resolución

Por lo que:

Y el único estimador consistente para es . No depende de

S)))))))))))))))))))))))))))))))))))))))
SUFICIENCIA

Un estimador es suficiente si toma en cuenta toda la información de la muestra


de manera adecuada. Además no dará la máxima información que pueda es un estimador suficiente para .
obtenerse del parámetro desconocido.
S)))))))))))))))))))))))))))))))))))))))
Definición 2.5
MÉTODOS PARA DETERMINAR ESTIMADORES
Sea un parámetro desconocido y una
PUNTUALES
muestra aleatoria. Entonces el estadístico
Anteriormente se explicaron las características deseables para un estimador, en
esta sección se verá la forma de obtenerlas. Como debe intuirse, existen varias
es suficiente para si la distribución condicional de
formas de estimar un parámetro, por lo que no debe ser una sorpresa el hecho de
dado no depende de . que existan varios métodos para determinar los estimadores. Dos de los métodos
más comunes son: el de los momentos y el de máxima verosimilitud.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.5 M ÉTODOS DE LOS M OM ENTOS
Considérese una muestra aleatoria de tamaño : de una
El método de los momentos sugiere utilizar como estimador de alguno de los
población Bernoulli con parámetro . Determinar si momentos de la población, al mismo momento con respecto a la muestra.

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 7

Definición 2.6 M étodo de los momentos.


Elegir como estimadores puntuales, a aquellos valores de los
parámetros que sean solución de las ecuaciones

; El estimador es

donde es igual al número de parámetros a estimar y y

representan los momentos con respecto al origen de la

población y de la muestra, respectivamente.


y una estimación está dada por
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.6
Sea una v.a. con distribución normal y parámetros y
desconocidos. Determinar los estimadores de dichos parámetros por el
método de los momentos. S)))))))))))))))))))))))))))))))))))))))
Resolución En la práctica, es mucho más sencillo igualar momentos con respecto a
Puesto que se buscan dos parámetros se requieren dos momentos. La la media. Es decir, se pueden igualar momentos con respecto al origen, o bien,
media de es el primer momento con respecto al origen, y la variancia momentos con respecto a la media, respectivamente, según sea más conveniente.
En el ejemplo anterior basta entonces con igualar los primeros momentos
es el segundo momento con respecto a la media, pero que puede
con respecto al origen (poblacional y muestral, respectivamente):
expresarse a través de momentos con respecto al origen.
Para la media.

El estimador es

y los segundos momentos con respecto a la media (poblacional y muestral,


respectivamente)

y una estimación está dada por

Para la variancia, se utilizan los segundos momentos con respecto a la


media, por lo que
A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 8

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.7
Sea una v.a. con distribución de Pascal (binomial negativa) con
parámetros y desconocidos. Utilizar el método de los momentos
para obtener estimadores de dichos parámetros. Estimador de
Resolución
Puesto que
Y sustituyendo la última expresión en
entonces los momentos poblacionales son:

Estimador de

S)))))))))))))))))))))))))))))))))))))))
M ÉTODO DE M ÁXIM A VEROSIM ILITUD

Y los momentos muestrales son: Uno de los mejores métodos para realizar estimación puntual es el de máxima
verosimilitud, el cual consiste básicamente en obtener una función de
verosimilitud y maximizarla.

por lo que al igualar con los momentos poblacionales con los muestrales Definición 2.7
se tiene:
Sea la distribución de una población donde es el
. . . (a) parámetro a estimar. La función de verosimilitud es una función
de las vv.aa. de muestreo y del parámetro a estimar definida
. . . (b) como sigue:

Resolviendo simultáneamente para y ,


de (b)
. . . (c) Nótese que la función de verosimilitud es la distribución conjunta de
las vv.aa. de muestreo si éstas son independientes.
pero de (a)
y sustituyendo en (c)

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 9

Definición 2.8
Un estimador de máxima verosimilitud es aquel que maximiza la
función de verosimilitud.

En la práctica, para maximizar la función de verosimilitud se utiliza el


cambio de variable de por , como se observa en el siguiente ejemplo.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.8
Construir un estimador de máxima verosimilitud para el parámetro
de una distribución Bernoulli, utilizando una muestra de tamaño .
Resolución
La distribución de Bernoulli es

El estimador de máxima verosimilitud de es

La función de verosimilitud es

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.9
Obtener un estimador de máxima verosimilitud para el parámetro de
una distribución geométrica, utilizando una muestra aleatoria de tamaño
.
Puesto que si un valor maximiza a también
Resolución
maximiza a se puede realizar el cambio
La distribución geométrica es

utilizando las propiedades de los logaritmos


por lo que la función de verosimilitud es

Maximizando

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 10

S)))))))))))))))))))))))))))))))))))))))
Si se desconocen dos o más parámetros de una distribución entonces se
plantea la función de verosimilitud como una función de todos los parámetros
desconocidos; y se optima aplicando logaritmos y resolviendo el sistema de
Tomando logaritmos ecuaciones que se obtiene de las derivadas parciales de la función logaritmo de
la función de verosimilitud.

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.10
Considere que es una muestra aleatoria de una

distribución normal con media y variancia desconocidas.


Construir los estimadores de máxima verosimilitud para dichos
Derivando e igualando a cero parámetros y decir si son insesgados o no.
Resolución
Para la distribución normal

despejando a ,
Por lo que la función de verosimilitud es

Tomando logaritmos

El estimador de máxima verosimilitud de es

. . . (a)

A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 11

Derivando parcialmente e igualando a cero

. . . (b)

Como se demostró anteriormente es un estimador insesgado de

y es un estimador sesgado de .

S)))))))))))))))))))))))))))))))))))))))
Tópico especial:
Uso de la función de verosimilitud para determinar la suficiencia de un
estimador
. . . (c)
Y las ecuaciones (b) y (c) forman un sistema de dos ecuaciones con dos La suficiencia de un estimador está relacionada con la función de verosimilitud
incógnitas. a través del siguiente teorema
De (b)

Teorema 2.1
Sea un estimador del parámetro , basado en la muestra

aleatoria . Entonces es un estimador suficiente

para si y sólo si la verosimilitud se puede factorizar en dos


. . . (d)
funciones no negativas y , i.e.
El estimador para es

Sustituyendo (d) en (c) S))))))))))))))))))))))))))))))))))))Q


Ejemplo 2.11
Sea una muestra aleatoria de una distribución

Rayleigh con parámetro .

El estimador para es
A.L.B.S./N.M .G
INFERENCIA ESTADÍSTICA Tema II Pág. 12

BIBLIOGRAFÍA
Demostrar que es suficiente para .
Hines, William W. y Montgomery, Douglas C., et al .- Probabilidad y Estadística para
Ingeniería y Administración, Cuarta Edición..- CECSA.- México, 2004.
Resolución
La función de verosimilitud es
Wackerly, Dennis D., Mendenhall, William, y Scheaffer, Richard L.- Estadística
Matemática con Aplicaciones, Sexta edición.- Editorial Thomson.- México, 2002.

Milton, Susan J. y Arnold, Jesse C.- Introduction to probability and statistics, Fourth
Edition.- McGraw-Hill, 2003.

Walpole, Ronald E., et al..- Probabilidad y Estadística para Ingenieros.- Prentice Hall.-
Si
Sexta Edición.- México, 1999.

Scheaffer, Richard L y McClave, James T.- Probabilidad y Estadística para Ingeniería.-


y Grupo Editorial Iberoamérica.- México 1993.

Canavos, George C.- Probabilidad y Estadística Aplicaciones y Métodos.- McGraw-Hill.-


México, 1988.
entonces
Borras García, Hugo E., et al.- Apuntes de Probabilidad y Estadística.-Facultad de
y puesto que la función de verosimilitud puede factorizarse en dos Ingeniería, México 1985.
funciones no negativas y
Rosenkrantz, Walter A.- Introduction to Probability and Statistics for Scientists and
Engineers.- McGraw-Hill.- EE.UU. 1997.
Y es suficiente para .

S))))))))))))))))))))))))))))))))))))Q

Evidentemente, existen varias factorizaciones de la función de


verosimilitud , con las cuales se puede probar la suficiencia. Cualquiera de ellas
es igualmente válida.

A.L.B.S./N.M .G

S-ar putea să vă placă și