Documente Academic
Documente Profesional
Documente Cultură
ˆ
Suponha, por facilidade, que há um único parâmetro a ser estimado a partir da AAS
x1 , x2 , ..., x N . Se toda a informação está ali contida, a estimativa de deve ser,
necessariamente, uma função g x1 , x 2 , ... , x N das observações. Como os elementos
x1 , x2 , ..., x N são as realizações das variáveis aleatórias X 1 , X 2 ,... , X N ,
podemos interpretar a função g x1 , x 2 , ... , x N como uma realização da variável
aleatória g X 1 , X 2 , ... , X N . Se essa função é a utilizada para a estimação do
parâmetro de fX(x), então, é forçosa a distinção entre o estimador de , representado
por
, ou θ̂ , e a estimativa de , denotada por θ̂ . De fato, a estimativa
ˆθ = g(x , x ,..., x ) é simplesmente um número, ou seja, uma realização do estimador
1 2 N
ˆ g X 1 , X 2 ,... , X N . Esse, por sua vez, é uma variável aleatória, cujas
propriedades podem ser estudadas pela teoria de probabilidades. Nesse contexto, é
inapropriado levantar a questão se uma estimativa é melhor ou pior do que outra
estimativa. Entretanto, é absolutamente legítimo e relevante perguntar como se
[ ]
E [ ˆ
θ̂ ] = θ (6.1)
1 1
6.1 fornece E X EX EX ... EX , ou seja, E X
1 2 N
N .
N N
N
1
Para a variância, ˆ S 2 ∑ X i X . A aplicação da equação 6.1,
N 1 i 1
2
N 1 ⎣ i 1 ⎦ N 1 ⎣ i 1 ⎦
Recordando que o valor esperado de uma soma é a soma dos valores esperados,
1 ⎧N 2 ⎫
E S 2 ⎨ ∑ E X i NE X ⎬ . Nessa última equação, o primeiro
2
N 1 ⎩ i 1 ⎭
lim
#"
limNN → [
∞ Ρ [ θ − θ ≤ ε] = 1
ˆ ]
(6.2)
Em alguns casos, um estimador não enviesado pode não ser consistente. Essa
situação é ilustrada pelo exemplo 6.2, a seguir.
∑ (X − X)
N
N
1
ˆ
2
N 1
∑ X
i 1
i
X
2
da variância 2 de uma população. No exemplo 6.2
i 1
∑,Xx 1 X(
ˆx1ˆ,x1ˆ!,...
N 1
i
N 2 2 2
Conforme menção anterior, uma vez escolhida a distribuição a ser ajustada aos dados
amostrais, seus parâmetros devem ser estimados por algum procedimento da estatística
y1, y2, y3, ... , yN as observações constituintes de uma AAS retirada de uma
população de uma variável aleatória distribuída conforme f Y y; 1 , 2 ,..., k de
k parâmetros. Se j e mj representam, respectivamente, os momentos
populacionais e amostrais, o sistema de equações fundamental do método dos
momentos é
j 1 , 2 ,..., k m j com j 1,2,...,k (6.3)
Exemplo 6.3 - Seja Y1, Y2, Y3, ... , Yn uma AAS retirada da população de
uma variável aleatória Y, cuja função densidade de probabilidade, a um
único parâmetro , é f Y y; 1y para 0 ! y ! 1. Pede-se: (a)
determinar o estimador de pelo método dos momentos; e (b) supondo
que a AAS de Y seja constituída pelos seguintes elementos {0,2; 0,9; 0,05;
0,47; 0,56; 0,8; 0,35}, calcular a estimativa de pelo método dos momentos
e a probabilidade de Y ser maior do que 0,8.
Solução: (a) Método dos momentos: 1 = m1 . Momento populacional:
1
1 1 n
1 EY ∫ y 1y dy . Momento Amostral: m1 ∑ Y i Y
0
2 n i 1
ˆ 1 2Y 1
Logo, Y ⇒ ˆ . Esse é o estimador de pelo método
ˆ 2 1Y
dos momentos. (b) A AAS {0,2; 0,9; 0,05; 0,47; 0,56; 0,8; 0,35} produz
y 0,4757 . O estimador de , determinado no item (a), fornece a
2 & 0 ,4757 1
estimativa ˆ 0 ,0926 . A FAP é
1 0 ,4757
y
FY y ∫ 1 y dy y 1 . Com ˆθ = −0,0926 ,
0
Exemplo 6.4 - Use o método dos momentos para ajustar uma distribuição
Binomial com n = 4 aos dados abaixo. Calcule P(X % 1). Lembre-se que
E(X) = n.p, p = probabilidade de “sucesso” e n = no de tentativas
independentes de um processo de Bernoulli.
⎡ ˆ ⎞⎤
⎛ 150
1 FX 150 1 exp ⎢ exp⎜⎜ ⎟ ⎥ 0 ,0123 . (d) A equação das
⎟
⎣⎢ ⎝ ˆ
⎠ ⎦⎥
estimativas de quantis para T=100 anos é
⎡ 1 ⎞⎤
x̂T 100 ˆ ln ⎢ ln ⎛⎜1
ˆ ⎟ ⎥ 153,63 mm.
⎣ ⎝ 100 ⎠ ⎦
⎧ ⎡ ˆ ⎞⎤ ⎫⎪
⎛ 150
ˆ
1
⎪
(c) 1- FX 150 1 exp ⎨ ⎢1 ˆ⎜ ⎟⎥ ⎬ 0,0087 .
⎜ ˆ ⎟
⎢
⎪⎩ ⎣ ⎝ ⎠⎥⎦ ⎪⎭
ˆ ⎧⎪ ⎡ ⎛ 1 ⎞⎤ ⎫⎪
ˆ
xT ⎨1 ⎢ ln⎜1 ⎟⎥ ⎬ 148,07 mm.
ˆ
ˆ ⎪ ⎣ ⎝ T ⎠⎦ ⎪
⎩ ⎭
Considere que y1, y2, y3, ... , yN representem as observações constituintes de uma
AAS retirada de uma população de uma variável aleatória distribuída conforme a
densidade f Y y;1 , 2 ,..., k de k parâmetros. A função densidade conjunta da
AAS, constituída por Y 1 , Y 2 , Y 3 , ... , Y N , é dada por
f Y1,Y2 , ... ,YN y1 , y 2 ,... , y N f Y y1 f Y y 2 ... f Y y N . Essa densidade conjunta é
proporcional à probabilidade de que a AAS tenha sido extraída da população,
definida por f Y y;1 , 2 ,..., k , sendo conhecida por função de verossimilhança.
Portanto, em termos formais, a função de verossimilhança é dada por
N
L 1 , 2 ,..., k ) f Y y i ;1 , 2 ,..., k (6.4)
i 1
Essa é uma função dos parâmetros j, exclusivamente. Os valores j que maximizam
essa função são aqueles que também maximizam a probabilidade de que aquela
AAS específica, constituída por Y1, Y2, Y3, ... , YN, tenha sido sorteada da
população, tal como definida pela densidade prescrita. A busca da condição de
máximo para a função de verossimilhança resulta no seguinte sistema de k equações
e k incógnitas:
'L 1 , 2 ,..., k
0; j 1,2,...,k (6.5)
' j
As soluções desse sistema de equações são os estimadores ˆ j de máxima
verossimilhança. É freqüente o emprego da função logaritmo de verossimilhança
ln [L ()], em substituição à função de verossimilhança propriamente dita, para
facilitar a construção do sistema de equações 6.5. Isso se justifica pelo fato da
função logaritmo ser contínua, monótona e crescente, e, portanto, maximizar o
logaritmo da função é o mesmo que maximizar a função.
Exemplo 6.7 - Seja y1, y2, y3, ... , yN uma AAS retirada da população de
uma variável aleatória discreta Y, distribuída segundo uma distribuição de
Poisson, com parâmetro . Determine o estimador de pelo método da
máxima verossimilhança.
y exp
Solução: A função massa de Poisson é pY y; ; y0,1,2,...
y!
e a respectiva função de verossimilhança é
N
∑ Yi
i exp i1 exp N
N Y
d ln L ; Y1 ,Y2 ,...,YN N1 N
d
∑Yi 1
i
. Igualando essa derivada a zero,
1 n
resulta o estimador de MVS de , ou seja, ˆ ∑ Yi ou ˆ Y .
N i1
⎛⎞ N
equação (II) que exp⎜ ⎟ N , substituindo na equação (I)
⎝⎠
∑ exp Yi
i 1
⎡ ⎤
⎢ N ⎥
ˆ =α
β ˆ ln ⎢ N ⎥ . Esses são os estimadores de MVS da
⎢ exp(− Y α )⎥
⎢⎣ ∑
i =1
i ⎥⎦
1
M 1,r ,0 r ∫ xF F r dF (6.8)
0
⎝ r ⎠
Tabela 6.1 – Vazões Médias Anuais (m3/s) do Rio Paraopeba em Ponte Nova do Paraopeba
1 2 3 4 5 6 7 8
⎛ N − i⎞ ⎛ N i⎞ ⎛ N i⎞ ⎛ N i⎞
Ano Civil Vazão Q Ordem i Qi ⎜ ⎟Q ⎜ ⎟Q ⎜ ⎟Q ⎜ ⎟Q
⎝ 0 ⎠ i ⎝ 1 ⎠ i ⎝ 2 ⎠ i ⎝ 3 ⎠ i
Anual (m3s) ordenadas
⎛ r 1⎞⎛ r k 1⎞
onde p r 1 , k 1
r k 1
⎜ ⎟⎜ ⎟ . A aplicação da equação 6.12 para os
⎝ k ⎠⎝ k ⎠
momentos-L, de ordem inferior a 4, resulta em
2 0 12
621 16230
21
2 6 2
020 361 20
30 121 0
32 λ
11 = α0003=β0 0 2 (6.13)
1
λ 2 = α 0 − 2α1 = 2β1 − β 0 (6.14)
Para melhor clarear a afirmação dada pela equação 6.21, considere que queiramos
estimar a média de uma população qualquer, cujo desvio padrão populacional
é conhecido e igual a , e que, para tal, usaremos a média aritmética X de uma
amostra de tamanho N, suficientemente grande. Da solução do exemplo 5.3 e,
portanto, do teorema do limite central, sabe-se que a variável
⎛ X ⎞
⎜ ⎟ ~ N 0,1 . Logo, pode-se escrever, para o exemplo em questão, que
⎜ ⎟
⎝ N ⎠
⎛ X ⎞
⎜⎜ 1,96 1,96 ⎟⎟ 0,95 . Para transformar essa expressão em uma
⎝ N ⎠
afirmação semelhante àquela dada pela equação 6.21, é necessário isolar o
parâmetro no centro da desigualdade, entre parênteses, ou seja,
⎛ ⎞
⎜ X 1,96 X 1,96 ⎟ 0,95 . Essa expressão deve ser
⎝ N N⎠
interpretada do seguinte modo: se construíssemos uma grande quantidade de
intervalos X 1,96 N , X 1,96 N , a partir de amostras de tamanho
N, 95% desses intervalos conteriam o parâmetro e 5% deles não o conteriam.
A Figura 6.2 ilustra o raciocínio, acima exposto, que é, de fato, a essência da
estimação por intervalos. Observe que, nessa figura, todos os k intervalos,
construídos a partir das k amostras de tamanho N, têm a mesma largura, mas são
posicionados de modo diferente, em relação ao parâmetro . Se uma amostra
específica produzir os limites [i, s], esses serão realizações das variáveis I e S, e,
pelo exposto, terão uma chance de 95% de conter .
Y
Normal conhecido
2
N(0,1)
N
Y
S desconhecido t (n-1)
2
Normal M
S N
2
N
⎛ Yi ⎞
Normal 2
M conhecido ∑ ⎜⎝ ⎟ 2N
i 1 ⎠
S2
Normal 2 desconhecido N 1 2N 1
2
2 NY
Exponencial - 22 N
S T E X̂ T E X̂ T 2 (6.22)
Deve-se ressaltar que o erro padrão da estimativa leva em conta apenas os erros
oriundos do processo de estimação a partir de amostras finitas e, portanto, não
considera o erro devido à seleção de uma distribuição de probabilidades
inadequada. Logo, supondo que a distribuição FX(x) tenha sido corretamente
especificada, o erro padrão da estimativa deverá subentender os erros presentes
nas estimativas dos parâmetros de FX(x). Conseqüentemente, os métodos de
estimação mais usuais, a saber, os métodos MOM, MVS e MML, produzirão
diferentes erros-padrão da estimativa, sendo que o de maior eficiência, do ponto
de vista estatístico, é aquele que resultar no menor valor para ST .
X̂ T $ z 2 S T (6.23)
⎛ 'x ⎞ ⎛ ⎞
2 2 2
⎛ 'x ⎞ ˆ ⎜⎜ 'x ⎟⎟ Varˆ
2
S ⎜ ⎟ ˆ ⎜⎜ ⎟⎟ Var
Var
T
⎝ ' ⎠ ⎝ ' ⎠ ⎝ ' ⎠
(6.25)
⎛ 'x ⎞ ⎛ 'x ⎞ ⎛ ⎞ ⎛ 'x ⎞⎛ 'x ⎞
2 ⎜ ⎟ ⎜⎜ ⎟⎟ Cov ˆ 2 ⎛⎜ 'x ⎞⎟⎜⎜ 'x ⎟⎟ Cov
ˆ , ˆ ,ˆ 2 ⎜⎜ ⎟⎟⎜⎜ ⎟⎟ Cov
ˆ ,ˆ
⎝ ' ⎠ ⎝ ' ⎠ ⎝ ' ⎠⎝ ' ⎠ ⎝ ' ⎠⎝ ' ⎠
Nas equações 6.24 e 6.25, as derivadas parciais são calculadas pela relação
xT X̂ T T e, portanto, dependem da expressão analítica da função inversa
S T2 ⎜⎜ '
T ⎟ Varm' ⎜ 'X̂ T ⎟ Varm ⎜ 'X̂ T ⎟ Varm
⎟ 1 ⎜ ⎟ 2 ⎜ ⎟ 3
⎝ 'm1 ⎠ ⎝ 'm2 ⎠ ⎝ 'm3 ⎠
⎛ 'X̂ ⎞⎛ 'X̂ ⎞ ⎛ ⎞⎛ 'X̂ ⎞
2⎜⎜ '
T ⎟⎜ T ⎟Covm' , m 2⎜ 'X̂ T ⎟⎜ T ⎟Covm' , m (6.26)
⎟⎜ ⎟ 1 2 ⎜ ' ⎟⎜ ⎟ 1 3
⎝ 'm1 ⎠⎝ 'm2 ⎠ ⎝ 'm1 ⎠⎝ 'm3 ⎠
⎛ 'X̂ ⎞⎛ 'X̂ ⎞
2⎜⎜ T ⎟⎜ T ⎟Covm , m
⎟⎜ ⎟ 3 2
⎝ 'm3 ⎠⎝ 'm2 ⎠
onde as derivadas parciais devem ser obtidas das relações entre o quantil X̂ T e
m1' , m2 e m3, tal como usadas em sua estimação.Ainda segundo Kite (1977), as
variâncias e covariâncias de m1' , m2 e m3 são dadas por expressões que dependem
dos parâmetros populacionais 2 a 6. São elas:
2
Var m1' (6.27)
N
4 22
Var m2 (6.28)
N
6 32 6 4 2 9 32
Var m3 (6.29)
N
224 HIDROLOGIA ESTATÍSTICA
CAPÍTULO 6 - ESTIMAÇÃO DE PARÂMETROS
3
Cov m1' , m2 (6.30)
N
4 3 22
Cov m , m3
'
1
(6.31)
N
5 4 3 2
Cov m2 , m3 (6.32)
N
Kite (1977) propõe que a solução da equação 6.26 seja facilitada pela expressão
do quantil X T como uma função dos dois primeiros momentos populacionais e
do chamado fator de freqüência KT, esse, por sua vez, dependente do tempo de
retorno T e dos parâmetros da distribuição FX(x). Portanto, usando o fator de
freqüência, dado pela expressão
X T 1' (6.33)
KT
2
onde,
4
2 (coeficiente de curtose populacional) (6.36)
22
5
3 (6.37)
52
2
6
4 (6.38)
32
2 ⎧ K2 ⎫
S T2 ⎨1 K T 1 T 2 1 ⎬ (6.39)
N ⎩ 4 ⎭
ˆ Cov
⎡ Var ˆ Cov
ˆ , ˆ ,ˆ ⎤
⎢ ˆ ,ˆ ⎥
⎢ Var
ˆ Cov
⎥
(6.40)
⎢⎣ Varˆ ⎥⎦
* ⎜ ⎟
' 2 ' 2 ⎝ '' ⎠ (6.42)
Var
ˆ
D
Depois de calculados os elementos da matriz I, volta-se à equação 6.25 e estima-
se S T2 . Em seguida, toma-se a raiz quadrada de S T2 e aplica-se a equação 6.23
para um nível de confiança previamente especificado 100(1-)%. O exemplo
6.13, a seguir, ilustra o procedimento para a distribuição Gumbel, de 2 parâmetros.
Outros exemplos e aplicações podem ser encontrados nas referências Kite (1977)
e Rao e Hamed (2000).
ST, com o quantil estimado e com z0,025= -1,96 na equação 6.23, conclui-se
que os limites do intervalo de confiança, a 95%, são [109,21; 217,31].
HIDROLOGIA ESTATÍSTICA 229
CAPÍTULO 6 - ESTIMAÇÃO DE PARÂMETROS
Método MOM: p̂ x
Método MVS: p̂ = x
Método MML: p̂ = l1
ˆ
ln
ˆ
6.7.2 – Distribuição Beta
Método MOM:
ˆ e
ˆ são as soluções do sistema
x e
s X2
1
2
Método MVS:
N
' 1
ln
ln
∑ ln 1 x
i
' N i 1
Método MOM: p̂ x m
Método MVS: p̂ x m
Método MML: p̂ l1 m
Método MOM: ˆ x
Método MVS: ˆ x
Método MML: ˆ l1
s082,5,899
0,1649 1 yN2y 2
ˆ
X ln
ln x ∑ ln x6.7.5 – Distribuição Gama
ˆ
y y 0,0544
9,060 0,9775
ln
y i y1 2 6.7.5 – Distribuição Gama
i
yx17
,7973 y11,9685N
s2
Método MOM: ˆθ = X
x
x2
ˆ
s X2
Método MVS:
∂ 1 N
ˆ é a solução da equação ln η − ln Γ(η) = ln x −
∑ ln x i
(A)
∂η N i =1
ˆx
Depois de resolver (A), ˆ.
N
1
onde y ln x ∑ ln x i
N i 1
Método MML:
l2 Γ ( η + 0 ,5 )
ˆ é a solução (método de Newton) da equação
= (B)
l1 π Γ(η + 1)
Método MOM: p̂ 1 x
Método MVS: p̂ 1 x
Método MML: p̂ 1 l1
Método MOM:
Alternativa 1:
resolver para , a equação 5.73, do capítulo 5, substituindo pelo coeficiente de
assimetria amostral gX. A solução é iterativa, pelo método de Newton.
Alternativa 2:
para coeficientes de assimetria amostrais 1,1396 < gX < 10 (g=gX):
ˆ 0 ,2858221 0 ,357983 g 0 ,116659 g 2 0,022725 g 3
0 ,002604 g 4 0,000161g 5 0 ,000004 g 6
ˆ
ˆ
Em seguida,
s X ˆ ˆ x
1 1 ˆ
e
1 2ˆ 2 1 ˆ ˆ
Método MVS:
α ˆ ,ˆκ são as soluções simultâneas (método de Newton) do seguinte sistema:
ˆ ,β
1⎡ N N
⎤
⎢ ∑ exp y y 1 ∑ expy
i ⎥ 0
(C)
⎣ i 1 ⎦
i i
i 1
1 ⎡N N N
⎤
⎢⎣ ∑ exp y i y i
1 ∑ expy i
N ∑ exp yi ⎥⎦ 0 (D)
i 1 i 1 i 1
1 ⎡N N N
⎤
⎢ ∑ exp y y 1 ∑ expy N ∑ exp y ⎥⎦
2 ⎣ i 1
i i i i
i 1 i 1
1⎡ N N
⎤
⎢ ∑ y i ∑ y i exp y i N ⎥ 0
⎣ i 1 i 1 ⎦ (E)
1 ⎡ ⎛ x i ⎞⎤
onde y i ln⎢1 ⎜ ⎟⎥ . A resolução desse sistema é complexa; sugere-
⎣ ⎝
⎠⎦
se as referências Prescott e Walden (1983) e Hosking (1985) para algoritmo de
resolução.
Método MML:
ˆ 7 ,8590C 2,9554C 2 , onde C 2 3 t 3 ln 2 ln 3
l 2 ˆ
ˆ
1 ˆ 1 2 ˆ
ˆ
ˆ l
1 1 ˆ
1
ˆ
Método MOM:
ˆ 0 ,7797 s X
ˆ x 0,45s
X
Método MVS:
N 1 N
1 N
⎛ xi ⎞
ln L
, ∑ x ∑ x exp ⎜
⎝
⎟ 0 F
⎠
i i
2
2 i1
i 1
N 1 N ⎛ xi ⎞
ln L
, ∑ exp ⎜
(G)
⎟ 0 G
i1 ⎝
⎠
N
⎛ xi ⎞ ⎛ 1 N ⎞N ⎛ x ⎞
F
∑ xi exp ⎜ ⎟ ⎜ ∑ xi
⎟⎠ ∑ exp⎜⎝ i ⎟⎠ 0 (H)
i 1 ⎝
⎠ ⎝N i 1 i 1
ˆ.
A solução de (H), pelo método de Newton, fornece
⎡ ⎤
⎢ N ⎥
ˆ =α
Em seguida, β ˆ ln⎢ N ⎥.
⎢ ∑ exp(− x α)⎥
⎣ i =1 i
⎦
Método MML:
l
ˆ 2
ln 2
ˆ l 0 ,5772
ˆ
1
Método MOM:
ˆ 0 ,7797 s X
ˆ x̂ 0,45s
X
Método MML:
l2
ˆ
ln 2
ˆ l 0 ,5772
ˆ
1
Método MOM:
ˆ Y ln CV X2 1
ˆ Y2
ˆ Y ln x
com Y = lnX
2
Método MVS:
ˆY y
ˆ Y sY
Método MML:
ˆ Y 2 erf 1 t
ˆ2
ˆ Y ln l1 Y
2
w
2
onde erf (w) = ∫e
−u 2
du . A inversa erf 1
t é igual a u 2 , com u
π 0
∫
u 2
e du
0
6.7.11 – Distribuição Log-Pearson Tipo III
Método MOM:
exp r ˆ , ˆ são as soluções
Lembrando que 'r
são estimados por m'r ,
ˆ,
1 r
de: ln m1' ln 1
ln m'2 2 ln 1 2
ln m3' 3 ln 1 3
1
• ˆ
A3 '
ˆ ln m2 2 ln m1'
•
ˆ 2 ln 1 2
ln 1
ˆ
• ˆ ln m1' ˆ ln 1
ˆ
Método MVS:
ˆ , ˆ , ˆ são as soluções (método de Newton) do seguinte sistema:
N
∑ ln x i N
i 1
N
N
∑ ln ln xi /
i 1
N
1
N
1 ∑
i 1 ln xi
'
onde
, a qual, conforme Abramowitz e Stegun (1965), pode ser
aproximada por
1 1 1 1 1 1 .
ln
2 12 2 120 4 252 6 240 8 13210
Método MML:
As estimativas pelo método MML podem ser obtidas por procedimento idêntico
ao ilustrado para a distribuição Pearson Tipo III, com a transformação zi=ln(xi).
Método MOM:
ˆX x
ˆ X sX
Método MVS:
ˆX x
ˆ X sX
Método MML:
ˆ X l1
ˆ X l 2
Método MOM:
2
⎛ ⎞
ˆ ⎜ 2 ⎟
⎜ ⎟
⎝ gX ⎠
s X2
ˆ
ˆ
ˆ
ˆ x s X2
Método MVS:
ˆ , ˆ são as soluções (método de Newton) do seguinte sistema:
ˆ ,
N
∑ x i N
i 1
N
N
∑ ln ln x i /
i 1
N
1
N
1 ∑
i 1 ln xi
'
onde
(ver distribuição Log-Pearson Tipo III).
Método MML:
0,36067t m 0,5967t m2 0,25361t m3
Para t3 1/3 e com t m 1 t 3 , ˆ .
1 2,78861t m 2,56096t m2 0,77045t m3
1 0 ,2906t m
Para t3 < 1/3 e com t m 3t 32 , ˆ .
t m 0 ,1882t m 0 ,0442t m3
2
ˆ
ˆ l 2
ˆ 0 ,5
ˆ l1
ˆ
ˆ
Método MOM:
ˆν = x
Método MVS:
ˆν = x
Método MOM:
â = x − 3s x
b̂ x 3s x
Método MVS:
â Min xi
b̂ Max xi
Método MML:
â e b̂ são as soluções de l1 = (a + b) 2 e l 2 b a 6 .
Método MOM:
ˆ são as soluções do seguinte sistema de equações:
ˆ e
⎛ 1⎞
x ⎜1 ⎟
⎝
⎠
⎡ ⎛ 2⎞ ⎛ 1 ⎞⎤
s X2 2 ⎢ ⎜1 ⎟ 2 ⎜1 ⎟⎥
⎣ ⎝
⎠ ⎝
⎠⎦
`
(Ver item 5.7.2.5 do capítulo 5).
Método MVS:
N
N N
∑ xi
ln xi ∑ ln xi
i 1 i 1
Exercícios
x 1exp x
1) Dada a função densidade f X x ,x 0, 0, determine o valor
de c, tal que cX seja um estimador não-enviesado de . Recorde-se da seguinte
propriedade da função gama: 1 .
2) Suponha que {Y1, Y2, ... , YN}seja uma AAS de uma FDP cuja média é .
N
Pergunta-se sob quais condições W ∑ ai Yi é um estimador não-enviesado de
i 1
.
WN
1 para N n , . Suponha que {X1, X2, ... , XN} seja uma
AAS da FDP f X x;
1
para 0 y
e que W N X max . É possível
demonstrar que W N é um estimador enviesado de
, embora possa ser consistente.
A questão da consistência passa a ser posta na existência (ou não) de n , ,
suficientemente grande, para que WN
1 para N n , .
Mostre que W N é um estimador consistente de
. Para resolver esse exercício,
recorde-se que a FDP exata do máximo de uma AAS pode ser obtida pelos
métodos descritos no item 5.7.1, do capítulo 5. No caso presente, pode-se mostrar
N wN
N 1
que f WN wN .
N
7) Conforme menção anterior, um estimador W h X 1 , X 2 ,..., X N é
considerado suficiente, para
, se, para todo
e para quaisquer valores amostrais,
a FDP de X 1 , X 2 ,..., X N , condicionada a w, não depende de
. Mais
f X 1 x1 . f X 2 x 2 ... f X N x N
precisamente, W é suficiente se não depende de
fW w
. Considere o estimador W N , descrito no exercício 6. Demonstre que W N é um
estimador suficiente.
17) Suponha que, no item (a) do exercício 15, a variância populacional fosse
conhecida e igual à estimativa obtida por meio da amostra. Sob essa condição,
refaça o item (a) do exercício 15 e interprete as diferenças nos resultados.
18) Suponha que, no item (b) do exercício 15, a média populacional fosse
conhecida e igual à estimativa obtida por meio da amostra. Sob essa condição,
refaça o item (b) do exercício 15 e interprete as diferenças nos resultados.
242