Documente Academic
Documente Profesional
Documente Cultură
EM SÉRIES TEMPORAIS
1. Introdução ........................................................................................................................................... 3
2
5.2. Previsão .............................................................................................................................
5.3. Exemplo – Série CEP ............................................................................................................
6. Análise de Intervenção ....................................................................................................................
6.1. Modelo de regressão para séries com intervenção e erros autorregressivos ......................
6.2. Previsão .............................................................................................................................
6.3. Exemplo – Série Acidentes .................................................................................................
3
1. Introdução
ordenados no tempo, ou seja, uma série temporal, e desejamos prever valores futuros para esta série.
Denotaremos a série temporal por y1 , y2 ,..., yn onde n é o tamanho da série. Trabalharemos com
séries temporais a tempo discreto, onde os dados são coletados diariamente, semanalmente,
mensalmente ou anualmente.
futuros para a série. Para prever eventos que ocorrerão no futuro, o “pesquisador” deve se basear em
informações concernentes a eventos que tenham ocorrido no passado. Assim, a análise pode ser feita da
seguinte forma. Primeiro, o “pesquisador” analisa os dados para poder identificar um comportamento
que possa ser usado para descrevê-lo. Este comportamento é então extrapolado, ou estendido no futuro,
para calcular uma previsão. Esta estratégia básica é empregada na maioria das técnicas de previsão e se
baseia na suposição de que o comportamento que foi identificado continuará no futuro. Se o padrão que
foi identificado para os dados não persiste no futuro, isto indica que a técnica de previsão usada
provavelmente produzirá previsões incorretas. Um analista não deveria ficar surpreso em tais situações,
mas deveria tentar antecipar quando tal mudança no padrão ocorreria, para que mudanças apropriadas
no sistema de previsão pudessem ser feitas antes das previsões se tornarem incorretas. A seguir
4
Exemplo 1.1: Série de temperatura global (TempMedia), de 1900 a 1997. Os dados foram calculados
como um desvio da temperatura global média anual do período 1961-1990. Existe uma tendência
aparentemente crescente na série e isto tem sido usado para sustentar a hipótese de aquecimento global.
0.4
0.2
desvio temperatura
0.0
-0.2
-0.4
Exemplo 1.2: Os dados na Figura 1.2 referem-se às séries de preços do grão e do farelo de soja,
16
250
14
Farelo
Grao
200
12
10
150
Time Time
5
Exemplo 1.3: Série do consumo de energia elétrica das Centrais Elétricas do Paraná (CEP), de jan/80 a
350
300
250
Exemplo 1.4: A Figura 1.4 mostra a série mensal de número total de motoristas mortos ou seriamente
feridos em acidentes de trânsito na Grã Bretanha, entre Jan/1969 a Dez/1984. O uso compulsório do
1500
1000
dos Estados Unidos, de janeiro de 1970 a dezembro de 1983. Esta é uma série de contagens com
valores baixos, portanto a suposição de distribuição Normal não seria adequada neste caso.
14
12
10
8
Polio
6
4
2
0
Vamos utilizar estes exemplos ao longo do curso, para explicar a forma de se obter modelos
lineares em séries temporais e como construir previsões para valores futuros da série. Desde que
eventos futuros envolvem incerteza, as previsões geralmente não são perfeitas. O objetivo da análise de
previsão é reduzir o erro de previsão: produzir previsões que raramente são incorretas e que contenham
pequenos erros.
O material desta apostila foi baseado nos livros e artigos que se encontram na seção de
Referências.
7
PARTE 1:
As séries temporais apresentadas nos Exemplos 1.2 a 1.4 são compostas de observações
contínuas (Exemplos 1.1 a 1.3) ou discretas com valores relativamente altos ( Exemplo 1.4), que a
Uma das possibilidades para a modelagem destas séries é a utilização de modelos lineares,
como o modelo de regressão, se houver uma relação linear entre a série e alguma(s) outra(s) série(s)
Entretanto, uma das principais características de uma série temporal é a existência de correlação entre
observações sucessivas. Desta forma, o ajuste de modelos de regressão deve ser usado com cautela
neste caso. Se a suposição de independência não for satisfeita, devemos incluir componentes no modelo
formas de se detectar correlação nos dados e, caso esta exista, como podemos corrigir o problema.
8
2. Modelo de regressão com funções do tempo
busca determinar um padrão de informação no tempo) com funções do tempo. Estes modelos são mais
úteis quando os parâmetros descrevendo a série temporal a ser prevista permanecem constantes no
tempo. Por exemplo, se a série temporal exibe uma tendência linear, então a inclinação da linha de
tendência permanece constante. A Seção 2.1 mostra como modelar a tendência usando funções
polinomiais do tempo e a Seção 2.2 apresenta o método de estimação dos parâmetros do modelo. Na
Seção 2.3 vemos como construir previsões para valores futuros da série yt e a Seção 2.4 apresenta dois
Algumas vezes podemos descrever uma série temporal yt usando um modelo de tendência. Tal
yt t t , t 1,..., n (2.1)
onde t ~ N 0, 2 , independentes.
Este modelo diz que a série temporal y t pode ser representada por um nível médio (denotado
t) e pelo termo de erro t . Este termo de erro representa flutuações aleatórias que causam o desvio dos
observada (ver Figura 2.1). O Modelo sem tendência, que é definido como t = 0, implica que não há
crescimento ou decrescimento a longo prazo na série temporal ao longo do tempo, veja Figura 2.1(a). O
9
Modelo de tendência linear, que é modelado como t = 0 + 1t, implica que há um crescimento (a
inclinação é maior que zero) ou decrescimento (menor que zero) em linha reta ao longo do tempo, veja
Bo
t
t t
(a) Tendência constante (b) Crescimento em linha reta (c) Decrescimento em linha reta
No Caso (a): t 0 ;
Modelos mais complexos também podem ser obtidos na prática, como Modelos lineares de
tendência quadrática, que são modelados como t = 0 + 1t + 2t2, ou Modelos lineares de tendência
Podemos ter também um modelo com variáveis explicativas, x1, ..., xr, além do termo de
onde t ~ N 0, 2 , independentes.
10
2.2. Estimação de parâmetros e adequação do modelo
Estimativas pontuais dos parâmetros do modelo (2.3) podem ser obtidas usando o método de
yˆt ˆ0 ˆ1t ˆ2t 2 ... ˆk t k ˆk 1x1,t ... ˆk r xr ,t , (2.4)
et yt yˆ t , t 1,...n . (2.5)
Suposições do modelo:
Quando as suposições de normalidade ou variância constante não são satisfeitas, devemos fazer
uma transformação nos dados para tentar resolver o problema. Porém, a transformação não resolve o
problema de falta de independência. Neste caso, veremos no Capítulo 4 como fazer a modelagem
11
2.3. Previsão
Vamos denotar por YˆT h a previsão para o tempo T+h, dado que observamos a série até o
tempo T. A partir de estimativas pontuais para os parâmetros 0, 1 , ..., k , k+1, ..., k+r, podemos
obter previsões para um valor futuro da série. Assim, uma previsão pontual feita no tempo T para yT h é
dada por
YˆT (h) ˆ0 ˆ1 (T h) ... ˆk (T h) k ˆk 1x1, (T h) ... ˆk r xr , (T h) (2.6)
Além disto, intervalos de previsão aproximados de 100(1-)% são obtidos como segue:
onde tT /2nP é o percentil /2 da distribuição t-Student com T-nP graus de liberdade, nP é o número de
Para comparar modelos diferentes, podemos calcular a soma de quadrados dos erros de
previsão:
2
Y Yˆ (h)
H
EQMP T h T
(2.8)
h 1 H
onde H é o número de previsões realizadas.
2.4. Exemplos
Utilizando os dados do Exemplo 1.1, vamos ajustar um modelo de regressão à série do desvio
da temperatura global média, para o período de 1900-1994. Deixaremos os anos de 1995-1997 para
12
O modelo ajustado foi o seguinte:
Saída do R:
AIC(M1): -116.7915
O valor estimado de 0, ou seja o ponto onde a reta ajustada intercepta o eixo dos y´s foi igual a
-11,6333, e o valor de 1, a inclinação da reta foi de 0,005923. Estes dois valores foram
estatisticamente significativos, pois o valor-p para ambos foi <2e-16 (menor que o nível de
significância = 0.05). Como o sinal do coeficiente 1 foi positivo, isto indica que a temperatura
global tende a aumentar com o tempo. Porém, o valor de R2 não foi muito alto (62.14%), indicando que
Obs.: A variável “Ano” foi construída com valores de 1900 a 1994, mas poderia ser construída também
com os valores de 1 a 95 (a quantidade de observações presentes na série). Neste caso, o ajuste ficaria:
Podemos perceber que apenas a estimativa do intercepto, 0 , mudou. Como o interesse não é no
intercepto, e sim na relação temporal, dada pela estimativa de 1 , e esta não muda com a definição da
13
Análise de Resíduos
Um outro problema ocorre com os resíduos, como podemos notar pelos gráficos da Figura 2.2.
O gráfico de resíduos no tempo não apresenta um comportamento aleatório em torno do valor zero,
indicando clara falta de independência entre os resíduos. Já o histograma mostra uma leve assimetria,
O problema da falta de independência pode ter sido causada pela autocorrelação existente entre
observações sucessivas da série. Na próxima seção, vamos verificar como corrigir estes problemas.
-0.3 -0.1 0.1 0.3
M1$res
0 20 40 60 80
Index
Histogram of M1$res
25
Frequency
15
0 5
M1$res
Apesar destes problemas, vamos tentar determinar previsões para os anos de 1995-1997, para os
14
Previsões para os anos de 1995 a 1997:
Previsão para 1995: Para calcular a previsão para o ano de 1995 utilizamos o modelo M1 onde o ano
onde t095.975
2
= 1,9858 é o percentil 0,975 da distribuição t-Student com 95-2 graus de liberdade e
As previsões três passos à frente, intervalos de previsão e valores reais para 1995 a 1997 são
15
Tabela 2.1: Previsão para os anos de 1995 a 1997 do desvio da temperatura global
A Figura 2.3 mostra o ajuste, assim como as previsões para 1995 a 1997, com o intervalo de
previsão. Podemos ver que todas as previsões subestimaram o verdadeiro valor do desvio médio de
o : Previsão
-- : Intervalo Previsao
0.2
desvio temperatura
0.0
-0.2
-0.4
0 20 40 60 80 100
tempo
Figura 2.3: Ajuste, previsão e intervalos de previsão para o modelo M1 (Temperatura global). Os
pontos em azul são os valores previstos e as linhas em vermelho são os intervalos de previsão.
16
2.4.2. Preço do grão e farelo de soja
Com os dados do Exemplo 1.2, vamos ajustar um modelo para a série do preço do farelo de soja
(Farelo), usando como variável explicativa a série de preço do grão de soja (Grao). Os dados vão de
Jan/1990 a Ago/1999, mas deixaremos os últimos 12 meses (Set/1998 a Ago/1999) para validação do
modelo através da comparação das previsões. Assim, nossa série terá tamanho n=104.
A Figura 2.4 mostra o gráfico de dispersão das duas variáveis. Podemos perceber uma relação
linear positiva entre as duas séries, ou seja, parece que quanto maior o valor do preço do grão de soja,
maior o valor do preço do farelo de soja, como esperado. Além disto, o coeficiente de correlação entre
as duas foi de 0,8794. Como as séries apresentadas na Figura 1.2 mostram que não existe tendência
crescente nem decrescente nestas séries, não é necessário incluir componentes de tendência no ajuste.
300
250
farelo
200
150
8 10 12 14 16
Grao
Figura 2.4: Gráfico de dispersão para as séries do preço de grão e farelo de soja.
Desta forma, podemos ajustar o modelo de regressão, cujo resultado é dado por:
Modelo M1:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -8.9569 11.7744 -0.761 0.449
Grao 17.3237 0.9671 17.912 <2e-16 ***
17
AIC(M1): 937.2809
Neste caso, somente 1 foi significativo, indicando que existe uma relação linear positiva entre
os preços do grão e farelo de soja. Ou seja, se o preço do quilo do grão de soja aumenta em um real, o
preço médio do quilo do farelo de soja aumenta em 17,3237 reais. O valor de R2 foi de 75,88%, o que
pode estar sendo afetado pela autocorrelação presente nas duas séries.
Modelo M2:
Estimate Std. Error t value Pr(>|t|)
Grao 16.5999 0.1728 96.05 <2e-16 ***
AIC(M2): 935.8693
Porém, o valor de R2 aumenta significativamente, passando para 98,9%. Isto poderia nos levar a crer
que este ajuste é muito superior ao anterior, mas se observarmos o valor do AIC, vemos que a
diminuição não foi tão grande. Além disto, como vamos observar na análise de resíduos, as suposições
do modelo ainda não estão satisfeitas, e tudo isto pode afetar o valor de R2.
Análise de Resíduos
A Figura 2.5 mostra os gráficos de resíduos no tempo e histograma para o modelo sem o
intercepto (M2). Podemos ver que o gráfico de resíduos apresenta um comportamento cíclico em torno
do valor zero, indicando clara falta de independência entre os resíduos. Já o histograma mostra uma
assimetria à direita, mas o teste de Shapiro-Wilks não rejeita hipótese de normalidade (valor-p=0,182).
18
60
M2$res
0 20
-40
0 20 40 60 80 100
Index
Histogram of M 2$res
5 10 15
Frequency
-40 -20 0 20 40 60
M2$res
Apesar do problema da falta de independência dos resíduos, vamos tentar determinar previsões
utilizando o modelo sem intercepto, para os meses de Set/1998 a Ago/1999, para os quais possuímos os
valores reais. Para calcular as previsões para o preço do farelo, precisamos dos valores reais da série do
preço do grão de soja no período de Set/1998 a Ago/1999, que são apresentados na Tabela 2.2.
Mês Set/98 Out/98 Nov/98 Dez/98 Jan/99 Fev/99 Mar/99 Abr/99 Mai/99 Jun/99 Jul/99 Ago/99
Grão 11,44 11,55 11,43 11,00 9,60 8,65 8,32 8,51 8,68 8,72 8,49 9,09
19
Previsões para Set/1998 a Ago/1999:
Previsão para Set/1998: A previsão do preço do farelo de soja para o mês de setembro de 1998 é
calculada como:
onde t01041
.975 = 1,983264 é o percentil 0,975 da distribuição t-Student com 104-1 graus de liberdade e
Procedendo desta forma, obtemos as previsões para os 12 meses de interesse. A Tabela 2.3
mostra as previsões doze passos à frente, intervalos de previsão e valores reais para Set/1998 a
Ago/1999. Podemos verificar que todas as previsões, exceto Fev/99, superestimam o verdadeiro valor
do preço do farelo de soja, mas os valores reais estão dentro do intervalo de previsão.
Tabela 2.3: Previsões seis passos à frente para o preço do farelo de soja, Set/1998 a Ago/1999
20
EQMP = 460,26.
A Figura 2.6 mostra o ajuste e as previsões para os doze últimos meses, com o intervalo de
previsão. Vemos que o modelo ajustado segue relativamente bem o comportamento da série.
300
250
Farelo
200
150
100
0 20 40 60 80 100 120
tempo
Figura 2.6: Ajuste, previsão e intervalos de previsão para o modelo M2 (Farelo). A linha preta
representa a série do Farelo, a linha azul mostra o modelo ajustado, os pontos em azul são os
valores previstos e as linhas em vermelho são os intervalos de previsão.
21
3. Detectando a autocorrelação
A validade dos métodos de regressão ilustrados no Capítulo 2 requer, dentre outras, que a
suposição de independência seja satisfeita. Porém, quando dados de séries temporais estão sendo
analisados, esta suposição é frequentemente violada. É muito comum que os termos de erro, ordenados
A hipótese de independência diz que os termos de erro ordenados no tempo não devem produzir
comportamento de autocorrelações positivas ou negativas. Isto significa que os termos de erro devem
ocorrer de forma aleatória ao longo do tempo. Tal comportamento implicaria que estes termos de erro
são estatisticamente independentes, o que por sua vez implicaria que os valores de y t ordenados no
Se temos uma série real, o estimador amostral aproximadamente não-tendencioso (para grandes
1 n
ˆk yt y yt k y .
n t k 1
Como a autocovariância é uma função par, temos que para todo inteiro k, k k . Portanto, é
comprimento e a memória de um processo, ou seja, a extensão para a qual o valor tomado no tempo t
k Cov yt , yt k
k .
0 Var yt Var yt k
por:
ˆk
ˆ k , k 0,1,2,...
ˆ0
23
3.3. Métodos para detecção da autocorrelação
Desde que os resíduos são estimativas pontuais dos termos de erro, um gráfico de resíduos
versus tempo pode ser usado para detectar violações da suposição de independência.
formal para detectar autocorrelação de primeira ordem. A estatística de Durbin-Watson é dada por
e et 1
n
2
t
d t 2
n
(3.1)
e
t 1
2
t
Considere o teste
24
Durbin e Watson (1951) mostraram que existem pontos (denotados por d L , e d U , ) tais que, se
é a probabilidade de um erro Tipo I (ou seja, a probabilidade de rejeitarmos H0 quando esta hipótese
é verdadeira), então:
pequeno, as diferenças et et 1 são pequenas. Por outro lado, valores grandes de d (logo valores
Para que o teste de Durbin-Watson possa ser facilmente aplicado, tabelas contendo os pontos
d L , e d U , devem ser construídas. Estas tabelas calculam os pontos d L , e d U , apropriados para vários
Note que, por exemplo, nP 1 para o modelo linear simples. Uma tabela com a distribuição de d para
substancialmente menor que 2, existe evidência de correlação serial positiva. Como uma regra
aproximada, se d é menor que 1, existe motivo para alarme. Pequenos valores de d indicam termos de
correlacionados.
relevantes:
25
a validade do teste de Durbin-Watson depende da suposição de que a população de todos os
negativas;
séries temporais podem exibir estruturas de autocorrelação dos erros mais complicadas. Em
autocorrelação amostral.
ˆk
ˆ k , k 0,1,2,... .
ˆ0
brancos, ou seja, se eles satisfazem a suposição de independência, então a FAC não deve apresentar
onde y é a série e lag.max é o número de lags que se quer utilizar no cálculo da FAC. Se não for
especificado um número, como no caso acima, o R usa o default de 10*log10(n/m) onde n é o número
26
3.4. Exemplos
No Exemplo 2.4.1 vimos, através dos gráficos de resíduos, que um possível problema de
autocorrelação poderia estar comprometendo o modelo linear ajustado à série. Como o gráfico de
resíduos na Figura 2.2 mostrou um comportamento cíclico, os termos de erro devem ser positivamente
correlacionados. Para confirmar a existência de autocorrelação de primeira ordem, vamos fazer o teste
de Durbin-Watson.
O valor desta estatística foi d = 0,9036. Neste caso, n 95 e nP 1 . Logo para um nível de
significância de 5% temos,
d L , = 1,64 e d U , = 1,69.
Como d 1,64 , concluímos que realmente existe uma autocorrelação positiva de primeira ordem.
Vamos também fazer o gráfico da função de autocorrelação amostral (FAC) dos resíduos do
modelo M1. O gráfico apresentado na Figura 3.1 mostra que existem vários picos significativos na
Series M 1$res
1.0
0.8
0.6
ACF
0.4
0.2
0.0
-0.2
0 5 10 15
Lag
O gráfico de resíduos do modelo M2, na Figura 2.5, mostrou um possível problema de falta de
termos de erro devem ser positivamente correlacionados. Para confirmar a existência de autocorrelação
O valor desta estatística foi d = 0,3633. Neste caso, n 110 e nP 1 . Logo para um nível de
significância de 5% temos,
Como d 1,65 , concluímos que realmente existe uma autocorrelação positiva de primeira ordem nesta
série.
O gráfico apresentado na Figura 3.2 mostra a função de autocorrelação amostral (FAC) dos
resíduos do modelo M2. Podemos ver que existem vários picos significativos na FAC, portanto os
Series M 2$res
1.0
0.8
0.6
ACF
0.4
0.2
0.0
-0.2
0 5 10 15 20
Lag
Já vimos que os termos de erro para modelos de regressão em séries temporais são
Este capítulo apresenta uma forma de trabalhar com erros correlacionados, utilizando os
O nome autorregressivo se deve ao fato de que a série no instante t é função da série nos
instantes anteriores a t. Podemos ajustar modelos autorregressivos para qualquer série temporal, mas
Se existe uma relação da série no tempo presente somente com o tempo imediatamente anterior,
t 1 t 1 ut
t 1 t 1 2 t 2 ut .
Generalizando, podemos ter uma relação com até p tempos anteriores, ou seja, um AR(p),
29
Consideremos agora o modelo de regressão polinomial dado na Equação (2.3), que contenha
Os parâmetros deste modelo podem ser estimados por mínimos quadrados ordinários ou através
suposições sobre os novos resíduos do modelo, ou seja, para a série u t estimada. Estes resíduos devem
ter distribuição Normal, média zero, variância constante e devem ser independentes.
4.2. Previsão
YˆT (h) ˆ0 ˆ1 (T h) ... ˆk (T h) k ˆk 1x1, (T h) ... ˆk r xr , (T h) ˆT h (4.2)
onde ˆT h é calculado através do valor esperado das observações futuras condicionado aos valores
30
Por exemplo, para um AR(1),
t 1 t 1 ut
a previsão h passos à frente, dado que estamos no tempo T, é:
i) Esperança condicional dos t já realizados são os próprios resíduos, et, do modelo de regressão
ii) Esperança condicional dos t ainda não realizados são as respectivas previsões para t ,
31
4.3. Intervalo de Confiança para as Previsões
Suposição:
Desta forma, um intervalo de previsão de 100(1-)% para as observações futuras é dado por:
onde tT /2nP é o percentil /2 da distribuição t-Student com T-nP graus de liberdade, nP é o número de
T h | T , T 1,.
Mostramos abaixo como calcular T h para os modelos AR(1) e AR(2), que são os mais comuns
na prática. Modelos com ordem maior que 2 são mais complexos, mas e o cálculo é mais complicado.
32
4.4. Exemplos
Como vimos nos Exemplos 2.4.1 e 3.4.1, o modelo linear ajustado ao desvio da temperatura
global possui autocorrelação de 1ª ordem nos resíduos. Assim, vamos ajustar um novo modelo
incluindo um componente AR(1) para os termos de erro t . O modelo proposto é então dado por:
yt 0 1t t t 1900,...,1995
Saída do R:
33
Observamos que os três coeficientes, 0, 1 e 1 foram estatisticamente significativos, pois para
todos eles o valor-p foi bem menor que 0,05. Verificamos também que o valor de R2 aumentou de 62%
para 75%, indicando que a reta ajustada explica melhor a variação dos dados. Além disto, o valor do
AIC diminuiu de -116,7915 para -150,01. Analisando os gráficos de resíduos (Figura 4.1) não
observamos mais nenhum padrão específico no gráfico de resíduos vs. tempo, portanto podemos dizer
mostra uma leve assimetria, mas o teste de Shapiro-Wilks também não rejeitou a suposição de
normalidade (0,6688). Os gráficos de FAC e FACP não mostram nenhum pico significativo e a
estatística de Durbin-Watson, d=1,9617 e 4-d=2,0383, são maiores que d U , = 1,69. Logo, não existe
Histogram of M1.AR1$res
20
-0.2 -0.1 0.0 0.1 0.2
15
M1.AR1$res
Frequency
10
5
0
Time M1.AR1$res
Series M1.AR1$res
0.2 0.4 0.6 0.8 1.0
2
1
rnorm(n - H)
ACF
0
-1
-2
-0.2
M1.AR1$res Lag
Figura 4.1: Gráficos de resíduos para o modelo M1.AR1 ajustado ao desvio da temperatura global
Como o modelo M1.AR1 parede adequado, podemos utilizar este modelo para fazer previsões
34
Previsões para 1995 a 1997:
Previsão para 1995: Para calcular a previsão para o ano de 1995 utilizamos o modelo M1.AR1, onde o
ano será igual a 1995. Logo o desvio da temperatura previsto para 1995 será de
onde t095.975
3
= 1,9861 é o percentil 0,975 da distribuição t-Student com 95-3 graus de liberdade,
Previsão para 1996: Para calcular a previsão para 1996, utilizamos o modelo M1.AR1, com o ano
igual a 1996.
Neste caso, não podemos obter o valor de e1995 diretamente do modelo M1, pois este só foi ajustado
para os anos de 1900 a 1994. Assim, caímos no caso (ii) da Seção (2.3). Ou seja, e1995 será dado pela
35
Intervalo de previsão de 95%:
1 0,5662611
2
0,2134 ± 1,985802 x 0,1051227 x = [-0,0265 ; 0,4533].
AR(1) e h=2.
Previsão para 1997: Para calcular a previsão para 1997, utilizamos o modelo M1.AR1, com o ano
igual a 1997.
Neste caso, e1996 será dado pela previsão dois passos à frente, feita em 1994:
1 0,5662611 0,5662611
2 4
0,2077 ± 1,985802 x 0,1051227 x = [-0.0414 ; 0.4568].
As previsões e os valores reais do desvio da temperatura para este período são dados na Tabela
4.1. Podemos verificar que o EQMP caiu de 0,0330 para 0,0252 em relação ao modelo sem os erros
A Figura 4.2 mostra o ajuste, assim como previsões para os três últimos anos, com o intervalo
de previsão. Podemos ver que as previsões ainda subestimam o verdadeiro valor do desvio médio de
36
temperatura, apesar dos valores reais estarem dentro do intervalo de previsão. Além disto, o ajuste
segue de forma bem mais próxima o comportamento da série, comparado com o ajuste do modelo M1.
Tabela 4.1: Valores reais e previstos para o desvio da temperatura global, de 1995 a 1997
EQMP = 0,0252.
0.4
0.2
desvio temperatura
0.0
-0.2
-0.4
0 20 40 60 80 100
tempo
Figura 4.2: Ajuste, previsão e intervalos de previsão para o modelo M1.AR1 (Temperatura global). A
linha preta representa a série do desvio da temperatura média, a linha azul mostra o modelo ajustado, os
pontos em azul são os valores previstos e as linhas em vermelho são os intervalos de previsão
37
4.4.2. Preço do grão e farelo de soja
Nos Exemplos 2.4.2 e 3.4.2, vimos que o modelo linear ajustado ao preço do farelo de soja
possui autocorrelação nos resíduos. Após alguns testes, vemos que é necessário ajustar um modelo
AR(2) aos resíduos, pois este modelo apresentou todos os coeficientes significativos e menor AIC.
Assim, vamos ajustar o modelo de regressão com erros AR(2), para o período de jan/1990 a fev/1999.
Novamente, o intercepto não foi significativo, portanto o modelo ajustado, denotado por M2.AR2, foi:
Saída do R:
2
os valores-p foram menores que 0,05. Verificamos que o valor de Radj diminuiu um pouco em relação
ao modelo M2 (de 99% para 95%), mas continua sendo um valor alto e, além disto, vimos que no
modelo M2 o R2 poderia estar sendo afetado pela não validade das suposições do modelo.
Corroborando esta análise, vemos que o valor do AIC diminuiu de 935,87 para 793,94.
Analisando os gráficos de resíduos (Figura 4.3) não observamos mais nenhum padrão específico
no gráfico de resíduos vs. tempo, portanto podemos dizer que as observações se encontram
aleatoriamente distribuídas em torno de zero. O histograma ainda mostra uma leve assimetria à direita,
mas o teste de Shapiro-Wilks também não rejeitou a suposição de normalidade (0,4742). Finalmente, o
38
gráfico da FAC não mostra picos significativos (somente um pico na muito afastado da origem, o que
pode ser considerado um ruído) e a estatística de Durbin-Watson, d= 2,2218 e 4-d=1,7782 são maiores
que d U , = 1,69. Logo, não existe mais o problema de autocorrelação nos dados.
Histogram of M2.AR2$res
-20 -10 0 10 20 30
5 10 15 20 25
M2.AR2$res
Frequency
0
0 20 40 60 80 100 -20 -10 0 10 20 30
Time M2.AR2$res
Series M2.AR2$res
ACF
0
-2 -1
-0.2
-20 -10 0 10 20 30 0 5 10 15 20
M2.AR2$res Lag
Figura 4.3: Gráficos de resíduos para o modelo M2.AR2 ajustado á série do preço do farelo de soja
Como o modelo M2.AR2 parece adequado, podemos utilizar este modelo para fazer previsões
A previsão do preço do farelo de soja para o mês de setembro de 1998 é calculada como:
39
Intervalo de previsão de 95%:
onde t0104 3
.975 = 1,983731 é o percentil 0,975 da distribuição t-Student com 104-3 graus de liberdade,
A Tabela 4.2 mostra as previsões doze passos à frente, intervalos de previsão e valores reais
para Set/1998 a Ago/1999. Podemos verificar que a maioria das previsões superestima o verdadeiro
valor do preço do farelo de soja, mas os valores reais estão dentro do intervalo de previsão.
Comparando as previsões do modelo M2 com o modelo M2.AR2, vemos que este último apresenta um
Tabela 4.2: Previsões seis passos à frente para o preço do farelo de soja, Set/1998 a Ago/1999
EQMP = 188,06.
40
A Figura 4.4 mostra o ajuste, assim como previsões para os seis últimos meses, com o intervalo
de previsão. Podemos ver que o modelo ajustado segue bem o comportamento da série, com previsões
150
100
0 20 40 60 80 100 120
tempo
Figura 4.4: Ajuste, previsão e intervalos de previsão para o modelo M2.AR2 (Farelo). A linha preta
representa a série do preço do farelo de soja, a linha azul mostra o modelo ajustado, os pontos em azul
41
5. Séries sazonais
Um exemplo de série sazonal é a série das Centrais Elétricas do Paraná (CEP), vista no do
Exemplo 1.3. A Figura 5.1 apresenta novamente a série CEP, onde podemos visualizar a sazonalidade
que ocorre de 12 em 12 meses.
500
450
400
CEP
350
300
250
A série CEP, além da sazonalidade, apresenta também uma tendência crescente. Assim, para
ajustar um modelo de regressão a esta série temos que incluir tanto componentes de tendência, quando
componentes para modelar a sazonalidade.
Neste capítulo vamos ver como ajustar modelos que incluem todos estes componentes, assim
como covariáveis, caso tenhamos alguma variável externa que possa ajudar a modelar e fazer previsões
para séries sazonais. Além disto, vamos também incorporar o modelo autorregressivo nos erros do
modelo de regressão, caso os resíduos não sejam um ruído branco.
42
5.1 Modelo de regressão para séries sazonais com erros autorregressivos
onde t é um ruído branco Gaussiano, t é a tendência no período de tempo t, que pode ser modelada
Uma forma de modelar padrões sazonais é empregando variáveis dummy. Assumindo que
existem S períodos sazonais, o componente Ft pode ser escrito como:
onde D1, t , D2, t ,..., D( S 1),t são variáveis indicadoras (ou dummy) construídas da seguinte forma:
1 para o período 1
D1, t
0 caso contrário
1 para o período 2
D2, t
0 caso contrário
.
.
.
1 para o período S - 1
D( S 1),t
0 caso contrário
Obs.: Devemos construir sempre (S-1) variáveis dummy para modelar a parte sazonal, para evitar o
problema da multicolinearidade.
43
Desta forma, o modelo geral para séries polinomiais de ordem k, com p variáveis explicativas,
x1,..., xp, e variação sazonal de período S é dado por:
(5.3)
onde t ~ N 0, 2 , independentes.
excluindo a tendência, entre o nível da série temporal no período i em relação ao período S. Por
exemplo, se i for negativo, o valor da série no período i é esperado ser menor do que no período S.
O modelo (5.3) pode ser estimado utilizando mínimos quadrados ordinários. A análise de
resíduos deve verificar se todas as suposições do modelo estão sendo satisfeitas, ou seja, se os resíduos
Se a suposição de independência não for satisfeita, devemos ajustar o modelo com erros
contenha variação sazonal com período S e erros autorregressivos de ordem p. Neste caso, o modelo a
ser estimado é o mesmo dado na Equação (5.3). Porém, o termo de erro, t, é descrito por um processo
autoregressivo de ordem p,
Os parâmetros deste modelo também podem ser estimados por mínimos quadrados ordinários
independência, normalidade e variância constante sobre os novos resíduos do modelo, ou seja, para a
série u t estimada.
44
5.2. Previsão
No caso do modelo de regressão polinomial, que contenha variação sazonal com período S e
erros autorregressivos de ordem p, a previsão YˆT h é dada por:
YˆT (h) ˆ0 ˆ1 (T h) ... ˆk T h p ˆk 1 x1,(T h) ... ˆk r xr ,(T h) ˆk r 1 D1,t h . .. ˆk r ( S 1) D( S 1),t h ˆT h
onde ˆT h é calculado através do valor esperado das observações futuras condicionado aos valores
ˆT h ET T h .
T h | T , T 1,.
Caso não seja necessário incluir a parte autorregressiva no modelo, a previsão pontual feita no
tempo T para yT h é dada simplesmente por,
YˆT (h) ˆ0 ˆ1 (T h) ... ˆk T h p ˆk 1 x1,(T h) ... ˆk r xr ,(T h) ˆk r 1 D1,T h ... ˆk r ( S 1) D( S 1),T h
45
5.3. Exemplo – Série CEP
Vamos utilizar a série das Centrais Elétricas do Paraná (CEP), de jan/80 a dez/92, retirando as
últimas 12 observações (jan/92 a dez/92) para fazer previsões. Logo, n=144. O modelo utilizado é dado
por:
Desta forma, as estimativas para os parâmetros do modelo M_CEP são dadas por:
Saída do R:
AIC(M1): 1091.146
Os coeficientes 0 e 1 são ambos significativos e, como o sinal de 1 foi positivo, isto indica
que o consumo de energia elétrica no Paraná tem uma tendência de aumento com o passar do tempo.
As variáveis dummy foram construídas com janeiro sendo o mês de referência. Como todos os
coeficientes sazonais foram significativos e positivos, isto significa que todos os meses apresentam um
46
suficientemente alto (97,12%), o que pode levar à conclusão de que a reta ajustada explica bem a
Porém, analisando os gráficos de resíduos da Figura 5.2 observamos que várias suposições do
Histogram of M_CEP$res
5 10 15 20 25 30 35
10 20 30
M_CEP$res
Frequency
0
-20 -10
0
0 20 40 60 80 100 140 -30 -20 -10 0 10 20 30
Index M_CEP$res
Series M_CEP$res
0.2 0.4 0.6 0.8 1.0
3
2
rnorm(n - H)
ACF
0
-3 -2 -1
-0.2
-20 -10 0 10 20 30 0 5 10 15 20
M_CEP$res Lag
Figura 5.2: Gráficos de resíduos para o modelo M_CEP ajustado á série CEP
O gráfico de resíduos vs. tempo, mostra uma diminuição nos tempos iniciais e depois um
aumento, portanto não podemos dizer que as observações se encontram aleatoriamente distribuídas em
torno de zero. O histograma apresenta uma leve assimetria à direita, mas o qqplot e o teste de Shapiro-
Wilks (valor-p=0,1855) não rejeitam a suposição de normalidade. O gráfico da FAC mostra vários
47
picos significativos e a estatística de Durbin-Watson (d= 0,5791) é menor que d U , = 1,65, logo existe
Janeiro de 1994: A previsão do consumo de energia da série CEP para o mês de jan/94 é:
Observamos que nenhum coeficiente das variáveis dummy entra na previsão acima, já que para o mês
Fevereiro de 1994: A previsão do consumo de energia da série CEP para o mês de fev/94 é dada por:
Para a previsão de Fev/94 será necessário incluir somente o coeficiente da variável dummy de fevereiro,
25,8897, já que todas as outras variáveis dummy serão iguais a zero para este mês.
Desta forma, obtemos as previsões para os meses subsequentes, que são apresentadas na Tabela 5.1. A
Figura 5.3 mostra o ajuste, assim como previsões para os seis últimos meses, com o intervalo de
48
previsão. Podemos ver que o ajuste para os 4 últimos meses não é muito boa, e tanto as previsões como
Tabela 5.1: Previsões 12 passos à frente para o consumo de energia elétrica da CEP, Jan/92 a Dez/92
EQMP = 366,26.
500
450
400
CEP
350
300
250
0 50 100 150
tempo
49
Figura 5.3: Ajuste, previsão e intervalos de previsão para o modelo M_CEP. A linha preta representa a
série CEP, a linha azul mostra o modelo ajustado, os pontos em azul são os valores previstos e as linhas
em vermelho são os intervalos de previsão.
Como os resíduos não satisfazem as suposições do modelo, é necessário ajustar um modelo
autorregressivo aos mesmos. Após alguns testes, vemos também que é necessário ajustar um modelo
AR(3) aos resíduos, pois este modelo apresentou todos os coeficientes significativos, resíduos mais
próximos de um ruído branco e menor AIC. As variáveis dummy serão construídas novamente com
janeiro sendo o mês de referência. Desta forma, na saída abaixo o coeficiente de Xi, i=2,...12, faz
referência ao mês i quando comparado ao mês de janeiro, onde Fev=X2, Mar= X3,..., Dez= X12.
Saída do R:
2
Observamos que todos os coeficientes do modelo são significativos, o valor de Radj aumentou
um pouco em relação ao modelo M_CEP (de 97,12% para 98,88%) e que o valor do AIC diminuiu de
Analisando os gráficos de resíduos (Figura 5.4) não observamos mais nenhum padrão específico
no gráfico de resíduos vs. tempo, portanto podemos dizer que as observações se encontram
aleatoriamente distribuídas em torno de zero. O histograma mostra uma leve assimetria à direita, e o
50
qqplot apresenta um comportamento mais próximo a uma reta, mas o teste de Shapiro-Wilks rejeitou a
significativo no lag 2 e outro no lag 12. A inclusão de um componente AR(2) não foi significativa e o
pico no lag 12 pode significar que ainda existam problemas a serem corrigidos na parte sazonal. Porém,
neste curso vamos modelar a sazonalidade apenas utilizando as variáveis dummy. Além disto, a
estatística de Durbin-Watson, d=2,2262 e 4-d=1,7738, são maiores que d U , = 1,69. Logo, não existe
Histogram of M_CEP.AR1$res
50
20
40
M_CEP.AR1$res
10
Frequency
30
0
20
-10
10
0
Time M_CEP.AR1$res
Series M_CEP.AR1$res
3
ACF
0
-1
-2
-0.2
-3
-10 0 10 20 0 5 10 15 20
M_CEP.AR1$res Lag
Figura 5.4: Gráficos de resíduos para o modelo M_CEP.AR1 ajustado á série CEP
Uma possibilidade para corrigir o problema de falta de normalidade dos dados é fazer uma
transformação nos dados. A transformação mais utilizada nestes casos é a logarítmica. Assim, vamos
51
log( yt ) 0 1t 2 D1,t ... 12D11,t t , t 1,...,168
O modelo ajustado é apresentado abaixo e vemos que todos os coeficientes são significativos.
Neste caso, não podemos mais comparar o AIC deste modelo (-731,1) com o anterior (938,85), pois
como tomamos o logaritmo da série, a magnitude dos valores é diferente, e isto impacta o cálculo do
AIC, assim como dos coeficientes do modelo e o desvio padrão dos resíduos.
Saída do R:
A transformação logarítmica, entretanto, não foi eficiente para corrigir o problema da falta de
(valor-p= 0,0116). Como temos uma série com tamanho suficientemente grande (n=144), podemos
prosseguir mesmo sem esta hipótese estar satisfeita, pois os testes para os coeficientes não serão
Obs.: Caso as suposições sejam corrigidas com o uso da transformação, temos que tomar cuidado ao
fazer previsões para valores futuros, pois neste caso estaremos calculando previsões para os dados
52
transformados, e é necessário fazer a transformação inversa para retornar as previsões e intervalos para
a escala original.
Desta forma, considerando o modelo M_CEP.AR1 adequado, vamos utilizá-lo para fazer
Janeiro de 1992: A previsão do consumo de energia da série CEP para o mês de jan/92 é:
Fevereiro de 1992: A previsão do consumo de energia da série CEP para o mês de fev/92 é dada por:
= 455,67
onde eJan / 92 é calculado como a previsão um passo à frente para a série de resíduos, feita em
Desta forma, obtemos as previsões para os meses subsequentes, apresentadas na Tabela 5.2 e
Figura 5.5. Observamos que o ajuste neste caso está bem melhor do que no modelo M_CEP, pois a
53
linha azul (ajuste) está mais próxima da linha preta (série). Os valores previstos e intervalos também
Tabela 5.2: Previsões 12 passos à frente para o consumo de energia elétrica da CEP, Jan/92 a Dez/92
EQMP = 346,72.
54
500
450
400
CEP
350
300
250
0 50 100 150
tempo
Figura 5.5: Ajuste, previsão e intervalos de previsão para o modelo M_CEP.AR1. A linha preta
representa a série CEP, a linha azul mostra o modelo ajustado, os pontos em azul são os valores
previstos e as linhas em vermelho são os intervalos de previsão.
6. Análise de Intervenção
Séries temporais sempre estão sujeitas a fatores externos, tais como: mudanças políticas,
desastres meteorológicos, greve, liquidação, promoções, etc. Tais fatores estão sujeitos a intervenções e
afetam a variável a ser prevista. A Análise de Intervenção é uma técnica que avalia o efeito destes
eventos externos, tendo como principal objetivo medir o efeito causado pelos mesmos (ver Wei, 1990).
Há dois tipos comuns de variável intervenção, que são representadas por variáveis dummy:
1, t t0
Função Pulso (ou Impulso): I t
0, t t0
0, t t0
Função Passo: Pt
1, t t0
55
As intervenções nada mais são do que uma quebra estrutural na série, ou seja, uma grande
mudança abrupta da mesma. Neste sentido, outliers ou pontos extremos também podem ser
considerados como uma intervenção na série. A Figura 6.1 mostra exemplos das funções Pulso e Passo,
1.0
0.8
0.8
0.6
0.6
P
D
0.4
0.4
0.2
0.2
0.0
0 20 40 60 80 100
0.0 0 20 40 60 80 100
Pulso Passo
O modelo geral para séries polinomiais de ordem p, covariáveis x1, ..., xr, variação sazonal de
período S e que contenham variáveis de intervenção do tipo Passo e Pulso é dado por:
yt 0 1t ... k t k
k 1 x1 ... k r xr
(6.1)
k r 1D1, t ... k r ( S 1) D( S 1), t
k r ( S 1) 1Pt k r ( S 1) 2 I t t
onde t = 1, ..., n e t ~ N 0, 2 , independentes.
56
Obs.: É possível incluir mais de uma variável Passo, assim como mais de uma variável Pulso, em um
mesmo modelo. O número de variáveis a serem incluídas depende do número de intervenções que
O modelo (6.1) pode ser estimado utilizando mínimos quadrados ordinários. Novamente, se a
suposição de independência sobre os erros do modelo (6.1) não for satisfeita, devemos ajustar o modelo
com erros autorregressivos. Neste caso, o modelo a ser estimado é o mesmo dado na Equação (6.1).
Os parâmetros deste modelo também podem ser estimados por mínimos quadrados ordinários
independência, normalidade e variância constante sobre os novos resíduos do modelo, ou seja, para a
série u t estimada.
6.2. Previsão
57
onde ˆT h é calculado através do valor esperado das observações futuras condicionado aos valores
ˆT h ET T h .
Obs.: Como a variável Pulso só assume o valor 1 no ponto da intervenção, seu valor será sempre igual
a zero para os tempos futuros, T+h. Desta forma, ela não será incluída na previsão.
T h | T , T 1,.
A Figura 1.4 mostrou a série de número total de motoristas mortos ou feridos na Grã Bretanha
devido a acidentes de trânsito entre Jan/1969 a Dez/1984 (n=180), apresentada novamente na Figura
6.2. Este é um conjunto de dados muito utilizado na literatura para ilustrar a importância de utilizar
variáveis de intervenção para modelar a quebra estrutural na série devido à introdução do uso
compulsório de cinto de segurança em 31 Jan/1983. Além da quebra devido ao uso do cinto a partir de
1983, podemos observar também uma mudança de comportamento da série a partir de Jan/74, onde
58
ocorre uma diminuição e estabilização do número de acidentes. A série também apresenta uma clara
2500
2000
No de Acidentes
1500
1000
Como esta é uma série de contagens com valores relativamente altos (a média do número de
acidentes no período é 1670), podemos aplicar a transformação logarítmica e trabalhar com o modelo
com erros Gaussianos. Vamos retirar as 12 últimas observações (jan/84 a dez/84) para fazer previsões.
Vamos inicialmente ajustar o modelo polinomial de ordem 1 com variação sazonal de período
12 à série log(yt):
Saída do R:
59
factor(sazon)5 -0.0726811 0.0366561 -1.983 0.049032 *
factor(sazon)6 -0.1057157 0.0366587 -2.884 0.004447 **
factor(sazon)7 -0.0546960 0.0366618 -1.492 0.137610
factor(sazon)8 -0.0456518 0.0366655 -1.245 0.214843
factor(sazon)9 -0.0125895 0.0366698 -0.343 0.731789
factor(sazon)10 0.0684241 0.0366746 1.866 0.063836 .
factor(sazon)11 0.1747334 0.0366800 4.764 4.11e-06 ***
factor(sazon)12 0.2329922 0.0366859 6.351 1.95e-09 ***
AIC(M1): -302.2605
Alguns coeficientes dos componentes sazonais não são significativos (Fatores 7, 8, 9 e 10).
Porém, como a maioria dos fatores sazonais foram significativos, para manter a sazonalidade devemos
utilizar todos os coeficientes, mesmo os não significativos. O valor de R2 foi igual a 62,89% e o AIC =
-302,2605.
Vamos agora ajustar o modelo de regresso com intervenção. Para descobrir os pontos onde
ocorre mudança de comportamento da série, vamos utilizar o pacote “changepoint” do R para detectar
pontos de mudança. O gráfico da Figura 6.3 aponta que houve 3 pontos de mudança na série, e a saída
do programa indica que as mudanças ocorreram nos tempos 10, 72 e 169. O tempo 169 corresponde à
introdução do cinto de segurança, e o tempo 72 indica a mudança que já havia sido observada
anteriormente. Além destes dois pontos, o programa mostra também uma mudança em t=10.
60
7.8
7.6
data.set.ts(x)
7.4
7.2
7.0
Time
Desta forma, vamos incluir no modelo 3 variáveis de intervenção do tipo passo, nos meses de
Out/69 (t0=10), Dez/74 (t0=72) e Fev/83 (t0=169). Para isto, temos que criar três variáveis dummy:
O modelo ajustado (M_AcP) é apresentado abaixo. Como a variável tempo não é mais
Saída do R:
61
AIC(M1): -410.2257
Observamos que as três variáveis Passo são significativas, assim como a maioria dos fatores
sazonais. Além disto, o valor de R2 aumentou para 79,83% e o AIC diminuiu para -410,2257.
Histogram of M_AcPQ$res
50
0.1
20 30 40
M_AcPQ$res
Frequency
0.0
-0.1
10
0
0 50 100 150 -0.2 -0.1 0.0 0.1 0.2
Index M_AcPQ$res
Series M_AcPQ$res
ACF
0
-2 -1
-0.2
M_AcPQ$res Lag
Figura 6.4: Gráficos de resíduos para o modelo M_AcP ajustado á série Acidentes
Analisando a Figura 6.4 observamos que gráfico de resíduos vs. tempo mostra um
comportamento aleatório em torno de zero. Além disso, o histograma e o qqplot parecem indicar
Porém, o gráfico da FAC mostra dois picos significativos nos lags 1 e 2 e a estatística de Durbin-
Watson (d= 1,5150) é menor que d U , = 1,65, logo existe autocorrelação positiva de ordem 1 nos dados.
Previsões para o período Jan/84 a Dez/84 se encontram na Tabela 6.1. A Figura 6.5 mostra o
ajuste, assim como previsões para os seis últimos meses, com o intervalo de previsão. Podemos ver que
62
o ajuste para os 4 últimos meses não é muito boa, e tanto as previsões como os intervalos se encontram
Tabela 6.1: Previsões 12 passos à frente para a série de acidentes na Grã Bretanha, Jan/84 a Dez/84
EQMP = 12.431,59.
2500
2000
Acidentes
1500
1000
0 50 100 150
tempo
63
Figura 6.5: Ajuste, previsão e intervalos de previsão para o modelo M_AcP. A linha preta representa a
série Acidentes na Grã Bretanha, a linha azul mostra o modelo ajustado, os pontos em azul são os
valores previstos e as linhas em vermelho são os intervalos de previsão.
Vamos agora ajustar o modelo autorregressivo aos dados. Novamente, a variável tempo não foi
significativa, e o modelo com erros AR(2) apresentou o melhor ajuste. Observamos que todos os
2
coeficientes do modelo são significativos (exceto D9), o valor de Radj aumentou de 79,83% para
Saída do R:
Analisando os gráficos de resíduos (Figura 6.6) não observamos nenhum padrão específico no
gráfico de resíduos vs. tempo, o histograma, o qqplot e o teste de Shapiro-Wilks não rejeitam a
suposição de normalidade (0,8906) e o gráfico da FAC não mostra nenhum pequeno pico significativo.
Além disto, a estatística de Durbin-Watson d=2,0052 e 4-d=1,9948 são maiores que d U , = 1,69. Logo,
64
Previsões para o período Jan/84 a Dez/84 se encontram na Tabela 6.2. A Figura 6.7 mostra o
ajuste, assim como previsões para os seis últimos meses, com o intervalo de previsão.
Histogram of M_AcP.AR2$res
10 20 30 40 50
0.10
M_AcP.AR2$res
Frequency
0.00
-0.20 -0.10
0
0 50 100 150 -0.2 -0.1 0.0 0.1 0.2
Time M_AcP.AR2$res
Series M_AcP.AR2$res
ACF
0
-2 -1
M_AcP.AR2$res Lag
Figura 6.6: Gráficos de resíduos para o modelo M_AcP.AR2 ajustado à série Acidentes
Tabela 6.2: Previsões 12 passos à frente para a série de acidentes na Grã Bretanha, Jan/84 a Dez/84
65
Dez/1984 1763 1631,50 [1418,34 ; 1876,69] 131,50
EQMP = 12.935,73.
2500
2000
No de Acidentes
1500
1000
0 50 100 150
tempo
Figura 6.7: Ajuste, previsão e intervalos de previsão para o modelo M_AcPP.AR2. A linha preta
representa a série Acidentes na Grã Bretanha, a linha azul mostra o modelo ajustado, os pontos em azul
são os valores previstos e as linhas em vermelho são os intervalos de previsão.
Apesar da previsão estar um pouco pior em relação ao modelo sem erros autorregressivos (o
EQMP teve um aumento de 4%), podemos ver que o ajuste é melhor neste caso (os valores de AIC e R2
foram melhores e a linha azul está mais próxima da preta no modelo com erros AR(2)). Isto mostra que
nem sempre o modelo que apresenta o melhor ajuste é também o que fornece as melhores previsões,
66
PARTE 2:
1.5 (número de casos de poliomielite nos Estados Unidos), não podemos utilizar os modelos descritos
na Parte 1 desta apostila, já que neste caso temos contagens muito baixas e as observações não têm
distribuição normal.
Para resolver este problema, uma possibilidade é a utilização de modelos lineares generalizados
(MLG), pois esta classe de modelos permite o uso de várias distribuições de probabilidade que
pertençam à família exponencial. Por exemplo, séries de contagem podem ter distribuição binomial,
Poisson ou binomial negativa. Entretanto estes modelos, apesar de não necessitarem da suposição de
normalidade, são baseados na suposição de independência das observações, o que geralmente não
Existe uma outra classe de modelos, conhecidos como autorregressivos médias móveis
(ARMA), propostos por Box e Jenkins (1976), que são muito utilizados para modelar séries temporais,
pois eles conseguem captar a autocorrelação existente entre as observações. Porém, estes modelos
Assim, surgiram os modelos lineares generalizados com erros autorregressivos e médias móveis
(GLARMA), propostos por Davis et al. (2003). Estes modelos utilizam o MLG conjuntamente com o
ARMA para modelar uma gama muito maior de séries temporais, que tenham qualquer distribuição
Na Parte 2 desta apostila vamos descrever inicialmente o MLG, depois os modelos ARMA e,
67
7. Modelos Lineares Generalizados
Os modelos lineares generalizados (MLG) são uma extensão dos modelos lineares normais e
foram propostos por Nelder e Wedderburn (1972). A ideia básica consiste em abrir o leque de opções
para a distribuição da variável resposta, permitindo que a mesma pertença à família exponencial de
distribuições.
Seja y1, . . . , yn uma amostra aleatória de n observações independentes de uma variável resposta
Y. No modelo linear geral, supomos que Yt tem distribuição normal com média µt e variância σ2,
Yt ~ N t , 2 . Além disto, assumimos que o valor esperado, µt, é uma função linear de r variáveis
E (Yt ) t x't ,
Mas vamos supor que a distribuição de Y não seja Normal. Precisamos determinar a distribuição
correta da variável resposta para podermos estimar os parâmetros, fazer testes de hipóteses e tirar
conclusões sobre o modelo. Uma classe de distribuições que garante essas propriedades é conhecida
A família exponencial (FE) é uma família de distribuições cuja função densidade pode ser
onde t é o parâmetro de interesse e a(.), b(.), c(.) e d(.) são funções conhecidas.
68
Se Yt tem distribuição na família exponencial, então sua média e variância são dadas por
c' (t )
E (Yt ) t
b' (t )
b' ' (t )c' (t ) c' ' (t )b' (t )
Var (Yt ) .
b' (t )3
Uma vez definido como se estruturam as distribuições segundo a família exponencial, temos
à família exponencial;
c) Função de Ligação (g) – é uma função diferenciável e contínua. Através desta função, faz-se
g t t xt'
Distribuição Ligação
Normal Identidade
Poisson Log
Binomial Logit
69
7.3. Estimação
O vetor de parâmetros β = (β1, ..., βr) pode ser estimado através de várias metodologias, como
n
( , y ) a( yt )b(t ) c(t ) d ( yt ) . (7.2)
t 1
Como as derivadas da função acima são difíceis de serem obtidas analiticamente, devemos usar
métodos numéricos para encontrar as estimativas dos parâmetros. Um dos procedimentos mais
Resumidamente, pode-se dizer que o algoritmo inicia o processo especificando uma estimativa inicial
para β e vai sucessivamente alterando-a até que a diferença entre β na iteração (m + 1) e a estimativa
anterior seja menor que um valor bem pequeno pré-definido. Desta forma, a convergência é obtida e
grande temos,
ˆ ~ N r , I 1 ,
onde I é a matriz de informação de Fisher.
70
7.4. Adequação de modelos
Após a estimação dos coeficientes do modelo, alguns procedimentos devem ser realizados a fim
de medir a qualidade do ajuste e adequabilidade do modelo, ou seja, deve ser feita uma validação dos
resultados. Num primeiro momento essas análises servem também para comparar diferentes modelos.
Assim como no modelo linear normal, para se decidir entre um ou outro modelo, pode-se calcular
informação AIC.
Além destas medidas, uma outra maneira de verificar a adequação de um modelo é compará-lo
com um modelo mais geral, com o número máximo de parâmetros que podem ser estimados. Este
último é chamado de modelo saturado. A estatística Desvio (do inglês Deviance) calcula a bondade de
ajuste do modelo através das diferenças entre a função de log-verossimilhança do modelo saturado com
o modelo sob investigação, i.e., (ˆsat , y) (ˆ, y) . Aqui ̂sat denota o EMV do vetor de parâmetros
D 2 (ˆsat , y) (ˆ, y) . (7.3)
71
7.5. Análise de resíduos
No caso do MLG, existem dois tipos de resíduos que são mais utilizados na prática, os resíduos
de Pearson e Desvio.
a) Resíduo de Pearson
dividido por uma estimativa do desvio padrão do valor ajustado. O resíduo resultante tem a forma,
yt ˆ t
rtP .
Var ˆ t
b) Resíduo Desvio
Se a estatística Desvio dada na Equação (7.3) é usada como uma medida de discrepância, então
cada unidade contribui com uma quantidade para o Desvio, logo D d t . Desta forma, o resíduo
t
rtD sinal yt t dt .
estatística Desvio. Observações com um resíduo Desvio maior que 2 podem indicar falta de ajuste.
Pode-se construir gráficos dos resíduos versus tempo e observar se eles se encontram
aleatoriamente distribuídos em torno de zero, com variância constante. Além disto, deve-se também
72
7.6. Exemplo – Série Polio
O Exemplo 1.5 mostrou a série Polio, referente ao número de casos de poliomielite nos Estados
Unidos, de janeiro de 1970 a dezembro de 1983. A Figura 7.1 apresenta o histograma dos dados.
Podemos verificar que não é possível utilizar a distribuição Gaussiana neste caso.
Histogram of polio
140
120
100
80
Frequency
60
40
20
0
0 2 4 6 8 10 12 14
polio
Muitos autores já analisaram esta série na literatura para verificar se a incidência de poliomielite
vem decrescendo desde 1970. Uma possibilidade para a distribuição da variável resposta, como se trata
de contagens, é a distribuição de Poisson. Como variáveis explicativas, a maioria dos estudos utiliza
um componente de tendência e componentes sazonais usando pares de seno e cosseno, com ciclos
anuais e semianuais. Retirando as últimas 12 observações (jan/83 a dez/83) para fazer previsões, o
yt ~ Poisson ( t ), t 1,...,156
2 t 2 t 2 t 2 t
t log t 0 1t 2 cos 3 sen 4 cos 5 sen
12 12 6 6
73
Saída do R:
AIC: 522.87
O coeficiente de 1 (Ano) foi negativo e significativo, o que significa que a incidência de pólio
está diminuindo com o tempo. Além disto, vemos que os componentes sazonais de sen12 e cos6 são
2 t 2 t 2 t 2 t
ˆ t exp 0,623 0,006 t 0,096 cos 0,517 sen 0,406 cos 0,089sen
12 12 6 6
A Figura 7.2 apresenta os gráficos de resíduos versus tempo e a FAC, tanto para o resíduo de
aleatório em torno do valor zero, apesar de termos algumas observações com valores muito altos
(acima de 3 desvios-padrão). A FAC também mostra a falta de independência dos resíduos, pois vemos
74
Resíduos de Pearson Series rp
ACF
rp
2
0
-0.2
0 50 100 150 0 5 10 15 20
Index Lag
ACF
rd
-0.2
0 50 100 150 0 5 10 15 20
Index Lag
Desta forma, podemos calcular as previsões para o período Jan/83 a Dez/83, que são
apresentadas na Tabela 7.2. A Figura 7.3 mostra o ajuste, assim como previsões para os doze últimos
meses. Podemos ver que tanto o ajuste quanto as previsões parecem satisfatórios, somente
apresentando valores mais afastados dos reais nos períodos de picos na incidência de pólio.
75
Tabela 7.2: Previsões 12 passos à frente para a série de Polio, Jan/83 a Dez/83
EQMP = 2,4687.
10
8
6
Polio
4
2
0
-2
0 50 100 150
tempo
Figura 7.3: Ajuste e previsão para o modelo M1.MLG. A linha preta representa a série Polio, a linha
azul mostra o modelo ajustado e os pontos em azul são os valores previstos.
76
8. Modelos ARMA
Nesta seção vamos apresentar, de forma resumida, a modelagem ARMA proposta por Box e
Jenkins (1976). Para deixar a notação bem geral, vamos chamar a série temporal em estudo de zt. Esta
série pode ser tanto nossa série resposta, yt, quanto a variável explicativa, xt, ou também uma série de
resíduos t .
passado. Este operador é denotado por B e representa uma defasagem de k períodos de tempo para trás.
Ou seja, se aplicarmos o operador na série z, no tempo t, obtemos o valor da série z no tempo t-k:
B k zt zt k .
De acordo com Box & Jenkins, o modelo (8.1) é denominado ARMA(p,q). De (8.1) pode-se
escrever:
1 B ...
1 p
B p zt 1 1 B ... q B q ut
ou
77
8.1. Tipos de modelos
deve ao fato de que z t no instante t é função dos z's nos instantes anteriores a t. Este foi o
Exemplos:
AR(1): zt 1 zt 1 ut
...
AR(p): zt 1 zt 1 2 zt 2 ... p zt p ut
Móveis vem do fato que z t é uma função soma algébrica ponderada dos ut que se movem no
tempo.
Exemplos:
MA(1): zt ut 1ut 1
...
78
c) Modelos Auto-Regressivos - Médias Móveis (ARMA) - Notação: ARMA(p,q)
É o modelo que tem tanto uma parte AR 1 como uma parte MA 1 . Por exemplo,
ARMA(1,1): zt 1 zt 1 ut 1ut 1
ARMA(2,1): zt 1 zt 1 2 zt 2 ut 1ut 1
...
a) Modelos MA sazonais
zt ut 1ut S Qut QS zt 1 1B S Q B QS ut
b) Modelos AR sazonais
zt 1zt S P zt PS 1 1B S P B PS zt ut
Este modelo tem ordem PS e é conhecido como modelo sazonal AR(P)S.
79
c) Modelos ARMA sazonais
Este modelo se aplica à maioria das séries sazonais reais, ou seja, realizações de processos que
Definição: ARIMA(p,q)(P,Q)S
B S B zt B S B ut
1 1B S ... P B SP 1 1B ... p B p zt 1 1B S ... Q B SQ 1 1B ... q Bq ut
onde
B S 1 1B S 2 B2S P B PS ;
B 1 B B
1 2
2
p B p ;
B S 1 1B S 2 B 2S Q BQS ;
B 1 1B 2 B 2 q B q .
80
8.2. Identificação de Modelos
kk Corr zt , zt k zt 1 ,..., zt ( k 1) , para k 0, 1, 2,... .
autocorrelações ( ̂ k ) e das autocorrelações parciais ˆkk com as correspondentes funções teóricas. Na
A Figura 8.1 mostra a FAC e FACP para o modelo AR(1). Se o valor de for positivo, a FAC
de for negativo, a FAC apresenta um decrescimento alternado e a FACP apresenta um pico negativo
no lag 1.
Os modelos AR(p) possuem sempre esta característica. Por exemplo, um AR(2) vai apresentar
segundo no lag 2. O AR(3) possui decrescimento exponencial ou alternado na FAC, e três picos na
FACP, o primeiro no lag 1, o segundo no lag 2 e o terceiro no lag 3. E assim por diante.
81
positivo
0.6 0.7
0.8
Partial ACF
ACF
0.4
0.1 0.2
0.2
0.0
0.0
0 10 30 50 70 0 10 30 50 70
Lag Lag
negativo
Series z Series z
1.0
Partial ACF
ACF
0.0
-0.5
0 5 10 15 20 5 10 15 20
Lag Lag
A Figura 8.2 mostra a FAC e FACP para o modelo MA(1). Se o valor de θ for positivo, a FAC
for negativo, a FAC apresenta um pico negativo no lag 1 e a FACP apresenta um decrescimento
exponencial. Devemos tomar cuidado ao analisar a FAC gerada pelo R, pois ela sempre tem início no
lag 0, ao contrário da FACP, que tem início no lag 1. A FAC no lag 0 será sempre igual a 1, pois
ˆ 0 ˆ0 / ˆ0 1 .
82
θ positivo
Series z Series z
1.0
0.4
0.8
0.2
0.6
Partial ACF
ACF
0.4
0.0
0.2
-0.2
0.0
0 5 10 15 20 5 10 15 20
Lag Lag
θ negativo
Series z Series z
1.0
0.0
-0.1
0.5
-0.2
Partial ACF
ACF
-0.3
0.0
-0.4
-0.5
0 10 30 50 70 0 10 30 50 70
Lag Lag
Os modelos MA(q) possuem sempre esta característica. Por exemplo, o MA(2) possui dois
picos na FAC, o primeiro no lag 1 e o segundo no lag 2 e a FACP apresenta decrescimento exponencial
ou alternado. O AR(3) possui três picos na FACP, o primeiro no lag 1, o segundo no lag 2 e o terceiro
modelos da classe ARMA mais comuns. A identificação de modelos sazonais é idêntica à dos modelos
83
Tabela 8.1: Comportamento teórico da FAC e FACP para alguns modelos
8.2.3. Exemplos
a) Poliomielite: A Figura 8.3 mostra a FAC e FACP para a série Pólio. Podemos observar um
pico significativo no lag 1 da FACP e um decrescimento na FAC. Desta forma, podemos identificar um
0.2
0.6
Partial ACF
0.1
ACF
0.4
0.0
0.2
0.0
-0.1
Lag Lag
84
b) Temperatura global: A Figura 8.4 mostra a FAC e FACP para os resíduos do modelo
M1.AR1. Vemos que nem a FAC, nem a FACP, apresentam picos significativos. Desta forma,
0.2
0.8
0.1
0.6
Partial ACF
ACF
0.4
0.0
0.2
-0.1
0.0
-0.2
-0.2
0 5 10 15 5 10 15
Lag Lag
c) Preço do grão e farelo de soja: A Figura 8.5 mostra a FAC e FACP para os resíduos do
modelo M2. Vemos que a FACP apresenta um pico significativo no lag 1 e um decrescimento na FAC.
Logo, os resíduos não são independentes e podemos identificar um modelo AR(1) para os mesmos.
0.8
0.8
0.6
0.6
0.4
Partial ACF
ACF
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
0 5 10 15 20 5 10 15 20
Lag Lag
Figura 8.5: FAC e FACP para os resíduos do modelo M2 (Farelo e grão de soja)
85
8.3. Estimação de Parâmetros
p B zt q B ut
onde p (B) e q (B) são polinômios de grau, p e q, respectivamente, e ut é um processo ruído branco,
(1,..., p ,1 ,..., q ) e u2 E ut2 .
ut zt 1zt 1 p zt p 1ut 1 q ut q .
Sob a suposição de normalidade dos ut , temos que a função de log-verossimilhança é dada por:
n u
2
, ut 2 n / 2 u n exp t 2 .
t 12 u
grande, com esperança igual ao verdadeiro parâmetro e matriz de covariância igual ao inverso da
86
Sobrefixação: Estimamos um modelo com parâmetros extras e examinamos se estes são significativos
modelos que se ajustam igualmente bem a uma série zt, devemos preferir aquele que tem menor número
de parâmetros.
Se o modelo está correto, as nossas suposições iniciais feitas para os resíduos devem ser
satisfeitas, isto é, ut ~ N 0, u2 e independentes. Assim, a análise de resíduos é feita da seguinte forma:
1) Faz-se um gráfico da série ût e observa-se se sua média é igual a zero (aproximadamente) e se sua
Se a análise acima indicar que o processo gerador de ût é um ruído branco, o modelo escolhido
para zt poderá ser utilizado para fins de previsão ou controle. Senão, podemos utilizar a análise dos
87
8.5. Exemplo – Série soja
Vamos analisar os resíduos do modelo M2 para o preço do farelo e grão de soja, do Exemplo
2.4.2. Na Seção 8.2.3 (c), vimos que a FAC e FACP mostram que os resíduos do modelo M2 não são
independentes e sugerem um modelo AR(1) para esta série de resíduos. Ou seja, vamos ajustar o
modelo,
Vamos sobrefixar este modelo, para verificar se é necessária a inclusão de mais algum termo:
AR(2):
ARMA(1,1):
88
sigma^2 estimated as 111.8: log likelihood = -393.71, aic = 793.41
AR(3):
O modelo que apresentou o menor AIC, e todos os coeficientes significativos, foi o modelo
AR(2). Uma análise de resíduos para este modelo é apresentada na Figura 8.6. O teste de Shapiro-
Wilks não rejeita a hipótese de normalidade. Comparando esta figura com a Figura 8.5, vemos que os
picos significativos existentes no início da FAC e FACP desapareceram. Porém, percebemos um pico
significativo no lag 12 da FACP. Isto pode indicar a presença de um componente sazonal na série que
Histogram of M2.AR2$res
10 20 30
20
M2.AR2$res
Frequency
15
10
0
-20 -10
5
0
Time M2.AR2$res
-0.2
0 5 10 15 20 5 10 15 20
Lag Lag
Figura 8.6: FAC e FACP para os resíduos do modelo AR2 aplicado aos resíduos do modelo M2
89
Teste Shapiro-Wilks (valor-p = 0,4988)
Para verificar se é necessário incluir algum termo sazonal no modelo dos resíduos, vamos
ARMA(2,0)(1,0)12:
ARMA(2,0)(0,1)12:
Como podemos observar pelos resultados acima, nenhum dos dois modelos é adequado, pois
apresentam coeficientes não significativos. Portanto, o melhor modelo para a série de resíduos do
modelo M2 é um AR(2).
90
9. Modelos GLARMA
normalidade. O MLG modela distribuições da família exponencial, mas não considera a correlação que
ocorre entre as observações em função do tempo. Por isso, é necessária a utilização de outros modelos
(GLARMA), introduzido por Davis et al. (2003), que é útil para modelar variáveis respostas
dependentes no tempo e que seguem uma distribuição da família exponencial. Daremos especial
atenção ao modelo de Poisson, já que esta é a distribuição mais utilizada para dados de contagem.
9.1. Definição
A classe GLARMA é uma classe de modelos que estende o processo ARMA Gausssiano de
séries temporais para um modelo mais flexível para séries de contagem não-Gaussianas. A variável
dependente é suposta ter uma distribuição condicional na família exponencial dado todo o passado do
processo.
Sejam yt a série temporal e Ft 1 y (t 1) , x (t ) , onde y (t 1) y1, y2 ,..., yt 1 é o passado do
91
Para introduzir o modelo GLARMA, assuma que yt, dado o passado histórico Ft 1 , tem
t g ( t ) 0 1 x1, t ... r xr , t i t i (9.2)
i 1
O componente i t i pode ser especificado em termos de um número finito de parâmetros
i 1
q ( B)
( B) i B i 1
i 1 p ( B)
onde p (B) e q (B) são, respectivamente, os polinômios autorregressivo e média móvel dados no
Capítulo 8.
Yt | Ft 1 ~ FE (t ) , t 1,..., n
Z t 1 Z t 1 t 1 ... p Z t p t p 1 t 1 ... q t q e
yt t
t .
t
92
Exemplo:
Yt | Ft 1 ~ Poisson(t ) , t 1,..., n
Z t t 1 ,
yt t
t .
t
Assim,
t 0 x t' t 1 0 xt'
yt 1 t 1 x ' yt 1 exp t 1
t 1 exp t 1
0 t
9.2. Estimação
O valor de para o cálculo dos resíduos deve ser especificado pelo pesquisador. Se 0,5
93
Considere a densidade condicional de Yt dado Ft 1 pertencente à família exponencial. A
n
, y log f ( yt | Ft 1 ) . (9.3)
t 1
n
, y Ytt exp t . (9.4)
t 1
verossimilhança ( , y) , Davis et al. (2003) sugerem que os valores obtidos das estimativas do
GLARMA sem os termos auto-regressivos média móveis sejam utilizados como valores iniciais. A
convergência, na maioria dos casos, ocorre após 10 iterações. A matriz de covariância dos estimadores
é estimada por
1
2
ˆ (ˆ , y ) .
'
A análise de resíduos no modelo GLARMA é feita da mesma forma que nos modelos GLM e
yt ˆ t
et
ˆ t
devemos verificar se os mesmos estão aleatoriamente distribuídos em torno de zero, se têm variância
94
9.3. Previsão
YˆT (h) E YT h | YT ET YT h ˆT h g 1 ˆ0 xt' ˆ ET ZT h (9.5)
onde
ET ZT h ˆ1 ET ZT h1 ET T h1 ... ˆp ET ZT h p ET T h p ˆ1 ET T h1 ... ˆq ET T hq
i) Et Z t h Z t h para h = 0, 1, 2, ...
YˆT (h) exp ˆ0 xt' ˆ ˆ1 Et Z t h 1 Et t h 1 ˆ1 Et t h 1 .
Para h = 1:
YˆT (1) exp ˆ0 xt' ˆ ˆ1 Z t t ˆ1 t
Para h ≥ 2:
YˆT (h) exp ˆ0 xt' ˆ ˆ1 Zˆ t (h) .
95
9.4. Exemplo – Série Polio
Vamos voltar ao exemplo da série Polio. Se supomos que os dados seguem uma distribuição de
Na Subseção 8.2.3 vimos, pela FAC e FACP da série Polio, que um possível modelo para esta
MP1: GLARMA(1,0):
significativos, mas a variável Ano não. A saída do pacote “glarma” também mostra os testes de Wald e
Razão de Verossimilhança, que indicam que o modelo GLARMA é superior ao GLM. Como a variável
Ano não foi significativa, vamos ajustar outro modelo sem esta variável:
96
MP2: GLARMA(1,0) – sem intercepto:
Vemos que o modelo M2 (sem a variável Ano) possui AIC menor que o modelo M1. Vamos
agora sobrefixar o modelo M2, colocando mais um termo autorregressivo (AR(2)), para verificar se
este é significativo. No resultado, apresentado abaixo, observamos que o componente AR(2) não é
97
MS1: GLARMA(1,0) – sem intercepto:
O ajuste com os resíduos Escore tem AIC menor que o mesmo modelo com resíduos de Pearson
(MP2: AIC=509,3776 e MS1: AIC=503,9661). Além disto, a variável seno semianual agora é
significativa.
A Figura 9.1 apresenta a análise de resíduos para o modelo GLARMA(1,0) com resíduos de
Pearson (MP2) e Escore (MS1). Observamos que para o resíduo Escore não temos um ruído branco, já
Previsões:
A Tabela 9.1 mostra o EQMP para previsões 12 passos à frente utilizando os modelos MP2 e
MS1. Como o EQMP do modelo com os resíduos de Pearson (MP2) é menor, aliado ao fato de que os
resíduos deste modelo são ruídos brancos, vamos apresentar as previsões somente para o MP2.
2,0016 2,2245
98
Resíduos de Pearson Resíduos Escore
1 2 3 4 5 6
4
2
rp
rs
0
-2
-1
0 50 100 150 0 50 100 150
Index Index
1.0
0.6
0.6
ACF
ACF
0.2
0.2
-0.2
-0.2
0 5 10 15 20 0 5 10 15 20
Lag Lag
Partial ACF
-0.05
-0.15
-0.20
5 10 15 20 5 10 15 20
Lag Lag
Figura 9.1: FAC e FACP para os resíduos do modelo AR2 aplicado aos resíduos do modelo M2
A Tabela 9.2 mostra as previsões 12 passos à frente com o modelo MP2 e a Figura 9.2 mostra o
ajuste e as previsões. Comparando com o ajuste do MLG realizado na Seção 7.4, vemos que o EQMP
ajuste apresentado na Figura 9.2 segue muito mais próximo do comportamento da série do que o ajuste
99
Tabela 9.2: Previsões 12 passos à frente com o modelo MP2 para a série de Polio, Jan/83 a Dez/83
6
4
2
0
0 50 100 150
tempo
Figura 9.2: Ajuste e previsão para o modelo MP2. A linha preta representa a série Polio, a linha azul
mostra o modelo ajustado e os pontos em azul são os valores previstos.
100
Referências
moving average models. Journal of the American Statistical Association, 98, pp. 214-223.
2. Bowerman, B.L., O’Connell, R.T. (1993) Forecasting and Time Series. 3rd ed. Belmont:
Duxbury Press.
3. Box, G.E.P. and Jenkins, G.M. (1976) Time Series Analysis: Forecasting and Control. San
Francisco: Holden-Day.
4. Davis, R.A., Dunsmuir, W.T.M. and Streett, S.B. (2003). Observation-driven models for
5. Gujarati, Damodar N.; Porter, Dawn C. (2009). Basic Econometrics (5th ed.). Boston: McGraw-
Hill Irwin.
6. McCullagh, P.; Nelder, J. A. (1989). Generalized Linear Models. Chapman and Hall, London,
second edition.
7. Morettin, P.A., Toloi, C.M.C. (2004) Análise de Séries Temporais. São Paulo: Edgard Blucher.
8. Nelder, J, Wedderburn, R. (1972). Generalized Linear Models. Journal of the Royal Statistical
9. Shumway, R. H. and Stoffer, D. S. (2011) Time Series Analysis and Its Applications: With R
10. Wei, W.W.S. (1990) Time Series Analysis: Univariate and Multivariate Methods. London:
Addison – Wesley.
101
ANEXO: Séries utilizadas nos exemplos.
-0.13 -0.22 -0.37 -0.44 -0.49 -0.37 -0.30 -0.50 -0.52 -0.49 -0.46 -0.49
-0.41 -0.42 -0.24 -0.13 -0.36 -0.51 -0.39 -0.30 -0.23 -0.19 -0.30 -0.27
-0.33 -0.22 -0.08 -0.19 -0.22 -0.37 -0.13 -0.05 -0.10 -0.23 -0.11 -0.15
-0.10 0.00 0.10 0.02 -0.04 0.06 0.06 0.06 0.22 0.06 -0.08 -0.08
-0.08 -0.09 -0.19 -0.05 0.02 0.10 -0.15 -0.16 -0.26 0.05 0.12 0.04
0.00 0.03 0.04 0.07 -0.22 -0.16 -0.06 -0.06 -0.09 0.03 -0.03 -0.19
-0.06 0.08 -0.18 -0.12 -0.22 0.06 -0.03 0.06 0.10 0.14 0.05 0.24
0.02 0.00 0.09 0.23 0.25 0.18 0.35 0.29 0.15 0.19 0.26 0.39
0.22 0.43
Série 2 (FARELO): Preço do farelo de soja, no estado de São Paulo, no período de jan/1990 a
set/1999
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
1990 278.6 225.1 205.7 161.5 179.1 161.9 163.0 164.8 171.6 175.2 188.4 187.5
1991 187.4 180.0 159.1 153.0 150.1 154.6 158.7 185.2 191.3 208.6 188.6 204.3
1992 241.7 204.4 177.4 159.1 154.7 168.4 183.0 198.4 227.6 210.5 196.5 206.1
1993 209.5 174.8 151.5 149.2 154.3 179.9 228.7 221.0 207.3 207.7 216.3 201.8
1994 192.2 174.2 167.4 153.9 153.2 171.1 172.1 175.0 175.9 181.5 181.5 174.0
1995 178.8 183.4 135.1 127.9 130.6 133.7 158.8 162.9 167.4 181.4 208.1 221.6
1996 240.6 215.1 196.0 219.4 227.3 223.8 234.4 248.3 298.4 275.1 290.1 281.7
1997 277.0 276.6 283.4 282.8 282.1 262.1 243.9 273.6 290.8 270.0 267.6 259.4
1998 239.1 201.1 159.6 153.1 150.7 148.8 147.5 153.9 151.3 154.8 158.3 157.5
102
Série 3 (GRAO): Preço do grão de soja, no estado de São Paulo, no período de jan/1990 a set/1999
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
1990 12.63 11.04 10.86 9.77 10.55 9.85 9.94 10.10 9.86 9.90 10.16 9.32
1991 9.19 10.02 10.03 9.95 9.85 9.62 9.12 10.10 11.10 11.98 10.05 9.53
1992 11.24 10.55 10.19 9.41 9.72 10.28 10.22 11.02 12.45 11.74 11.86 11.79
1993 12.37 11.07 10.07 9.65 9.80 9.86 12.54 12.81 11.77 11.89 12.71 12.93
1994 12.77 12.15 11.52 10.58 10.91 11.63 11.49 11.52 11.90 12.39 12.62 12.50
1995 12.77 12.14 9.43 9.92 9.37 9.20 9.69 10.83 10.71 11.25 12.46 13.02
1996 15.08 13.08 12.07 13.17 13.86 13.05 13.47 14.36 16.76 16.37 16.57 16.58
1997 15.07 14.56 14.97 15.58 15.98 14.98 14.61 15.70 16.93 16.58 17.37 17.40
1998 15.48 13.02 11.63 11.07 11.45 11.35 11.31 10.98 11.44 11.55 11.43 11.00
Série 4 (CEP): Consumo de energia elétrica das Centrais Elétricas do Paraná (CEP), de jan/80 a dez/92
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
1980 256 261 275 283 293 290 281 292 289 291 296 286
1981 270 283 285 297 303 302 298 301 302 301 290 288
1982 279 295 293 306 313 314 307 311 313 310 311 313
1983 289 305 318 325 332 324 322 334 335 330 320 306
1984 284 304 331 351 365 353 352 354 346 343 321 318
1985 304 337 343 358 364 363 357 361 358 359 329 337
1986 314 356 357 371 383 375 367 368 378 372 338 340
1987 316 361 366 388 395 403 391 394 403 389 369 365
1988 345 383 400 406 428 424 422 426 423 420 392 396
1989 373 407 413 430 443 446 444 450 448 447 417 411
1990 387 422 429 444 450 451 456 455 452 443 420 423
1991 408 438 464 470 478 482 469 471 474 476 452 451
1992 425 465 474 485 506 499 481 492 514 515 483 481
103
Série 5 (Acidente) Número total de motoristas mortos ou feridos na Grã Bretanha devido a acidentes
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
1969 1687 1508 1507 1385 1632 1511 1559 1630 1579 1653 2152 2148
1970 1752 1765 1717 1558 1575 1520 1805 1800 1719 2008 2242 2478
1971 2030 1655 1693 1623 1805 1746 1795 1926 1619 1992 2233 2192
1972 2080 1768 1835 1569 1976 1853 1965 1689 1778 1976 2397 2654
1973 2097 1963 1677 1941 2003 1813 2012 1912 2084 2080 2118 2150
1974 1608 1503 1548 1382 1731 1798 1779 1887 2004 2077 2092 2051
1975 1577 1356 1652 1382 1519 1421 1442 1543 1656 1561 1905 2199
1976 1473 1655 1407 1395 1530 1309 1526 1327 1627 1748 1958 2274
1977 1648 1401 1411 1403 1394 1520 1528 1643 1515 1685 2000 2215
1978 1956 1462 1563 1459 1446 1622 1657 1638 1643 1683 2050 2262
1979 1813 1445 1762 1461 1556 1431 1427 1554 1645 1653 2016 2207
1980 1665 1361 1506 1360 1453 1522 1460 1552 1548 1827 1737 1941
1981 1474 1458 1542 1404 1522 1385 1641 1510 1681 1938 1868 1726
1982 1456 1445 1456 1365 1487 1558 1488 1684 1594 1850 1998 2079
1983 1494 1057 1218 1168 1236 1076 1174 1139 1427 1487 1483 1513
1984 1357 1165 1282 1110 1297 1185 1222 1284 1444 1575 1737 1763
104