Sunteți pe pagina 1din 12

10.

Modele Markov pentru Serii de Timp


10.1. Lanuri Markov
Un proces stochastic are proprietatea Markov n cazul n care distribuia de probabilitate
condiionat a strilor viitoare ale procesului (condiionat att de valorile din trecut ct i de valorile
din prezent) depinde numai de starea prezent, nu de succesiunea de evenimente care au precedat
starea prezent. Un proces cu aceast proprietate se numete un proces Markov.
Procesele Markov sunt asociate cu abordarea spaiului strilor pentru modelarea unui sistem. Ideea
unui model al spaiului strilor pentru un sistem dat este de a defini starea sistemului la orice moment
de timp dat t. Starea sistemului la momentul t ar rezuma tot ce se cunoate despre sistem pn la
momentul t, tot ce este relevant pentru viitorul sistemului. Ne gndim la momentul t ca fiind timpul
prezent.
Modelele Markov sunt folosite pentru modelarea matematic a evoluiei unor sisteme pentru care
strile viitoare sunt descrise, din punct de vedere probabilistic, pornind de la informaii despre starea
prezent i despre probabilitile de trecere dintr-o stare n alta. Informaiile pot fi complete (ca n
cazul lanurilor Markov) sau pariale (ca n cazul modelelor Markov ascunse).
Un model Markov caracterizeaz un sistem cu ajutorul a dou variabile aleatoare: starea sistemului i
timpul de observare. Fiecare dintre aceste variabile aleatoare poate s fie discret sau continu. Din
combinaiile posibile ale celor dou variabile aleatoare rezult diferite tipuri de modele.
Dac modelul este cu stare discret i timp de observare continuu se obine un proces Markov.
Dac modelul este cu stare discret i timp de observare discret se obine un lan Markov.
O caracteristic de baz a oricrui model Markov este aceea c, dac sistemul se afl ntr-o anumit
stare la momenetul t , atunci probabilitatea ca acesta s se afle ntr-o alt stare la momentul 1 + t ,
depinde numai de starea prezent (la momentul t ) i nu depinde de modul n care sistemul a ajuns n
aceast stare.
Deducem c, pentru un model Markov, viitorul depinde numai de starea prezent i nu depinde de
istoria anterioar strii prezentului.
Un lan Markov poate fi reprezentat sub forma unui graf orientat, n care nodurile reprezint strile
sistemului, iar arcele reprezint tranziiile posibile de la o stare la alta.
Lanurile Markov sunt folosite n finane i economie pentru a modela o mare varietate de fenomene,
inclusiv preurile activelor financiare i prbuirile pieei. Primul model din domeniul financiar care
a utilizat un lan Markov a fost propus n 1974. Un alt model a fost modelul de comutare de regim,
propus de James D. Hamilton (1989), n care un lan Markov a fost folosit pentru a modela salturile
ntre perioadele de volatilitate ridicat i perioadele de volatilitate sczut ale rentabilitilor
activelor.
Un lan Markov (denumit dup Andrey Markov), este un proces aleator care evolueaz n timp
discret i a crui evoluie depinde numai de starea sa la momentul prezent i nu depinde de ce s-a
petrecut n trecut. Aceast proprietate este numit proprietatea Markov.
Se spune c lanul Markov este un proces fr memorie.
Lanurile Markov au multe aplicaii ca modele statistice ale proceselor lumii reale. Un lan Markov
este un model flexibil, usor de mnuit, pentru serii de timp.
Lan Markov cu n stri
Considerm un sistem descris prin urmtorul proces:
La orice moment de timp dat, sistemul poate fi n una din n stri posibile:
} ,..., 2 , 1 { } ,..., , {
2 1
n s s s s
n t
= = . Variabila aleatoare
t
s poate lua numai valori ntregi.
La momente de timp fixate, sistemul sufer o tranziie la o nou stare.
Tranziia ntre stri poate fi descris probabilistic
Proprietatea Markov
2

n general, probabilitatea ca un sistem s fie n starea j s
t
= este o funcie de ntreaga istorie a
sistemului. Pentru a simplifica analiza, vom presupune c starea sistemului depinde numai de
trecutul su imediat:
ij t t t t t
p i s j s P k s i s j s P = = = = = = =

) | ( ,...) , | (
1 2 1
. (1)
Probabilitatea de trecere ) | ( i j P p
ij
= arat probabilitatea c starea i va fi urmat de starea j.
Acesta este un proces Markov de ordinul nti. Vom presupune, de asemenea, c probabilitatea de
trecere dintre orice dou stri este independent de timp. Atunci avem condiiile:
) | (
1
i s j s P p
t t ij
= = =

cu 0
ij
p i 1
1
=

=
n
j ij
p . (2)
Probabilitile de trecere sunt prezentate n matricea de trecere P. Dac probabilitatea de trecere din
starea i n starea j este ) | ( i j P p
ij
= , atunci matricea probabilitilor de trecere este:
|
|
|

\
|
=
nn n
n
p p
p p
P
L
M O M
L
1
1 11
(3)
Ea conine elemente nenegative i care nsumate pe linie dau 1, din acest motiv numindu-se matrice
stochastic.
Un lan Markov este omogen dac probabilitile de trecere nu depind explicit de t.
Un lan Markov este ireductibil dac orice stare poate fi atins plecnd din orice alt stare.
Un lan Markov este ergodic dac distribuia de probabilitate converge ctre o distribuie limit
independent de distribuia iniial. Intuitiv, un lan Markov este ergodic dac evoluia sa depinde din
ce n ce mai puin de starea iniial iar repartiia sa ncepe s se stabilizeze.

Pentru a specifica un lan Markov avem nevoie de o mulime de stri } ,..., 2 , 1 { } ,..., , {
2 1
n s s s s
n t
= = , o
stare de start, i o matrice de probabiliti de tranziie.
ij
p specific probabilitatea de a trece de la
starea i la starea j, n cazul n care starea actual este i. Uneori, pe mulimea strilor, este definit o
distribuie de probabilitate iniial. Procesul ncepe ntr-una dintre aceste stri i se mut succesiv de
la o stare la alta. Fiecare micare este numit un pas.

10.2. Modele de Serii de timp cu Proprietatea Markov
Modelul AR(1)
Considerm modelul
t t t
y y + =
1
sau
t t t
y y + + =

) (
1

Distribuia condiionat a lui
1 + n
y , date fiind valorile
0 1
,..., , y y y
n n
, depinde numai de
n
y .
Rezult c AR(1) are proprietatea Markov.

Modelul AR(2)
Considerm modelul
t t t t
y y y + + =
2 2 1 1
sau
t t t t
y y y + + + =

) ( ) (
2 2 1 1

Distribuia condiionat a lui
1 + n
y dai fiind
0 1
,..., , y y y
n n
depinde de
1 n
y i de
n
y .
Rezult c AR(2) nu are proprietatea Markov.
Considerm acum:
1 1 2 1 1 + +
+ + + =
n n n n
y y y
n n
y y =
3

Rezult
|
|

\
|
+
|
|

\
|
|
|

\
|
+
|
|

\
|
=
|
|

\
|
+

+
0 0 1 0
1
1
2 1 1 n
n
n
n
n
y
y
y
y

Definim vectorul ( )
T
n n
n
n
n
y y
y
y
Y
1
1

=
|
|

\
|
=
Atunci
|
|

\
|
+
|
|

\
|
+
|
|

\
|
=
+
+
0 0 1 0
1 2 1
1
n
n n
Y Y


Vectorul Y este un proces vector autoregresiv de ordinul 1, notat VAR(1).
Vectorul Y are proprietatea Markov.
n general, procesul AR(p) nu are proprietatea Markov pentru 1 > p , dar vectorul
T
p t t t
y y y Y ) ,..., , (
1 1 +
= are proprietatea Markov.
Reamintim c Random Walk ARIMA(0,1,0), definit prin
t t t
y y + =
1
, are creteri independente
t t t
y y =
1
, deci are proprietatea Markov.
Not. Poate fi artat c, pentru 1 > + d p , procesul ARIMA(p,d,0) nu are proprietatea Markov, dar
procesul
T
d p t t t t
y y y Y ) ,..., , (
1 1 +
= are proprietatea Markov.

Considerm procesul MA(1):
1
+ + =
t t t
y . Dac scriem
1
+ + =
n n n
y , este foarte clar
faptul c, chiar dac am cunoate
n
y , aceasta nu ar fi suficient pentru a cunoate valoarea lui
n
, de
care depinde distribuia lui
1 + n
y . Rezult c procesul MA(1) nu are proprietatea Markov.
Considerm procesul MA(q)=AR(). Se tie deja c un proces AR(p),
T
p t t t
y y y Y ) ,..., , (
1 1 +
= are
proprietatea Markov dac este considerat ca un proces vector de dimensiune finit p. De aici
urmeaz c un proces MA(q) nu poate avea o reprezentare Markov de dimensiune finit.

Problem. S se asocieze un proces vector Markov cu procesul:
t t t t t
y y y y + + =
3 2 1
4 5 2 .
Putem scrie:
t t t t t t t
y y y y y y + =

) ( ) ( 3 ) ( 2
3 2 2 1 1

t t t t
y y y + =
2 1
3 2
t t t
y y + =
1
2 2

ARIMA(1,2,0) sau ARIMA(p,d,q) cu p=1 i d=2.
Deoarece 1 3 > = + d p , vectorul
T
d p t t t t
y y y Y ) ,..., , (
1 1 +
= , deci
T
t t t t
y y y Y ) , , (
2 1
= este Markov.

10.3. Reprezentarea unui lan Markov cu un vector autoregresiv
O reprezentare util pentru un lan Markov este obinut dac notm prin x
t
un vector aleator de
dimensiune 1 n . Astfel, atunci cnd 1 =
t
s , vectorul x
t
este egal cu prima coloan din matricea
unitate
n
I , de dimensiune n n ; atunci cnd 2 =
t
s , vectorul x
t
este egal cu a doua coloan din
matricea unitate de dimensiune n n , i aa mai departe.

= =
= =
= =
=
n e
e
e
n
t
t
t 2
t 1
s cnd , ) 1 ,..., 0 , 1 (
2 s cnd , ) 0 ,..., 1 , 0 (
1 s cnd , ) 0 ,..., 0 , 1 (
x
M

4

Dac i s
t
= , atunci elementul j al vectorului x
t+1
este o variabil aleatoare care ia valoarea 1 cu
probabilitatea
ij
p i ia valoarea 0 altfel. O astfel de variabil aleatoare are valoarea medie
ij
p .
Rezult c media condiionat a vectorului x
t+1
, dat fiind i s
t
= , va fi
E(x
t+1
| i s
t
= )= ) ,..., , (
2 1

in i i
p p p . (4)
Acest vector reprezint, de fapt, coloana i a matricei P. Mai mult, cnd i s
t
= , vectorul x
t
corespunde
coloanei i din matricea unitate
n
I . n acest caz, vectorul din ecuaia (4) poate fi descries ca Px
t
.
rezult c expresia din ec.(4) implic:
E(x
t+1
|x
t
)=Px
t

Din proprietatea Markov (ec.(1)) urmeaz c
E(x
t+1
|x
t
,x
t-1,
)=Px
t
(5)
Aceast ultim ecuaie arat c este posibil s exprimm un lan Markov n forma:
x
t+1
=Px
t
+ v
t+1
(6)
unde v
t+1
= x
t+1
+ E(x
t+1
|x
t
,x
t-1,
) (7)
Ecuaia (6) are forma unui model AR(1) pentru x
t
. Ecuaia (7) arat c vectorul de inovaii v
t
este o
secven de diferene martingal. Dei acest vector poate lua doar un numr finit de valori, media sa
este 0. Valoarea lui v
t
este imposibil de prognozat pe baza strilor anterioare ale procesului.
Prognoze pentru un lan Markov
Ecuaia (6) implic:
x
t+m
= v
t+m
+ Pv
t+m-1
+ P
2
v
t+m-2
+ + P
m-1
v
t+1
+ P
m
x
t
(8)
Matricea P
m
indic matricea de trecere multiplicat de m ori. Din ecuaia (8) urmeaz c prognoza
pentru un lan Markov, pentru perioada m din viitor, poate fi calculat din relaia:
E(x
t+m
|x
t
,x
t-1,
) = P
m
x
t
(9)
Deoarece elementul j al vectorului x
t+m
va fi egal cu unitatea dac j s
m t
=
+
, iar altfel va fi 0,
deducem c elementul j al vectorului E(x
t+m
|x
t
,x
t-1,
) indic probabilitatea c
m t
s
+
ia valoarea j,
condiionat de starea sistemului la momentul t. De exemplu, dac procesul este n starea i la
momentul t, ecuaia (9) ne asigur c
=
|
|
|
|
|

\
|
= =
= =
= =
+
+
+
) | (
) | 2 (
) | 1 (
i s n s P
i s s P
i s s P
t m t
t m t
t m t
M
P
m
e
i
(10)
Vectorul e
i
este coloana i din matricea unitate de ordin n. Ecuaia (10) arat c probabilitatea de
trecere pentru perioada m n viitor, poate fi calculat, n cazul unui lan Markov, multiplicnd
matricea P de m ori. n mod particular, probabilitatea ca o observaie din regimul i s fie urmat,
dup m perioade, de o observaie din regimul j, adic ) | ( i s j s P
t m t
= =
+
, este data de elementul de
pe coloana j, linia i, din matricea P
m
.
Lanuri Markov reductibile
Pentru un lan Markov cu 2 stri, matricea de trecere este :
|
|

\
|
=
|
|

\
|


=
22 21
12 11
22 11
22 11
1
1
p p
p p
p p
p p
P (11)
Presupunem c 1
11
= p , astfel nct matricea P este superior triunghiular. Atunci cnd procesul intr
n starea 1, nu mai exist nicio posibilitate de a reveni la starea 2. n astfel de cazuri spunem c starea
1 este o stare absorbant i lanul Markov este reductibil. Un lan Markov care nu este reductibil se
numete ireductibil. Lanul Markov cu 2 stri este ireductibil dac 1
11
< p i 1
22
< p .

10.4. Modele de comutare de regim pentru serii de timp
5

10.4.1. Introducere
n prezent, se folosesc diferite modele de serii de timp pentru a analiza comportamentul dinamic al
variabilelor economice i financiare. Cele mai folosite sunt modelele liniare, cum ar fi modelele AR,
modelele MA i modelele mixte ARMA. Modelele liniare au devenit populare i deoarece acestea au
fost ncorporate n multe pachete de econometrie. Dei aceste modele sunt apreciate n numeroase
aplicaii, ele nu sunt capabile s reprezinte multe dinamici neliniare, cum ar fi asimetria, dependena
de amplitudine i volatility clustering.
Modelul de comutare Markov al lui Hamilton (1989), este unul dintre cele mai populare modele
neliniare pentru serii de timp. Acest model implic structuri multiple (ecuaii), care pot caracteriza
comportamentele seriilor de timp n regimuri diferite. Permind comutarea ntre aceste structuri,
acest model este capabil s capteze modele dinamice complexe. O caracteristic a modelului de
comutare Markov este c mecanismul de comutare este controlat de o variabil de stare
neobservabil, care urmeaz un lan Markov de ordin unu.
Proprietatea Markov spune c valoarea curent a variabilei de stare depinde de valoarea sa
anterioar. Ca atare, o structur poate exista pentru o perioad de timp aleatoare, i va fi nlocuit de
o alt structur, atunci cnd are loc o comutare. Modelul de comutare Markov este potrivit pentru a
descrie date corelate care prezint modele dinamice distincte n diferite perioade de timp.
10.4.2. Motivare
Exist numeroase dovezi empirice care sugereaz c unele variabile economice pot prezenta tipare
de comportament diferit de-a lungul timpului. Este natural ca, n loc s fie folosit un model pentru
media condiionat a variabilei, s se foloseasc mai multe modele care s reprezinte aceste tipare de
comportament.
Multe serii de timp economice i financiare manifest perioade n care comportamentul lor se
schimb foarte mult. Comportamentul unei serii de timp poate cunoate schimbri referitoare la
medie, volatilitate sau valoarea curent fa de valoarea anterioar. Modificarea poate fi pentru
totdeauna i este numit ntrerupere structural ntr-o serie sau poate fi doar pentru o perioad de
timp i este numit comutare de regim.
Ce ar putea provoca o modificare comportamental fundamental n proprietile unei serii?
O modificare comportamental fundamental n proprietile unei serii poate fi determinat de
evenimente majore cum ar fi rzboaiele sau panica financiar, sau schimbri n politica
guvernamental, cum ar fi introducerea unei inte pentru inflaie, sau schimbri n microstructura
pieei de capital (de exemplu momentul cnd tranzaciile pe the London Stock Exchange (LSE) au
devenit electronice).

De ce ar putea fi un lan Markov o descriere util a procesului care genereaz schimbrile de
regim? Primul argument ar fi c o schimbare de regim ca cea din figura de mai sus este un eveniment
permanent. O astfel de schimbare de regim permanent ar putea fi modelat printr-un lan Markov cu
dou stri, n care starea 2 este o stare absorbant. Avantajul folosirii unui lan Markov asupra unei
specificaii deterministe pentru un astfel de proces este c el permite s fie generate prognoze ninte
6

de schimbarea care ia n considerare posibilitatea unei schimbri de la regimul 1 la regimul 2. Esena
metodei este presupunerea c viitorul va fi, ntr-un anume sens, la fel ca trecutul.
Dac reprezentarea grafic a datelor arat c, de la un anumit moment, seria devine mult mai volatil
i valoarea medie este mult crescut, nseamn c un model liniar nu este potrivit. O abordare
posibil a acestei probleme este de a separa datele pe cele dou perioade de timp i de a estima
modele separate pe fiecare perioad. Putem considera c o serie poatre fi extras din dou sau mai
multe procese de generare a datelor, diferite, la momente diferite.
De exemplu, dac vom considera c un proces AR(1) este potrivit pentru a reprezenta caracteristicile
unei serii al crui comportament se schimb la observaia 500, s-ar putea estima dou modele:
t t t
y y
1 1 1 1
+ + =

, nainte de observaia 500
t t t
y y
2 1 2 2
+ + =

, dup observaia 500
Aceste ecuaii reprezint un exemplu de model liniar pe poriuni, adic modelul este global neliniar,
dar fiecare parte component este un model liniar.
Dorim s se pstreze toate observaiile mpreun dar s se permit forme ale schimbrilor structurale
n procesul de construire a modelelor. Dorim modele care s permit ca toate observaiile unei serii
s fie folosite pentru a estima un model, dar acel model s fie suficient de flexibil pentru a permite
diferite tipuri de comportament pe perioade diferite de timp. Exist dou clase de modele de
comutare de regim care permit acest lucru: modele de comutare Markov i modele autoregresive
prag (threshold autoregressive models).

10.4.3. Modele de comutare Markov
Un model de comutare Markov este construit prin combinarea a dou sau mai multor modele
dinamice printr-un mecanism de comutare markovian. Dintre numeroasele modele prag neliniare
care au fost propuse n econometrie, numai dou tipuri de modele au avut un impact notabil n
finane. Acestea sunt modelul de comutare Markov, asociat cu Hamilton (1989, 1990), i modelul
autoregresiv prag, asociat cu Tong (1983, 1990).
Fundamente ale modelelor de comutare Markov
Obiectivul este de a construi un model care s permit ca o variabil dat s urmeze o serie de timp
diferit pentru fiecare subeantion diferit de observaii.
Sunt foarte importante caracteristicile unui model de comutare Markov. n abordarea de comutare
Markov, universul apariiilor posibile este descompus/mprit n m stri, notate
i
s , m i ,..., 1 = ,
corespunztor la m regimuri. Cu alte cuvinte, se presupune c o variabil
t
y schimb (comut)
regimul n acord cu o variabil neobservabil,
t
s , care ia valori ntregi. n continuare vom considera
1 = m sau 2 = m . Astfel, dac 1 =
t
s , procesul este n regimul 1, iar dac 2 =
t
s , procesul este n
regimul 2 la momentul t . Modificrile variabilei de stare ntre regimuri se realizeaz printr-un proces
Markov. Aceast proprietate Markov poate fi exprimat prin relaia
) | ( ) ,..., , | (
1 1 2 1
=
t t t t
y b y a P y y y b y a P
nseamn c distribuia de probabilitate a strii la orice moment t depinde numai de starea la
momentul 1 t i nu de strile prin care s-a trecut la momentele ,... 3 , 2 t t . Deci, procesele
Markov nu sunt dependente de drumul parcurs.
Puterea modelului const n flexibilitatea sa, fiind capabil s includ att schimbrile n variana
dintre procesele de stare ct i schimbrile n medie.
Forma de baz a modelului lui Hamilton, cunoscut sub denumirea de filtrul lui Hamilton, include o
variabil de stare neobservabil, notat
t
z , care este presupus a evolua ca un proces Markov de
ordinul nti.
Modelul de comutare simplu
Un model de comutare simplu pentru variabila
t
z implic dou specificaii AR:
7

= + + +
= + +
=

2 ,
1 ,
1 1 0
1 0
t t t
t t t
t
s z
s z
z



Avem 1 | | < i
t
sunt variabile aleatoare i.i.d. cu media 0 i variana
2
. Avem un proces AR(1)
staionar, cu media ) 1 /(
0
, cnd 1 =
t
s i acesta comut la un alt proces AR(1) staionar, cu
media ) 1 /( ) (
1 0
+ , cnd 2 =
t
s . Cu condiia ca 0
1
, acest model admite dou structuri
dinamice la niveluri diferite, depinznd de valoarea variabilei de stare. n acest caz, variabila
t
z este
determinat de dou distribuii cu medii distincte i starea
t
s determin comutarea ntre cele dou
distribuii (regimuri).
Cnd 1 =
t
s pentru
0
,..., 2 , 1 = t i 2 =
t
s pentru n t ,..., 2 , 1
0 0
+ + = , modelul pentru
t
z este un
model cu o singur schimbare structural, n care parametrul modelului se schimb abrupt dup
momentul
0
= t .
n modelul de comutare aleatoare, realizarea strii
t
s este independent de strile anterioare i
viitoare, astfel nct
t
z poate s comute ntre stri diferite. Dac se stabilete c
t
s este o variabil
indicator
t
aa nct 1 =
t
s sau 2 =
t
s depinznd de faptul c este depit o anumit valoare prag,
se obine un threshold model. De obicei, se alege ca variabil
t
o variabil dependent decalat
(
d t
z

).
Aceste modele sunt capabile s caracterizeze comportamentul unei serii de timp, dar au anumite
limite. Pentru modelul cu o singur schimbare structural, aceasta este o restricie important,
deoarece este admis o singur schimbare. Dei extinderea acestui model pentru a permite mai multe
schimbri este simpl, estimarea modelului care rezult i testarea de ipoteze sunt activiti dificile.
Presupunem c
t
s urmeaz un lan Markov de ordin unu cu urmtoarea matrice de trecere:
|
|

\
|
= = = =
= = = =
=


) 2 | 2 Pr( ) 2 | 1 Pr(
) 1 | 2 Pr( ) 1 | 1 Pr(
1 1
1 1
t t t t
t t t t
z z z z
z z z z
P
|
|

\
|
=
22 21
12 11
p p
p p

11 1
) 1 | 1 Pr( p z z
t t
= = =


11 21 1
1 ) 1 | 2 Pr( p p z z
t t
= = = =


22 1
) 2 | 2 Pr( p z z
t t
= = =


22 12 1
1 ) 2 | 1 Pr( p p z z
t t
= = = =


Am notat cu
11
p probabilitatea de a fi n regimul unu, dat fiind c sistemul a fost n regimul unu n
timpul perioadei anterioare i cu
22
p probabilitatea de a fi n regimul doi, dat fiind c sistemul a fost
n regimul doi n timpul perioadei anterioare.
Rezult c
11 21
1 p p = este probabilitatea c
t
y va trece din starea 1 din perioada 1 t n starea 2 la
momentul t , iar
22 12
1 p p = este probabilitatea c
t
y va trece din starea 2 din perioada 1 t n
starea 1 ntre momentele 1 t i t . Probabilitile de trecere satisfac relaiile 1
2 1
= +
i i
p p . Matricea
de trecere determin comportamentul aleator al variabilei de stare i ea conine doar 2 parametri (
11
p
i
22
p ).
n modelul de comutare Markov, proprietile variabilei
t
z sunt determinate n comun de
caracteristicile aleatoare ale inovaiilor
t
i ale variabilei de stare
t
s . n particular, variabila de stare
markovian produce schimbri aleatoare i frecvente n structurile modelului iar probabilitile de
trecere determin persistena fiecrui regim. Modelul de comutare Markov este relativ uor de
implementat deoarece nu necesit alegerea prealabil a unei variabile prag. Clasificarea regimurilor
din acest model este probabilist i este determinat din date. Un dezavantaj al acestui model este
faptul c nu este uor de interpretat din cauza variabilei de stare care este neobservabil.
Se poate arta c
t
z evolueaz ca un proces AR(1):
8

t t t
z p z + + =
1 11
) 1 ( , unde 1
22 11
+ = p p . Variabila
t
z poate fi vzut ca o generalizare a
unei variabile dummy pentru schimbrile dintr-o serie.
Sub abordarea de comutare Markov, pot exista salturi multiple de la o mulime de comportamente la
altele.
n acest cadru, seria randamentelor observate, evolueaz ca dat prin
t t t t
u z z y
2 / 1 2
1 2 1
) ( + + + = , unde ) 1 , 0 ( ~ N u
t
.
Valorile medii i varianele ateptate ale seriei sunt
1
i
2
1
, n starea 1, iar ) (
2 1
+ i ) (
2
1
+
pentru starea 2. Variana n starea 2 este definit, de asemenea + =
2
1
2
2
. Parametrii necunoscui
ai modelului (
1
,
2
,
2
1
,
2
2
,
11
p ,
22
p ) sunt estimai prin metoda verosimilitii maxime.
Dac o variabil urmeaz un proces Markov, tot ceea ce se cere pentru a prognoza probabilitatea c
va fi ntr-un regim dat n timpul perioadei urmtoare este probabilitatea perioadei curente i o
mulime de probabiliti de trecere date pentru cazul a dou regimuri
Modelul simplu
t t t t
z s z + + + =
1 1 0
poate fi extins pentru a permite structuri dinamice mai
generale:
t p t p t t t
z z s z + + + + + =

L
1 1 1 0


n cazul general, cnd exist m stri, probabilitile de trecere sunt exprimate prin matricea:
|
|
|
|
|

\
|
=
mm m m
m
m
p p p
p p p
p p p
P
L
M M M M
L
L
2 1
2 22 21
1 12 11

Am notat cu
ij
p probabilitatea de a trece din regimul i n regimul j. n prima coloan se trec
probabilitile de trecere n starea 1 din cele m stri posibile.
Deoarece la un moment dat variabila trebuie s fie n una din cele m stri, trebuie s avem:
1
1
=

=
m
i ij
p , i
Un vector al probabilitilor de stare curente este definit prin:
] [
2 1 m t
L = ,
unde
i
este probabilitatea ca variabila Y este la momentul curent n starea i. Dat fiind
t
i matricea
P, probabilitatea ca variabila Y s fie n perioada urmtoare n urmtoarea stare, poate fi prognozat
prin relaia:
P
t t
=
+1

Probabilitile pentru pasul S n viitor vor fi calculate prin:
s
t s t
P =
+


10.4.4. Trendul Markov
Modelul de comutare Markov este potrivit numai pentru date staionare
Fie
t
y seria de timp observat care conine o rdcin unitate.Modelul de comutare Markov ar trebui
aplicat asupra seriei diferenelor
1
= =
t t t t
y y y z .
Cnd
t
y reprezint date trimestriale care conin o unitate de rdcin unitar de sezonalitate, vom
aplica modelul de comutare Markov seriei sezoniere difereniate
4 4
= =
t t t t
y y y z .
Cnd n
t
y este prezent o rdcin unitate, intercepia de comutare din
t
z reprezint un trend
determinist cu ntreruperi. Variabila
t
y poate fi exprimat sub forma:

= =
+ + + + + =
t
i i p t p t
t
i i t
z z s t z
1 1 1 1 1 0
) ( L
9

Cei doi termeni din parantez reprezint o funcie de trend cu modificri, al doilea termen este o
component dinamic, iar ultimul termen este un trend stochastic.

10.4.5. Exemplu. Modelelul de comutare Markov autoregresiv al lui Hamilton
EViews 8 permite estimarea modelelor de comutare Markov. Specificarea dinamicilor seriei se face
prin utilizarea variabilelor dependente decalate ca variabile explicative i prin erorile autocorelate.
Hamilton (1989) a specificat un model de comutare Markov n care rata medie de cretere a PIB-ului
este supus unui regim de comutare, iar erorile urmeaz un proces AR (4) staionar.
Datele pentru acest exemplu, care constau n seria G ce conine diferenele logaritmilor PIB-ului
trimestrial din SUA pentru perioadele 1951Q1-1984Q4, pot fi gsite n fiierul gnp_hamilton.wf1.
Pentru a estima modelul lui Hamilton, se specific o ecuaie de comutare conform ferestrei de dialog
de mai jos:



Ecuaia specificat arat un model de comutare Markov cu un singur regresor, media de comutare i
4 termeni AR non-comutare. Variana erorilor se presupune a fi comun pentru toate regimurile.
Singurul regresor probabilitate este constanta C, deoarece avem probabilitile de trecere invariante
n timp.
Cu excepia toleranei de convergen propus la nivel 8, restul setrilor au fost lsate la valorile lor
implicite. Urmeaz clic pe OK pentru a estima ecuaia i a afia rezultatele estimrii. Se pot obine
rezultate puin diferite din cauza setului de valori de pornire aleatoare.



10

Seciunea din mijloc afieaz coeficienii pentru media specific regimului i coeficienii distribuiei
erorilor invariante. Vedem, din diferenele dintre mediile specifice regimului, c termenii Hamilton
sunt ratele rapide i lente de cretere pentru economia SUA.


Rezultatele rmase indic parametrii din matricea de trecere i statisticile pentru ecuaia estimat .

n loc s ne uitm la parametrii din matricea de trecere, vom examina probabilitile din matricea de
trecere n mod direct, selectnd View/Regime Results/Transition Results... . Facem clic pe OK i
obinem vizualizarea rezumat implicit:

11

Aici, vom vedea matricea probabilitilor de trecere i duratele ateptate. Observm c exist o
dependen de stare considerabil n probabilitile de trecere, cu o probabilitate relativ mai mare de
a rmne n regimul de origine (0,90 pentru starea de ieire mare, 0,75 pentru starea de ieire mic).
Duratele corespunztoare ateptate ntr-un regim sunt de aproximativ 10.4 i 4.1 trimestre, respectiv.
In cele din urm, putem afia estimrile de selecie filtrate i complete, ale probabilitilor de a fi n
cele dou regimuri. Selectm mai nti View/Regime Results/Regime Probabilities... i alegem
rezultatele filtrate. Vor fi afiate rezultatele doar pentru al doilea regim. Apoi repetm procedura de
alegere a rezultatelor netezite.

10.4.6. Exemplu. Un model de comutare Markov pentru cursul de schimb real
Exist un numr mare de aplicaii ale modelului de comutare Markov n finane. O astfel de abordare
este util atunci cnd o serie este gndit a suferi o transformare de la un tip de comportament la altul
i napoi, dar unde variabila care cauzeaz schimbarea de regim este neobservabil.
O astfel de aplicaie este modelarea ratei de schimb reale. Se tie c teoria paritii puterii de
cumprare (PPP) sugereaz c legea preurilor s-ar aplica totdeauna pe termen lung, astfel nct
costul unui co reprezentativ de bunuri i servicii este acelai oriunde este cumprat, dup
transformarea ntr-o valut comun.
Sub anumite ipoteze, o implicaie a PPP este c rata de schimb real (adic rata de schimb mprit
printr-un indice de preuri general, cum ar fi indicele preurilor de consum (CPI)) ar fi staionar.
Totui, n numeroase studii nu au existat suficiente dovezi pentru a respinge ipoteza nul de rdcin
unitar n ratele de schimb reale, artnd evidena contra teoriei PPP (deci rata de schimb real este
nestaionar).
Este bine cunoscut faptul c puterea testelor de rdcin unitar este slab n prezena unor schimbri
structurale deoarece testul ADF nu poate face distincie ntre un proces staionar supus unei
schimbri structurale i un proces cu rdcin unitar.
Pentru a cerceta aceast posibilitate, Bergman and Hansson (2005) au estimat un model de comutare
Markov cu o structur AR(1) pentru rata de schimb real, care permite schimbri multiple ntre dou
regimuri.
Specificaia folosit a fost:
t t s t
y y
t
+ + =
1

Rata de schimb real este
t
y ,
t
s ( 2 , 1 = t ) sunt cele dou stri i ) , 0 ( ~
2
N
t
.
Se presupune c variabila de stare
t
s urmeaz un proces Markov standard cu dou regimuri.

Au fost folosite observaii trimestriale ntre 1973Q2 - 1997Q4 pentru cursul de schimb real (n
uniti de valut strin pentru un dolar SUA), pentru Marea Britanie, Frana, Germania, Elveia,
Canada i Japonia. Modelul a fost estimat utiliznd primele 72 de observaii (1973Q2 - 1990Q4).
Restul observaiilor au fost folosite pentru a evalua prognoza out-of-sample. Autorii au folosit 100 x
LOG(cursul real de schimb), iar acesta a fost normalizat pentru a lua valoarea 1 pentru 1973Q2,
pentru toate rile. Estimaiile modelului de comutare Markov, obinute folosind metoda
verosimilitii maxime sunt prezentate n tabelul de mai jos.

Parametru UK Frana Germania Elveia Canada Japonia

1
3,554 6,131 6,569 2,390 1,693 -0,370
2 -5,096 -2,845 -2.676 -6,556 -0,304 -8,932

0,928 0,904 0,888 0,958 0,922 0,871
P
11
0,672 0,679 0,682 0,792 0,952 0,911
P
22
0,690 0,833 0,830 0,716 0,944 0,817
..
12

Modelul s-a dovedit capabil s separe ratele de schimb reale n dou regimuri distincte pentru fiecare
serie, cu intercepia n regimul 1 (1) pozitiv pentru toate rile, cu excepia Japoniei (ceea ce
rezult din puterea yenului pe perioada de selecie), care corespunde la o cretere n LOG( numrul
de uniti de valut strin pentru un dolar SUA), adic, o depreciere a monedei naionale fa de
dolar. Intercepia din regimul 2 (2), este negativ pentru toate rile, corespunznd unei aprecieri a
monedei naionale n raport cu dolarul. Probabilitile de a rmne n cadrul aceluiai regim n
timpul perioadei urmtoare (P
11
i P
22
) sunt destul de mici pentru Marea Britanie, Frana, Germania
i Elveia, indicnd schimbri destul de frecvente de la un regim la altul pentru monedele din aceste
ri. Interesant, dup ce permite intercepii de comutare diferite , coeficientul AR(1), , este mai mic
dect 1, ceea ce indic faptul c aceste rate de schimb reale sunt staionare.
Bergman i Hansson au simulat date pornind da la modelul de comutare Markov AR(1), staionar,
cu parametrii estimai.
Ei au gsit c pentru nici unul din cazuri ipoteza nul de rdcin unitar nu poate fi respins, chiar
dac n mod clar ipoteza nul este greit deoarece datele simulate sunt staionare. S-a ajuns la
concluzia c un eec la a ine cont de interceptri care variaz n timp (de exemplu, rupturi
structurale) n studiile empirice anterioare privind cursurile de schimb reale ar fi putut fi motivul
pentru constatarea c seriile sunt procese cu rdcin unitar atunci cnd teoria financiar a sugerat
c ar trebui fie staionare.
n final, autorii au folosit modelul de comutare Markov AR(1), pentru a prognoza cursurile de
schimb rmase, din eantion, n comparaie cu previziunile produse de un model RW i de un model
de comutare Markov cu un mers aleator. Ei au gsit c pentru toate cele ase serii, i pentru
orizonturile de prognoz pn la 4 pai (trimestre) nainte, modelul lor de comutare Markov a produs
predicii cu erorile medii ptratice cele mai mici; aceste mbuntiri fa de mersul aleator pur sunt
semnificative statistic.
Not: Acest exemplu a fost preluat din Chris Brooks, Introductory Econometrics for Finance,
Second Edition, Cambridge University Press, 2008.