Sunteți pe pagina 1din 20

I.

Serii de timp (serii cronologice, serii dinamice)


(note de curs)
• Zgomotul alb
• mersul la întâmplare
• procese medie mobilă (MA(q))
• procese autoregresive (AR(p))
• procese mixate (ARMA(p,q))
• seria integrată (ARIMA(p,n,q), ARFIMA(p,d,q))
• serii cointegrate, procese ARCH, GARCH.

Seria cronologică reprezintă un set sistematizat de valori ale unei varibile măsurate la
momente sau intervale de timp egale şi successive. Seria cronologică este numită şi serie
dinamică sau serie de timp. Din punct de vedere matematic, seria de timp este o realizare
a unui proces stocastic { X t } t unde t ∈ Z sau unei mulţimi din Z, iar spaţiul stărilor
procesului (adică { X t ( ω ) , ω ∈ Ω} ) este mulţimea R sau o submulţime a sa.
Exemple de serii cronologice :
1). Cifra de afaceri anuală a unei firme de-a lungul unui deceniu.
2). Numărul şomerilor înregistraţi trimestrial în timpul unei guvernări de patru ani.
3). Numărul poliţelor încheiate de o societate de asigurări în fiecare trimestru dintr-o
perioadă de 5 ani.
4). Încasările zilnice ale unui supermarket pe o perioadă de o lună.
5). Numărul de transporturi efectuate în fiecare trimestru din ultimii 3 ani de către o
firmă de transporturi auto internaţionale.
Analiza seriei de timp, identificarea, evaluarea şi separarea componentelor oferă
informaţii privind :
i) trendul, adică existenţa unui sens evolutiv dominant, care se manifestă îndeosebi în
condiţii de normalitate ale desfăşurării procesului;
ii) apariţia unor oscilaţii periodice sistematice, cu şanse mari de a se repeta şi în viitor,
atât ca sens cât şi ca amploare;
iii) aspectul previzibil al evoluţiei unor procese, ca răspuns la unele abateri din trecut;
iv) identificarea factorilor neesenţiali, permiţând eventuala eliminare a lor;
v) caracterul inerţial al desfăşurării unor procese.
O primă clasificare a seriilor de timp este dată de împărţirea lor în serii staţionare şi
serii nestaţionare.
Seria staţionară este seria ale cărei valori oscilează în jurul unui nivel de referinţă (de
echilibru). Vom nota cu xt valoarea de la momentul t şi cu X t variabila aleatoare de la
momentul t a cărei realizare este xt . În limbaj matematic, seria este staţionară dacă
procesul stocastic { X t } t este staţionar, adică are media şi dispersia constante, iar
covarianţa variabilelor din proces depinde numai de distanţa dintre momentele de timp la
care sunt înregistrate. Aşadar, avem :
M ( X t ) = m, D 2 ( X t ) = σ 2 şi Cov ( X t , X t +k ) = γ ( k ), ∀t .
Analize mai amănunţite disting o staţionaritate slabă şi o staţionaritate strictă. Procesul
stocastic { X t } t∈T este complet caracterizat dacă pentru orice întreg n ≥ 1 şi orice

1
mulţime de indici distincţi t1 , t 2 ,..., t n este cunoscută funcţia de repartiţie
( )
Ft1t2 ...tn ( x1 , x 2 ,..., x n ) = P X t1 ≤ x1 , X t2 ≤ x 2 ,..., X tn ≤ x n .
Definiţia 1. Procesul stocastic { X t } t este strict staţionar dacă
Ft1 +h ,..., tn +h ( x1 ,..., x n ) = Ft1 ,..., t n ( x1 ,..., x n ) , ∀ h > 0 şi pentru orice mulţime finită de
indici t1 , t 2 ,..., t n .
Definiţia 2. Procesul stocastic { X t } t este slab staţionar (sau, mai simplu spus, staţionar)
dacă momentele sale de ordin unu şi doi sunt finite, M ( X t ) = m, ∀ t şi
Cov ( X t , X t +h ) = Cov ( X s , X s +h ) pentru orice t,s şi h (deci, covarianţa este funcţie
numai de distanţa dintre variabile). Pentru staţionaritatea slabă se mai folosesc şi
sintagmele : „staţionară de ordinul doi”, „staţionară în covarianţă” sau „staţionară în sens
larg”.
Observaţie : Dacă { X t } t∈T este o serie de timp strict staţionară cu M X t < ∞ (adică
2
( )
momentele de ordin doi sunt finite), atunci dispersia lui X t este o constantă pentru toţi t.
De asemenea, un proces stocastic strict staţionar cu primele două momente finite este şi
slab staţionar. În economie majoritatea seriilor cronologice privind preţurile, masa
monetară, consumul etc. nu sunt staţionare, sunt nestaţionare, deoarece prezintă tendinţe
de creştere sau de scădere în timp (media lui X t depinde de momentul t).
În raport cu modalitatea în care se elimină tendinţa din seria de date avem :
1). Serii nestaţionare TSP („trend stationary processes”) sunt serii care prin îndepărtarea
tendinţei sunt transformate în serii staţionare. Notând cu x̂ t tendinţa şi cu xt = xt − xˆ t
'

{ } '
rezultă că seria xt t este staţionară.
2). Serii nestaţionare DSP („difference stationary processes”) sunt serii care se
transformă în serii staţionare prin calculul diferenţelor de ordinul întâi
y t' = ∇y t = y t − y t −1 sau de ordinul doi xt' = ∇2 x t = ∇xt − ∇xt −1 . Prin aceste diferenţe
se elimină şi trendul. Evident, se pot defini diferenţe şi de alt ordin, inclusiv fracţionar. O
modalitate pentru a stabili dacă o serie este de tip TSP sau DSP este dată de testul
Dickey-Fuller. Pentru aceasta se pleacă de la un model de forma
xt = a 0 + a1 ⋅ t + b ⋅ xt −1 + ε t , unde a 0 , a1 şi b sunt parametri iar εt este o variabilă
aleatoare de medie zero şi dispersie σ ε > 0 , t =1,2,..., n. Dacă a1 = 0 şi b = 1 atunci
2

seria este de tip DSP. Dacă a1 ≠ 0 şi b <1 , atunci seria este de tip TSP. Evident
a1 = 0 şi b = 1 implică ∇xt = xt − xt −1 = a 0 + ε t care este un proces staţionr oscilând
aleatoriu în jurul lui a 0 .

Autocovarianţe şi autocorelaţii

Fiind dată o serie de timp staţionară, { X t } t , numărul γ ( k ) = Cov ( X t , X t +k ) este numit


a k autocovarianţă, iar şirul {γ ( k )} k văzut ca o funcţie definită pe Z, este numit funcţia de
γ (k)
autocovarianţă a lui { X t } t . Pentru γ ( 0 ) > 0 definim ρ ( k ) = numit a k autocorelaţie
γ ( 0)
a lui { X t } t , se mai notează Corr ( X t , X t +k ) . Evident ρ( 0 ) =1 şi ρ( k ) ≤1, ∀ k . Şirul

2
{ ρ( k )} k văzut ca funcţie definită pe Z este numit funcţia de autocorelaţie a lui { X t } t .
Este mai convenabil de lucrat cu autocorelaţiile deoarece ele sunt invariante la scală.
Să considerăm { X t } t∈Z un proces stocastic staţionar. Pentru funcţia autocorelaţie avem
următoarele proprietăţi.
P.1. Funcţia de autocorelaţie este pară în raport cu lag-ul, adică avem
ρ( k ) = ρ( − k ), ∀ k .
Demonstaţie. { X t } t staţionar implică γ ( k ) = Cov ( X t , X t +k ) = Cov ( X t −k , X t ) =
γ (k) γ (− k)
Cov ( X t , X t −k ) = γ ( − k ) , rezultă ρ ( k ) = = = ρ( − k )
γ ( 0) γ ( 0)
P.2. ρ(k ) ≤1
Demonstraţie. Avem Var ( λ1 ⋅ X t + λ2 ⋅ X t +k ) ≥ 0, ∀ λ1 , λ2 . Rezultă
λ12 ⋅ Var ( X t ) + λ22 ⋅ Var ( X t + k ) + 2 ⋅ λ1 ⋅ λ2 ⋅ Cov ( X t , X t + k ) =
λ12 ⋅ σ 2 + λ22 ⋅ σ 2 + 2 ⋅ λ1 ⋅ λ2 ⋅ γ ( k ) ≥ 0
Luând λ1 = λ2 = 1 obţinem 2 ⋅ σ 2 + 2 ⋅ γ ( k ) ≥ 0 , γ ( k ) ≥ −σ 2 şi
γ (k) γ (k) −σ 2
ρ( k ) = = ≥ = −1
γ ( 0) σ 2 σ2
γ (k)
Luând λ1 = 1 şi λ2 = −1 obţinem 2σ 2 − 2γ ( k ) ≥ 0 , γ ( k ) ≤ σ 2 , ρ ( k ) = =
γ ( 0)
γ (k) σ 2
≤ = 1 . Aşadar −1 ≤ ρ( k ) ≤ 1 .
σ2 σ2

Metode de extragere a trendului

1). Metoda mediilor parţiale constă în următorii paşi :


Pasul1 : Se separă datele seriei în două grupe : una inferioară şi alta superioară.
Pasul 2 : Se calculează media aritmetică a fiecărei grupe.
Pasul 3 : Se determină mediana momentelor de timp ale fiecărei grupe. Aceasta
reprezintă momentul de timp corespunzător mediei aritmetice. Pentru fiecare
grupă, se reprezintă grafic punctul de ordonată media aritmetică şi de abscisă
momentul de timp corespunzător.
Pasul 4 : Dreapta determinată de cele două puncte, reprezentate grafic, constituie
trendul cerut.
Exemplul 1. Numărul contractelor de asigurare încheiate de o societate de asigurări în
primele 10 luni ale anului 200N este dat în tabelul :
Ianuarie Februarie Martie Aprilie Mai
2000 2400 2600 2500 2300
Iunie Iulie August Septembrie Octombrie
2800 3000 3500 3200 3400
Utilizând metoda mediilor parţiale, să se extragă trendul.
Soluţie. Primele 5 luni formează grupa inferioară având media y1 = 2360 cu momentul
de timp corespunzător luna martie. Celelalte luni formează grupa superioară având media
y 2 = 3180 cu momentul luna august.
2. Metoda mediilor mobile constă în calcularea mediei aritmetice a fiecărui subset de q

3
valori consecutive ale seriei date. Mărimea q este denumită perioada mediilor mobile.
Formarea unui nou subset presupune scoaterea primei valori din subsetul anterior,
păstrarea celorlalte q-1 valori şi introducerea în subset a următoarei valori din şirul
valorilor seriei date. Mediile mobile calculate reprezintă chiar componentele (valorile)
trendului seriei cronologice date.
La stabilirea perioadei mediilor mobile trebuie avută în vedere necesitatea ca aceasta să
coincidă cu lungimea ciclului natural al seriei. De exemplu, la determinarea trendului
numărului de şomeri înregistraţi trimestrial de-a lungul mai multor ani, perioada mediilor
mobile va fi 4; la determinarea trendului încasărilor zilnice ale unui supermarket,
înregistrate de-a lungul mai multor luni, perioada mediilor mobile va fi 7.
În cazul exemplului de la punctul 1, mediile mobile de perioadă 5 sunt :
xt 2000 2400 2600 2500 2300 2800 3000 3500 3200 3400
Totaluri 1180 1260 1320 1410 1480 1590
mobile 0 0 0 0 0 0
Medii 2360 2520 2640 2820 2960 3180
mobile

În cazul în care mediile mobile sunt folosite pentru reprezentarea grafică a trendului
şi se vrea reprezentarea valorilor acestuia în anumite momente de timp, există o
metodă de centrare a mediilor mobile, metodă care necesită calculul mediilor
aritmetice pentru perechile succesive de medii mobile.

Modele de serii de timp

1. Modelul aditiv al seriilor de timp

Y =T +S +R
unde : Y este valoarea cunoscută a seriei de timp,
T este componenta trend,
S este componenta sezonieră,
R este componenta reziduală.

2. Modelul multiplicativ al seriilor de timp

Y =T ⋅S ⋅R
unde : Y, T, S, R au semnificaţia de mai sus.

3. Zgomotul alb

O serie de timp { X t } t formată din variabile aleatoare necorelate, cu media zero şi


dispersia σ 2 > 0 , se numeşte zgomot alb. Evident, ea este staţionară, având funcţia de

4
 σ 2, k = 0
autocovarianţă γ ( k) =  ,

 0, i nr e s t
 1, k = 0
şi funcţia de autocorelaţie ρ ( k) = 
 0, i nr e s t
(
Se notează WN (0, σ 2 ) (White Noise), deci { X t } ~ WN 0, σ . Zgomotul alb mai este
2
)
denumit şi proces pur aleator. Dacă elementele lui { X t } sunt i.i.d. (independente şi
identic repartizate), atunci seria de timp este strict staţionară (se mai scrie
( )
{ X t } ~ IID 0, σ 2 ). Când X t -urile au repartiţia normală, spunem că zgomotul alb
este gaussian. În cazul unui zgomot alb gaussian cele două definiţii privind
staţionaritatea coincid, deci seria este atât staţionară cât şi strict staţionară. Un proces
(
{ X t } este un zgomot alb cu media m dacă { X t − m} ~ WN 0, σ 2 . Cu zgomotul alb se )
pot construi multe modele de serii de timp.
Exemplu : Seria de timp { Z t } unde Z t = U t −θ ⋅U t −1 , θ ≠ 0 şi {U t } ~ WN 0, σ
2
( )
este numită medie mobilă de ordinul întâi (ordin unu). Se notează { Z t } ~ MA(1) .
Această serie de timp este staţionară pentru orice θ , are media 0, funcţia de

( )
 1+ θ 2 ⋅ σ 2, k = 0  1, k = 0
 θ
 2 
autocovarianţă γ ( k ) =  − θ ⋅ σ , k = ± 1 şi funcţia autocorelaţie ρ ( k ) =  − , k= ±1
 0,  1 + θ 2
i nr e s t
  0, i nr e s t
1
Evident ρ(1) ≤ . Procesul MA(1) este cel mai simplu exemplu de filtru liniar.
2

4. Mersul aleator (random walk)

Se consideră { X t } un proces discret pur aleator (adică t ∈ Z şi variabilele aleatoare


X t sunt independente şi identic repartizate) cu media m şi dispersia σ X2 . Procesul
{Z t } unde Z t = Z t −1 + X t se numeşte mers aleator. În mod obişnuit procesul este
t
pornit de la zero când t = 0 , astfel că Z 1 = X 1 şi Z t = ∑ X i . Avem :
i =1
t t t t
E ( Z t ) = ∑ E ( X i ) = ∑ m = t ⋅ m şi Var ( Z t ) = ∑ Var ( X i ) = ∑ σ X2 = t ⋅ σ X2
i =1 i =1 i =1 i =1
Observaţie : Cum media şi dispersia depind de t, mersul aleator este nestaţionar.

5
Totuşi, este interesant că diferenţele de ordinul întâi ale mersului aleator dau un
proces pur aleator care este staţionar, deci { X t } unde X t = Z t − Z t −1 este staţionar.
Cele mai cunoscute exemple de serii de timp care se comportă foarte mult ca mersul
aleator (la întâmplare) sunt preţurile acţiunilor (share prices). În acest caz un model
care corespunde datelor este : Preţul acţiunii în ziua t = preţul acţiunii în ziua (t-1) +
o eroare aleatoare.

5. Procese medie mobilă

Se consideră { Z t } un zgomot alb (sau, mai restrictiv, un proces pur aleator, pentru
că în locul necorelării se consideră independenţa) cu media zero şi dispersia σ Z2 .
Procesul { X t } , unde X t = α 0 ⋅ Z t + α1 ⋅ Z t −1 +  + α q ⋅ Z t −q ( 5.1) ,
α0 ≠ 0, α q ≠ 0, αi -urile sunt constante, se numeşte proces medie mobilă de ordin q
(abreviat MA(q)).În mod uzual Z-urile sunt scalate, astfel că α0 = 1 . Plasându-ne în
ipoteza mai restrictivă ( Z t -urile independente), obţinem : E ( X t ) = 0 şi
q
Var ( X t ) = σ Z2 ⋅ ∑ α i2 . Avem : γ ( k ) = Cov ( X t , X t +k ) =
i =0
Cov (α 0 ⋅ Z t + α1 ⋅ Z t −1 +  + α q ⋅ Z t −q , α 0 ⋅ Z t +k + α1 ⋅ Z t +k −1 +  + α q ⋅ Z t +k −q ) =

 0, k>q
 q− k
 σ Z2 ⋅ ∑ α i ⋅ α i+ k , k = 0,1, , q
 i= 0
=  q+ k
 σ 2 ⋅ α ⋅ α , k = − 1,− 2, ,− q
 Z ∑i = 0 i i− k

 0, k < −q
Cum γ ( k ) nu depinde de t şi media este constantă, rezultă că procesul { X t } este slab
staţionar (altfel zis, staţionar de ordinul doi) pentru toate valorile lui {α i } . Mai mult,
când Z t -urile sunt repartizate normal, atunci şi X t -urile sunt repartizate normal.
Deci, procesul este complet determinat de medie şi funcţia autocovarianţă. Funcţia de





1, k=0

autocorelaţie a procesului MA(q) este ρ ( k ) =  0, k < − q sau k > q
 q− k
 α ⋅ α 
 ∑

i i+ k 
  i=0  k = ± 1,± 2, ,± q
  q 2
 ∑ α i 
  i=0 

6
 1 p e n t rku= 0

 α1
= 1 are funcţia autocorelaţie ρ ( k ) = 
În particular, procesul MA(1) cu α0 , k= ±1
 11 + α 2

 0 i nr e s t
Să menţionăm că funcţia autocorelaţie taie (întrerupe) la lag-ul q, ceea ce constituie o
trăsătură a proceselor MA. Privitor la condiţiile ca un MA proces să fie staţionar vom
face următoarele consideraţii. Fie următoarele procese MA de ordinul întâi :
1). X t = Z t + θ ⋅ Z t −1
1
2). Xt + ⋅ Z t −1
θ
 1, k= 0
 θ

Primul proces are funcţia autocorelaţie ρ 1 ( k ) =  , k= ±1
 1+ θ
2

 0, i nr e s t
 1, k= 0

 1
 θ θ
Al doilea proces are funcţia autocorelaţie ρ 2 ( k ) =  = 2 , k = ±1
 1+  1  1+ θ
2

  θ 

 0 i nr e s t
Aşadar, avem ρ1 = ρ 2 . Astfel se vede că un MA proces nu poate fi identificat după
funcţia autocorelaţie.
Punând în cele două modele Z t în termeni de X t , X t −1 ,  , prin substituiri
succesive obţinem : A). Z t = X t − θ ⋅ Z t −1 = X t − θ ⋅ ( X t −1 − θ ⋅ Z t − 2 ) = 
= X t − θ ⋅ X t −1 + θ 2 ⋅ X t −2 − θ 3 ⋅ X t −3 + 
1 1  1  1 1
B). Zt = X t − ⋅ Z t −1 = X t − ⋅  X t −1 − ⋅ Z t −2  =  = X t − ⋅ X t −1 + 2 ⋅ X t −2 − 
θ θ  θ  θ θ
Dacă θ <1 , atunci seria de la A este convergentă iar seria de la B este divergentă.
Astfel, o procedură de estimare care implică estimarea reziduurilor, duce în mod
natural la modelul A, care se zice că este invertibil (în acest caz modelul B nu este
invertibil). Condiţia de invertibilitate ne asigură unicitatea procesului MA pentru o
funcţie autocorelaţie dată. Această condiţie pentru un proces MA de ordin general este
exprimată cel mai bine folosind operatorul de schimbare (mutare, dare) înapoi, notat
cu B, care este definit prin B X t = X t − j ∀ j . Astfel, ecuaţia (5.1) se va scrie
j

7
X t = (α 0 + α 1 B + α 2 B 2 +  + α q B q ) ⋅ Z t = α ( B ) ⋅ Z t ,
unde α( B ) este un polinom de
ordin q în B. Un MA proces de ordin q este invertibil dacă toate rădăcinile ecuaţiei
α ( B ) = α0 + α1 B + α 2 B 2 +  + αq B q = 0 ( 5.2)
se află în afara cercului unitate. De notat că în ecuaţia (5.2) B este văzut ca o variabilă
complexă şi nu ca un operator. De asemenea, se poate adăuga în (5.1) o constantă
arbitrară m în membrul drept, ceea ce dă un proces de medie m. Cum aceasta nu
schimbă funcţia autocorelaţie pentru simplificare va fi omisă.
Privitor la formalizarea matematică, se numeşte proces medie mobilă finită procesul

stocastic { X t ;t ∈ Z}, unde Xt =


M

∑α
j= − M
j ⋅ Z t − j , M ∈ N, α j ∈ R,

α M ≠ 0, α −M ≠ 0 şi Z t -urile sunt variabile aleatoare necorelate ( 0, σ 2 ) , adică


E ( Z t ) = 0 şi Var ( Z t ) = σ 2 (mai restrictiv, sunt considerate independente). Procesul

medie mobilă infinită { X t } este dat de reprezentarea X t = ∑α j ⋅ Z t − j , unde nu


j =−∞

există un număr natural M astfel încât α j = 0, ∀ j ∈ Z cu j >M . Procesul


q

definit de X t = ∑α j ⋅ Z t − j , unde α 0 ≠ 0 şi αq ≠ 0 se numeşte proces medie


j =0

mobilă cu o latură de ordin q (mai precis este un proces medie mobilă stânga de ordin
q, pe scurt proces medie mobilă de ordin q). Aceasta pentru că punând εt = Z t +q şi
q 2q 2q
βi = αi −q avem X t = ∑α
j =−q
j ⋅ Z t − j == ∑αi −q ⋅ Z t −i +q = ∑βi ⋅ ε t −i , deci nu se
i = j +q
i =0 i =0

pierde din generalitate dacă se consideră numai reprezentarea cu o latură.


Un proces medie mobilă de ordin infinit cu media nenulă µ , dat de

X t − µ = ∑ α i ⋅ Z t −i este numit proces liniar general (aceasta pentru că procesele de
i =0
acest tip se obţin trecând un proces pur aleator printr-un sistem liniar.
Câteva cuvinte despre sistemele liniare. Să considerăm că sunt date observaţii
(înregistrări) asupra intrărilor (inputurilor) şi ieşirilor (outputurilor) unui sistem,
notate în cazul în care timpul este discret cu { xt }, { y t } şi cu { x( t )}, { y ( t )} în cazul
timpului continuu.
Definiţie. Fie y1 ( t ), y 2 ( t ) ieşirile corespunzătoare intrărilor x1 ( t ), x 2 ( t ). Sistemul
se numeşte sistem liniar dacă şi numai dacă orice combinaţie liniară de intrări (să
zicem λ1 ⋅ x1 ( t ) + λ 2 ⋅ x 2 ( t ) ) produce aceeaşi combinaţie liniară de ieşiri, adică
λ1 ⋅ y1 ( t ) + λ 2 ⋅ y 2 ( t ) , λ1 , λ2 fiind constante.
Definiţie. Dacă intrarea x(t ) produce ieşirea y (t ) , atunci sistemul se zice că este
invariant în timp dacă o întârziere de timp τ la intrare produce aceeaşi întârziere la
ieşire, adică x( t −τ ) produce ieşirea y ( t −τ ) , altfel zis relaţia intrare-ieşire nu se
schimbă cu timpul.
a) Sisteme liniare în timp

8

Un sistem liniar invariant în timp se poate scrie sub forma y t = ∑h
k =−∞
k ⋅ xt −k pentru

cazul timpului discret, sau sub forma y ( t ) = ∫ h( u ) ⋅ x( t − u ) du pentru cazul timpului


−∞

continuu. Funcţia de ponderare h(u ) (pentru timpul continuu) sau { hk } (pentru


timpul discret) arată o caracterizare (descriere) a sistemului în timp şi este cunoscută
sub numele de FIR (Funcţia Impuls Răspuns). Un exemplu foarte simplu de sistem
liniar este dat de „întârzierea simplă”, adică y t = xt −d unde întregul d arată timpul de

 1 p e n k t= rdu
întârziere. Funcţia sa FIR este : h = 
k
 0 i nr e s t
Alt exemplu de sistem liniar este „câştigul pur”, adică y t = c ⋅ xt unde constanta c

 c p e n k t= r0 u
reprezintă câştigul. FIR –ul acestui sistem este : h = 
k
 0 i nr e s t
b). Sisteme liniare în frecvenţă

O altă cale de descriere a unui sistem liniar este prin intermediul unei funcţii
denumită funcţia de transfer (FRF – Funcţia Răspuns Frecvenţă). Aceasta este

transformata Fourier a funcţiei FIR, adică este H ( ω ) = ∫ h( u ) ⋅ e


−i ⋅ω⋅u
du , ω > 0 în
−∞

cazul timpului continuu şi este H ( ω) = ∑ hk ⋅ e −i⋅ω⋅k , 0 < ω < π .


k

Întrun sistem liniar o intrare exponenţială complexă x( t ) = e i⋅ω⋅t = cos ωt + i ⋅ sin ωt dă


o ieşire y ( t ) = H (ω) ⋅ x( t ) . Pentru sistemul liniar „întârzierea simplă”, y ( t ) = x( t −τ )
unde τ este o constantă, funcţia FIR este h( u ) = δ ( u −τ ) unde δ este funcţia delta

 0, t ≠ 0
Dirac, adică δ ( t ) = 

, astfel încât ∫δ ( t )dt = 1 (altfel zis, pentru orice funcţie

∞ t= 0
−∞

Φ(t ) care este continuă în t = 0 , funcţia delta Dirac este funcţia δ care verifică

∫ δ ( t ) ⋅ Φ( t ) dt = Φ( 0) .
−∞
Funcţia de transfer este dată de

H ( ω) = ∫ δ ( u − τ ) ⋅ e −i⋅ω⋅u du = e −i⋅ω⋅τ .
−∞

9
6. Procese autoregresive

Dacă { Z t } este un proces pur aleator cu media 0 şi dispersia σ Z2 , atunci un proces


{ X t } se zice că este proces autoregresiv de ordin p dacă
X t = α1 ⋅ X t −1 + α 2 ⋅ X t −2 +  + α p ⋅ X t − p + Z t (6.1)
Acest model seamănă cu modelul regresiei multiple, dar diferenţa constă în faptul că
X t nu este regresat peste variabile independente ci peste valorile din trecut. Se
utilizează abrevierea AR(p) proces.
Procese de ordinul întâi : p =1 şi X t = α ⋅ X t −1 + Z t (6.2)
Prin substituţii succesive obţinem :
X t = α ⋅ X t −1 + Z t = α ⋅ ( α ⋅ X t − 2 + Z t −1 ) + Z t =  = Z t + α ⋅ Z t −1 + α 2 ⋅ Z t − 2 + 
pentru − 1 < α < 1 . Deci { X t } poate fi exprimat ca un proces medie mobilă de ordin
infinit. Utilizând operatorul de mutare înapoi (întoarcere) B, ecuaţia (6.2) se scrie
(1 − αB ) ⋅ X t = Z t , astfel că X t = (1 − αB ) −1 ⋅ Z t = (1 + αB + α 2 B 2 + ) ⋅ Z t =
Z t + α ⋅ Z t −1 + α 2 ⋅ Z t −2 + 
2 2
(
Rezultă : E ( X t ) = 0 şi Var( X t ) = σ Z ⋅ 1 + α + α + 
4
)
σ Z2
Astfel, dispersia este finită dacă α <1 , caz în care avem : Var( X t ) = = σ X2
1− α 2

   
Funcţia autocovarianţă este : γ ( k ) = E ( X t ⋅ X t +k ) = E ∑αi ⋅ Z t −i  ⋅ 
∑α ⋅ Z t +k − j
 =
j


 i   j 


σ Z2 ⋅ ∑ α i ⋅ α k + i pt. k ≥ 0 Aceasta converge în cazul α <1 la
i=0

σ Z2
γ (k) = α k ⋅ = α k ⋅ σ X2
1− α 2

Pentru k < 0 găsim γ ( k ) = γ ( − k ) .


Deoarece γ ( k ) nu depinde de t, un proces AR(1) este slab staţionar dacă α <1 .
γ ( k ) α k ⋅ σ X2
Funcţia autocorelaţie este : ρ ( k ) = = = α k , k = 0,1,2, 
γ ( 0) σX 2

Pentru toţi întregii k avem ρ( k ) = α , k = 0,±1,±2,


k

Mai simplu, funcţia autocorelaţie poate fi găsită presupunând apriori că procesul este
staţionar, în care caz E ( X t ) = 0 . Înmulţind ecuaţia (6.2) cu X t −k şi luând media
obţinem : pentru k > 0 : γ ( − k ) = α ⋅ γ ( − k + 1) presupunând că E ( Z t ⋅ Z t −k ) = 0
Deoarece γ ( k ) este o funcţie pară, trebuie să avem γ ( k ) = α ⋅ γ ( k −1) pentru k > 0.
Cum
7. Procese mixate ARMA(p,q)
Sunt procese { X t } autoregresive de ordin p cu reziduuri medie mobilă de ordin q
care verifică relaţia X t + α1 ⋅ X t −1 +  + α p ⋅ X t − p = Z t + β1 ⋅ Z t −1 +  + βq ⋅ Z t −q , unde
Z t -urile sunt reziduuri medie mobilă de ordin q.
8. Procese nestaţionare autoregresive şi de medie mobilă ARIMA(p,n,q)
Sunt procese nestaţionare care în forma originală prezintă tendinţă şi prin diferenţe

10
de ordin n pot fi aduse la forma staţionară, p fiind ordinul părţii autoregresive şi q
ordinul părţii medie mobilă a modelului.
Pentru ARIMA(1,1,2) ecuaţia este : ∇y t = α0 +α1 ⋅ y t −1 + y + Z t + β1 ⋅ Z t −1 + β2 ⋅ Z t −2
9. Modelul ARFIMA (Autoregressive Fractionally Integrated Movie Average)
Este o variantă a modelului ARIMA(p,d,q) în care d este ordinul diferenţei şi este o
fracţiune din 1 (0<d<1). Folosind operatorul de diferenţiere înapoi (trimitere în trecut)
( )
B avem : (1 − B ) ⋅ y t = z t , z t ~ N 0, σ z2 , 0 < d < 1 , unde
d

(1 − B ) d = 1 − d ⋅ B + d ⋅ ( d − 1) ⋅ B 2 − d ⋅ ( d − 1) ⋅ ( d − 2) ⋅ B 3 + 
2! 3!
Astfel, forma generală a lui ARFIMA este (1 − B ) α ( B ) y t = β ( B ) z t , unde α, β, B
d

au semnificaţiile : α ( B ) y t = z t (modelul AR(p), adică


y t = α0 + α1 ⋅ y t −1 +  + α p ⋅ y t − p + z t )
yt = β ( B ) ⋅ zt (modelul MA(q), adică y t = y + z t + β1 ⋅ z t −1 + + βq ⋅ z t −q )
10. Seria integrată
Seria integrată este seria de timp nestaţionară care prin diferenţele de ordinul întâi
sau doi (adică ∇y t = y t − y t −1 , ∇2 y t = ∇y t − ∇y t −1 ) poate fi transformată în
serie staţionară.
11. Serii cointegrate
Sunt seriile cronologice care fiind integrate de acelaşi ordin admit o combinaţie
liniară care este staţionară (integrată de ordin zero) sau este integrată de ordin mai
mic decât ordinul de integrare a seriilor iniţiale.
Exemplu. Seriile { xt }, { y t } au acelaşi ordin de integrare şi există { z t } , unde
z t = y t − ( a + b ⋅ xt ) care este staţionară.
12. Procese ARCH (Autoregressive Conditional Heteroskedasticity)
Prind împrăştierile inegale (eteroschedasticitate) ale valorilor reziduale în timp
(adică o dependenţă sub forma autocorelaţiei şi pentru variabilele reziduale). F.R.
Engle a propus ca dispersia erorii să fie dependentă de valorile y t −1 sau z t −1 .
Astfel avem : σ zt = α 0 + α 1 ⋅ y t −1 sau varianta σ zt = α 0 + α 1 ⋅ z t −1 +  + α p ⋅ z t − p .
2 2 2 2 2

Spre deosebire de modelul AR în care eroarea z t este considerată aleatoare,


repartizată normal şi cu dispersia constantă, iar E ( y t y t −1 ) = a ⋅ y t −1 (media
condiţionată este dependentă de timp), în versiunea lui Engle dispersia erorii este
dependentă de timp (de aici iniţialele CH adăugate lui AR). O variantă simplă a
( )
modelului este : y t = a ⋅ yt −1 + b ⋅ xt + z t , unde z t ~ N 0, σ zt , σ zt = α 0 + α 1 ⋅ z t −1
2 2 2

O limitare importantă a modelelor ARMA este dată de faptul că tratează prea rigid
varianţa condiţionată a lui X t +k . Clasa proceselor ARMA cu heteroscedasticitate
condiţional autoregresivă sau ARMA-ARCH procese permite varianţei condiţionate a lui
X t să depindă de istoria procesului. O serie de timp cu media zero, { X t } , este un
proces pur ARCH(1) dacă X t = σ t ⋅ Yt , {Yt } ~ IID( 0, 1) , (se scrie { X t } ~ARCH(1)), unde
σt (volatilitatea stocastică) este un element al procesului stocastic care verifică relaţia
σ t2 = ω 2 + α ⋅ X t2−1 , cu ω ≠ 0 şi α > 0 . Deoarece E ( X t2 S t −1 ) = σ t2 = ω 2 + α ⋅ X t2−1 , un
proces ARCH(1) pentru X t corespunde unui proces AR(1) pentru X t . Dacă 0 ≤ α < 1 ,
2

11
ω2 2
atunci procesul ARCH(1) este staţionar şi varianţa sa necondiţionată este σ = .
1−α
2 2
Diferenţa dintre varianţa condiţionată şi necondiţionată este σ t2 − σ = α ⋅ X t2−1 − σ . ( )
Avem E ( X 2
t +1 ) 2
( (
S t −1 − σ = E α ⋅ X − σ
t
2 2
) S ) = α ⋅ (σ
t −1 t
2
−σ
2
)
Repetând această formula obţinem E ( X t2+k S t −1 ) −σ = α k +1 ⋅ X t2−1 −σ , k = 1,2,
2
( 2
)
Astfel, E ( X S t −1 ) k
2
2
t +k →σ .
→∞

O generalizare simplă a procesului pur ARCH (1) este procesul pur ARCH ( m ) , unde
σ t2 = ω 2 + α1 ⋅ X t2−1 +  + α m ⋅ X t2−m cu αj ≥ 0, j =1, m −1, şi α m > 0, care corespunde
unui proces AR ( m ) pentru X t2 .
Definiţie. O serie de timp { X t } este numită proces ARMA ( p, q ) − ARCH ( m ) dacă
satisface relaţia Φ ( B ) X t = Θ ( B )Yt , {Yt } ~ ARCH ( m ) unde Φ( B ) şi Θ( B ) sunt
polinoame în lag- operatorul de ordin p şi, respectiv q.
Mai general este un proces având heteroscedasticitate generalizată condiţional
autoregresivă (GARCH) de ordin ( r, m ) , generalizarea lui Bollerslev, unde
σ t2 = ω 2 + δ 1 ⋅ σ t2−1 +  + δ r ⋅ σ t2− r + α 1 ⋅ X t2−1 +  + α m ⋅ X t2− m , cu
δr , αm > 0, δi ≥ 0, i =1, r −1, αj ≥ 0, j =1, m −1 . Avem ARCH ( m ) = GARCH ( 0, m ) .
Notând Vt = X t2 − σ t2 , atunci un proces GARCH ( r, m ) poate fi scris
X t2 = ω + γ 1 ⋅ X t2−1 +  + γ p ⋅ X t2− p − α1 ⋅ Vt −1 −  − α r ⋅ Vt −r unde
p = max ( m, r ) , γ j = α j + δ j , α j = 0 for j > m şi δ j = 0 pentru j > r. Deci un proces
GARCH ( r , m ) pentru X t corespunde unui proces ARMA ( p, r ) pentru X t2 .
Definiţie. O serie de timp { X t } este numită proces ARMA ( p, q ) − GARCH ( r , m ) dacă
satisface relaţia Φ ( B ) X t = Θ ( B )Yt , {Yt } ~ GARCH ( r , m ) .
Pentru exemplificarea noţiunilor legate de modelele autoregresive, am făcut inferenţă
statistică pentru determinarea coeficienţilor prin metoda celor mai mici pătrate pe datele
din rapoartele anuale ale Comisiei de Supraveghere a Asigurărilor şi apoi am efectuat
( ~
)
predicţiile Xˆ t = µ + α ⋅ X t −1 , X t = µ + α ⋅ X t −1 + β ⋅ X t −2 , valorilor de interes în două
cazuri : întâi predicţia pas cu pas (adică datele din anul anterior sau din anii anteriori sunt
cele raportate de CSA), apoi predicţia pe termen lung (caz în care, în predicţie, se
folosesc predicţiile anterioare şi nu datele raportate, deci ar fi cazul elaborării unor
prognoze pe termen lung).
Tabel. 1. Valoarea totală a primelor de asigurare brute încasate din asigurări directe :
An Prime totale încasate Prime încasate în Prime încasate
(lei noi) asigurările de viaţă asig. generale
1997 130402200 8073900 122328300
1998 241484000 19944700 221539300
1999 427393000 50569000 376824000
2000 673887300 106658600 567228700
2001 1001242500 211473300 789769200
2002 1645965600 414514000 1231451600
2003 2422508810.2 579003012 1843505798.2

12
2004 3216393971.5 693443836.2 2522950135.3
Sursa : Rapoartele Anuale ale CSA
Tabelul 2. Predicţii pentru primele brute încasate din asigurările directe
Anul Prime brute Predicţii pas cu pas Predicţii pe termen
încasate* (Xt) X̂ t lung Xˆˆ t
1997 130,402,200 --- ---
1998 241,484,000 311,729,066.9 311,729,066.9
1999 427,393,000 458,654,611.1 551,566,273.3
2000 673,887,300 704,552,507.8 868,793,866.4
2001 1,001,242,500 1,030,585,298 1,288,384,085
2002 1,645,965,600 1,463,571,087 1,843,367,180
2003 2,422,508,810.2 2,316,332,676 2,577,431,565
2004 3,216,393,971.5 3,343,449,933 3,548,362,980
2005 4,384,987,227** 4,393,505,021 4,832,593,399
* **
Sursa : Rapoartele Anuale ale CSA, Prime brute subscrise.
Eroarea relativă pentru predicţiile din 2005 este de 0.2% în cazul pas cu pas şi de 2.7% pe
termen lung. Pentru predicţia îndemnizaţiilor brute plătite de asigurători pentru
asigurările directe generale şi de viaţă, atât cumulate cât şi separate, am folosit două
modele lineare.
Tabelul 2’. Situaţia pe date deflatate
Prime brute încasate Predicţii Predicţii
~
Anul deflatate (Xt) X̂ t Xt
1997 130,402,200 --- ---
1998 171,752,489.3 157,729,471.75 ---
1999 196,368,185.8 210,083,500.22 203,946,382.41
2000 220,057,866.1 241,249,687.82 236,706,333.31
2001 250,925,319.5 271,243,436.77 267,667,960.66
2002 350,171,401 310,325,038.33 307,698,100.38
2003 451,689,130.8 435,981,527.41 434,715,398.98
2004 548,685,334.6 564,514,173.86 567,163,062.07
2005 688,799,178.4 687,322,069.45 693,961,104.10
Eroarea relativă pentru predicţia din 2005 este de 0,2% la modelul de ordinul întâi şi de
0,75% la modelul de ordin doi, iar eroarea relativă totală a predicţiilor este de 2% la
ambele modele. Predicţia pentru 2006 este de 875,273,474.23 pentru date deflatate
(5,990,015,464 lei).
Tabelul 3. Predicţii pentru îndemnizaţiile (despăgubirile) brute plătite
Anul Îndemnizaţii * Predicţii pas cu pas Predicţii pas cu pas
~
(Xt) X̂ t Xt
1997 69,925,100 --- ---
1998 102,212,700 114,022,130.901 ----
1999 189,589,900 161,229,924.099 193,403,696.19
2000 248,978,900 288,984,380.539 273,600,712.37
2001 406,293,900 375,817,208.937 420,965,932.04
2002 649,832,600 605,827,924.718 567,138,913.81

13
2003 842,267,901 961,906,561.258 886,204,782.46
2004 1,311,879,000 1,243,266,770.548 1,307,528,164.13
2005 1,758,745,510 1.929,886,514.498 1,765,377,520.80
*
Sursa : Rapoartele Anuale ale CSA.
Eroarea relativă a predicţie X̂ t pentru anul 2005 este de 9.7%. Definind eroarea relativă

∑ ( Xˆ ) 2
t − Xt
t
totală (ERT) a predicţiilor X̂ t ca ERT = , rezultă că ERT este egală cu
∑X
t
t

~
4.2%. Eroarea relativă a predicţiei X t pentru anul 2005 este egală cu 1.8%.
Folosind modelul autoregresiv linear de ordinul întâi pentru primele brute încasate în
contractele directe de asigurări generale (non-life) am obţinut
X t = 103034505 .55 +1.31273 ⋅ X t −1 cu care am făcut predicţiile din tabelul 4.
Tabelul 4. Predicţii pentru primele brute încasate din asigurările generale directe
Anul Prime brute Predicţii pas cu pas Predicţii pe date
*
încasate (Xt) X̂ t deflatate
1997 122,328,300 --- ----
1998 221,539,300 263,618,589.2 141,284,469.84
1999 376,824,000 393,855,889.4 186,451,070.54
2000 567,228,700 597,702,842.7 206,403,634.37
2001 789,769,200 847,652,889.3 221,905,572.13
2002 1,231,451,600 1,139,788,578.9 238,181,828.83
2003 1,843,505,798.2 1,719,598,512.4 320,287,350.82
2004 2,522,950,135.3 2,523,060,692.3 425,063,112.95
**
2005 3,346,997,220 3,414,987,959.3 536,137,273.30***
*
Sursa : Rapoartele Anuale ale CSA, **Prime brute subscrise, ***3,413,121,224.82 lei.
Eroarea relativă pentru predicţia din anul 2005 este de 2,03%, iar eroarea relativă totală a
predicţiilor este de 1,709%. Predicţia pentru volumul primelor brute încasate din
asigurările generale directe în 2006 este de 4,496,739,655.42 lei. În cazul datelor
deflatate, eroarea relativă a predicţiei pentru 2005 este de 1,975%, iar eroarea relativă
totală a predicţiilor este de 2,291%.
În cazul asigurărilor de viaţă modelul obţinut este X t = 59577744 .34 +1.193007 ⋅ X t −1 ,
iar pentru date deflatate este Xˆ t = 12430011 .13244 +1.07045 ⋅ X t −1 .
Tabelul 5. Predicţii pentru primele brute încasate din asigurările de viaţă directe
Anul Prime brute Predicţii pas cu pas Predicţii pe date
încasate* (Xt) X̂ t deflatate
1997 8,073,900 --- ----
1998 19,944,700 69,209,965.58 21,072,716.00
1999 50,569,000 83,371,916.04 27,614,791.13
2000 106,658,600 119,906,927.96 37,301,077.42
2001 211,473,300 186,822,227.40 49,713,089.73
2002 414,514,000 311,866,924.39 69,161,879.41
2003 579,003,012 554,095,951.49 106,828,585.53

14
2004 693,443,836.2 750,332,535.32 127,993,713.31
**
2005 1,037,990,007 886,861,268.27 139,058,586.40***
* ** ***
Sursa : Rapoartele Anuale ale CSA, Prime brute subscrise, 885,265,455.84 lei.
Eroarea relativă totală a predicţiilor este de 6,54%, eroarea predicţiei pentru 2005 este de
14,5% (mare, deci modelul linear de ordinul 1 nu e recomandabil pentru prognoze aici),
iar predicţia pentru 2006 este de 1,297,907,347.92 lei. În cazul datelor deflatate eroarea
relativă a predicţiei pe 2005 este de 14,7%, iar eroarea relativă totală a predicţiilor este de
5,54%.
Folosind modelul autoregresiv linear de ordinul doi pentru primele brute încasate în
contractele directe de asigurări generale (non-life) am obţinut
X t = 88208606 .32 +1.124101 ⋅ X t −1 + 0.346886 ⋅ X t −2 cu care am făcut predicţiile din
tabelul 6.
Tabelul 6. Predicţii pentru primele brute încasate din asigurările generale directe
An Prime brute Predicţii
* ~
ul încasate (Xt) Xt
199 122,328,300 ---
7
199 221,539,300 ---
8
199 376,824,000 379,675,001.99
9
200 567,228,700 588,645,501.15
0
200 789,769,200 856,545,575.45
1
200 1,231,451,600 1,172,752,146.19
2
200 1,843,505,798.2 1,746,443,710.78
3
200 2,522,950,135.3 2,587,667,497.91
4
200 3,346,997,220** 3,563,744,112.26
5
Sursa : Rapoartele Anuale ale CSA, **Prime brute subscrise.
Eroarea relativă pentru predicţia din anul 2005 este de 6,4%, iar eroarea relativă totală a
predicţiilor este de 2,45%. Predicţia pentru volumul primelor brute încasate în asigurările
generale directe este de 4,725,745,436.68 RON.
Folosind modelul autoregresiv linear de ordinul doi pentru îndemnizaţiile brute şi valorile
de răscumpărare plătite în contractele directe de asigurări de viaţă am obţinut
X t = 41,593 ,144 .816 + 0.371383 ⋅ X t −1 + 0.010592 ⋅ X t −2 cu care am făcut predicţiile
din tabelul 7.
Tabelul 7. Predicţii pentru îndemnizaţiile brute şi răscumpărările plătite
în asigurările de viaţă directe
An Îndemnizaţii brute Predicţii
* ~
ul plătite (Xt) Xt

15
199 1,858,700 ---
7
199 4,082,800 ---
8
199 12,053,200 43,129,113.47
9
200 8,343,700 46,112,740.37
0
200 57,633,200 44,819,515.05
1
200 142,947,200 63,085,501.75
2
200 62,499,098 95,291,716.14
3
200 75,280,471 66,318,282.14
4
200 97,385,521 70,212,989.45
5
*
Sursa : Rapoartele Anuale ale CSA
Eroarea relativă pentru predicţia din anul 2005 este de 27,9% (mare !), iar eroarea
relativă totală a predicţiilor este de 22,81%. Predicţia pentru volumul îndemnizaţiilor
brute plătite în asigurările de viaţă directe este de 78,557,801.97 RON. Evident, erorile
mari arată neadecvarea modelului pentru prognoze. Această evoluţie prea sinuoasă a
acestor sume se explică în parte şi prin influenţa schimbărilor din legislaţie, care au
reîncadrat anumite produse la altă categorie de asigurări, şi prin faptul că evoluţia
asigurărilor de viaţă a înregistrat explozii şi prăbuşiri.

II. REGRESII
(note de curs)

Termenul a fost introdus de Francis Galton (1822-1911) într-o lucrare din 1886 în care a
studiat legătura dintre înălţimea taţilor şi înălţimea fiilor. El a observat că din părinţi cu
înălţime mai mare decât media grupului considerat se nasc copii cu înălţime mai mică
decât a părinţilor, iar din părinţi cu înălţime mai mică decât media grupului se nasc copii
cu înălţime mai mare decât a părinţilor. Prin urmare există o regresie („întoarcere”) către
valoarea medie. În general, este vorba de modelarea relaţiei de dependenţă a unei
variabile de una sau mai multe variabile independente, analog în cazul dependenţei unui
fenomen de unul sau mai mulţi factori. La stabilirea ecuaţiei de regresie care să
aproximeze cel mai bine forma reală a dependenţei cercetate, concură o serie de procedee
statistice. Cel mai simplu este reprezentarea grafică a distribuţiilor statistice corelate
(corelograma), graficul sugerează uneori forma legăturii. Alte cerinţe pentru un calcul
statistic corect sunt reprezentate de omogenitatea datelor şi de numărul mare de
observaţii. În calcule se operează cu mărimi medii, iar media va reflecta mai bine
proprietăţile tipice ale populaţiei cu cât aceasta este mai omogenă. Caracterul omogen sau
neomogen al populaţiei reprezentate prin datele statistice se sesizează prin examinarea
diagramei de dispersie a unităţilor de observare în raport cu valorile variabilelor corelate.

16
Tendinţa punctelor de a se strânge în două sau mai multe grupuri ori situarea unor puncte
cu mult în afara norilor de puncte evidenţiază eterogenitatea populaţiei. În primul caz,
soluţia este de a dezmembra distribuţiile statistice conform grupelor conturate, urmând să
se rezolve modelul pentru fiecare grupă obţinută. În al doilea caz, soluţia este dată de
eliminarea din calcule a observaţiilor „aberante” faţă de masa observaţiilor.
Notând cu y variabila dependentă de p variabile independente x1 , x 2 ,  , x p , legătura
stocastică poate fi redată printr-o relaţie de forma y = f ( x1 , x 2 ,  , x p ) + ε , unde ε este
o variabilă aleatoare ce reprezintă erorile de observaţie sau de măsurare, iar f este o
funcţie deterministă denumită funcţia de regresie. Se consideră M ( ε ) = 0 (operatorul M
desemnează media, la fel ca şi operatorul E, aici vom folosi pentru medie doar M).
Vom considera funcţia de regresie liniară f ( x1 , x 2 , , x p ) = β1 ⋅ x1 + β 2 ⋅ x 2 +  + β p ⋅ x p
p

Se dispune de n seturi de observaţii : y i = ∑ xij ⋅ β j + ε i , i = 1, n , unde M ( ε i ) = 0,


j =1

D 2 (ε i ) = σ 2 , ∀ i = 1, n şi Cov (ε i , ε j ) = 0 pentru orice i ≠ j . Notând cu x matricea


observaţiilor asupra variabilelor independente, cu β coeficientul de regresie, cu y
vectorul observaţiilor asupra variabilei răspuns (dependente) şi cu ε vectorul
reziduurilor (abaterilor, erorilor), relaţiile se scriu matriceal sub forma : y = x ⋅ β + ε
Estimaţia coeficientului de regresie se obţine prin metoda celor mai mici pătrate, adică
n
β̂ este dat de soluţia problemei : min ∑ ε i = minε ⋅ ε = min( y − x ⋅ β ) ⋅ ( y − x ⋅ β )
2 t t
β β β
i =1
∂ ∂
Reamintim regulile de derivare pentru vectorul gradient : ∂β (α ⋅ β ) = α , ∂β ( β ⋅ α ) = α
t t


şi ∂β ( β ⋅ P ⋅ β ) = 2 ⋅ P ⋅ β
t

Se obţine sistemul ecuaţiilor normale : x t ⋅ x ⋅ β = x t ⋅ y , unde x t este transpusa matricei


x. În cazul rangului complet, adică rang x = p ≤ n , atunci rang ( x t ⋅ x ) = p şi există
inversa ( x t ⋅ x ) . Deci, soluţia unică a sistemului de ecuaţii normale este :
−1

β̂ = ( x t ⋅ x ) ⋅ x t ⋅ y
−1

În cazul în care variabilele de selecţie sunt corelate, adică avem Cov ( y, y ) = σ 2 ⋅W unde
σ 2 este o constantă necunoscută şi W este o matrice nesingulară cunoscută. Avem astfel
modelul : y = x ⋅ β + ε , M ( y ) = x ⋅ β , Cov ( y , y ) = σ 2 ⋅ W , unde det W ≠ 0 şi
rang x = p . În acest caz, estimaţia vectorului coeficienţilor de regresie se obţine prin
metoda celor mai mici pătrate generalizate, adică rezolvând problema :
minε t ⋅ W −1 ⋅ ε = min( y − x ⋅ β ) ⋅ W −1 ⋅ ( y − x ⋅ β )
t
β β

Anulând gradientul obţinem : β̂ = ( x t ⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ y


−1

Observaţii. 1). Estimaţia β̂ este nedeplasată, adică M (βˆ ) = β


( )
Într-adevăr, avem M βˆ = ( x t ⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ M ( y ) = ( x t ⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ x ⋅ β = β
−1 −1

2). Estimaţia β̂ are matricea covarianţelor : Cov βˆ , βˆ = σ 2 ⋅ ( x t ⋅ W −1 ⋅ x ) ( ) −1

Într-adevăr, avem : β̂ = ( x t ⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ y =
−1

(x t
⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ ( x ⋅ β + ε ) = β + ( x t ⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ ε ,
−1 −1

17
Cov β (
ˆ =M  β
ˆ, β


)
ˆ −β ⋅ β


( )( ) [
ˆ − β t  = M ( x t ⋅W −1 ⋅ x ) −1 ⋅ x t ⋅W −1 ⋅ε ⋅ ε t ⋅W −1 ⋅ x ⋅ ( x t ⋅W −1 ⋅ x ) −1 = ]
(x t
⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ M (ε ⋅ ε t ) ⋅ W −1 ⋅ x ⋅ ( x t ⋅ W −1 ⋅ x )
−1 −1
=
(x t
⋅ W −1 ⋅ x ) ⋅ x t ⋅ W −1 ⋅ σ 2 ⋅ W ⋅ W −1 ⋅ x ⋅ ( x t ⋅ W −1 ⋅ x )
−1 −1
= σ 2 ⋅ ( x t ⋅ W −1 ⋅ x )
−1

Presupunând că vectorul erorilor are o repartiţie normală cu media 0 şi matricea de


covarianţă V = σ 2 ⋅ W , atunci funcţia de verosimilitate a selecţiei este :
1
n n − ( y − x⋅β ) t ⋅V −1 ⋅( y − x⋅β )
L( y1 , y 2 ,  , y n , β ) = ( 2 ⋅ π )


2 ⋅ V 2 ⋅e 2 , unde V este determinantul
~
matricei V. Căutăm estimaţia de verosimilitate maximă, notată cu β . Avem ecuaţia de
∂ ln L( y1 , y 2 ,  , y n , β )
verosimilitate maximă : =0
∂β
Maximizarea funcţiei de verosimilitate înseamnă minimizarea expresiei
T ( β ) = ( y − x ⋅ β ) ⋅ V −1 ⋅ ( y − x ⋅ β )
t

Aşadar, estimaţia de verosimilitate maximă coincide cu estimaţia dată de metoda celor



mai mici pătrate generalizate. Estimaţia valorii medii a observaţiilor este M ( y ) = x ⋅ β̂

Componentele vectorului M ( y ) se numesc valori ajustate ale lui y sau valori estimate
ale lui y.
În cazul în care matricea covarianţelor vectorului erorilor este de forma σ 2 ⋅ I (aşa

numitul caz al măsurătorilor de precizii egale), statistica σ 2
=
1
n− p
t
⋅ y − x ⋅ βˆ ⋅ y − x ⋅ βˆ ( ) ( )
este o estimaţie nedeplasată pentru σ 2 . Într-adevăr, avem : y − x ⋅ βˆ = ε − x ⋅ ( x t ⋅ x ) ⋅ x t ⋅ ε ,
−1

notând L = x ⋅ ( x t ⋅ x ) ⋅ x t , K = I − L rezultă
−1

y − x ⋅ βˆ = K ⋅ ε , K t = I − Lt = I − L = K , L2 = L, K 2 = K, ( y − x ⋅ βˆ ) ⋅ ( y − x ⋅ βˆ ) =
t

n
( K ⋅ ε ) t ⋅ K ⋅ ε = ε t ⋅ K 2 ⋅ ε = ε t ⋅ K ⋅ ε = ∑ kii ⋅ ε i2 + ∑ kij ⋅ ε i ⋅ ε j
i =1 i≠ j

( −1
) (
Cum TrL = Tr x ⋅ ( x t ⋅ x ) ⋅ x t = Tr x t ⋅ x ⋅ ( x t ⋅ x )
−1
) = Tr( I p× p )= p şi
TrK = TrI n×n − TrL = n − p (TrL este urma matricei L, adică suma elementelor de pe
diagonala principală a matricei), rezultă
∧ 1  n  1  n 
M σ 2  = ∑ k ii ⋅ M (ε i2 ) + ∑k ij ⋅ M (ε i ⋅ ε j )  = ∑ k ii ⋅ σ 2  = σ 2
  n − p  i =1 i≠ j  n−p 
 i = 1 
Estimaţia ridge a parametrului de regresie β
Considerăm modelul liniar de regresie : y = x ⋅ β + ε , unde y , ε ∈R n , β ∈ R p ,
ε ~ N ( 0, σ ) , Cov ( ε , ε ) = σ 2 ⋅ I n , x ∈ M n × p ( R ) , rang x = p ≤ n
Am văzut că estimaţia celor mai mici pătrate este β̂ = ( x t ⋅ x ) ⋅ x t ⋅ y .
−1

S-a constatat că atunci când valorile proprii ale matricei x t ⋅ x sunt apropiate de zero,
distanţa medie dintre vectorul coeficienţilor de regresie β şi estimaţia β̂ creşte foarte
mult şi prin urmare β̂ nu mai estimează bine pe β. În această situaţie se caută o

estimaţie β * care să scurteze această distanţă, această estimaţie este denumită estimaţia
ridge. Fie λ1 < λ2 <  < λ p valorile proprii ale matricei x t ⋅ x (reamintim că λ este

18
valoare proprie a matricei A dacă este soluţie a ecuaţiei A −λ⋅ I =0, unde A este
(
este Tr ( x ⋅ x ) ) = ∑ λ1
p

determinantul matricei A), rezultă că urma matricei ( x t ⋅ x )


−1 t −1

i =1 i

Notând cu L distanţa dintre β̂ şi β avem : L = ( βˆ − β ) ⋅ ( βˆ − β ) şi


t
2

−1
[
M ( L2 ) = M ( ε t ⋅ K ⋅ ε ) = σ 2 ⋅ Tr ( K ) = σ 2 ⋅ Tr ( x t ⋅ x ) = σ 2 ⋅ ∑
p
1
i =1 λ i
]
Se vede că apropierea de zero a unei valori proprii măreşte distanţa M ( L2 ),
lim M ( L2 ) = ∞
λ p →0

În acest caz se introduce estimaţia ridge β * = W ⋅ x t ⋅ y , unde W = ( x t ⋅ x + k ⋅ I p ) , k ≥ 0 .
−1

Ea este o transformare liniară a estimaţiei celor mai mici pătrate. Într-adevăr, cum

(
x t ⋅ y = x t ⋅ x ⋅ β̂ avem : β * = x t ⋅ x + k ⋅ I
p
−1
⋅ x t
⋅ x ⋅ β ) [( ) (
−1
ˆ = x t ⋅ x −1 ⋅ x t ⋅ x + k ⋅ I p ⋅ βˆ = Z ⋅ βˆ , )]
( (
unde Z = I p + k ⋅ x t ⋅ x ) )
−1 −1
.
1 λi
Valorile proprii ale matricelor W şi Z sunt ξi (W ) = şi ξ i ( Z ) = , unde
k + λi k + λi
λi , i =1, p sunt valorile proprii ale matricei x t ⋅ x .
Într-adevăr, ξi (W ) verifică ecuaţia W −ξ ⋅ I p = 0
Cazul ξ =1 este cazul degenerat (particular) k = 0, Z = I p , caz în care estimaţia ridge
coincide cu β̂.
∧
Avem : (
M  β *  = x t ⋅ x + k ⋅ I p ) −1
⋅ xt ⋅ x ⋅ β , deci estimaţia ridge este deplasată pentru
 
k > 0 . De asemenea, avem :
 ∧* ∧* 
β , β 
Cov   = σ ⋅ ( x ⋅ x + k ⋅ I p ) ⋅ x ⋅ x ⋅ ( x ⋅ x + k ⋅ I p ) ≤ Cov β , β
2 t −1 t t −1
ˆ ˆ ( )
 
Pierzând proprietatea de nedeplasare a estimaţiei, se pune întrebarea dacă există o metodă
care să îmbunătăţească estimaţiile prin reducerea deplasării. O asemenea metodă este
∧ ∧
metoda jackknife, prin care se obţin estimaţiile cu acelaşi nume. Fie θ1 şi θ2 estimaţii
∧ ∧
 ∧ ∧  θ − r ⋅θ
ale lui θ , atunci estimaţia J θ1 ,θ 2  = 1 2
, ∀ r ≠ 1 , este numită estimaţie
  1− r
jackknife. Ea are deplasarea redusă faţă de deplasările estimaţiilor din care provine. Într-
adevăr, considerând n volumul selecţiei, θ parametrul estimat şi
 ∧ b ( n, θ )
M θi  = θ + bi ( n, θ ), i = 1,2 unde b2 ( n, θ ) ≠ 0 , pentru r = 1 ≠ 1 avem
  b2 ( n,θ )
  ∧ ∧ 
M  J θ1 , θ2  = θ . Se verifică pritr-un calcul simplu :
  
  ∧ ∧  1  ∧  ∧  b2 ( n, θ )  b ( n, θ )
M  J  θ1 , θ 2   =  M  θ 1  − r ⋅ M θ 2   = ⋅ θ + b1 ( n, θ ) − 1 ⋅ (θ +
   1 − r       b2 ( n, θ ) − b1 ( n, θ )  b2 ( n, θ )
b2 ( n, θ )) ] = θ

19

Parametrul r poate fi bine ales pentru clase întregi de estimaţii. Astfel, când θ1 este o
estimaţie deplasată a lui θ , bazată pe o selecţie de volum n, astfel încât
 ∧ ∧
M θ1  = θ + b(θ ) ⋅ f ( n ) , iar
  θ2 este estimaţia obţinută prin eliminarea unei observaţii din
 ∧
selecţie, estimatorul, funcţia de selecţie se păstrează, deci M θ2  = θ + b(θ ) ⋅ f ( n −1)
 
  ∧ ∧  f ( n)
atunci din condiţia M  J θ1 , θ2  = θ obţinem r = .
   f ( n −1)

Exerciţiu :
1). Se dispune de datele lunare privind numărul poliţelor vândute ( Yt = numărul
poliţelor vândute în luna t),şi cheltuielile pentru publicitate în mii u.m. ( X t ) ale unei
societăţi de asigurări :
Yt 250 220 300 330
Xt 20 25 32 43

a) Să se scrie ecuaţia de regresie a lui Y în raport cu X.


b) Folosind metoda mediilor mobile de perioadă 3, să se extragă trendul seriei { X t } t , să
se reprezinte grafic şi considerând X 0 = 0 , să se determine a şi b din procesul
autoregresiv X t = a + b ⋅ X t −1 + Z t care să minimizeze suma pătratelor erorilor, unde
Z t ~ N ( 0, 1) .

20

S-ar putea să vă placă și