Sunteți pe pagina 1din 12

72 Optimizarea portofoliilor

4. Optimizarea portofoliilor de acțiuni. Abordări


clasice și de natură genetică

4.1 Randamentul / riscul unui portofoliu. Definirea problemelor de


optimizare

În cele ce urmează este prezentat calculul randamentului aşteptat, respectiv al riscului asociat unui
portofoliu de acţiuni. (Bartholomeu-Biggs, 2005)

Considerăm disponibil istoricul randamentelor procentuale pe m perioade de timp pentru fiecare


acţiune dintr-un grup de n acţiuni şi notăm cu

 𝑟𝑖𝑗 , randamentul acţiunii i în perioada j;


 𝑦𝑖 , fracţiunea investită în acţiunea i, astfel încât 𝑆 = ∑𝑛𝑖=1 𝑦𝑖 = 1
 𝜎𝑖2 , varianţa acţiunii i;
 𝜎𝑖𝑘 , covarianţa dintre acţiunile i şi k.

Portofoliul este definit de fracţiunile de investiţii 𝑦1 , 𝑦2 , … , 𝑦𝑛 .

Randamentul mediu al fiecărei acţiuni 𝑖, 1 ≤ 𝑖 ≤ 𝑛, notat cu 𝑟̅𝑖 , este calculat prin


𝑚
1
𝑟̅𝑖 = ∑ 𝑟𝑖𝑗 (4.1)
𝑚
𝑗=1

Randamentul aşteptat al portofoliului este dat prin


𝑛

𝑅 = ∑ 𝑟̅𝑖 𝑦𝑖 (4.2)
𝑖=1

Varianţa fiecărei acţiuni 𝑖, 1 ≤ 𝑖 ≤ 𝑛, respectiv covarianţa dintre oricare două acţiuni 𝑖, 𝑘, 1 ≤ 𝑖, 𝑘 ≤


𝑛, sunt calculate prin
𝑚
1 2
𝜎𝑖2 = ∑(𝑟𝑖𝑗 − 𝑟̅𝑖 ) (4.3)
𝑚
𝑗=1
𝑚
1
𝜎𝑖𝑘 = ∑(𝑟𝑖𝑗 − 𝑟̅𝑖 )(𝑟𝑘𝑗 − 𝑟̅𝑘 ) (4.4)
𝑚
𝑗=1
Varianţa portofoliului este definită prin
𝑛 𝑛−1 𝑛

𝑉= ∑ 𝜎𝑖2 𝑦𝑖 2 + 2 ∑ ∑ 𝜎𝑖𝑗 𝑦𝑖 𝑦𝑗 (4.5)


𝑖=1 𝑖=1 𝑗=𝑖+1

şi este utilizată ca măsură a riscului portofoliului.


Programare evolutivă și algoritmi genetici 73

Funcţiile randament, respectiv risc, definite prin relaţiile (4.2), respectiv (4.5) sunt reprezentate
matriceal prin

𝑅 = 𝑟̅ 𝑇 𝑦 (4.6)

𝑉 = 𝑦 𝑇 𝑄𝑦 (4.7)

unde
𝑟̅ = (𝑟̅1 , 𝑟̅2 , … , 𝑟̅𝑛 )𝑇

𝑦 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 )𝑇

𝑄 = (𝜎𝑖𝑗 ) 1≤𝑖≤𝑛 , 𝜎𝑖𝑖 = 𝜎𝑖2 , 1 ≤ 𝑖 ≤ 𝑛


1≤𝑗≤𝑛

De asemenea, în reprezentare matriceală relaţia


𝑛

𝑆 = ∑ 𝑦𝑖 = 1
𝑖=1

devine
𝑆 = 𝑒𝑇𝑦 = 1 (4.8)

unde 𝑒 = (1,1, … ,1)𝑇 este vectorul unitar n-dimensional.

Problema primară de minimizare a riscului, RISCMIN0, este formulată prin (Bartholomeu-Biggs,


2005):

RISCMIN0:
Minimizează 𝑉 = 𝑦 𝑇 𝑄𝑦
cu restricţia
∑𝑛𝑖=1 𝑦𝑖 = 1

Observaţie. RISCMIN0 poate fi modificată prin eliminarea restricţiei şi a variabilei 𝑦𝑛 :


𝑛−1

𝑦𝑛 (𝑦𝑛 = 1 − ∑ 𝑦𝑖 )
𝑖=1

În multe situaţii practice, investitorul este interesat atât în minimizarea riscului, cât şi în optimizarea
randamentului portofoliului ales. În general, un portofoliu este considerat optim dacă el furnizează cel mai
mare randament cu cel mai mic risc.

O modalitate de a determina un astfel de portofoliu este prin considerarea funcţiei de tip compozit

𝐹 = −𝑅 + 𝜌𝑉 = −𝑟̅ 𝑇 𝑦 + 𝜌𝑦 𝑇 𝑄𝑦 (4.9)

unde constanta pozitivă 𝜌 controlează raportul dintre randament şi risc. Cu aceste modificari se obţine
problema de optimizare RISC-RANDAMENT1, (Bartholomeu-Biggs, 2005):

RISC-RANDAMENT1:
Minimizează 𝐹 = −𝑟̅ 𝑇 𝑦 + 𝜌𝑦 𝑇 𝑄𝑦
cu restricţia
𝑛

∑ 𝑦𝑖 = 1
𝑖=1
74 Optimizarea portofoliilor

Observaţie. RISC-RANDAMENT1 poate fi modificată prin eliminarea restricţiei şi a variabilei 𝑦𝑛 (𝑦𝑛 =


1 − ∑𝑛−1
𝑖=1 𝑦𝑖 ).

O variantă alternativă pentru a determina portofoliul optim este de a fixa o valoare ţintă pentru
randament, de exemplu de Rp procente, şi de a considera problema de optimizare RISCMIN1,
(Bartholomeu-Biggs, 2005):

RISCMIN1:
Minimizează 𝑉 = 𝑦 𝑇 𝑄𝑦
cu restricţiile
𝑛

∑ 𝑟̅𝑖 𝑦𝑖 = 𝑅𝑝
𝑖=1
𝑛

∑ 𝑦𝑖 = 1
𝑖=1

sau, alternativ, problema modificată RISCMIN1M:

RISCMIN1M:

Minimizează
𝑛 2
𝑇
𝜌
𝐹 = 𝑦 𝑄𝑦 + 2 (∑ 𝑟̅𝑖 𝑦𝑖 − 𝑅𝑝 ) (4.10)
(𝑅𝑝 ) 𝑖=1
cu restricţia
𝑛

∑ 𝑦𝑖 = 1
𝑖=1

Constanta pozitivă 𝜌 semnifică raportul dintre randament şi risc.

O problemă des întâlnită în practică este aceea în care este selectat un nivel acceptabil de risc, 𝑉𝑎𝑐 , şi
este maximizat randamentul aşteptat. Modelul matematic revine la problema de minimizare cu constrângeri
RANDAMENTMAX1:

RANDAMENTMAX1:
Minimizează 𝑅 = −𝑟̅ 𝑇 𝑦
cu restricţiile
𝑉 = 𝑦 𝑇 𝑄𝑦 = 𝑉𝑎𝑐
𝑛

∑ 𝑦𝑖 = 1
𝑖=1

sau, alternativ, problema modificată RANDAMENTMAX1M, (Bartholomeu-Biggs, 2005):

RANDAMENTMAX1M:
Minimizează
𝜌
𝐹 = −𝑟̅ 𝑇 𝑦 + (𝑦 𝑇 𝑄𝑦 − 𝑉𝑎𝑐 )2 (4.11)
(𝑉𝑎𝑐 )2

cu restricţia
Programare evolutivă și algoritmi genetici 75

∑ 𝑦𝑖 = 1
𝑖=1

Constanta pozitivă 𝜌 semnifică relaţia existentă între randamentul şi riscul portofoliului.

Observaţie. RISCMIN1M şi respectiv RANDAMENTMAX1M pot fi modificate prin eliminarea restricţiei


şi a variabilei 𝑦𝑛 (𝑦𝑛 = 1 − ∑𝑛−1
𝑖=1 𝑦𝑖 ).

4.2 Optimizarea portofoliilor cu n acțiuni

Definirea problemelor de optimizarea portofoliilor cu n acţiuni în termenii problemelor de


optimizare fără constrângeri

Prin utilizarea relaţiei (4.8), variabila 𝑦𝑛 este poate fi eliminată:


𝑛−1

𝑦𝑛 = 1 − ∑ 𝑦𝑖 (4.12)
𝑖=1

şi funcţiile randament şi risc sunt exprimate exclusiv în termenii 𝑦1 , 𝑦2 , … , 𝑦𝑛−1 . În plus, restricţia (4.8) poate
fi eliminată din problemele de optim în care apare.

Fie 𝑥 = (𝑦1 , 𝑦2 , … , 𝑦𝑛−1 )𝑇 , vector de dimensiune n-1, 𝛼 = (0,0, … ,0,1)𝑇 vector n-dimensional, cu
unicul element nenul 𝛼𝑛 = 1 şi B matrice de dimensiune 𝑛 × (𝑛 − 1), cu primele 𝑛 − 1 linii liniile
corespunzătoare matricei unitate 𝐼𝑛−1 şi ultima linie formată cu elementul -1,

1 0 … 0
0 1 … 0
𝐵= …………… .
0 0 … 1
(−1 − 1 … − 1)
Cu aceste notaţii, obţinem

𝑦 = 𝛼 + 𝐵𝑥 (4.13)

Similar celor prezentate în §4.1, procedura MINRISC0 defineşte problema primară de minimizare a
riscului în cazul unui portofoliu definit de fracţiunile de investiţii 𝑦1 , 𝑦2 , … , 𝑦𝑛 . Prin utilizarea relaţiei (4.13),
rezultă (Bartholomeu-Biggs, 2005):

MINRISC0: (4.14)
Minimizează
𝑉 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥)

Relaţia (4.14) defineşte o problemă de optimizare fără constrângeri, în n-1 variabile. Dacă 𝑥 ∗ =
(𝑥1∗ , 𝑥2∗ , … , 𝑥𝑛−1
∗ )𝑇
o soluţie a problemei (4.14), atunci portofoliul de risc minim, notat 𝑦 ∗ , este definit
este
prin
𝑛−1

𝑦𝑖∗ = 𝑥𝑖∗ , 1 ≤ 𝑖 ≤ 𝑛 − 1 ş𝑖 𝑦𝑛∗ = 1 − ∑ 𝑥𝑖∗ (4.15)


𝑖=1
76 Optimizarea portofoliilor

O serie de metode care rezolvă problema minimizării unei funcţii de mai multe variabile utilizează
vectorul derivatelor parţiale de ordinul I, numit gradient. Dacă V este funcţie de m variabile, atunci
gradientul lui V, notat ∇𝑉 sau 𝑉𝑥 , este definit prin

𝜕𝑉 𝜕𝑉 𝜕𝑉 𝑇
∇𝑉 = ( , …, )
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑚

Gradientul funcţiei obiectiv din relaţia (4.14) este

V  2BT Qα  2BT QBx  2BT Qα  Bx (4.16)

Pentru rezolvarea problemelor de optim, unele metode necesită şi calculul derivatelor parţiale de
ordinul II, adică a matricei Hessian. Dacă V este funcţie de m variabile, atunci matricea Hessian, notată  2V
sau Vxx , este definită prin

  2V 
 2V   
 x x 1i m
 i j 1 j  m

Hessianul funcţiei obiectiv din relaţia (4.14) este

2V  2BT QB (4.17)

Problema RISCMIN1M, definită în în §4.1, poate fi exprimată în termenii unei probleme de


optimizare fără restricţii prin utilizarea relaţiei (4.13), astfel (Bartholomeu-Biggs, 2005):

RISCMIN1M (4.18)
Minimizează
𝜌 2
𝐹 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) + 2 (𝑟̅
𝑇
𝛼 − 𝑅𝑝 + 𝑟̅ 𝑇 𝐵𝑥)
(𝑅𝑝 )

Pentru calculul vectorului gradient şi al matricei Hessian pentru funcţia F definită în (4.18),
considerăm reprezentarea
2
𝐹 = 𝑉 + 𝜌̅ (𝑅 − 𝑅𝑝 )
unde
𝑉 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥)
𝜌
𝜌̅ = 2 şi
(𝑅𝑝 )
𝑇 (𝛼
𝑅 = 𝑟̅ + 𝐵𝑥)

Sunt obţinute relaţiile


∇𝐹 = 𝐹𝑥 = 𝑉𝑥 + 2𝜌̅ (𝑅 − 𝑅𝑝 )𝑅𝑥
unde
∇𝑉 = 𝑉𝑥 = 2𝐵𝑇 𝑄(𝛼 + 𝐵𝑥)
şi
∇𝑅 = 𝑅𝑥 = 𝐵𝑇 𝑟̅
Similar, este obţinută matricea Hessian, prin
Fxx  Vxx  2  R x R x 
T
Programare evolutivă și algoritmi genetici 77

unde
Vxx  2BT QB
şi
R x R x  este o matrice cu rangul 1, pentru orice i,j, 1  i, j  n  1,
T

R R  
x x
T
i, j

R R
xi x j

Problema RANDAMENTMAX1 este reformulată în termenii RANDAMENTMAX1M (vezi în


§4.1) şi, prin utilizarea relaţiei (4.13) rezultă problema de optimizare fără restricţii (Bartholomeu-Biggs,
2005):

RANDAMENTMAX1M (4.19)
Minimizează
𝜌
𝐹 = −𝑟̅ 𝑇 (𝛼 + 𝐵𝑥) + ((𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) − 𝑉𝑎𝑐 )2
(𝑉𝑎𝑐 )2

Expresiile care definesc gradientul şi Hessianul funcţiei definite în (4.19) sunt obţinute prin
reprezentarea

F  R   V  Vac 
2

unde


R  r T α  Bx , V  α  Bx Qα  Bx şi  
T
.
Vacc 2
Rezultă

Fx  B T r  2  V  Va Vx


Fxx  2 Vx Vx   V  Va Vxx
T

unde Vx Vx  este matrice de rangul I; pentru orice i,j, 1  i, j  n  1,
T

V V  
x x
T
i, j

V V
xi x j
.

Observaţii

1. În cadrul problemelor enunţate în această secţiune, nu este impusă condiţia ca fiecare 𝑦𝑖 să fie pozitiv. O
valoare negativă a unei fracţiuni de investiţii 𝑦𝑖 are semnificaţia următoare: strategia optimă de investiţie
implică vânzarea de tip “short selling”, adică vânzarea unor active pe care investitorul nu le deţine, prin
împrumutul acestora de la broker cu intenţia de a le returna ulterior. Această strategie este efectivă doar în
situaţia în care preţul acţiunilor este în scădere, deoarece achiziţionarea lor la un moment de timp ulterior
investiţiei curente implică un cost mai mic decât preţul obţinut prin vânzarea activelor împrumutate la
momentul efectuării investiţiei curente.
78 Optimizarea portofoliilor

2. În general, soluţia unei probleme de risc minim nu implică situaţia de tip “short selling” dacă randamentul
dorit 𝑅𝑝 este ales corespunzător, adică în conformitate cu randamentele medii calculate 𝑟̅1 , 𝑟̅2 , … , 𝑟̅𝑛 pentru
activele care vor fi incluse în portofoliu.

4.3 Metode clasice de optimizare a funcțiilor de n variabile

Condiţii de optimalitate

Fie F x1 , x2 ,..., xn  funcţie de 𝑛 variabile, continuă şi diferenţiabilă. Caracterizarea punctului de


minim atins de F este realizată în termenii vectorului gradient şi a matricei Hessian
 2F 
T
 F F F 
F   , ,...,  , notat în continuare cu g sau cu Fx , respectiv  2 F    , matrice
 x x 1i n
 x1 x2 xn   i j 1 j n
notată în continuare cu G sau Fxx

Observaţie. În cazul în care F este dublu diferenţiabilă, matricea Hessian G este simetrică.

Definiţia 4.1. Matricea simetrică A este pozitiv definită dacă şi numai dacă, pentru orice x  0 , are loc
relaţia xT Ax  0 .

 
Definiţia 4.2.Fie F x, x  x1 , x2 ,..., xn  funcţie de n variabile şi x* cu proprietăţile (4.20) g x*  0 şi
 
G x* este pozitiv definită. Atunci x* este punct de minim local al lui F.

Dacă o funcţie F are mai multe minime locale (puncte ce îndeplinesc (4.20)), atunci minimul global
este acel minim local pentru care este obţinută cea mai mică valoare a lui F.

Observaţie. Problema RISCMIN0 poate fi rezolvată prin abordare analitică. Deoarece funcţia gradient este
V  2BT Qα  2BT QBx ,
valoarea optimală a lui x este obţinută prin rezolvarea sistemului linia
BT QBx  BT Qα

Metode directe de căutare a optimului

În general, în problemele de optimizare a portofoliilor, vectorul gradient şi matricea Hessian pot fi în


general calculate, funcţiile obiectiv fiind în general dublu diferenţiabile. Pentru situaţiile de acest gen sunt
folosite metode de tip gradient. În cazul în care optimizarea nu poate fi realizată prin utilizarea relaţiilor
(4.20), o variantă de rezolvare a problemelor de optimizare o constituie metodele de căutare directă, bazate
exclusiv pe analizarea valorile funcţiei obiectiv.

Căutarea directă a valorii minime a unei funcţii obiectiv F este realizată prin evaluarea lui F în
punctele unei „reţele” de valori posibile ale vectorului variabilă a funcţiei. Deşi metodele de acest tip nu sunt
în general eficiente, există situaţii în care valoarea minimă poate fi aproximată prin considerarea unei
variante a lui F discretizată pe un set de puncte „aleatoare” şi utilizarea unor argumente de natură statistică
pentru estimarea probabilităţii de determinare a minimului într-un anumit număr de încercări.
Programare evolutivă și algoritmi genetici 79

Căutarea univariantă

Metoda implică utilizarea unei metode directe de căutare (ca, de exemplu, metoda bisecţiei) pentru
generarea unei secvenţe de tip minimizarea unidimensională a lui F astfel încât, la fiecare etapă i, 1  i  n ,
F este minimizat în raport cu xi . Cu alte cuvinte, punctul optim este căutat de-a lungul direcţiilor date de
fiecare coordonată pe rând. Deşi uneori metoda funcţionează eficient, ea nu poate fi general aplicabilă
deoarece nu este convergentă.

Metoda Hooke şi Jeeves

Tehnica Hooke&Jeeves utilizează metoda căutării pe o singura axă pe baza următorului raţionament. Dacă
x sunt estimări ale punctelor de minim ale lui F x  la momentul iniţial, respectiv la momentul final al
xˆ , ~
ciclului de căutare, atunci minimizarea unidimensională a lui F este realizată pe direcţia xˆ  ~ x printr-o
estimare de tipul

x   xˆ  ~
x~ x  (4.21),

unde  este o constantă scalară. Metoda continuă prin efectuarea ciclurilor de căutare univariantă urmate de
estimări de forma (4.21).

Metode de aproximare a derivatelor

Una dintre cele mai uzuale metode de minimizarea a lui F x  exclusiv pe baza valorilor funcţiei F
este prin adaptarea metodelor de tip gradient la estimările de tip diferenţă finită ale derivatelor funcţiei. De
exemplu, pentru derivatele de ordinul I poate fi utilizată estimarea diferenţă centrată

F x1 , x2 ,..., xn  F x1  h, x2 ,..., xn   F x1  h, x2 ,..., xn 



x1 2h

Abordările care implică estimarea derivatelor funcţiei obiectiv sunt dezvoltate pe baza presupunerii
că F este diferenţiabilă. În plus, metodele din această clasă nu sunt în general aplicate problemelor pentru
care derivatele funcţiei F nu sunt funcţii continue.

Metode de tip gradient

Aşa cum a fost menţionat, în problemele de optimizare a portofoliilor funcţiile obiectiv sunt dublu
diferenţiabile şi relaţiile (4.20) pot fi verificate. Optimizarea funcţiilor în n variabile şi care îndeplinesc
proprietăţile din definiţia 4.2 poate fi realizată prin metode de tip gradient, respectiv de tip Newton. Sunt
prezentate în continuare metoda celei mai rapide (abrupte) descreşteri şi metoda Newton. Ambele metode
presupun construcţia câte unui şir care, în anumite condiţii de regularitate impuse funcţiei obiectiv, converge
către soluţia optimală a problemei de optimizare.

Metoda celei mai rapide descreşteri

Tehnica celei mai rapide descreşteri este justificată geometric astfel. Presupunem că 𝐹(𝑥) este
funcţia de minimizat şi 𝑥𝑘 este punctul construit la momentul curent. Un punct „mai bun” (în sensul că
valoare funcţiei obiectiv descreşte în acel punct faţă de punctul curent) poate fi determinat prin deplasarea pe
direcţia de căutare care determină descreşterea cea mai rapidă a lui F, adică pe direcţia gradientului negativ.

Metoda celei mai rapide descreşteri de tip „perfect line search” este descrisă astfel (Bartholomeu-
Biggs, 2005):
80 Optimizarea portofoliilor

 Selectează 𝑥0 , estimare iniţiale a punctului de minim al lui 𝐹(𝑥) şi 𝜀 > 0


 Repetă pentru 𝑘 = 0,1,2 …
 𝑝𝑘 = −∇𝐹(𝑥𝑘 )
 calculează 𝑠 ∗ care minimizează 𝜑(𝑠) = 𝐹(𝑥𝑘 + 𝑠 ∙ 𝑝𝑘 )
 aplică regula de actualizare
 𝑥𝑘+1 = 𝑥𝑘 + 𝑠 ∙ 𝑝𝑘
 Până când ‖∇𝐹(𝑥𝑘+1 )‖ < 𝜀

Observaţie. O serie de metode de optimizare utilizează în construcţia şirului tipare similare celui prezentat
în algoritmul de mai sus; fiecare iteraţie constă în două etape: alegerea direcţiei de căutare (calculul lui 𝑝𝑘 ) şi
respectiv procedura de determinare a demarcaţiei (line search) în scopul stabilirii unei valori adecvate a
pasului 𝑠 ∗ .

*
Definiţia 4.3. Procedura de determinare a demarcaţiei s care minimizează
 s   F x k  sp k  se numeşte
perfectă sau exactă.

Definiţia 4.4. O procedură de determinare a demarcaţiei prin care este acceptată orice valoare a pasului s

care îndeplineşte
F x k  sp k   F x k   0 şi este mărginită se numeşte inexactă sau slabă.

În continuare este prezentată teorema de convergenţă a metodei.

Propoziţia 4.1. Fie F x  o funcţie dublu diferenţiabilă, cu derivatele continue şi mărginită inferior şi pentru
care este îndeplinită proprietatea

z T  2 F x z  M z
2

pentru orice vector z , unde M  0 este constantă scalară. Atunci şirul definit prin

F x k  ( s  M 1 )
1
x k 1  x k 
M

are proprietatea

F xk   0 când k   .

Metoda Newton

Tehnica celei mai abrupte descreşteri are inconvenientul că nu foloseşte informaţia dată de cea de-a
doua derivată. Pot fi obţinute metode mai eficiente pe baza proprietăţii funcţiilor pătratice, Qx  , de a avea
matricea Hessian constantă. Fie

Qx  
1 T
x Ax  bT x  c (4.22).
2

Gradientul este

Qx  Ax  b .

Punctul staţionar rezultă prin rezolvarea sistemului de ecuaţii liniare


Programare evolutivă și algoritmi genetici 81

Ax  b (4.23).
Soluţia sistemului (4.23) este punct de minim dacă matricea Hessian, A, este pozitiv definită. Dacă A
este negativ definită, soluţia sistemului (4.23) este punct de maxim. Dacă A este oarecare, soluţia lui (4.23)
este punct şa. Dacă A este nesingulară, atunci (4.22) are un unic punct staţionar.

Principiile expuse mai sus pot fi aplicate pentru minimizarea unei funcţii generale, F x  . Fie x k
estimaţia punctului de minim al lui F la momentul curent şi g k  F x k  , G k   2 F x k  . Utilizând
dezvoltarea Taylor în jurul lui x k obţinem

F x k  p   Qp   F x k   pT g k 
1 T
2

p Gkp  (4.24)

şi

F x k  p  Qp  g k  G k p (4.25)

Rezultă că, dacă G k este pozitiv definită,

p  G k g k
T
(4.26)

Este obţinut astfel următorul algoritm:

 selectează x 0 , estimare iniţiale a punctului de minim al lui F x  şi   0


 repetă pentru k  0,1,2,...
 g k  F x k  , G k   2 F x k 
 dacă G k este pozitiv definită, atunci calculează p k  G k g k
T

 altfel p k  g k
 calculează s * astfel încât F x k  sp k  îndeplineşte condiţiile Wolfe 2 şi 3
(Bartholomeu-Biggs, 2005)
 aplică regula de actualizare x k 1  x k  s * p k
 Până când F xk 1   

Observaţie. În cazul problemei RISCMIN1M, matricea Hessian corespunzătoare funcţiei obiectiv este
𝜌
𝐺 = 2𝐵𝑇 QB + 2 (𝐵𝑇 𝑟̅ )(𝐵𝑇 𝑟̅ )𝑇
𝑅𝑝2

deci este matrice constantă (nu depinde de x). G este pozitiv definită şi simetrică. Constanta M din propoziţia
4.1 (convergenţa metodei celei mai rapide descreşteri) poate fi setată astfel.

𝑧 𝑇 𝑧
∀𝑧 ∈ ℝ𝑛−1 , 𝑧 𝑇 𝐺𝑧 ≤ 𝑀‖𝑧‖2 ⇔ ∀𝑧 ∈ ℝ𝑛−1 \(0, … ,0)𝑇 , ( ) 𝐺 ≤𝑀
‖𝑧‖ ‖𝑧‖

⟺ ∀𝑡 ∈ ℝ𝑛−1 𝑐𝑢 ‖𝑡‖ = 1, 𝑡 𝑇 𝐺𝑡 ≤ 𝑀
82 Optimizarea portofoliilor

Deoarece G este pozitiv definită şi simetrică, rezultă că este diagonalizabilă şi există Φ =


1, 𝑖 = 𝑗
[Φ1 , … , Φ𝑛−1 ] matrice cu coloane un set de vectori proprii ortogonali, (Φ𝑖 )𝑇 Φ𝑗 = 𝛿𝑖,𝑗 = {
0, 𝑖 ≠ 𝑗
corespunzători valorilor proprii 𝜆1 ≥ 𝜆2 ≥ ⋯ ≥ 𝜆𝑛−1 > 0 ale matricei G astfel încât

𝐺 = ΦΛΦ𝑇 , Λ = diag(𝜆1 , 𝜆2 , … , 𝜆𝑛−1 )

Rezultă că problema revine la calculul constantei M astfel încât

∀𝑡 ∈ ℝ𝑛−1 𝑐𝑢 ‖𝑡‖ = 1, 𝑡 𝑇 ΦΛΦ𝑇 𝑡 ≤ 𝑀

Pentru 𝑡 ∈ ℝ𝑛−1 𝑐𝑢 ‖𝑡‖ = 1, fie 𝑤 = Φ𝑇 𝑡 ∈ ℝ𝑛−1 .

𝑛−1 2

‖𝑤‖2 = ‖Φ𝑇 𝑡‖2 = ‖𝑡 𝑇 Φ‖2 = ‖∑ 𝑡𝑖 Φ𝑖 ‖


𝑖=1

𝑛−1 𝑇 𝑛−1 𝑛−1 𝑛−1


‖𝑤‖2 = (∑ 𝑡𝑘 Φ𝑘 ) (∑ 𝑡𝑗 Φ𝑗 ) = ∑ ∑ 𝑡𝑘 𝑡𝑗 (Φ𝑘 )𝑇 Φ𝑗 =
𝑘=1 𝑗=1 𝑘=1 𝑗=1

𝑛−1 𝑛−1 𝑛−1

∑ ∑ 𝑡𝑘 𝑡𝑗 𝛿𝑘,𝑗 = ∑(𝑡𝑘 )2 = 1
𝑘=1 𝑗=1 𝑘=1

În continuare obţinem

𝑡 𝑇 𝐺𝑡 ≤ 𝑀 ⇔ 𝑤 𝑇 Λw ≤ 1, ‖𝑤‖ = 1

Deoarece Λ = diag(𝜆1 , 𝜆2 , … , 𝜆𝑛−1 ), dacă 𝑤 = (𝑤1 , … , 𝑤𝑛−1 )𝑇


𝑛−1 𝑛−1
𝑇
𝑤 Λw = ∑ 𝜆𝑖 𝑤𝑖2 ≤ 𝜆1 ∑ 𝑤𝑖2 = 𝜆1
𝑖=1 𝑖=1

Rezultă că

∀𝑧 ∈ ℝ𝑛−1 , 𝑧 𝑇 𝐺𝑧 ≤ 𝜆1 ‖𝑧‖2

şi M poate fi setat pe valoarea 𝜆1 (valoarea proprie dominantă a matricei constante G)

Exemplul 1

În tabelul 4.1 este prezentat istoricul randamentelor corespunzătoare acţiunilor A1, A2, A3, A4, A5 pe o
perioadă de 10 săptămâni. (Bartholomeu-Biggs, 2005)

Tabel 4.1
S1 S2 S3 S4 S5 S6 S7 S8 S9 S10
A1 1.2 1.3 1.4 1.5 1.1 1.2 1.1 1.0 1.0 1.1
A2 1.3 1.0 0.8 0.9 1.4 1.3 1.2 1.1 1.2 1.1
A3 0.9 1.1 1.0 1.1 1.1 1.3 1.2 1.1 1.0 1.1
A4 1.1 1.1 1.2 1.3 1.2 1.2 1.1 1.0 1.1 1.2
A5 0.8 0.75 0.65 0.75 0.8 0.9 1.0 1.1 1.1 1.2
Programare evolutivă și algoritmi genetici 83

Problema de rezolvat: determinarea portofoliului de risc minim pentru un randament dat 𝑅𝑝 =


1.15%.

Randamentul mediu al portofoliului rezultă

𝑟̅ ≅ (1.19 1.13 1.09 1.15 0.905)𝑇

şi matricea de covarianţă este

0.0249 − 0.0187 − 0.0011 0.0085 − 0.0219


−0.0187 0.0321 0.0033 − 0.0035 0.0099
𝑄 ≅ −0.0011 0.0033 0.0109 0.0015 0.0035
0.0085 − 0.0035 0.0015 0.0065 − 0.0058
(−0.0219 0.0099 0.0035 − 0.0058 0.0307)

Problema este modelată în termenii RISCMIN1M astfel:

Minimizează
𝜌 2
𝐹 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) + 2 (𝑟̅
𝑇
𝛼 − 𝑅𝑝 + 𝑟̅ 𝑇 𝐵𝑥)
(𝑅𝑝 )

Prin aplicarea metodelor de tip gradient, respectiv Newton prezentate, pentru eroarea permisă
−5
10 √𝑛 ş𝑖 𝜌 = 100, rezultă
 portofoliul 𝑦 = (0.42 0.34 0.01 0.2 0.04)
 riscul minim 𝑉 = 3.44 × 10−3
 randamentul ≅ 𝑅𝑝 , randamentul dat.

S-ar putea să vă placă și