Documente Academic
Documente Profesional
Documente Cultură
040 - Cap. 4 - Optimizare Portofolii
040 - Cap. 4 - Optimizare Portofolii
În cele ce urmează este prezentat calculul randamentului aşteptat, respectiv al riscului asociat unui
portofoliu de acţiuni. (Bartholomeu-Biggs, 2005)
𝑅 = ∑ 𝑟̅𝑖 𝑦𝑖 (4.2)
𝑖=1
Funcţiile randament, respectiv risc, definite prin relaţiile (4.2), respectiv (4.5) sunt reprezentate
matriceal prin
𝑅 = 𝑟̅ 𝑇 𝑦 (4.6)
𝑉 = 𝑦 𝑇 𝑄𝑦 (4.7)
unde
𝑟̅ = (𝑟̅1 , 𝑟̅2 , … , 𝑟̅𝑛 )𝑇
𝑦 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 )𝑇
𝑆 = ∑ 𝑦𝑖 = 1
𝑖=1
devine
𝑆 = 𝑒𝑇𝑦 = 1 (4.8)
RISCMIN0:
Minimizează 𝑉 = 𝑦 𝑇 𝑄𝑦
cu restricţia
∑𝑛𝑖=1 𝑦𝑖 = 1
𝑦𝑛 (𝑦𝑛 = 1 − ∑ 𝑦𝑖 )
𝑖=1
În multe situaţii practice, investitorul este interesat atât în minimizarea riscului, cât şi în optimizarea
randamentului portofoliului ales. În general, un portofoliu este considerat optim dacă el furnizează cel mai
mare randament cu cel mai mic risc.
O modalitate de a determina un astfel de portofoliu este prin considerarea funcţiei de tip compozit
𝐹 = −𝑅 + 𝜌𝑉 = −𝑟̅ 𝑇 𝑦 + 𝜌𝑦 𝑇 𝑄𝑦 (4.9)
unde constanta pozitivă 𝜌 controlează raportul dintre randament şi risc. Cu aceste modificari se obţine
problema de optimizare RISC-RANDAMENT1, (Bartholomeu-Biggs, 2005):
RISC-RANDAMENT1:
Minimizează 𝐹 = −𝑟̅ 𝑇 𝑦 + 𝜌𝑦 𝑇 𝑄𝑦
cu restricţia
𝑛
∑ 𝑦𝑖 = 1
𝑖=1
74 Optimizarea portofoliilor
O variantă alternativă pentru a determina portofoliul optim este de a fixa o valoare ţintă pentru
randament, de exemplu de Rp procente, şi de a considera problema de optimizare RISCMIN1,
(Bartholomeu-Biggs, 2005):
RISCMIN1:
Minimizează 𝑉 = 𝑦 𝑇 𝑄𝑦
cu restricţiile
𝑛
∑ 𝑟̅𝑖 𝑦𝑖 = 𝑅𝑝
𝑖=1
𝑛
∑ 𝑦𝑖 = 1
𝑖=1
RISCMIN1M:
Minimizează
𝑛 2
𝑇
𝜌
𝐹 = 𝑦 𝑄𝑦 + 2 (∑ 𝑟̅𝑖 𝑦𝑖 − 𝑅𝑝 ) (4.10)
(𝑅𝑝 ) 𝑖=1
cu restricţia
𝑛
∑ 𝑦𝑖 = 1
𝑖=1
O problemă des întâlnită în practică este aceea în care este selectat un nivel acceptabil de risc, 𝑉𝑎𝑐 , şi
este maximizat randamentul aşteptat. Modelul matematic revine la problema de minimizare cu constrângeri
RANDAMENTMAX1:
RANDAMENTMAX1:
Minimizează 𝑅 = −𝑟̅ 𝑇 𝑦
cu restricţiile
𝑉 = 𝑦 𝑇 𝑄𝑦 = 𝑉𝑎𝑐
𝑛
∑ 𝑦𝑖 = 1
𝑖=1
RANDAMENTMAX1M:
Minimizează
𝜌
𝐹 = −𝑟̅ 𝑇 𝑦 + (𝑦 𝑇 𝑄𝑦 − 𝑉𝑎𝑐 )2 (4.11)
(𝑉𝑎𝑐 )2
cu restricţia
Programare evolutivă și algoritmi genetici 75
∑ 𝑦𝑖 = 1
𝑖=1
𝑦𝑛 = 1 − ∑ 𝑦𝑖 (4.12)
𝑖=1
şi funcţiile randament şi risc sunt exprimate exclusiv în termenii 𝑦1 , 𝑦2 , … , 𝑦𝑛−1 . În plus, restricţia (4.8) poate
fi eliminată din problemele de optim în care apare.
Fie 𝑥 = (𝑦1 , 𝑦2 , … , 𝑦𝑛−1 )𝑇 , vector de dimensiune n-1, 𝛼 = (0,0, … ,0,1)𝑇 vector n-dimensional, cu
unicul element nenul 𝛼𝑛 = 1 şi B matrice de dimensiune 𝑛 × (𝑛 − 1), cu primele 𝑛 − 1 linii liniile
corespunzătoare matricei unitate 𝐼𝑛−1 şi ultima linie formată cu elementul -1,
1 0 … 0
0 1 … 0
𝐵= …………… .
0 0 … 1
(−1 − 1 … − 1)
Cu aceste notaţii, obţinem
𝑦 = 𝛼 + 𝐵𝑥 (4.13)
Similar celor prezentate în §4.1, procedura MINRISC0 defineşte problema primară de minimizare a
riscului în cazul unui portofoliu definit de fracţiunile de investiţii 𝑦1 , 𝑦2 , … , 𝑦𝑛 . Prin utilizarea relaţiei (4.13),
rezultă (Bartholomeu-Biggs, 2005):
MINRISC0: (4.14)
Minimizează
𝑉 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥)
Relaţia (4.14) defineşte o problemă de optimizare fără constrângeri, în n-1 variabile. Dacă 𝑥 ∗ =
(𝑥1∗ , 𝑥2∗ , … , 𝑥𝑛−1
∗ )𝑇
o soluţie a problemei (4.14), atunci portofoliul de risc minim, notat 𝑦 ∗ , este definit
este
prin
𝑛−1
O serie de metode care rezolvă problema minimizării unei funcţii de mai multe variabile utilizează
vectorul derivatelor parţiale de ordinul I, numit gradient. Dacă V este funcţie de m variabile, atunci
gradientul lui V, notat ∇𝑉 sau 𝑉𝑥 , este definit prin
𝜕𝑉 𝜕𝑉 𝜕𝑉 𝑇
∇𝑉 = ( , …, )
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑚
Pentru rezolvarea problemelor de optim, unele metode necesită şi calculul derivatelor parţiale de
ordinul II, adică a matricei Hessian. Dacă V este funcţie de m variabile, atunci matricea Hessian, notată 2V
sau Vxx , este definită prin
2V
2V
x x 1i m
i j 1 j m
RISCMIN1M (4.18)
Minimizează
𝜌 2
𝐹 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) + 2 (𝑟̅
𝑇
𝛼 − 𝑅𝑝 + 𝑟̅ 𝑇 𝐵𝑥)
(𝑅𝑝 )
Pentru calculul vectorului gradient şi al matricei Hessian pentru funcţia F definită în (4.18),
considerăm reprezentarea
2
𝐹 = 𝑉 + 𝜌̅ (𝑅 − 𝑅𝑝 )
unde
𝑉 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥)
𝜌
𝜌̅ = 2 şi
(𝑅𝑝 )
𝑇 (𝛼
𝑅 = 𝑟̅ + 𝐵𝑥)
unde
Vxx 2BT QB
şi
R x R x este o matrice cu rangul 1, pentru orice i,j, 1 i, j n 1,
T
R R
x x
T
i, j
R R
xi x j
RANDAMENTMAX1M (4.19)
Minimizează
𝜌
𝐹 = −𝑟̅ 𝑇 (𝛼 + 𝐵𝑥) + ((𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) − 𝑉𝑎𝑐 )2
(𝑉𝑎𝑐 )2
Expresiile care definesc gradientul şi Hessianul funcţiei definite în (4.19) sunt obţinute prin
reprezentarea
F R V Vac
2
unde
R r T α Bx , V α Bx Qα Bx şi
T
.
Vacc 2
Rezultă
Fx B T r 2 V Va Vx
Fxx 2 Vx Vx V Va Vxx
T
unde Vx Vx este matrice de rangul I; pentru orice i,j, 1 i, j n 1,
T
V V
x x
T
i, j
V V
xi x j
.
Observaţii
1. În cadrul problemelor enunţate în această secţiune, nu este impusă condiţia ca fiecare 𝑦𝑖 să fie pozitiv. O
valoare negativă a unei fracţiuni de investiţii 𝑦𝑖 are semnificaţia următoare: strategia optimă de investiţie
implică vânzarea de tip “short selling”, adică vânzarea unor active pe care investitorul nu le deţine, prin
împrumutul acestora de la broker cu intenţia de a le returna ulterior. Această strategie este efectivă doar în
situaţia în care preţul acţiunilor este în scădere, deoarece achiziţionarea lor la un moment de timp ulterior
investiţiei curente implică un cost mai mic decât preţul obţinut prin vânzarea activelor împrumutate la
momentul efectuării investiţiei curente.
78 Optimizarea portofoliilor
2. În general, soluţia unei probleme de risc minim nu implică situaţia de tip “short selling” dacă randamentul
dorit 𝑅𝑝 este ales corespunzător, adică în conformitate cu randamentele medii calculate 𝑟̅1 , 𝑟̅2 , … , 𝑟̅𝑛 pentru
activele care vor fi incluse în portofoliu.
Condiţii de optimalitate
Observaţie. În cazul în care F este dublu diferenţiabilă, matricea Hessian G este simetrică.
Definiţia 4.1. Matricea simetrică A este pozitiv definită dacă şi numai dacă, pentru orice x 0 , are loc
relaţia xT Ax 0 .
Definiţia 4.2.Fie F x, x x1 , x2 ,..., xn funcţie de n variabile şi x* cu proprietăţile (4.20) g x* 0 şi
G x* este pozitiv definită. Atunci x* este punct de minim local al lui F.
Dacă o funcţie F are mai multe minime locale (puncte ce îndeplinesc (4.20)), atunci minimul global
este acel minim local pentru care este obţinută cea mai mică valoare a lui F.
Observaţie. Problema RISCMIN0 poate fi rezolvată prin abordare analitică. Deoarece funcţia gradient este
V 2BT Qα 2BT QBx ,
valoarea optimală a lui x este obţinută prin rezolvarea sistemului linia
BT QBx BT Qα
Căutarea directă a valorii minime a unei funcţii obiectiv F este realizată prin evaluarea lui F în
punctele unei „reţele” de valori posibile ale vectorului variabilă a funcţiei. Deşi metodele de acest tip nu sunt
în general eficiente, există situaţii în care valoarea minimă poate fi aproximată prin considerarea unei
variante a lui F discretizată pe un set de puncte „aleatoare” şi utilizarea unor argumente de natură statistică
pentru estimarea probabilităţii de determinare a minimului într-un anumit număr de încercări.
Programare evolutivă și algoritmi genetici 79
Căutarea univariantă
Metoda implică utilizarea unei metode directe de căutare (ca, de exemplu, metoda bisecţiei) pentru
generarea unei secvenţe de tip minimizarea unidimensională a lui F astfel încât, la fiecare etapă i, 1 i n ,
F este minimizat în raport cu xi . Cu alte cuvinte, punctul optim este căutat de-a lungul direcţiilor date de
fiecare coordonată pe rând. Deşi uneori metoda funcţionează eficient, ea nu poate fi general aplicabilă
deoarece nu este convergentă.
Tehnica Hooke&Jeeves utilizează metoda căutării pe o singura axă pe baza următorului raţionament. Dacă
x sunt estimări ale punctelor de minim ale lui F x la momentul iniţial, respectiv la momentul final al
xˆ , ~
ciclului de căutare, atunci minimizarea unidimensională a lui F este realizată pe direcţia xˆ ~ x printr-o
estimare de tipul
x xˆ ~
x~ x (4.21),
unde este o constantă scalară. Metoda continuă prin efectuarea ciclurilor de căutare univariantă urmate de
estimări de forma (4.21).
Una dintre cele mai uzuale metode de minimizarea a lui F x exclusiv pe baza valorilor funcţiei F
este prin adaptarea metodelor de tip gradient la estimările de tip diferenţă finită ale derivatelor funcţiei. De
exemplu, pentru derivatele de ordinul I poate fi utilizată estimarea diferenţă centrată
Abordările care implică estimarea derivatelor funcţiei obiectiv sunt dezvoltate pe baza presupunerii
că F este diferenţiabilă. În plus, metodele din această clasă nu sunt în general aplicate problemelor pentru
care derivatele funcţiei F nu sunt funcţii continue.
Aşa cum a fost menţionat, în problemele de optimizare a portofoliilor funcţiile obiectiv sunt dublu
diferenţiabile şi relaţiile (4.20) pot fi verificate. Optimizarea funcţiilor în n variabile şi care îndeplinesc
proprietăţile din definiţia 4.2 poate fi realizată prin metode de tip gradient, respectiv de tip Newton. Sunt
prezentate în continuare metoda celei mai rapide (abrupte) descreşteri şi metoda Newton. Ambele metode
presupun construcţia câte unui şir care, în anumite condiţii de regularitate impuse funcţiei obiectiv, converge
către soluţia optimală a problemei de optimizare.
Tehnica celei mai rapide descreşteri este justificată geometric astfel. Presupunem că 𝐹(𝑥) este
funcţia de minimizat şi 𝑥𝑘 este punctul construit la momentul curent. Un punct „mai bun” (în sensul că
valoare funcţiei obiectiv descreşte în acel punct faţă de punctul curent) poate fi determinat prin deplasarea pe
direcţia de căutare care determină descreşterea cea mai rapidă a lui F, adică pe direcţia gradientului negativ.
Metoda celei mai rapide descreşteri de tip „perfect line search” este descrisă astfel (Bartholomeu-
Biggs, 2005):
80 Optimizarea portofoliilor
Observaţie. O serie de metode de optimizare utilizează în construcţia şirului tipare similare celui prezentat
în algoritmul de mai sus; fiecare iteraţie constă în două etape: alegerea direcţiei de căutare (calculul lui 𝑝𝑘 ) şi
respectiv procedura de determinare a demarcaţiei (line search) în scopul stabilirii unei valori adecvate a
pasului 𝑠 ∗ .
*
Definiţia 4.3. Procedura de determinare a demarcaţiei s care minimizează
s F x k sp k se numeşte
perfectă sau exactă.
Definiţia 4.4. O procedură de determinare a demarcaţiei prin care este acceptată orice valoare a pasului s
care îndeplineşte
F x k sp k F x k 0 şi este mărginită se numeşte inexactă sau slabă.
Propoziţia 4.1. Fie F x o funcţie dublu diferenţiabilă, cu derivatele continue şi mărginită inferior şi pentru
care este îndeplinită proprietatea
z T 2 F x z M z
2
pentru orice vector z , unde M 0 este constantă scalară. Atunci şirul definit prin
F x k ( s M 1 )
1
x k 1 x k
M
are proprietatea
F xk 0 când k .
Metoda Newton
Tehnica celei mai abrupte descreşteri are inconvenientul că nu foloseşte informaţia dată de cea de-a
doua derivată. Pot fi obţinute metode mai eficiente pe baza proprietăţii funcţiilor pătratice, Qx , de a avea
matricea Hessian constantă. Fie
Qx
1 T
x Ax bT x c (4.22).
2
Gradientul este
Qx Ax b .
Ax b (4.23).
Soluţia sistemului (4.23) este punct de minim dacă matricea Hessian, A, este pozitiv definită. Dacă A
este negativ definită, soluţia sistemului (4.23) este punct de maxim. Dacă A este oarecare, soluţia lui (4.23)
este punct şa. Dacă A este nesingulară, atunci (4.22) are un unic punct staţionar.
Principiile expuse mai sus pot fi aplicate pentru minimizarea unei funcţii generale, F x . Fie x k
estimaţia punctului de minim al lui F la momentul curent şi g k F x k , G k 2 F x k . Utilizând
dezvoltarea Taylor în jurul lui x k obţinem
F x k p Qp F x k pT g k
1 T
2
p Gkp (4.24)
şi
F x k p Qp g k G k p (4.25)
p G k g k
T
(4.26)
altfel p k g k
calculează s * astfel încât F x k sp k îndeplineşte condiţiile Wolfe 2 şi 3
(Bartholomeu-Biggs, 2005)
aplică regula de actualizare x k 1 x k s * p k
Până când F xk 1
Observaţie. În cazul problemei RISCMIN1M, matricea Hessian corespunzătoare funcţiei obiectiv este
𝜌
𝐺 = 2𝐵𝑇 QB + 2 (𝐵𝑇 𝑟̅ )(𝐵𝑇 𝑟̅ )𝑇
𝑅𝑝2
deci este matrice constantă (nu depinde de x). G este pozitiv definită şi simetrică. Constanta M din propoziţia
4.1 (convergenţa metodei celei mai rapide descreşteri) poate fi setată astfel.
𝑧 𝑇 𝑧
∀𝑧 ∈ ℝ𝑛−1 , 𝑧 𝑇 𝐺𝑧 ≤ 𝑀‖𝑧‖2 ⇔ ∀𝑧 ∈ ℝ𝑛−1 \(0, … ,0)𝑇 , ( ) 𝐺 ≤𝑀
‖𝑧‖ ‖𝑧‖
⟺ ∀𝑡 ∈ ℝ𝑛−1 𝑐𝑢 ‖𝑡‖ = 1, 𝑡 𝑇 𝐺𝑡 ≤ 𝑀
82 Optimizarea portofoliilor
𝑛−1 2
∑ ∑ 𝑡𝑘 𝑡𝑗 𝛿𝑘,𝑗 = ∑(𝑡𝑘 )2 = 1
𝑘=1 𝑗=1 𝑘=1
În continuare obţinem
𝑡 𝑇 𝐺𝑡 ≤ 𝑀 ⇔ 𝑤 𝑇 Λw ≤ 1, ‖𝑤‖ = 1
Rezultă că
∀𝑧 ∈ ℝ𝑛−1 , 𝑧 𝑇 𝐺𝑧 ≤ 𝜆1 ‖𝑧‖2
Exemplul 1
În tabelul 4.1 este prezentat istoricul randamentelor corespunzătoare acţiunilor A1, A2, A3, A4, A5 pe o
perioadă de 10 săptămâni. (Bartholomeu-Biggs, 2005)
Tabel 4.1
S1 S2 S3 S4 S5 S6 S7 S8 S9 S10
A1 1.2 1.3 1.4 1.5 1.1 1.2 1.1 1.0 1.0 1.1
A2 1.3 1.0 0.8 0.9 1.4 1.3 1.2 1.1 1.2 1.1
A3 0.9 1.1 1.0 1.1 1.1 1.3 1.2 1.1 1.0 1.1
A4 1.1 1.1 1.2 1.3 1.2 1.2 1.1 1.0 1.1 1.2
A5 0.8 0.75 0.65 0.75 0.8 0.9 1.0 1.1 1.1 1.2
Programare evolutivă și algoritmi genetici 83
Minimizează
𝜌 2
𝐹 = (𝛼 + 𝐵𝑥)𝑇 𝑄(𝛼 + 𝐵𝑥) + 2 (𝑟̅
𝑇
𝛼 − 𝑅𝑝 + 𝑟̅ 𝑇 𝐵𝑥)
(𝑅𝑝 )
Prin aplicarea metodelor de tip gradient, respectiv Newton prezentate, pentru eroarea permisă
−5
10 √𝑛 ş𝑖 𝜌 = 100, rezultă
portofoliul 𝑦 = (0.42 0.34 0.01 0.2 0.04)
riscul minim 𝑉 = 3.44 × 10−3
randamentul ≅ 𝑅𝑝 , randamentul dat.