T L fiind variabile.
Determinarea solutiilor optime ale problemelor de optimizare descrise mai sus face apel la
tehnicile de calcul variational si implicit la ecuatia lui Euler, la extensiile si generalizarile
acesteia, urmand ca discutia finala sa se axeze in principal asupra analizei echilibrului si
stabilitatii evolutiei pretului in contextul descris de prima aplicatie, si respectiv a volumului
optimal al fortei de munca in contextul descris de cea de a doua aplicatie.
9
In Capitolul 2 Tehnici de Control Optimal am prezentat conceptele teoretice recente
care vizeaza controlul optimal determinist in timp continuu si discret. Problema de conducere
optimala a sistemelor dinamice in timp continuu, pentru orice tip de proces, sistem micro sau
macroeconomic este o problema de optimizare cu o singura variabila de stare x si cu o singura
variabila de control u, ambele fiind functii de timp, evident. Variabila de control u este un
instrument tactic care permite stabilirea unei legaturi intre variabila de stare si variabila de iesire.
Orice alegere a traiectoriei variabilei de control ( ) t u va avea ca efect asocierea unei traiectorii de
stare ( ) t x .
Cel mai important rezultat al teoriei controlului optimal,- o conditie necesara de ordinul I,-
este Principiul lui Pontryagin. Acest principiu a fost enuntat de catre matematicianul rus L.S.
Pontryagin si de catre colaboratorii sai, primind Premiul Lenin pentru Stiinta si Tehnologie in
anul 1962. Referiri la acest important principiu, precum si o serie de procese economice modelate
matematic prin probleme de optimizare dinamica cu rezolvari prin metodologia controlului
optimal, au fost pe larg detaliate in lucrarea sa Teoria Matematica a Proceselor Optimale
aparuta in anul 1962. Tehnicile teoriei controlului optimal au fost fundamentate independent de
Pontryagin si de catre Magnus Hestenes, un matematician de la University of California. Mai
tarziu, acesta a extins rezultatele obtinute de Pontryagin.
Conditia fundamentala a teoriei controlului optimal data de Principiul de Maxim al lui
Pontryagin este in general o conditie necesara pentru optimizarea proceselor dinamice ale caror
stari initiala si finala sunt apriori stabilite. Cele doua conditii la limita ale modelului matematic
furnizeaza suficiente informatii pentru a putea determina traiectoria optima a variabilei de decizie,
facand mai departe posibila cunoasterea si analiza traiectoriei optime a starii sistemului. In caz
contrar, sunt posibile urmatoarele situatii:
problema de control optimal cu moment final variabil.
problema de control optimal cu moment final variabil si stare finala anticipata
problema de control optimal cu moment final variabil si stare finala variabila restrictionata
unei curbe
problema de control optimal cu moment final fixat si stare finala variabila supusa la restrictii
de marginire
problema de control optimal cu stare finala anticipata si moment final marginit
conditii de transversaliate pentru problema de control optimal pe orizont de timp infinit
In literatura de specialitate cele mai multe aplicatii apar in fundamentarea strategiilor de
crestere economica. In lucrarea Mathematical Systems Theory and Economics, vol.1 (Springer-
Verlag, New York, 1969), H.W.Kuhn si G.P. Szego au inserat sub titlul Application of
Pontryagins Maximum Principle to Economics un rezultat al lui Karl Shell legat in principal de
inaplicabilitatea conditiilor de transversalitate in cazul problemei de maximizare a integralei
functiei de consum per-capita c(t) pe un orizont de timp infinit. Modelul de optimizare dinamica
propune maximizarea valorii totale actuale a functiei utilitate pe intregul orizont infinit de timp,
functie ponderata la fiecare moment de timp cu volumul curent al fortei de munca (aceasta
datorita faptului ca s-a presupus ca forta de munca creste in timp la o rata data de constanta
exogena n ).
10
In Capitolul 3 intitulat Tehnici de Control Optimal Stochastic sunt prezentate
contributiile recente ale lui Peng (1990), Zoung si Yhou (1999) ce permit obtinerea principiului
general de maxim, analogul principiului lui Pontryagin, in calculul stochastic It.
In situatia in care dinamica unui sistem este supusa unor perturbatii sau variatii ale unor
parametrii ale caror valori nu pot fi cunoscute in timp, nu poate fi pusa problema optimizarii unei
functii obiectiv pe orizontul de timp stabilit. Insa, in situatia in care sunt cunoscute repartitiile
probabilistice ale acestor parametrii incerti, se urmareste optimizarea valorii medii a functiei
obiectiv pe orizontul de timp. O data cu evolutia in timp a sistemului, aspectele incerte ale
parametrilor devin certe. Nu poate fi luata in consideratie o strategie de control de tip open-loop
pentru variatiile actuale. Exista unele limitari ale acestei tehnici:
este o tehnica restrictionata la existenta unui control de tipul unui proces Markovian cu
traiectorie continua (care poate fi reprezentat ca proces It);
este necesara cunoasterea evolutiei sistemului anterioare momentului curent;
din punct de vedere tehnic, principiul poate fi aplicat numai problemelor de control optimal
stochastic pe un orizont de timp finit; in cazul problemelor cu orizont de timp infinit, se poate
dovedi insa exitenta solutiei si corect definirea valorii optime a functiei obiectiv;
tehnica impusa de aceasta extensie a principiului de maxim permite caracterizarea solutiei
modelului in functie de o pereche de ecuatii diferentiale stochastice backward-forward care nu
pot fi rezolvate explicit; acest fapt limiteaza utilitatea principiului in rezolvarea problemelor
de control optimal stochastic cu aplicatii in domenii ale ingineriei.
Desi aceste restrictii pot limita utilitatea aplicabilitatii, principiul general de maxim se
dovedeste a fi o modalitatea eleganta si eficienta a modelarii dinamicii sistemelor in conditii de
incertitudine. Mai mult, principiu general de maxim al lui Pontryagin (cazul stochastic) permite
interpretari economice clare si identificari econometrice ale variabilelor, face posibila obtinerea
expresiilor exacte ale traiectoriilor variabilelor si caracterizarea comportamentului acestora atat la
perturbatiile anticipate cat si neanticipate.
In 2001 Lich-Tyler publica lucrarea Life-cycle labor supply under uncertainty in care
prezinta un model general de optimizare a utilitatii pe parcursul duratei de viata a unui
consumator, in conditiile unor fluctuatii ciclice incerte. Totodata se pune in evidenta modul in
care prezenta fluctuatiilor incerte afecteaza comportamentul consumatorului. Completari ale
acestor consideratii sunt aduse in lucrarea A full characterization of consumption dynamics
under uncertainty publicata de catre Lich-Tyler in 2002. Accentul se pune aici atat pe influenta
variatiilor asteptate (prognozate) cat si pe impactul variatiilor neastepate asupra functiei de
consum.
Incertitudinile legate de cele mai variate aspecte ale vietii cotidiene, cum ar fi spre
exemplu veniturile datorate investitiilor in capitalul fizic sau uman, marimea taxelor si momentul
scadentei lor, aspecte viitoare ale carierei profesionale, etc., influenteaza intr-o maniera sau alta
comportamentul individului la un moment dat.
Pentru studiul acestui tip de comportament a fost introdus un model asociat ciclului de
viata, model care incorporeaza fluctuatiile comportamentale. Haussmann (1986) enunta opt
probleme de control optimal stochastic, majoritatea insa fiind modele matematice ale unor
fenomene fizice cu perturbatii aleatoare.
Economistii si-au concentrat atentia asupra catorva clase speciale dintre acestea, cu
precadere asupra modelului LQG (Linear Quadratic Gaussian Model). Acesta include o functie
obiectiv patratica, restrictii liniare si perturbatii Gaussiene. Sistemul de ecuatii atasat problemei de
11
control optimal contine ecuatii diferentiale stochastice liniare de tip backward (BSDE). Acest
tip de ecuatii a fost introdus si studiat de catre J.M. Bismut in 1973 in Teza de Doctor Analyse
Convexe et Probabilites si in lucrarea An Introductory Approch to Duality in Stochastic
Control prezentata in SIAM Revue (1978). Ocazia a constituit-o rezolvarea ecuatiilor adjuncte
date de principiul de maxim aplicat problemelor de control optimal stochastic.
Tehnicile de rezolvare a sistemelor de ecuatii liniare stochastice (1) au fost ulterior extinse
la cazul neliniar de catre E. Pardoux si S.Peng in Adapted Solution of Backward Stochastic
Equation in 1990, si independent de acestia, de catre D.Duffie si L. Epstein in Stochastic
Differential Utility in 1992 . Problema de control formulata este o problema de control optimal
stochastic liniar-patratica. Rezolvarea analitica a acesteia impune utilizarea ecuatiei stochastice
Riccati. Tehnicile de programare stochastica liniar-patratica care stau la baza determinarii
solutiei problemei de control optimal au fost dezvoltate recent de catre S. Chen si X.Y. Zhou in
lucrarea Stochastic Linear Quadratic Regulators with Indefinite Control Weight Costs (SIAM
Journal, Control Optimization,1998).
In finalul Capitolului 3 am detaliat cu titlu de aplicatie a tehnicilor de contrtol optimal
stochastic un exemplu de model stochastic intalnit pe piata financiara si anume modelul Black-
Merton-Scholes.
In 1973 economistii englezi F. Black si M. Scholes au propus un model matematic care
permite
determinarea la orice moment de timp a pretului unei optiuni de tip call-european asupra unei
unitati dintr-un activ financiar fara dividende,
stabilirea unei strategii optimale de gestiune a portofoliului de active care sa permita
vanzatorului eliminarea completa a riscului.
Acesta a devenit modelul de evaluare cel mai cunoscut si larg utilizat in managementul
financiar modern. Asa cum am precizat, este destinat evaluarii optiunilor europene asupra
actiunilor care nu platesc dividende.
Modelul Black-Merton-Scholes este un model in timp continuu, cu analiza pe orizontul de
timp fixat
[ ] 0,T , unde 0 este momentul in care are loc semnarea contractului si plata primei
optiuni, iar T este mometul la care optiunea va fi exercitata. Fundamentul modelului il reprezinta
crearea si gestiunea unui portofoliu fara risc, cu ajutorul caruia investitorul obtine ca profit rata
dobanzii aferenta unui credit fara risc.
Capitolul 4 intitulat Tehnici de Programare Dinamica Determinista detaliaza cele mai
importante rezultate ale programarii dinamice. Acestea au fost prezentate pe larg de catre R.E.
Bellman in lucrarile sale ''Dynamic Programming'' (1957), ''Adaptive Control Processes'' (1961),
''Introduction to the Mathematical Theory of Control Processes'' (1967), ''Applied Dynamic
Programming'' (1962), exemplificand pe un numar mare de tipuri si structuri matematice ale
problemelor carora li se poate aplica Principiul de Optimalitate. Abordarile lui R.E.Bellman sunt
insa euristice si lasa la latitudinea celui care se foloseste de tehnicile programarii dinamice
rezolvarile de detaliu ale problemelor. Acest lucru necesita un inalt nivel de cunostinte
matematice si de informatii apartinand domeniului in care se aplica modelul de programare
dinamica.
Programarea dinamica este o abordare particulara a problemelor de optimizare in care
exista un numar considerabil de variabile de decizie si in care functia obiectiv si functiile care
definesc restrictiile problemei pot avea diverse forme si proprietati.
12
Programarea dinamica nu este un algoritm, asa cum de exemplu algoritmul simplex al lui
Dantzing este o multime bine definita de reguli pentru rezolvarea unei probleme de programare
liniara. Programarea dinamica este un mod de a determina solutia unui anumit tip de probleme de
optimizare. O astfel de problema poate sa contina un numar mare de variabile de decizie
intercorelate, astfel ca problema de optimizare sa poata fi privita ca o secventa de probleme,
fiecare dintre acestea presupunand determinarea uneia sau a mai multor variabile.
Nu este insa posibil sa dam o descriere completa si ''exacta'' a caracteristicilor pe care ar
trebui sa le aiba intotdeauna structura matematica a problemei pentru ca aceata sa poata fi
rezolvata prin tehnicile de calcul ale programarii dinamice.
Prin programarea dinamica se urmareste inlocuirea rezolvarii unei probleme de optimizare
in n variabile prin n probleme de optimizare intr-o singura variabila. Atunci cand aceasta abordare
a problemei este posibila, de obicei este necesar un efort mare de calcul.
Rezolvarea a n probleme de dimensiune 1 presupune un efort de calcul proportional cu n,
numarul problemelor intr-o singura variabila. Pe de alta parte, rezolvarea unei singure probleme
cu n variabile presupune de obicei un efort de calcul proportional cu
n
a .
Principiul care permite transformarea unei probleme de optimizare n-dimensionale in n
probleme de optimizare 1-dimensionale este cunoscut sub numele de Principiul de Optimalitate.
A fost initial enuntat de R.E. Bellman in ''Dynamic Programming'' (1954) si este un
fundament intuitiv. Justicarea data de Bellman consta intr-o simpla declaratie: ''O demonstratie
prin reducere la absurd este evidenta''.
Principiul de Optimalitate al lui Bellman este enuntat in lucrarea de fata in mai multe
variante. Una dintre acestea este urmatoarea:
O politica optimala are proprietatea ca, oricare ar fi starea initiala si decizia initiala,
deciziile ulterioare trebuie sa constituie o politica optimala pentru un proces decizional in n-1
faze, in raport cu starea rezultata ca urmare a alegerii deciziei initiale.
Am evidentiat in cadrul acestui capitol faptul ca pentru ca principiul de optimalitate sa
poata fi aplicat, problema de optimizare trebuie sa satisfaca doua conditii:
separabilitatea functiei obiectiv (functie obiectiv decompozabila)
separabilitatea starilor (proprietatea Markoviana).
In lucrarea Composition Principles for Synthesis of Optimal Multi-Stage Processes''
(1964) este prezentata o conditie suficienta pentru ca determinarea solutiei unui proces multifazic
sa se poata face prin intermediul programarii dinamice, o conditie suficienta de aplicabilitate a
pricipiului de optimalitate Bellman.
Conditii similare asupra monotoniei functiilor obiectiv ale fazelor astfel incat procesul
secvential de decizie sa poata fi tratat prin tehnicile programarii dinamice au fost date de E.V.
Denardo si L.G. Mitten in ''Elements of Sequential Decision Processes'' (1966) , R.M. Karp si
M.Held in ''Finit State Processes and Dynamic Programming'' (1967) si de S.E. Elmaghraby in
''The Concept of States in Discret Dynamic Programming'' (1970). Accentuam faptul ca acestea
sunt conditii suficiente, nu si necesare pentru aplicabilitatea Principiului de Optimalitate Bellman.
13
Extensii ale Principiului de Optimalitate Bellman sunt detaliate in Capitolul 5 al Tezei,
capitol intitulat Tehnici de Programare Dinamica Stochastica. Tehnicile programarii dinamice
sunt utilizate in rezolvarea problemelor de optimizare ale agentilor economicii care vizeaza decizii
dependente de un numar relativ mic de variabile numite variabile de stare. Altfel spus, algoritmii
programarii dinamice pot fi aplicati atunci cand un numar redus de variabile de stare sunt
suficiente din punct de vedere probabilistic pentru a putea previziona decizii viitoare. In
majoritatea aplicatiilor economice este mult mai realist sa consideram aspectul incert al
variabilelor de stare. Modelele prezentate in acest capitol sub aspectul atat al formei fundamentale
a problemei de optimizare dinamica cat si al modului de determinare a solutiei optimale, au in
vedere evolutia in timp a variabilelor de stare cu un aspect particular in ceea ce priveste
incertitudinea.
Rezultatele obtinute ca si tehnici de programare dinamica stochastica au fost aplicate in
rezolvarea efectiva a unui model de alocare stochastica a resurselor ale unui agent economic.
Deciziile agentului se axeaza evident pe evidentierea partilor din productia curenta destinate
consumului propriu si unei noi lansari a productiei.
Paragraful al patrulea al Capitolului 5 detaliaza problema de programare dinamica
stochastica in timp discret. Atunci cand dinamica unui sistem este influentata de perturbatii sau de
variatii ale parametrilor care nu pot fi precizate de-a lungul orizontului de timp fixat, functia cost
determinista nu poate fi minimizata. Insa, se are in vedere minimizarea valorii medii a acestei
functii, in situatia in care este cunoscuta repartitia probabilistica a acestei influente incerte. Pe
parcursul timpului aceste incertitudini devin certitudini. De aceea dinamica sistemului nu poate fi
afectata de o strategie de control de tip bula-deschisa (open-loop control strategy), ci mai de graba
de un control de tip bucla-inchisa (a closed-loop control strategy, i.e. "feedback").
In acest paragraf sunt prezentati algoritmi pentru determinarea politicii de control optimal,
a traiectoriei implicite a unui sistem asupra caruia se aplica perturbatii aleatoare discrete, in
conditiile satisfacerii criteriului de optimizare. Abordarea unor astfel de probleme are in vedere
aplicarea tehnicilor de programare dinamica la fiecare moment de timp al orizontului planificat, in
functie de valorile probabile ale perturbatiilor.
Mai mult, in cadrul acestui capitol am avut in vedere prezentarea unui algoritm de ordinul
2 pentru determinarea functiei de control optimal in problema de control optimal stochastic in
timp discret. Importanta acestui algoritm consta in faptul ca permite determinarea politicii optime
de control si a traiectoriei optime a sistemului, imbunatatind la fiecare pas traiectoria curenta a
sistemului. Formularea matematica a problemei de control optimal stochastic in timp continuu
precum si determinarea strategiilor optime de control au fost evidentiate in paragraful al saselea al
Tezei. Am avut in vedere faptul ca in modelele matematice uzuale dinamica unui sistem in timp
continuu supus unor perturbatii stochastice este descrisa de o ecuatie diferentiala care are in
componenta un proces perturbator Wiener (proces care poate fi interpretat ca integrala in raport cu
timpul a zgomotului alb). Intrucat perturbatia sistemului este un proces Markov, starea sistemului
la un momentul de timp t arbitrar este determinata de perturbatia W
t
si de pozitia x
t
a sistemului
pe traiectorie. Controlul optimal de tip feed-back u este o functie de (x
t
,W
t
).
In cazul unui sistem stochastic in timp continuu a carei dinamica este descrisa de o ecuatie
de tipul celei descrise mai sus, criteriul de optimizare il constituie minimizarea sau maximizarea
valorii medii conditionate de starea initiala a sistemului a unei functionale obiectiv de tip integral.
Pentru determinarea solutiei optime a problemei de control optimal stochastic se face apel la
regula de adunare, regula a carei detaliere constituie obiectului unui intreg paragraf din acest
capitol.
14
Capitolul 6 al lucrarii prezinta concluziile finale ale documentarilor teoretice si practice
care au facut posibila intocmirea prezentei Teze. Toate aceste concluzii pot fi sintetizate in ideea
ca rezultatele teoretice prezentate ca algoritmi deterministi si stochastici utilizati in scopul
optimizarii dinamicii sistemelor pot fi cu usurinta aplicate in studiile celor mai complexe procese
economice asupra evolutiilor dinamice a indicatorilor economici.
Conceptele fundamentale si tehnicile de optimizare dinamica deterministe si stochastice se
dovedesc a fi instrumente eficiente si eficace in conducerea optimala, bazate fiind pe un suport
tehnic complex si avansat, metode, tehnici, algoritmi, proceduri de calcul, toate clasificate ca
importante resurse stiintifice.
Acest suport, dat de cele mai recente tehnici de calcul variational, de programare dinamica
si stochastica, de tehnici de control optimal a fost prezentat in cadrul acestei Teze intr-o maniera
structurata pe 5 capitole si 2 anexe, cu referiri bibliografice la o lista de 118 de publicatii.