Sunteți pe pagina 1din 334

Tehnici de Optimizare

Cristian OARA
Facultatea de Automatica si Calculatoare
Universitatea Politehnica Bucuresti
Splaiul Independentei 313,
Bucuresti, Romania
Fax: + 40 21 3234 234
Email: oara@riccati.pub.ro
CAPITOLUL 1: Introducere 0
Capitolul 1: INTRODUCERE
Optimizare
Tipuri de Probleme
Dimensiunea Problemelor
Algoritmi Iterativi si Convergenta
CAPITOLUL 1: Introducere 1 Introducere
1. Optimizare
Principiu fundamental al unei multitudini de probleme complexe de alocare si decizie;
Implica selectia de valori pentru o multime de variabile interrelationate prin focalizarea atentiei
asupra unei singur obiectiv proiectat (ales special) pentru a cuantica performanta si a masura
calitatea deciziei;
Obiectivul:
Este de obicei o functie sau functionala;
Este maximizat sau minimizat cu posibile constrangeri care limiteaza alegerea valorilor pentru
variabile;
Izoleaza si caracterizeaza un aspect relevant al unei probleme in timp ce teoria optimizarii
furnizeaza un cadru adecvat pentru analiza;
Poate :
Protul sau pierderea intr-un mediu de afaceri;
Viteza sau distanta intro problema de zica;
Veniturile probabile intr-un mediu de investitii supuse riscului;
CAPITOLUL 1: Introducere 2 Optimizare
Bunastare sociala in contextul planicarii guvernamentale;
Atentie !
Este foarte rar posibil sa reprezentam toate complexitatile interactiunilor dintre variabile,
constrangeri si obiective;
Formularea unei probleme de optimizare trebuie sa e privita doar ca o aproximatie;
Intocmai ca si in alte domenii ale ingineriei abilitatile in modelare si o judecata corecta in
interpretarea rezultatelor sunt absolut necesare pentru a obtine concluzii relevante;
Experienta practica si intelegerea profunda a teoriei sunt cheia succesului;
Trebuie stapanit compromisul in construirea unui model matematic care descrie exact
complexitatea problemei (sucient de complex) si care este fezabil din punct de vedere numeric
(nu prea complex)
Accentul cursului: Stapanirea acestui compromis si obtinerea de abilitati pentru a putea construi
modele in mod expert ceea ce inseamna:
Identicarea si surprinderea aspectelor importante ale unei probleme;
Abilitatea de a distinge modelele fezabile de cele nefezabile prin studierea tehnicilor existente si
a teoriei asociate;
Extinderea teoriei disponibile in cazul unor noi situatii;
CAPITOLUL 1: Introducere 3 Optimizare
2. Tipuri de Probleme
Vom considera in principal urmatoarele subiecte:
Programare Liniara
Probleme Neconstranse
Probleme Constranse (cu constrangeri algebrice)
Subiecte avansate in domeniul Controlului Automat al Sistemelor: (Control Optimal; Optimizare
H-2 si H-innit, optimizare Nehari si Aproximanti, Inegalitati Matriceale, Jocuri Diferentiale)
Programare Liniara:
Functiile obiectiv sunt combinatii liniare de necunoscute;
Constrangerile sunt egalitati sau inegalitati matriciale in necunoscute;
Aceste metode sunt relativ populare datorita fazei de modelare si nu atat datorita teoriei relativ
simple;
Se poate testa chiar si pentru probleme neliniare facanduse in prealabil o liniarizare;
CAPITOLUL 1: Introducere 4 Tipuri de Probleme
Exemplu: Problema cu o constrangere de buget. Avem o suma de bani xa pe care trebuie sa o
impartim intre doua cheltuieli de tipul
x
1
+x
2
B.
x
i
: suma alocata activitatii i;
B: bugetul total. Sa presupunem ca functia obiectiv este greutatea maxima. Atunci avem
maximizeaza w
1
x
1
+w
2
x
2
unde x
1
+x
2
B,
x
1
0, x
2
0,
unde w
i
este greutatea unitara (pe unitatea de pret) i. Aceasta este o problema tipica (si
elementara) de programare liniara.
Problemele de programare liniara apar adesea in economie si nante si mai rar in inginerie. De
aceea ne vom concentra in special asupra problemelor de programare neliniara.
Probleme fara Constrangeri:
Au o importanta atat teoretica cat si practica;
Din punct de vedere practic o problema constransa poate intotdeauna transformata printr-o
simpla reformulare intr-o problema neconstransa (In problema noastra cu bugetul constrangerea
CAPITOLUL 1: Introducere 5 Tipuri de Probleme
nu este foarte relevanta intrucat intotdeauna putem imprumuta bani la un anumit cost (rata a
dobanzii));
Din punct de vedere teoretic problemele cu constrangeri pot in multe cazuri transformate in
probleme fara constrangeri (de exemplu o egalitate de forma x
1
+x
2
= B);
In majoritatea cazurilor problemele fara constrangeri sunt piatra de temelie pentru a intelege
problemele mai sosticate cu constrangeri;
Probleme cu Constrangeri:
In practica este mai uzual si mai simplu sa formulam direct o problema cu constrangerile ei
naturale (de exemplu o problema complexa este reformulata sub forma catorva subprobleme cu
anumite constrangeri inerente);
Formularea matematica generala:
minimizeaza f(x)
cu h
i
(x) = 0, i = 1, 2, . . . , m,
g
j
(x) 0, j = 1, 2, . . . , r,
x S
unde x este un vector ndimensional de necunoscute, f, h
i
si g
j
sunt functii de x cu valori si S
este o submultime a lui R
n
; f este functia obiectiv si h
i
, g
j
si S sunt constrangerile.
CAPITOLUL 1: Introducere 6 Tipuri de Probleme
Nota: In mod uzual vom introduce anumite ipoteze suplimentare, in principal pentru a face
problemele netede intr-un anumit sens, conducand la asa numita programare in variabile continue:
f (si h
i
, g
j
) sunt de obicei presupuse continue si uneori chiar cu derivate continue de un anumit
ordin (mici variatii in x conduc la mici variatii ale diverselor valori asociate cu problema);
S este in mod uzual o submultime conexa pentru a asigura ca mici variatii ale lui x raman in
submultime;
CAPITOLUL 1: Introducere 7 Tipuri de Probleme
3. Dimensiunea Problemelor
O masura a complexitatii unei probleme de programare este dimensiunea masurata in termenii
numarului de variabile necunoscute si/sau numarul de constrangeri.
Avand in vedere performanta calculatoarelor moderne distingem urmatoarele clase de probleme:
Dimensiune mica (avand pana la 5 variabile si/sau constrangeri);
Dimensiune medie (avand intre 5 si 100 variabile);
Dimensiune mare (avand mai mult de 100 poate 1000 sau mai multe variabile).
Aceasta clasicare nu este desigur rigida dar reecta abordarile de calcul oarecum diferite pentru
aceste clase de probleme. Teoria matematica clasica incluzand mutiplicatori Lagrange, teoreme
de tip KuhnTucker si extensiile lor se aplica problemelor indiferent de dimensiunea lor. Totusi
teoria nu este potrivita atunci cand abordam o problema dpdv algoritmic intrucat nu tine seama de
dicultatile asociate cu rezolvarea cu un calculator a ecuatiilor rezultand din conditiile necesare de
ordinul 1. De aceea trebuie sa dezvoltam instrumente numerice eciente pentru cautarea punctelor
de optim in loc sa rezolvam direct respectivele ecuatii. In zilele noastre, tehnicile de cautare pot
aplicate pentru rezolvarea unor probleme de programare neliniara de 500 variabile si probleme
CAPITOLUL 1: Introducere 8 Dimensiunea Problemelor
de programare liniara de 400 variabile si 1000 constrangeri (denim astfel de probleme ca ind de
dimensiune medie).
Probleme cu mai multe variabile si/sau constrangeri trebuie rezolvate cu proceduri speciale care
exploateaza structura speciala a acestora.
CAPITOLUL 1: Introducere 9 Dimensiunea Problemelor
4. Algoritmi Iterativi si Convergenta
Cei mai multi algoritmi dezvoltati pentru a rezolva probleme de optimizare sunt iterativi:
Se selecteaza un vector intitial x
0
in multimea S;
Algoritmul genereaza un vector mai bun x
1
S;
Algoritmul este repetat si pe baza lui x
0
si/sau x
1
este selectat un vector si mai bun x
2
S;
Se gaseste un sir de puncte din ce in ce mai bune x
0
, x
1
, x
2
, x
3
, . . . , x
k
, . . . care tinde catre
punctul solutie x

;
Procesul este terminat imediat ce se ajunge la x

sau cand este gasit un punct sucient de


apropiat (din motive practice).
Teoria algoritmilor iterativi se impartite in trei aspecte ce se suprapun intr-o oarecare masura:
Dezvoltarea algoritmului propriuzis (bazata pe problema de programare particulara, structura
sa inerenta si ecienta (performanta) calculatoarelor numerice);
Vericarea ca respectivul algoritm genereaza un sir care converge la punctul solutie (convergenta
globala);
Viteza sau rata convergentei se refera la cat de repede se apropie de solutie sirul de puncte
(convergenta locala)
CAPITOLUL 1: Introducere 10 Algoritmi Iterativi si Convergenta
O teorie buna inlocuieste cu succes 1000 rulari pe computer
Rezultate disponibile:
Programare liniara: nu exista inca o teorie folositoare privind convergenta metodei simplex
(probabil cea mai veche si importanta metoda de programare liniara); acest lucru se datoreaza
convergentei intrun numar nit de pasi; Sunt disponibile anumite estimari euristice si o vasta
experienta practica ;
Programare neliniara : Proprietatile de convergenta ale unui numar mare de algoritmi au fost
deduse analitic prin metode relativ elementare si au fost vericate prin numeroase exemple
numerice;
Teoria ratei de convergenta are anumite proprietati atractive:
Este simpla pentru multi algoritmi sosticati;
O clasa larga de algoritmi relativ diferiti au acceasi rata de convergenta. Mai precis, in
multe cazuri exista o rata canonica de convergenta asociata cu o problema de programare care
guverneaza diversii algoritmi aplicati acelei probleme;
Per global, teoria convergentei este simpla si puternica.
CAPITOLUL 1: Introducere 11 Algoritmi Iterativi si Convergenta
Capitolul 2: PROPRIETATI DE BAZA ALE SOLUTIILOR SI
ALGORITMILOR
In principal consideram urmatoarea problema:
minimizeaza f(x)
cu x
(1)
unde f este o functie cu valori reale si (multimea fezabila) R
n
.
Ipoteza de baza: coincide cu R
n
sau este o submultime simpla a lui R
n
.
Cuprins
1. Conditii Necesare de Ordinul 1
2. Exemple de Probleme fara Constrangeri
3. Conditii de Ordinul 2
4. Functii Convexe si Concave
5. Minimizare si Maximizare de Functii Convexe
6. Convergenta Globala a Algoritmilor de Descrestere
7. Viteza de Convergenta
CAPITOLUL 2: Proprietati de Baza 12
1. Conditii Necesare de Ordinul Intai
Prima problema: Exista vreo solutie ?
Principalul instrument teoretic: Teorema lui Weierstrass.
Principalul scop: Caracterizarea punctelor solutie si obtinerea unor algoritmi care sa le gaseasca.
Deosebim doua tipuri de puncte solutie:
- puncte de minim local
- puncte de minim global
Denitia 1. Un punct x

este un punct de minim relativ (sau punct de minim local) a lui


f peste daca exista > 0 a.i. f(x) f(x

) oricare x aat la o distanta de x

mai mica
ca . Daca f(x) > f(x

) oricare x , x ,= x

, intr-o vecinatate a lui x

, atunci x

este
punct de minim relativ in sens strict al lui f peste .
Denitia 2. Un punct x

este punct de minim global al lui f peste daca f(x) f(x

)
oricare x . Daca f(x) > f(x

) oricare x , x ,= x

atunci x

este un punct de minim


global in sens strict al lui f peste .
CAPITOLUL 2: Proprietati de Baza 13 Conditii Necesare de Ordinul Intai
Atentie !
Cand abordam o problema presupunem implicit ca ne intereseaza minimele globale;
Realitatea numerica cat si cea teoretica dicteaza ca trebuie sa ne multumim cu puncte de minim
relativ;
De regula, conditiile si solutiile globale pot obtinute doar daca functia poseda anumite
proprietati de convexitate ce garanteaza ca orice minim relativ este global.
Pentru a obtine conditiile ce trebuie satisfacute intr-un punct de minim, incepem prin a studia
variatiile de-alungul unor directii fezabile in jurul lui x

, caz in care functia devine de o singura


variabila.
Denitia 3. Dandu-se x vectorul d este o directie fezabila in x daca exista un > 0 astfel
incat x +d oricare , 0 .
Propozitia 4. [Conditii necesare de ordinul 1] Fie o submultime in R
n
si e f c
1
o
functie denita pe . Daca x

este un punct de minim relativ al lui f peste , atunci pentru orice


d R
n
care este o directie fezabila in x

, avem
f(x

)d 0.
CAPITOLUL 2: Proprietati de Baza 14 Conditii Necesare de Ordinul Intai
Un caz particular important este cand x

este in interiorul lui (ca de exemplu cand este


multime deschisa ) si ecare directie din x

este fezabila !!!!


Corolarul 5. [Cazul neconstrans] Fie o submultime a lui R
n
si e f c
1
o functie denita
pe . Daca x

este un punct de minim relativ a lui f pe si daca x

este punct interior pentru


, atunci
f(x

)d = 0.
Nota:
In cazul neconstrans obtinem n ecuatii cu n necunoscute care pot rezolvate explicit in multe
situatii (ca de exemplu cand functia obiectiv este patratica );
Ecuatiile care rezulta sunt in general neliniare si foarte complicat de rezolvat;
Abordarea noastra este nu inspre rezolvarea ecuatiilor ci inspre gasirea unui sir iterativ care
converge catre x

.
Exemplul 6. Consideram problema
minimizeaza f(x
1
, x
2
) = x
2
1
x
1
x
2
+x
2
2
3x
2
peste R
2
. Punct de minim global la x
1
= 1, x
2
= 2.
CAPITOLUL 2: Proprietati de Baza 15 Conditii Necesare de Ordinul Intai
Exemplul 7.
minimizeaza f(x
1
, x
2
) = x
2
1
x
1
+x
2
+x
1
x
2
,
cand x
1
0, x
2
0.
Punct de minim global
x
1
= 0.5, x
2
= 0
in care derivatele partiale nu se anuleaza. Cu toate acestea deoarece orice directie fezabila trebuie
sa satisfaca x
2
0, avem f(x

)d 0 pentru orice directie fezabila in x

.
CAPITOLUL 2: Proprietati de Baza 16 Conditii Necesare de Ordinul Intai
2. Exemple de Probleme fara Constrangeri
Exemplul 8. [Productie] O problema uzuala in economie este determinarea celui mai bun mod de
a combina diverse intrari pentru a produce un oarecare produs. Se stie functia f(x
1
, x
2
, , x
n
)
care da cantitatea de produse realizate ca functie de intrarile x
1
, x
2
, , x
n
. Pretul unitar al
produsului este q si preturile unitare ale intrarilor sunt p
1
, p
2
, , p
n
. Producatorul dorind sa
maximizeze protul trebuie sa rezolve problema
maximizeaza qf(x
1
, x
2
, , x
n
) p
1
x
1
p
2
x
2
p
n
x
n
.
Conditiile necesare de ordinul intai spun ca derivatele partiale in raport cu x
i
trebuie sa se anuleze,
obtinand cele n ecuatii
q
f
x
i
(x
1
, x
2
, , x
n
) = p
i
, i = 1, 2, , n.
Exemplul 9. [Aproximare] Optimizarea se foloseste curent in teoria aproximarii de exemplu
vezi Identicarea Sistemelor. Sa presupunem ca valorile functiei g sunt determinate experimental
in m puncte, x
1
, x
2
, , x
m
ca avand valorile g
1
, g
2
, , g
m
. Dorim sa aproximam functia g
CAPITOLUL 2: Proprietati de Baza 17 2. Exemple de Probleme fara Constrangeri
printr-un polinom
h(x) = a
n
x
n
+a
n1
x
n1
+ +a
0
,
unde n < m. Denim cea mai buna aproximare ca ind polinomul ce face ca suma patratelor
erorilor
k
:= g
k
h(x
k
) sa e cat mai mica, i.e. minimizeaza
m

k=1

2
k
=
m

k=1
[g
k

j=0
a
i
x
i
k
]
2
= f(a)
in raport cu coecientii necunoscuti a
T
=

a
0
a
1
a
n

(functie obiectiv patratica).


Dupa prelucrarea algebrica a expresiei rezulta ca
f(a) = a
T
Qa 2b
T
a +c,
in care Q = [q
ij
]
i = 1, n, j = 1, n
, b =

b
1
, b
2
b
n+1

, iar
q
ij
=
m

k=1
x
i+j
k
, b
j
=
m

k=1
g
k
x
j
k
, c =
m

k=1
g
2
k
.
Conditiile necesare de ordinul intai cer ca gradientul lui f sa se anuleze ceea ce conduce la sistemul
de n + 1 ecuatii
Qa = b
ce se rezolva si rezulta a.
CAPITOLUL 2: Proprietati de Baza 18 2. Exemple de Probleme fara Constrangeri
3. Conditii de Ordinul Doi
Prin folosirea derivatelor de ordinul 2 se pot obtine conditii suplimentare ce trebuie indeplinite
de catre un punct de minim. Conditiile de ordinul 2 sunt denite in termenii matricii Hessiene
2
f
a derivatelor partiale de ordinul 2 ale lui f si ele joaca un rol cheie.
Propozitia 10. [Conditii de ordinul 2] Fie o submultime a lui R
n
si e f c
2
o functie
denita pe . Daca x

este un punct de minim relativ pentru f peste , atunci pentru orice


d R
n
care este o directie fezabila in x

avem
i) f(x

)d 0;
ii) Daca f(x

)d 0, atunci d
T

2
f(x

)d 0.
Un caz particular important este atunci cand x

este in interiorul lui (ca in cazul complet


neconstrans).
Propozitia 11. [Conditii necesare de ordinul 2 cazul neconstrans ] Fie submultime a lui
R
n
si e f c
2
o functie pe . Daca x

este un punct de minim relativ pentru f peste si daca


x

este un punct interior a lui , atunci


i) f(x

) = 0;
ii) d, d
T

2
f(x

)d 0.
CAPITOLUL 2: Proprietati de Baza 19 Conditii de Ordinul Doi
Notatie: Pentru simplitate notam matricea Hessiana n n a lui f alternativ cu
F(x) :=
2
f(x).
Exemplul 12.
minimizeaza f(x
1
, x
2
) = x
2
1
x
1
+x
2
+x
1
x
2
,
cand x
1
0, x
2
0.
Minimul global este
x
1
= 0.5, x
2
= 0
in care derivatele partiale nu se anuleaza. Pentru d = (d
1
, d
2
) avem
f(x

)d =
3
2
d
2
.
Deci conditia (ii) din Propozitia 10 se aplica numai daca d
2
= 0. In acest caz avem
d
T

2
f(x

)d = 2d
2
1
0,
astfel incat (ii) este satisfacuta.
CAPITOLUL 2: Proprietati de Baza 20 Conditii de Ordinul Doi
Exemplul 13. Consideram problema
minimizeaza f(x
1
, x
2
) = x
3
1
x
2
1
x
2
+ 2x
2
2
,
cand x
1
0, x
2
0.
Daca presupunem ca solutia este in interiorul multimii fezabile, adica daca x
1
> 0, x
2
> 0, atunci
conditiile necesare de ordinul 1 sunt
3x
2
1
2x
1
x
2
= 0, x
2
1
+ 4x
2
= 0.
Acestea au o solutie x
1
= x
2
= 0 care este un punct pe frontiera, dar exista deasemenea o solutie
x
1
= 6, x
2
= 9. Sa observam ca pentru x
1
xat in x
1
= 6, functia obiectiv atinge un minim
relativ in raport cu x
2
in x
2
= 9. Reciproc, cu x
2
xat la x
2
= 9, functia obiectiv atinge un
minim relativ in raport cu x
1
la x
1
= 6. In ciuda acestui fapt, punctul x
1
= 6, x
2
= 9 nu este
un minim relativ pentru ca Hessianul este
F =

6x
1
2x
2
2x
1
2x
1
4

care evaluat in x
1
= 6, x
2
= 9 este F =

18 12
12 4

ce nu este pozitiv semidenit. Prin


urmare solutia propusa nu este un punct de minim relativ.
CAPITOLUL 2: Proprietati de Baza 21 Conditii de Ordinul Doi
Conditii Suciente pentru un Minim Relativ
Intarind conditiile de ordinul 2 din Propozitia 11 obtinem un set de conditii ce implica ca x

este
un minim relativ. Consideram in continuare numai probleme neconstranse (sau in care minimul este
in interiorul regiunii fezabile ) deoarece cazul mai general este extrem de tehnic si are o importanta
teoretica si practica marginala.
Propozitia 14. [Conditii necesare de ordinul 2 cazul neconstrans] Fie f c
2
o functie
denita intr-o regiune in care x

este interior. Presupunem in plus ca


i) f(x

) = 0;
ii) F(x) > 0.
Atunci x

este un punct de minim local strict al lui f.


CAPITOLUL 2: Proprietati de Baza 22 Conditii de Ordinul 2
4. Functii Convexe si Concave
Pentru a obtine o teorie care este capabila sa caracterizeze puncte de minim global si nu numai
local introducem anumite presupuneri de tip convexitate care fac rezultatele mai puternice dar in
acelasi timp restrang aria de aplicatii.
Denitia 15. O functie f denita intro multime convexa este numita convexa daca pentru
orice x
1
, x
2
si orice , 0 1, are loc
f(x
1
+ (1 )x
2
)) f(x
1
) + (1 )f(x
2
).
Daca pentru orice , 0 < < 1, si x
1
,= x
2
, are loc
f(x
1
+ (1 )x
2
)) < f(x
1
) + (1 )f(x
2
)
f se numeste strict convexa.
Denitia 16. O functie g denita pe o multime convexa se numeste concava daca functia
f = g este convexa. Functia g este strict concava daca g este strict convexa.
CAPITOLUL 2: Proprietati de Baza 23 Functii Convexe si Concave
Combinatii de Functii Convexe
Propozitia 17. Fie f
1
si f
2
functii convexe denite pe multimea convexa . Atunci functia
a
1
f
1
+a
2
f
2
este convexa pe , oricare a
1
0, a
2
0.
Propozitia 18. Fie f o functie convexa denita pe o multime convexa . Multimea

c
= x : x , f(x) c]
este convexa oricare c R.
Nota:
O combinatie liniara de functii convexe este o functie convexa;
Deoarece intersectia unor multimi convexe este iar convexa, multimea punctelor ce satisfac
simultan
f
1
(x) c
1
, f
2
(x) c
2
, ..., f
m
(x) c
m
,
unde f
i
sunt convexe, deneste o multime convexa.
CAPITOLUL 2: Proprietati de Baza 24 Functii Convexe si Concave
Proprietatile Functiilor Diferentiabile Convexe
Pentru functii diferentiabile f exista anumite rezultate mai sosticate ce caracterizeaza convexitatea.
Propozitia 19. Fie f c
1
. Atunci f este convexa pe multimea convexa daca si numai daca
f(y) f(x) +f(x)(y x), x, y . (2)
Nota: Proprietatea (2) poate folosita ca o denitie alternativa a convexitatii. Denitia originala
arma ca o interpolare liniara intre doua puncte supraevalueaza in timp ce propozitia de mai sus
arma ca o combinatie liniara bazata pe derivata locala subevalueaza functia.
Propozitia 20. Fie f c
2
. Atunci f este convexa pe multimea convexa ce contine un punct
interior daca si numai daca matricea Hessiana F a lui f este pozitiv semidenita pe .
Nota:
Hessianul este o extensie la R
n
a notiunii de curbura a unei functii;
Functiile convexe au curbura pozitiva in orice directie;
Putem deasemenea introduce notiuni precum convexitate locala si convexitate locala stricta;
Teoriile globala si locala sunt strans relationate;
CAPITOLUL 2: Proprietati de Baza 25 Functii Convexe si Concave
5. Minimizari si Maximizari de Functii Convexe
Teorema 21. Fie f o functie convexa denita pe o multime convexa . Atunci multimea pe
care f is atinge minimumul este convexa, si orice minim relativ a lui f este si minim global.
Toate punctele de minim sunt plasate impreuna intr-o multime convexa si toate minimele relative
sunt si globale
Teorema 22. Fie f c
1
o functie convexa denita pe o multime convexa . Daca exista un
punct x

a.i.
y , f(x

)(y x

) 0
atunci x

este minim global pentru f pe .


Pentru functii convexe continue si diferentiabile satisfacerea conditiilor de ordinul intai este si
necesara si sucienta pentru ca un punct sa e minim global
Teorema 23. Fie f o functie convexa denita pe multimea marginita, inchisa si convexa . Daca
f are un maximum pe atunci acesta este atins intrun punct de extrem al lui .
Nota: Exista o dualitate intre minimizarea functiilor convexe si maximizarea functiilor concave !
CAPITOLUL 2: Proprietati de Baza 26 Minimizari si Maximizari de Functii Convexe
6. Convergenta Globala a Algoritmilor de Descrestere
Exista o serie de proprietati de baza pe care orice algoritm propus trebuie sa le indeplineasca:
Iterativ: Algoritmul genereaza o serie de puncte, ecare punct ind calculat pe baza punctelor
ce il preced;
Descrestere: In ecare nou punct generat de algoritm valoarea corespunzatoare a unei anumite
functii descreste in raport cu valoarea in punctul precedent;
Convergenta globala: Pentru puncte de plecare (initializari) arbitrare algoritmul genereaza un sir
care converge (intr-un numar nit sau innit de pasi) la un punct solutie.
Atentie ! Cei mai importanti algoritmi ce vor prezentati in continuare nu sunt (!!!!) global
convergenti in forma lor pura si cel mai adesea necesita anumite modicari speciale; anumiti
algoritmi cu initializari arbitrare pot sa nu convearga deloc iar altii pot converge la puncte care nu
sunt solutii !!!
Convergenta globala a unui algoritm poate tratata intr-o maniera unitara prin intermediul
teoriei generale a algoritmilor dezvoltate pentru prima data de catre Zangwill (cel mai important
rezultat : Teorema de Convergenta Globala).
CAPITOLUL 2: Proprietati de Baza 27 Convergenta Globala a Algoritmilor de Descrestere
Algoritmi
Un algoritm poate privit ca o aplicatie : dandu-se un punct x intr-un spatiu , algoritmul A
aplicat lui x genereaza un nou punct in acelasi spatiu; daca operam iterativ in aceeasi maniera se
va genera un sir de puncte in prin regula
x
k+1
:= A(x
k
).
A poate dat explicit de o formula sau poate un program lung de computer. In orice caz, pentru
a putea avea o mai mare exibilitate in analiza vom generaliza acest concept.
Denitia 24. Un algoritm A este o aplicatie denita pe un spatiu care atribuie ecarui punct
x o submultime a lui .
Nota:
Termenul spatiu trebuie intepretat intr-un sens larg (o submultime in R
n
, sau un spatiu metric
general);
Un algoritm este o aplicatie punctmultime a lui si nu o aplicatie de tip punctpunct;
Danduse x
k
, algoritmul genereaza multimea A(x
k
) din care se selecteaza un
element arbitrar;
CAPITOLUL 2: Proprietati de Baza 28 Convergenta Globala a Algoritmilor de Descrestere
Incepand cu x
0
algoritmul genereaza siruri conform cu
x
k+1
A(x
k
);
Incertitudinea (gradul de libertate) in aceasta descriere este gandit pentru a lua in calcul detaliile
specice ale diversilor algoritmi si nu inseamna ca algoritmii au un caracter aleator, i.e., algoritmii
sunt in implementari aplicatii tip punctpunct (un anumit algoritm genereaza acelasi sir pornind
din acelasi punct initial x
0
);
Exemplul 25. Pentru x R, e
A(x) =

]x]
2
,
]x]
2

.
Plecand din x
0
= 100 putem genera diverse siruri :
100, 50, 25, 12, 6, 2, 1,
1
2
;
100, 40, 20, 5, 2, 1,
1
4
,
1
8
;
100, 10, 1,
1
16
,
1
100
,
1
1000
,
1
10000
.
Pentru a analiza anumite proprietati de convergenta nu este nevoie sa stim precis cum a fost selectat
x
k+1
din A(x
k
) (sirul tinde oricum la zero).
CAPITOLUL 2: Proprietati de Baza 29 Convergenta Globala a Algoritmilor de Descrestere
Descrestere
Denitia 26. Fie o multime de solutii data si e A un algoritm pe . O functie continua
cu valori reale Z denita pe se numeste functie de descrestere pentru si A daca satisface
i) Daca x , si y A(x), atunci Z(y) < Z(x);
ii) Daca x si y A(x), atunci Z(y) Z(x).
Pentru problema
minimizeaza f(x)
cand x
notiunea de multime de solutii, functie de descrestere si algoritm pot denite in moduri diferite:
: multimea punctelor de minim, si denim un algoritm a.i. la ecare pas f descreste, servind
astfel ca functie de descrestere;
: multimea punctelor x care satisfac f(x) = 0, si denim un algoritm a.i. la ecare pas
]f(x)] (sau f(x)) descreste.
CAPITOLUL 2: Proprietati de Baza 30 Convergenta Globala a Algoritmilor de Descrestere
Aplicatii Inchise
Un concept esential pentru a stabili proprietati de convergenta globala este acela de algoritm
inchis (o extensie a notiunii de continuitate de la aplicatii de tip punctpunct la aplicatii de tip
punctsubmultime).
Denitia 27. O aplicatie de tip punctmultime A din in este numita inchisa in x
daca ipotezele:
x
k
x, x
k
,
y
k
y, y
k
A(x
k
),
implica
y A(x).
In particular, A se numeste inchisa daca este inchisa in ecare punct in .
Exemplul 28. Aratati ca aplicatia denita in Exemplul 25 este inchisa.
Observatia 29. Ca un caz special, daca A este de tip punctpunct si A este continua atunci A
este inchisa. Reciproca nu este in general adevarata (demonstrati aceste armatii !!!)
CAPITOLUL 2: Proprietati de Baza 31 Convergenta Globala a Algoritmilor de Descrestere
Teorema de Convergenta Globala
Teorema de Convergenta Globala stabileste conditii tehnice generale in care convergenta globala
poate garantata (globala = indiferent de punctul initial !!!).
Teorema 30. [Teorema de Convergenta Globala] Fie A un algoritm pe , si presupunem ca
dandu-se x
0
sirul x
k
]

k=0
este generat prin
x
k+1
A(x
k
).
Fie o multime de solutii si presupunem:
i) Toate punctele x
k
sunt continute intr-o multime compacta S ;
ii) Exista o functie continua Z pe a.i.
a) Daca x , , atunci Z(y) < Z(x), y A(x);
b) Daca x , atunci Z(y) Z(x), y A(x);
iii) Aplicatia A este inchisa in punctele din afara lui .
Atunci limita oricarui subsir convergent al lui x
k
] este o solutie.
CAPITOLUL 2: Proprietati de Baza 32 Convergenta Globala a Algoritmilor de Descrestere
Corolarul 31. Daca in conditiile Teoremei de Convergenta Globala consta dintr-un singur punct
x, atunci sirul x
k
] converge la x.
Observatia 32. In multe privinte conditia (iii) a teoremei este cea mai importanta ; esecul multor
algoritmi populari poate pusa pe seama nesatisfacerii acestei conditii.
Problema 33. Consideram algoritmul de tip punctpunct
A(x) =

1
2
(x 1) + 1, x > 1,
1
2
x, x 1
si multimea solutiilor = 0]. Aratati ca Z(x) = ]x] este o functie de descrestere pentru acest
algoritm si aceasta multime de solutii. Cu toate acestea, plecand din x > 1 algoritmul genereaza
un sir care converge la x = 1 si care nu este o solutie. Aratati ca acest lucru se intampla deoarece
A nu este inchis la x = 1.
Problema 34. Fie pe axa reala = R multimea solutiilor egala cu multimea vida, i.e., = ,
functia de descrestere Z(x) = e
x
, si algoritmul A(x) = x + 1. Aratati ca toate conditiile
teoremei sunt indeplinite cu exceptia lui i). Sirul generat plecand din orice punct initial diverge la
innit. Aceasta nu este o violare in sens strict a teoremei (de ce ?).
CAPITOLUL 2: Proprietati de Baza 33 Convergenta Globala a Algoritmilor de Descrestere
Problema 35. Consideram algoritmul de tip punctmultime A denit de
A(x) =

[0, x), 1 x > 0


0, x = 0.
Fie = 0]. Functia Z(x) = x serveste drept functie de descrestere pentru ca pentru orice
x ,= 0 toate punctele din A(x) sunt mai mici decat x. Aratati ca sirul denit de
x
0
= 1.
x
k+1
= x
k

1
2
k+2
,
satisface x
k+1
A(x
k
) dar se poate vedea ca x
k

1
2
, . Aratati ca aceasta se intampla
pentru ca algoritmul A nu este inchis in afara multimii solutiilor.
CAPITOLUL 2: Proprietati de Baza 34 Convergenta Globala a Algoritmilor de Descrestere
7. Viteza de convergenta
Viteza de convergenta a unui algoritm este un subiect extrem de important dar si complex. In
mod esential da informatii despre cati pasi (iteratii) avem nevoie sa executam pentru a atinge un
anumit grad de precizie. Introducem doua notiuni de baza:
Ordinul de convergenta;
Rata de convergenta
pentru un sir de numere reale r
k
]
k=
k=0
ce converge la r

.
Denitia 36. Ordinul de convergenta a lui r
k
] este denit ca supremumul numerelor nenegative
p care satisfac
0 lim
k
]r
k+1
r

]
]r
k
r

]
p
< . (3)
Nota: Pentru a siguri ca denitia se aplica oricarui sir trebuie sa facem niste precizari:
limita superioara lim se foloseste in locul limitei uzuale lim;
0/0 care apare atunci cand r
k
= r

este considerata prin conventie nita.


CAPITOLUL 2: Proprietati de Baza 35 Viteza de Convergenta
Nota:
Ordinul de convergenta este determinat doar de proprietatile cozii sirului (cand k );
Valori mai mari ale lui p implica convergenta mai rapida deoarece distanta pana la r

este
redusa (cel putin in coada) cu ordinul p intr-un singur pas !!!;
Daca sirul are ordinul p si limita in (3) exista (in sens uzual), i.e.
= lim
k
]r
k+1
r

]
]r
k
r

]
p
atunci avem ca asimptotic
]r
k+1
r

] = ]r
k
r

]
p
.
Multi algoritmi ce vor discutati mai departe au ordinul 1 si de aceea consideram in continuare mai
in detaliu acest caz.
Denitia 37. Daca r
k
] converge la r

astfel incat
lim
k
]r
k+1
r

]
]r
k
r

]
= < 1
atunci sirul se numeste ca are convergenta liniara la r

cu rata de convergenta .
CAPITOLUL 2: Proprietati de Baza 36 Viteza de Convergenta
Nota:
Un sir liniar convergent cu rata are o coada care converge cel putin la fel de repede ca seria
geometrica c
k
pentru o constanta c (de aceea se mai numeste convergenta geometrica);
Cand comparam doi algoritmi liniar convergenti, cu cat este mai mica rata cu atat este mai
rapid algoritmul !
Cazul extrem in care = 0 este numit convergenta superliniara;
Convergenta cu orice ordin mai mare decat 1 este superliniara dar este posibil si sa avem
convergenta superliniara cu ordinul 1.
Exemplul 38. Sirul r
k
= a
k
unde 0 < a < 1 converge la 0 cu ordinul 1, deoarece
r
k+1
r
k
= a.
Exemplul 39. Sirul r
k
= a
(2
k
)
unde 0 < a < 1 converge la zero cu ordinul doi, deoarece
r
k+1
r
2
k
= 1.
Exemplul 40. Sirul r
k
=
1
k
converge la 0. Convergenta este de ordinul 1 dar nu este liniara,
deoarece
lim
k
r
k+1
r
k
= 1
CAPITOLUL 2: Proprietati de Baza 37 Viteza de Convergenta
adica nu este strict mai mic ca 1.
Exemplul 41. Pentru sirul r
k
= (
1
k
)
k
ordinul de convergenta este 1 pentru ca
lim
k
r
k+1
r
p
k
=
pentru p > 1. Dar
lim
k
r
k+1
r
k
= 0
si prin urmare avem convergenta superliniara.
Observatia 42. Convergenta vectorilor este denita in mod uzual in raport cu o functie particulara
f care converteste sirul de vectori intr-un sir de numere. O astfel de functie se numeste functie de
eroare. Prin urmare analizam convergenta sirului de vectori prin intermediul convergentei lui f(x
k
)
la f(x

). In tehnicile de optimizare f coincide in mod uzual cu functia obiectiv. Alternativ putem


considera functia
f(x) := ]x x

]
2
.
In orice caz, alegerea functiei de eroare nu are o importanta capitala.
CAPITOLUL 2: Proprietati de Baza 38 Viteza de Convergenta
Capitolul 3: METODE FUNDAMENTALE DE CAUTARE
1. Cautare de tip Fibonacci si Sectiunea de Aur
2. Cautare Unidimensionala prin Metode de Interpolare
3. Convergenta Globala a Metodelor de Interpolare
4. Proprietati ale Algoritmilor de Cautare Unidimensionala
5. Cautari Unidimensionale Aproximative
6. Metoda Celei mai Abrupte Pante
7. Aplicatii ale Teoriei
8. Metoda Newton
9. Metode de Cautare pe Coordonate
CAPITOLUL 3: Metode Fundamentale de Cautare 39 Metode fundamentale de cautare
1. Metoda Sirului lui Fibonacci si Metoda Sectiunii de Aur
Metode foarte populare pentru cautari unidimensionale.
Relativ elegante dar exista alte metode care sunt in majoritatea cazurilor superioare.
Metoda determina minimumul unei functii f denita pe un interval inchis [c
1
, c
2
].
f poate specicata pe un interval mai larg dar in acest caz trebuie specicat un subinterval
xat pentru cautare.
Ipoteze de baza: f este unimodala.
f
c1 c2
Functie unimodala
CAPITOLUL 3: Metode Fundamentale de Cautare 40 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
Nu se impun alte ipoteze !!!
Minimul trebuie sa e determinat evaluand functia f intr-un numar xat de puncte (se presupune
ca ecare evaluare este relativ costisitoare dpdv al numarului de operatii/timp de calcul !!!
Problema: Gasiti o strategie pentru a alege succesiv N puncte astfel incat sa putem determina cel
mai mic interval de incertitudine in care se gaseste minimul !
Nota:
Numarul N este xat apriori;
Functia f nu este cunoscuta apriori (i.e., valorile pe care le ia functia nu sunt cunsocute ci se
calculeaza in ecare punct).
CAPITOLUL 3: Metode Fundamentale de Cautare 41 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
Sirul lui Fibonacci
Fie N puncte ordonate
c
1
x
1
< x
2
< . . . < x
N1
< x
N
c
2
si e x
0
:= c
1
si x
N+1
:= c
2
. Daca functia este evaluata in ecare dintre aceste puncte stim
sigur ca minimumul se gaseste in intervalul [x
k1
, x
k+1
], unde x
k
este punctul in care functia ia
valoarea minima dintre toate cele N puncte selectate.
Problema:
Cum sa alegem N puncte astfel incat intervalul [x
k1
, x
k+1
] sa e cat se poate de mic ?
Raspuns:
Sirul lui Fibonacci
Fie d
1
:= c
2
c
1
, intervalul initial de incertitudine, d
k
: largimea intervalului de incertitudine dupa
k masuratori. Fie
d
k
:=
F
Nk+1
F
N
d
1
(4)
CAPITOLUL 3: Metode Fundamentale de Cautare 42 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
unde F
k
sunt generate prin sirul lui Fibonacci denit de
F
0
= F
1
= 1, F
N
:= F
N1
+F
N2
.
Procedura de alegere a punctelor (se poate demonstra ca aceasta strategie este optimala !!!):
Primele doua evaluari se fac simetric la o distanta de
F
N1
F
N
d
1
de capetele intervalului initial;
In functie de care valore este mai mica, se alege un interval de marime d
2
:=
F
N1
F
N
d
1
;
Al treilea punct este dispus simetric in acest nou interval in raport cu pctele deja selectate;
Folosind aceeasi regula se selecteaza un interval de lungime
d
3
:= d
1

F
N1
F
N
d
1
=
F
N2
F
N
d
1
;
In general ecare noua evaluare se face in intervalul curent de incertitudine in mod simetric cu
punctul deja existent in acel interval;
1
2 3 4 5
N=5
1/8 2/8
3/8 5/8
Metoda de cautare Fibonacci
Observati ca ultimele doua puncte coincid intotdeauna !!!
CAPITOLUL 3: Metode Fundamentale de Cautare 43 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
Sectiunea de Aur
Principalul dezavantaj al cautarii Fibonacci este ca numarul de puncte N trebuie precizat de la
inceput. Daca dorim cresterea ulterioara a preciziei cautarii atunci intregul proces trebuie reluat de
la capat.
O varianta alternativa este sa trecem N si sa facem o cautare corespunzatoare sirului
rezultat denit de celebra Sectiune de Aur. Solutia recurentei F
N
= F
N1
+F
N2
este de forma
F
N
= A
N
1
+B
N
2
(5)
unde
1
si
2
sunt radacinile ecuatiei caracteristice

2
= + 1
adica

1
=
1 +

5
2
,
2
=
1

5
2
.
Numarul

1
= 1.618...
este numit Sectiunea de Aur ind considerat de grecii antici ca valoarea cea mai estetica a raportului
intre doua laturi adiacente ale unui dreptunghi.
CAPITOLUL 3: Metode Fundamentale de Cautare 44 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
Observati din (5) ca
lim
N
F
N1
F
N
=
1

1
= 0.618...
Din (4) rezulta ca intervalul de incertitudine are marimea
d
k
=
1

k1
1
d
1
si ca
d
k+1
d
k
=
1

1
.
Aceasta arata ca in raport cu marimea intervalului metoda sectiunii de aur converge liniar (ordinul
=1) cu rata de convergenta
1

1
.
Remarci:
In practica functia se evalueaza tot intr-un numar nit de puncte chiar daca pentru gasirea
acestora se foloseste sectiunea de aur. Atunci in raport cu acest numar nit de evaluari procesul
generat de sectiunea de aur nu este optimal !
Numarul dat de sectiunea de aur se poate obtine deasemenea punand conditia ca ecare nou
punct ales sa imparta noul interval in acelasi raport in care punctul precedent impartea intervalul
x
1
=
1 x
x
.
CAPITOLUL 3: Metode Fundamentale de Cautare 45 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
1
2
x
x
1
Alegerea punctelor prin sectiunea de aur
x
1
=
1x
x
CAPITOLUL 3: Metode Fundamentale de Cautare 46 Metoda Sirului lui Fibonacci/ Sectiunea de Aur
2. Cautare Unidimensionala prin Interpolare
Pentru functii cu un anumit grad de netezime se pot obtine algoritmi de cautare unidimensionala
mai ecienti decat metoda lui Fibonacci.
Ideea principala este interpolarea unui numar de cateva puncte (obtinute la ultimii pasi) printro
curba neteda pe baza careia se obtine o estimare a punctului de minim. Exista o mare varietate de
metode de interpolare depinzand de numarul de puncte de interpolare, ordinul derivatelor folosite,
criteriul utilizat pentru evaluarea calitatii interpolarii :
Metoda lui Newton
Metoda Falsei Pozitii
Interpolare Cubica
Interpolare Patratica
Toate aceste metode au ordin de convergenta mai mare decat 1.
CAPITOLUL 3: Metode Fundamentale de Cautare 47 Cautare Unidimensionala prin Interpolare
Metoda lui Newton
Ipoteze: Functia f : R R, f c
2
, si primele doua derivate pot masurate (evaluate) in
ecare punct curent din domeniul de denitie.
Ideea: Construim un interpolant de gradul 2
q(x) = f(x
k
) +f
t
(x
k
)(x x
k
) +
1
2
f
tt
(x
k
)(x x
k
)
2
in punctul curent x
k
si gasim un nou punct x
k+1
ca minim al lui q(x):
q
t
(x
k+1
) = 0 x
k+1
= x
k

f
t
(x
k
)
f
tt
(x
k
)
;

x
k+1
= x
k

g(x
k
)
g
t
(x
k
)

.
Nota:
Procesul de cautare nu depinde de valoarea f(x
k
)
Metoda poate interpretata si ca o metoda de rezolvare iterativa a ecuatiilor g(x) = 0.
CAPITOLUL 3: Metode Fundamentale de Cautare 48 Cautare Unidimensionala prin Interpolare
CAPITOLUL 3: Metode Fundamentale de Cautare 49 Cautare Unidimensionala prin Interpolare
Teorema 43. Fie g c
2
, si e x

a.i. g(x

) = 0, g
t
(x

) ,= 0. Daca x
0
este sucient de
aproape de x

, sirul x
k
]

k=0
generat de metoda lui Newton converge la x

cu un ordin cel putin 2.


CAPITOLUL 3: Metode Fundamentale de Cautare 50 Cautare Unidimensionala prin Interpolare
Metoda Falsei Pozitii
Metoda lui Newton se bazeaza pe informatie intr-un singur punct. Folosind mai mult decat un
singur punct putem scadea ordinul derivatelor implicate in interpolare (folosim un numar mai mic
de derivate).
Functia de interpolare este :
q(x) = f(x
k
) +f
t
(x
k
)(x x
k
) +
1
2
f
t
(x
k1
) f
t
(x
k
)
x
k1
x
k
(x x
k
)
2
si noul punct x
k+1
este obtinut din
q
t
(x
k+1
) = 0 x
k+1
= x
k
f
t
(x
k
)
x
k1
x
k
f
t
(x
k1
) f
t
(x
k
)
;

x
k+1
= x
k
g(x
k
)
x
k1
x
k
g(x
k1
) g(x
k
)

Nota:
Procesul de cautare nu depinde de f(x
k
) si interpolantul poate considerat la fel de bine in
raport cu x
k1
sau cu x
k
;
Metoda poate privita ca o aproximare a metodei lui Newton in care insa derivata a doua se
inlocuieste cu o aproximare;
CAPITOLUL 3: Metode Fundamentale de Cautare 51 Cautare Unidimensionala prin Interpolare
CAPITOLUL 3: Metode Fundamentale de Cautare 52 Cautare Unidimensionala prin Interpolare
Metoda poate din nou privita ca o metoda de rezolvare iterativa a ecuatiilor g(x) = 0, cu
g(x) = f
t
(x).
Teorema 44. Fie g c
2
, si e x

a.i. g(x

) = 0, g
t
(x

) ,= 0. Daca x
0
este sucient
de aproape de x

, sirul x
k
]

k=0
generat de metoda falsei pozitii converge la x

cu ordinul

1
= 1.618... (sectiunea de aur).
CAPITOLUL 3: Metode Fundamentale de Cautare 53 Cautare Unidimensionala prin Interpolare
Interpolare Cubica
Ideea: Dandu-se punctele x
k1
si x
k
impreuna cu valorile f(x
k1
), f
t
(x
k1
), f(x
k
), f
t
(x
k
),
se construieste un interpolant q(x) de gradul 3, conducand la procesul iterativ
x
k+1
= x
k
(x
k
x
k1
)
f
t
(x
k
) +u
2
u
1
f
t
(x
k
) f
t
(x
k1
) + 2u
2
unde
u
1
= f
t
(x
k1
) +f
t
(x
k
) 3
f(x
k1
)f(x
k
)
x
k1
x
k
,
u
2
= [u
2
1
f
t
(x
k1
)f
t
(x
k
)]
1
2
.
Nota: Ordinul de convergenta al metodei de interpolare cubica este 2 in ciuda faptului ca
metoda este exacta pentru functii cubice ceea ce ar putut sugera ca ordinul de convergenta este
de 3 !!!
CAPITOLUL 3: Metode Fundamentale de Cautare 54 Cautare Unidimensionala prin Interpolare
Interpolare patratica
Aceasta metoda este cel mai adesea folosita in cautari unidimensionale avand avantajul esential
ca nu necesita nici o informatie privitoare la derivate.
Ideea: Dandu-se punctele x
1
, x
2
, x
3
, impreuna cu valorile f(x
1
) = f
1
, f(x
2
) = f
2
, f(x
3
) =
f
3
, se construieste o functie de interpolare de gradul 2 q(x) care trece prin aceste puncte:
q(x) =
3

i=1
f
i

j,=i
(x x
j
)

j,=i
(x
i
x
j
)
.
Noul punct x
4
se determina ca punctul in care derivata lui q(x) se anuleaza. Se obtine
x
4
=
1
2
b
23
f
1
+b
31
f
2
+b
12
f
3
a
23
f
1
+a
31
f
2
+a
12
f
3
,
unde a
ij
= x
i
x
j
, b
ij
= x
2
i
x
2
j
.
Ordinul de convergenta al metodei de interpolare cubica este = 1.3..., cea mai mare radacina
a ecuatiei
3
1 = 0.
CAPITOLUL 3: Metode Fundamentale de Cautare 55 Cautare Unidimensionala prin Interpolare
3. Convergenta Globala a Metodelor de Interpolare
Pana in prezent am studiat convergenta algoritmilor de cautare unidimensionala in jurul punctului
solutie. Mai departe trebuie insa sa ne asiguram ca acesti algoritmi converg cu adevarat indiferent
de intializare, i.e., trebuie sa m convinsi ca ei au convergenta globala.
Problema: Din pacate, algoritmii de cautare unidimensionala in forma lor pura nu au convergenta
globala !!!. Din fericire, putem insa modica acesti algoritmi intr-un mod simplu a.i. sa asiguram
convergenta globala !!! In continuare vom descrie mai pe larg cum putem face aceste modicari in
cazul interpolarii patratice.
Ipoteze: Functia f care trebuie minimizata este strict unimodala si este de clasa c
2
.
Procedura:
Pasul 1. Gasim trei puncte x
1
, x
2
, si x
3
, cu
x
1
< x
2
< x
3
a.i. f(x
1
) f(x
2
) f(x
3
).
Acest lucru se poate face in mai multe feluri (Exercitiu !). Explicatia consta in aceea ca un
interpolant patratic care trece prin aceste puncte va avea un minim (si nu un maxim) si acest minim
se gaseste in intervalul [x
1
, x
3
].
CAPITOLUL 3: Metode Fundamentale de Cautare 56 Convergenta Globala a Metodelor de Interpolare
Pasul 2: Se gaseste x
4
in mod standard prin minimizarea functiei patratice, si f(x
4
) este evaluata
(masurata). Presupunand
x
2
< x
4
< x
3
si datorita naturii unimodale a lui f exista doar doua posibilitati:
1. f(x
4
) f(x
2
);
2. f(x
2
) < f(x
4
) f(x
3
).
Pasul 3: Selectam un nou triplet in modul urmator:
Cazul 1: (x
1
, x
2
, x
3
) = (x
2
, x
4
, x
3
).
Cazul 2: (x
1
, x
2
, x
3
) = (x
1
, x
2
, x
4
).
Pasul 4: Continuam intr-un mod similar cu Pasul 2 gasind un nou interpolant patratic.
Cu aceasta modicare se poate demonstra ca procesul de interpolare patratica este convergent
global !!!
Nota: Modicarile de mai sus pentru interpolarea patratica pot adaptate pentru alti algoritmi
de cautare unidimensionala (considerati ca exercitii cateva alte cazuri !!!)
Ordinul de convergenta poate compromis (devine mai mic decat 1.3 cat este in forma pura
CAPITOLUL 3: Metode Fundamentale de Cautare 57 Convergenta Globala a Metodelor de Interpolare
a algoritmului) daca nici macar local nu se poate forma tripletul de interpolare din trei puncte
precedente (in loc de patru) acest lucru desigur nu se poate asigura in general.
Remarci:
In forma pura a algoritmului de interpolare patratica punctul urmator se construieste pe baza
punctului curent si a altor doua puncte precedente in timp ce in modicarea propusa mai sus punctul
urmator se construieste pe baza punctului curent si a doua din trei puncte precedente ce impreuna
formeaza un triplet de interpolare.
Daca doua puncte sunt egale, de exemplu x
1
= x
2
, atunci (x
1
, x
2
, x
3
) formeaza un triplet
de interpolare daca f(x
2
) f(x
3
) si f
t
(x
2
) < 0, si un interpolant patratic se gaseste folosind
valorile functiei in cele doua puncte distincte si derivata in punctul care este duplicat
Daca trei puncte sunt egale, x
1
= x
2
= x
3
, atunci (x
1
, x
2
, x
3
) formeaza un triplet daca
f
t
(x
2
) = 0 si f
tt
(x
2
) 0.
CAPITOLUL 3: Metode Fundamentale de Cautare 58 Convergenta Globala a Metodelor de Interpolare
4. Proprietati ale Algoritmilor de Cautare Unidimensionala
Cautarile unidimensionale pentru gasirea minimului sunt o parte componenta a celor mai multi
algoritmi de programarea neliniara. De aceea este esential sa studiem daca acesti algoritmi sunt
inchisi.
Mai precis, danduse o functie f, pentru ecare iteratie trebuie sa specicam doi vectori
(punctul initial x si directia de cautare d) iar rezultatul este un nou punct. Obtinem urmatoarea
aplicatie de tip punctmultime
S(x, d) = y : y = x +d, 0, f(y) = min
0
f(x +d)]. (6)
Teorema 45. Daca f este continua pe R
n
, atunci aplicatia (6) este inchisa in (x, d) daca d ,= 0.
CAPITOLUL 3: Metode Fundamentale de Cautare 59 Proprietati ale Algoritmilor de Cautare Unidimensionala
5. Cautare Unidimensionala Aproximativa
In practica nu este posibil sa obtinem exact punctul de minim asa cum presupune algoritmul
ideal de cautare unidimensionala S. Adesea se sacrica precizia pentru a reduce timpul de executie.
Problema: Este teoria convergentei globale valabila daca folosim cautari aproximative in locul
celor ideale ?
Raspuns: NU ! dar pentru a nu complica analiza vor presupune in continuare ca la ecare pas
s-a folosit un algoritm exact de cautare unidimensionala.
Criterii uzuale pentru terminarea cautarilor unidimensionale:
Testul Procentual
Regula Armijo
Testul Goldstein
Testul Wolfe.
CAPITOLUL 3: Metode Fundamentale de Cautare 60 Cautare Unidimensionala Aproximativa
Testul Procentual
Gaseste parametrul cu o anumita precizie data de un procent xat din valoarea sa reala
0 < c < 1 (tipic c = 0.1, 0.05, 0.02 sau 0.01).
este gasit astfel incat ] ] c, unde este valoarea exacta a minimului.
Desigur nu este cunoscut dar pentru majoritatea algoritmilor de cautare unidimensionala se
poate obtine relativ facil o margine buna a erorii fractionare (relative).
Se poata arata ca acest algoritm este inchis.
Regula Armijo
Regula Armijo asigura ca ales nu este prea mare si apoi ca nu este prea mic !!!
Fie
() = f(x
k
+d
k
).
Atunci regula este implementata considerand functia
(0) +
t
(0), pentru (0, 1) xat.
nu este prea mare daca
() (0) +
t
(0) (7)
CAPITOLUL 3: Metode Fundamentale de Cautare 61 Cautare Unidimensionala Aproximativa
si nu este prea mic daca
() > (0) +
t
(0)
unde > 1 este ales (xat) aceasta este echivalent cu a spune ca este marit cu un factor de
daca nu satisface testul (7).
Uneori in practica regula Armijo este folosita pentru a deni un algoritm de cautare unidimensionala
fara a folosi metodele de interpolare: se incepe cu un arbitrar; daca satisface (7) este marit in
mod repetat cu ( = 2 sau 10, si = 0.2 sunt cel mai adesea folosite) pana cand (7) nu mai
este satisfacut; penultimul este atunci retinut. Daca original nu satisface (7) este impartit la
pana cand rezultant satisface (7).
CAPITOLUL 3: Metode Fundamentale de Cautare 62 Cautare Unidimensionala Aproximativa
Testul Goldstein
Similar cu regula lui Armijo, nu este prea mare daca satisface (7) pentru 0 < < 0.5, si este
considerat a nu prea mic daca
() > (0) + (1 )
t
(0).
Testul Goldstein conduce la un algoritm de cautare undimensionala inchis.
CAPITOLUL 3: Metode Fundamentale de Cautare 63 Cautare Unidimensionala Aproximativa
Testul Wolfe
Acesta este aplicat in locul testului Goldstein in cazul in care derivatele functiei obiectiv si
valorile acestora pot obtinute relativ usor.
este ales cu 0 < < 0.5, si este ales sa satisfaca (7) si

t
() > (1 )
t
(0).
Criteriul de mai sus este invariant la scalari.
CAPITOLUL 3: Metode Fundamentale de Cautare 64 Cautare Unidimensionala Aproximativa
6. Metoda Celei Mai Abrupte Pante
Una dintre cele mai vechi metode, cunoscuta si sub numele de metoda de gradient.
Este extrem de importanta intrucat este cea mai simpla metoda pentru care exista o analiza
satisfacatoare.
Este simultan prima metoda care se incearca pe o problema noua si totdata referinta standard cu
care se compara orice metoda noua.
Metoda propriuzisa
Fie f : R
n
R, f c
1
. Pentru simplicarea notatiei e
g(x) := f(x)
T
(vector coloana)
g
k
:= g(x
k
).
Metoda este denita de algoritmul iterativ
x
k+1
= x
k

k
g
k
,

k
este un scalar nenegativ care minimizeaza f(x
k

k
g
k
). Mai exact, cautarea minimului se
face dealungul directiei gradientului negativ g
k
si punctul de minim este considerat x
k+1
.
CAPITOLUL 3: Metode Fundamentale de Cautare 65 Metoda Celei Mai Abrupte Pante
Convergenta Globala
Algoritmul poate descris ca A : R
n
R
n
si x
k+1
A(x
k
). Acesta se poate descompune
in A = SG, unde G : R
n
R
2n
, G(x) = (x, g(x)), care da punctul initial si directia de
cautare si S : R
2n
R
n
, dat in (6):
S(x, d) = y : y = x +d, 0, f(y) = min
0
f(x +d)].
In Sectiunea 4 am vazut ca S este inchis daca f(x) ,= 0, si este evident ca G este continua.
Prin urmare A este inchisa.
Denim multimea solutiilor ca ind punctele in care f(x) = 0. Atunci Z(x) = f(x) este
o functie de descrestere pentru A deoarece pentru f(x) ,= 0 avem
min
0<
f(x g(x)) < f(x).
Prin urmare concluzionam din Teorema de Convergenta Globala ca daca sirul x
k
este marginit va
avea puncte limita si ecare astfel de punct este o solutie.
CAPITOLUL 3: Metode Fundamentale de Cautare 66 Metoda Celei Mai Abrupte Pante
Convergenta Locala
Precum vom face in majoritatea cazurilor, incepem analiza cu cazul patratic (f este o functie
patratica
f(x) =
1
2
x
T
Qx x
T
b).
Presupunem ca Q R
nn
este o matrice simetrica pozitiv denita Q = Q
T
> 0, i.e., toate
valorile ei proprii sunt pozitive, si ca toate aceste valori proprii sunt ordonate 0 < a =
1

2

. . .
n
= A. Atunci rezulta ca f este strict convexa.
Punctul unic de minim x

poate gasit prin anularea gradientului g(x) = Qxb obtinandu-se


Qx

= b.
Fie functia eroare
E(x) :=
1
2
(x x

)
T
Q(x x

).
Atunci avem E(x) = f(x) +
1
2
(x

)
T
Qx

, i.e., E(x) si f(x) difera doar printr-o constanta.


In plus, ambele functii au acelasi punct de minim x

. In multe situatii va mai convenabil sa


consideram minimizarea lui E in locul lui f !
CAPITOLUL 3: Metode Fundamentale de Cautare 67 Metoda Celei Mai Abrupte Pante
Cu aceste notatii putem exprima metoda celei mai abrupte pante
x
k+1
= x
k

k
g
k
, g
k
= Qx
k
b
unde
k
minimizeaza
f(x
k
g
k
) =
1
2
(x
k
g
k
)
T
Q(x
k
g
k
) (x
k
g
k
)
T
b.
Derivand in aceasta expresie in raport cu obtinem

k
=
g
T
k
g
k
g
T
k
Qg
k
.
In nal, metoda celei mai abrupte pante ia forma explicita
x
k+1
= x
k

g
T
k
g
k
g
T
k
Qg
k
g
k
. (8)
Teorema 46. Oricare ar x
0
R
n
, metoda celei mai abrupte pante (8) converge la punctul unic
CAPITOLUL 3: Metode Fundamentale de Cautare 68 Metoda Celei Mai Abrupte Pante
de minim x

al lui f. Mai mult, avem la ecare pas


E(x
k+1
)

A a
A +a

2
E(x
k
).
Observatia 47. Rata de convergenta este cu atat mai lenta cu cat contururile lui f devin mai
excentrice.
Pentru cercuri, convergenta este obtinuta intr-un singur pas (A = a).
Chiar daca n 1 valori proprii sunt egale dar una singura este la mare distanta de ele,
convergenta este lenta.
In raport cu functia eroare (sau echivalent in raport cu f) metoda celei mai abrupte pante
converge liniar cu o rata inferioara lui

Aa
A+a

2
.
Rata efectiva (reala) depinde puternic de x
0
.
Akaike a aratat ca aceasta margine se poate atinge pentru anumite puncte initiale x
0
si, mai
mult, daca rata este defavorabila atunci este probabil ca procesul iterativ sa convearga cu o rata
apropiata de marginea superioara.
Prin urmare putem spune in mare ca rata de convergenta a metodei celei mai abrupte pante este

A a
A +a

2
=

r 1
r + 1

2
unde r este numarul de conditionare al lui Q.
CAPITOLUL 3: Metode Fundamentale de Cautare 69 Metoda Celei Mai Abrupte Pante
Toate aceste observatii se pot aplica doar functiilor patratice. Cu toate acestea vom extinde
aceste proprietati si la functii nepatratice folosind Hessianul functiei obiectiv evaluat intr-un
punct solutie (in locul matricii Q). Aceasta tehnica este valabila pentru majoritatea metodelor
avand ordinul 1 de convergenta.
Teorema 48. Fie f denita pe R
n
, f c
2
avand un minim local in x

. Presupunem ca Hessianul
F(x

) are cea mai mica valoare proprie a > 0 si cea mai mare valoare proprie A > 0. Daca x
k
]
este un sir generat de metoda celei mai abrupte pante care converge la x

, atunci f(x
k
) converge
la f(x

) liniar cu o rata de convergenta mai mica sau egala cu

A a
A +a

2
.
7. Aplicatii ale Teoriei
de discutat la Seminar
CAPITOLUL 3: Metode Fundamentale de Cautare 70 Metoda Celei Mai Abrupte Pante
8. Metoda lui Newton
Ideea: Functia obiectiv f este aproximata local de o functie patratica, si functia patratica este
minimizata exact:
f(x) f(x
k
) +f(x
k
)(x x
k
) +
1
2
(x x
k
)
T
F(x
k
)(x x
k
).
Membrul drept este minimizat exact la
x
k+1
= x
k
[F(x
k
)]
1
f(x
k
)
T
.
Presupuneri: Matricea Hesiana F(x

) este pozitiv denita (in lumina conditiilor de ordinul 2), si


prin urmare metoda este bine denita in vecinatatea solutiei.
Teorema 49. Fie f denita pe R
n
, f c
3
avand un minim local la x

si F(x

) > 0. Atunci
pentru o initializare sucient de aproape de x

sirul generat de metoda lui Newton converge la x

cu un ordin de convergenta de cel putin 2.


CAPITOLUL 3: Metode Fundamentale de Cautare 71 Metoda lui Newton
Modicari ale Metodei lui Newton
Metoda lui Newton necesita anumite modicari cand este startata relativ departe de punctul
solutie.
Prima modicare: introducerea unui parametru de cautare a.i.
x
k+1
= x
k

k
[F(x
k
)]
1
f(x
k
)
T
unde
k
este ales sa minimizeze f. In apropierea solutiei ne asteptam desigur ca
k
1.
Introducerea acest parametru pentru puncte generale elimina posibilitatea ca functia obiectiv sa
creasca cand
k
= 1 ca urmare a termenilor nepatratici.
A doua modicare: Consideram clasa generala de algoritmi
x
k+1
= x
k
M
k
g
k
(9)
unde M
k
este o matrice n n, este un parametru de cautare pozitiv, si g
k
:= f(x
k
)
T
. Atat
metoda celei mai abrupte pante (M
k
= I) cat si metoda lui Newton (M
k
= F(x
k
)
1
) apartin
acestei clase. Directia d
k
= M
k
g
k
este o directie de descrestere daca pentru mic valoarea lui
CAPITOLUL 3: Metode Fundamentale de Cautare 72 Metoda lui Newton
f descreste cand creste de la zero in sus. Pentru mic avem
f(x
k+1
) = f(x
k
) +f(x
k
)(x
k+1
x
k
) +c(]x
k+1
x
k
]
2
)
sau folosind (9)
f(x
k+1
) = f(x
k
) g
T
k
M
k
g
k
+c(
2
).
Cand 0 al doilea termen il domina pe al treilea si trebuie sa avem g
T
k
M
k
g
k
> 0 pentru a
garanta descresterea. Modul cel mai simplu de a asigura acest lucru este sa cerem ca M
k
> 0.
Pentru a asigura descresterea:
Setam M
k
= I iar aceasta conduce la metoda celei mai abrupte pante care converge doar liniar.
Setam M
k
= F(x
k
)
1
care conduce la o descrestere foarte rapida in apropierea solutiei dar
pentru un punct arbitrar poate sa nu genereze o directie de descrestere pentru ca este posibil ca
M
k
sa nu e pozitiv sau chiar este posibil sa nu existe.
Setam M
k
= [
k
I + F(x
k
)]
1
pentru un
k
semipozitiv, ceea ce constituie un compromis
intre metoda celei mai abrupte pante (
k
mare) si metoda Newton (
k
= 0).
Problema: Exista intotdeauana o modicare a.i. M
k
> 0 ?
DA !!! Solutie:
Fie F
k
= F(x
k
). Fixam > 0. Calculam valorile proprii ale lui F
k
si e
k
cea mai mica
CAPITOLUL 3: Metode Fundamentale de Cautare 73 Metoda lui Newton
constanta nenegativa pentru care matricea
k
I + F
k
are valoriile proprii mai mari sau egale cu .
Fie
x
k+1
= x
k
+
k
d
k
, d
k
:= (
k
I +F
k
)
1
g
k
,
unde
k
minimizeaza f(x
k
+d
k
), 0.
Acest algoritm are proprietatile dorite de convergenta locala si globala: Presupunand ca x
k
este
marginit, avem convergenta globala si sucient de aproape de x

ordinul de convergenta este doi


(alegand un > 0 potrivit, adica mai mic decat cea mai mica valoare proprie a lui F(x

)).
Intrebare esentiala: Cum se alege ?
Raspuns: Aceasta alegere implica o adevarata arta si este nevoie de mult exercitiu si experienta
practica !!!! Valori mici pentru inseamna sa inversam matrici aproape singulare pe cand valori
mari ale lui inseamna ca ordinul doi de convergenta se poate pierde.
Dicultati suplimentare: La ecare pas trebuie sa calculam valorile proprii ale lui F(x
k
)
ceea ce se poate dovedi costisitor din punct de vedere numeric ! Prin urmare, in metodele de tip
LevenbergMarquardt pentru un
k
dat se face o factorizare Cholesky pentru a verica pozitivitatea:

k
I +F(x
k
) = G
T
k
G
k
.
Daca algoritmul de factorizare Cholesky esueaza,
k
este marit. Aceasta factorizare da deasemenea
CAPITOLUL 3: Metode Fundamentale de Cautare 74 Metoda lui Newton
vectorul de deplasare rezolvand doua sisteme triangulare de ecuatii
G
T
k
G
k
d
k
= g
k
.
Se examineaza in continuare f(x
k
+ d
k
). Daca este destul de mai mic decat f(x
k
), atunci x
k+1
este acceptat si se determina un nou
k+1
. In principal
k
este un parametru de cautare in aceste
metode.
Atentie: Simplitatea aparenta a metodei lui Newton nu este in fapt transpusa in practica !
CAPITOLUL 3: Metode Fundamentale de Cautare 75 Metoda lui Newton
9. Metode de Cautare pe Coordonate
O clasa de algoritmi atractivi datorita simplitatii dar cu proprietati mai slabe de convergenta
decat metoda celei mai abrupte pante.
Fie f c
1
. Descresterea in raport cu coordonata x
i
(i xat) este obtinuta prin rezolvarea
min
x
i
f(x
1
, x
2
, . . . , x
n
),
i.e., ecare astfel de cautare poate privita ca o cautare pe directia e
i
(sau e
i
). Per ansamblu,
se minimizeaza succesiv in raport cu toate coordonatele.
Moduri diverse de a implementa aceasta idee:
Algoritmul de cautare ciclica: Se minimizeaza succesiv in raport cu x
1
, x
2
, . . . , x
n
, si apoi se
repeta de la x
1
din nou (nu este necesara nici o informatie despre gradient).
Metoda dublu ciclica a lui Aitken: Se minimizeaza succesiv in raport cu x
1
, x
2
, . . . , x
n
, si
apoi inapoi x
n1
, x
n2
, . . . , x
1
si apoi se repeta (nu este necesara nici o informatie asupra
gradientului).
Metoda GaussSouthwell: La ecare pas se minimizeaza coordonata corespunzatoare celei mai
mari componente (in valoare absoluta) a gradientului.
CAPITOLUL 3: Metode Fundamentale de Cautare 76 Metode de Cautare pe Coordonate
Convergenta Metodelor de Cautare pe Coordonate
Aceste metode au convergenta globala (sub anumite ipoteze rezonabile).
Convergenta locala este dicil de analizat. Pentru o problema patratica avem pentru metoda
GaussSouthwell
E(x
k+1
) (1
a
A(n 1)
)E(x
k
)
(care este o margine grosiera). Deoarece

A a
A +a

1
a
A

1
a
A(n 1)

n1
concluzionam ca un pas din metoda celei mai abrupte pante este mai bun decat n 1 pasi din
metoda GaussSouthwell. Acest lucru este in acord cu multe experimente numerice. Oricum, daca
variabilele sunt necuplate (corespunzand unei matrici Hessiene aproximativ diagonale, metodele de
cautare pe coordonate sunt mult mai rapide decat se estimeaza.
CAPITOLUL 4: Metode de Directii Conjugate 77 Cuprinsul Capitolului
Capitolul 4: METODE DE DIRECTII CONJUGATE
Metodele de Directii Conjugate sunt intr-un anumit sens intermediare intre metoda celei mai
abrupte pante si metoda lui Newton. Motivatia dezvoltarii acestor metode provine din dorinta de a
accelera convergenta tipic lenta a metodei celei mai abrupte pante simultan cu evitarea evaluarii,
memorarii si inversarii Hessianului necesare in metoda Newton. Aceste metode sunt printre cele mai
eciente metode de optimizare disponibile. Ca de obicei prezentarea metodelor de directii conjugate
incepe cu problema patratica
1
2
x
T
Qx b
T
x, Q = Q
T
> 0,
urmand ca apoi sa extindem, prin aproximare, la cazul problemelor mai generale.
1. Directii Conjugate
2. Proprietati de Descrestere ale Metodei de Directii Conjugate
3. Metoda de Gradienti Conjugati
4. Metoda de Gradienti Conjugati ca Proces Optimal
5. Metoda Partiala de Gradienti Conjugati
6. Extensii la Probleme Nepatratice
CAPITOLUL 4: Metode de Directii Conjugate 78 Cuprinsul Capitolului
1. Directii Conjugate
Denitia 50. Dandu-se Q = Q
T
, doi vectori d
1
si d
2
se numesc Qortogonali sau conjugati
in raport cu Q daca d
T
1
Qd
2
= 0. O multime nita de vectori d
0
, d
1
, . . . , d
k
se numeste
Q-ortogonala daca
d
T
i
Qd
j
= 0, i ,= j.
Cazuri particulare: Q = 0, Q = I (in cazul nostru Q > 0 dar acest lucru nu este inerent in
denitia de mai sus).
Propozitia 51. Daca Q = Q
T
> 0 si d
0
, d
1
, . . . , d
k
sunt Qortogonali atunci sunt liniar
independenti.
De ce este folositoare Qortogonalitatea ? Sa presupunem ca avem problema
min
1
2
x
T
Qx b
T
x, Q > 0,
care are o solutie unica x

ce satisface Qx = b. Fie d
0
, d
1
, . . . , d
n1
un numar de n vectori
nenuli si Qortogonali (care sunt automat liniar independenti). Prin urmare
x

=
0
d
0
+. . . +
n1
d
n1
(10)
CAPITOLUL 4: Metode de Directii Conjugate 79 Directii Conjugate
pentru anumiti
i
bine alesi. Inmultind cu Q si luand produsele scalare cu d
i
obtinem

i
=
d
T
i
Qx

d
T
i
Qd
i
=
d
T
i
b
d
T
i
Qd
i
(11)
ceea ce arata ca
i
si solutia x

pot evaluate prin intermediul unor produse scalare simple. In


nal avem
x

=
n1

i=0
d
T
i
b
d
T
i
Qd
i
d
i
.
Din relatia de mai sus se desprind cateva idei fundamentale:
Multimea d
i
urilor s-a ales astfel incat toti termenii cu exceptia termenului i in (10) sa se anuleze
(aceasta se putea insa realiza si prin simpla ortogonalitate si nu neaparat prin Qortogonalitate).

i
s-au putut exprima in functie de vectorul cunoscut b spre deosebire de situatia initiala in care
erau exprimati in functie de vectorul necunoscut x

.
x

poate considerat rezultatul unui proces iterativ in care la pasul i se adauga termenul
i
d
i
.
Teorema 52. Fie d
i
]
n1
i=0
o multime de vectori Qortogonal nenuli. Pentru oricare x
0
R
n
sirul x
k
generat dupa formula
x
k+1
= x
k
+
k
d
k
, k 0,
k
=
g
T
k
d
k
d
T
k
Qd
k
, g
k
= Qx
k
b,
converge la unica solutie x

a lui Qx = b dupa n pasi, i.e., x


n
= x

.
CAPITOLUL 4: Metode de Directii Conjugate 80 Directii Conjugate
2. Proprietati de Descrestere ale Metodei de Directii Conjugate
Fie B
k
:=< d
0
, d
1
, . . . , d
k1
> . Aratam ca pe masura ce metoda de directii conjugate avanseaza
ecare x
k
minimizeaza functia obiectiv pe varietatea liniara kdimensionala x
0
+B
k
.
Teorema 53. [Teorema de Expandare a Subspatiilor] Fie d
i
]
n1
i=0
un sir de vectori nenuli
Qortogonali in R
n
. Atunci pentru oricare x
0
R
n
sirul x
k
] generat de
x
k+1
= x
k
+
k
d
k
,
k
=
g
T
k
d
k
d
T
k
Qd
k
,
are proprietatea ca x
k
minimizeaza f(x) =
1
2
x
T
Qx b
T
x pe dreapta x = x
k1
+ d
k1
,
< < , cat si pe varietatea liniara x
0
+B
k
.
Corolarul 54. In metoda de directii conjugate gradientii g
k
, k = 0, 1, . . . , n satisfac
g
T
k
d
i
= 0, i < k.
Nota: B
k
B
k+1
.
Deoarece x
k
minimizeaza f pe x
0
+B
k
, este evident ca x
n
este minimumul global al lui f.
CAPITOLUL 4: Metode de Directii Conjugate 81 Proprietati de Descrestere ale Metodei de Directii Conjugate
3. Metoda de Gradienti Conjugati
Directiile obtinute succesiv sunt versiuni conjugate ale gradientilor obtinuti pe masura ce metoda
avanseaza (sunt generati succesiv la ecare pas neind cunoscuti de la bun inceput).
La pasul k se evalueaza gradientul negativ si se adauga unei combinatii liniare de directii
precedente pentru a obtine o noua directie conjugata de-a lungul careia se face deplasarea.
Avantajele metodei:
Cu exceptia situatiei in care solutia s-a obtinut in mai putin de n pasi gradientul este intotdeauna
nenul si liniar independent in raport cu directiile precedente (gradientul este ortogonal pe
subspatiul B
k
generat de d
0
, d
1
, . . . , d
k1
).
Formula deosebit de simpla pentru generarea noii directii, facand metoda doar putin mai
complicata decat metoda celei mai abrupte pante.
Procesul de cautare progreseaza satisfactor si uniform inspre solutie la ecare pas deoarece
directiile sunt bazate pe gradienti (spre deosebire de multe metode de directii conjugate cu
directii generate arbitrar si in care progresul poate lent pana la ultimii cativa pasi). Acest lucru
nu este important pentru functii patratice ci pentru generalizarile la functii nepatratice.
CAPITOLUL 4: Metode de Directii Conjugate 82 Metoda de Gradienti Conjugati
Algoritmul de Gradienti Conjugati
Incepand cu x
0
R
n
denim d
0
:= g
0
= b Qx
0
si
x
k+1
= x
k
+
k
d
k
,
k
=
g
T
k
d
k
d
T
k
Qd
k
, (12)
d
k+1
= g
k+1
+
k
d
k
,
k
=
g
T
k+1
Qd
k
d
T
k
Qd
k
, (13)
unde g
k
= Qx
k
b.
Nota:
Primul pas este identic ca in metoda celei mai abrupte pante;
La ecare pas deplasarea se face intr-o directie ce este o combinatie liniara a gradientului curent
si a directiilor precedente;
Remarcati formulele simple pentru actualizarea directiei de deplasare (13).
CAPITOLUL 4: Metode de Directii Conjugate 83 Metoda de Gradienti Conjugati
Vericarea Algoritmului
Trebuie sa aratam ca vectorii d
k
sunt Qortogonali (acest lucru nu este deloc trivial !).
Demonstram acest lucru impreuna cu alte proprietati in teorema ce urmeaza.
Teorema 55. [Teorema de Gradienti Conjugati] Algoritmul de gradienti conjugati (12)(13)
este o metoda de directii conjugate. Daca solutia nu este obtinuta la pasul k, i.e. in x
k
, atunci:
a) < g
0
, g
1
, . . . , g
k
>=< g
0
, Qg
0
, . . . , Q
k
g
0
>;
b) < d
0
, d
1
, . . . , d
k
>=< g
0
, Qg
0
, . . . , Q
k
g
0
>;
c) d
T
k
Qd
i
= 0, pentru i k 1;
d)
k
=
g
T
k
g
k
d
T
k
Qd
k
;
e)
k
=
g
T
k+1
g
k+1
g
T
k
g
k
.
Demonstratie: Se demonstreaza simultan a), b) si c) prin inductie (vezi notele de curs pentru
demonstratia detaliata).
CAPITOLUL 4: Metode de Directii Conjugate 84 Metoda de Gradienti Conjugati
4. Metoda de Gradienti Conjugati ca Proces Optimal
Vom da in continuare o descriere alternativa a metodei de GC care va conduce la un rezultat
profund de convergenta. Rezultatul este bazat in mod esential pe punctul b) al teoremei de GC, mai
precis pe faptul ca spatiile B
k
in care se face succesiv minimizarea sunt determinate de gradientul
intitial g
0
si multiplicari ale acestuia cu Q.
Consideram o metoda alternativa de rezolvare a problemei de minimizare patratica. Dandu-se
x
0
arbitrar, e
x
k+1
= x
0
+P
k
(Q)g
0
, (14)
unde P
k
este un polinom de grad k. Alegerea unei multimi de coecienti pentru ecare polinom
P
k
determina un sir x
k
. Obtinem
x
k+1
x

= x
0
x

+P
k
(Q)Q(x
0
x

) = [I +QP
k
(Q)](x
0
x

)
de unde
E(x
k+1
) =
1
2
(x
k+1
x

)
T
Q(x
k+1
x

) =
1
2
(x
0
x

)Q[I +QP
k
(Q)]
2
(x
0
x

).
Ne punem problema alegerii polinomului P
k
astfel incat sa minimizam E(x
k+1
) in raport cu clasa
CAPITOLUL 4: Metode de Directii Conjugate 85 Metoda de Gradienti Conjugati ca Proces Optimal
tuturor polinoamelor de grad k. Dezvoltand (14), obtinem
x
k+1
= x
0
+
0
g
0
+
1
Qg
0
+ +
k
Q
k
g
0
, (15)
in care
i
sunt coecientii lui P
k
. Avand in vedere ca
B
k+1
=< d
0
, d
1
, . . . , d
k
>=< g
0
, Qg
0
, . . . , Q
k
g
0
>,
vectorul x
k+1
= x
0
+
0
d
0
+
1
d
1
+. . . +
k
d
k
generat prin metoda de gradienti conjugati are
exact aceasta forma. Mai mult, conform Teoremei de Expandare a Subspatiilor coecientii
i
sunt
determinati de metoda de gradienti conjugati astfel incat sa minimizeze E(x
k+1
).
Nota: Problema alegerii unui P
k
optimal este rezolvata de metoda de gradienti conjugati.
Relatia explicita intre coecientii optimali
i
ai lui P
k
si
i
,
i
este complicata precum este si
relatia intre coecientii lui P
k
si ai lui P
k+1
.
Forta metodei de gradienti conjugati consta in faptul ca pe masura ce progreseaza rezolva automat
problemele optimale pentru P
k
prin actualizarea unei cantitati mici de informatie la ecare pas.
Teorema 56. Punctul x
k+1
generat de metoda de gradienti conjugati satisface
E(x
k+1
) = min
P
k
1
2
(x
0
x

)
T
Q[I +QP
k
(Q)]
2
(x
0
x

),
unde minimul este considerat in raport cu toate polinoamele P
k
de grad k.
CAPITOLUL 4: Metode de Directii Conjugate 86 Metoda de Gradienti Conjugati ca Proces Optimal
Margini de Convergenta
Teorema 57. In metoda gradientilor conjugati avem
E(x
k+1
) max

i
[1 +
i
P
k
(
i
)]
2
E(x
0
) (16)
pentru orice polinom P
k
de grad k, unde maximul este peste toate valorile proprii
i
ale lui Q.
Fiecare pas al metodei de gradienti conjugati este cel putin la fel de bun ca un pas al metodei celei
mai abrupte pante considerat in acelasi punct. Intradevar, presupunem ca x
k
s-a calculat prin
metoda de gradienti conjugati. Din (15) avem x
k
= x
0
+
0
g
0
+
1
Qg
0
+ . . .
k1
Q
k1
g
0
.
Daca x
k+1
este calculat din x
k
prin metoda celei mai abrupte pante atunci x
k+1
= x
k

k
g
k
pentru anumiti
k
. Din a) al Teoremei de Gradienti Conjugati x
k+1
va avea forma (15) si deoarece
pentru metoda de gradienti conjugati E(x
k+1
) este mai mic decat pentru orice alt x
k+1
de forma
(15), concluzia rezulta imediat. Cand avem oarecare informatii privitoare la structura de valori
proprii a lui Q, atunci putem exploata aceasta informatie pentru a construi P
k
. De exemplu, daca
stim ca matricea Q are m < n valori proprii distincte, atunci printr-o alegere potrivita a lui P
m1
este posibil sa impunem conditia ca polinomul de grad m 1 + P
m1
() sa aibe cele m zerouri
egale cu cele m valori proprii. Folosind acest polinom particular in (16) obtinem ca E(x
m
) = 0 si
deci solutia optimala se va obtine in m pasi in loc de n pasi.
CAPITOLUL 4: Metode de Directii Conjugate 87 Metoda de Gradienti Conjugati ca Proces Optimal
5. Metoda Partiala de Gradienti Conjugati
Ideea: Executam m + 1 n pasi din metoda GC dupa care, in loc sa continuam, restartam
procedura din punctul curent dupa care se executa alti m+ 1 pasi ai metodei GC ! Aceasta clasa
de metode are o importanta teoretica si practica de exceptie.
Cazuri particulare:
m = 0: Metoda celei mai abrupte pante standard;
m = n 1: Metoda GC standard.
Pentru problema min
1
2
x
T
Qx b
T
x, schema iterativa este :
x
k+1
= x
k
+P
(k)
(Q)g
k
, g
k
= Qx
k
b
T
x,
unde P
k
este un polinom de grad m. Coecientii acestui polinom sunt alesi astfel incat sa se
minimizeze
E(x
k+1
) =
1
2
(x
k+1
x

)Q(x
k+1
x

),
unde x

este punctul de minim. Conform rezultatelor din sectiunea precedenta, x


k+1
poate gasit
prin executarea a m+1 pasi din metoda de gradienti conjugati in locul gasirii directe a coecientilor
polinomului.
CAPITOLUL 4: Metode de Directii Conjugate 88 Metoda PArtiala de Gradienti Conjugati
Rezultatele de convergenta din sectiunea precedenta sunt valabile si in acest caz. Totusi, atunci
cand matricea Qare o structura particulara de valori proprii ce este relativ des intalnita in problemele
de optimizare, cu predilectie in optimizari cu constrangeri, obtinem un rezultat interesant.
Sa presupunem ca matricea Q are m valori proprii mari (nu neaparat grupate impreuna) si
n m valori proprii mai mici care apartin intervalului [a, b].
Exemplu: Problema cu constrangeri
min x
T
Qx b
T
x
cu constrangerea c
T
x = 0,
ce poate aproximata prin problema neconstransa
min x
T
Qx b
T
x +
1
2
(c
T
x)
2
, >> 0,
a carei convergenta este dictata de valorile proprii ale termenului patratic
1
2
(Q+cc
T
). Se poate
arata ca atunci cand , o valoare proprie a acestei matrici tinde la innit in timp ce celelalte
n 1 raman marginite in intervalul [a, A].
Daca aplicam matoda celei mai abrupte pante rata de convergenta va defavorabila si se va
deteriora pe masura ce il crestem pe . In continuare vom arata ca executand m + 1 pasi de
CAPITOLUL 4: Metode de Directii Conjugate 89 Metoda PArtiala de Gradienti Conjugati
gradienti conjugati efectul celor mai mari m valori proprii este eliminat si rata de convergenta este
determinata ca si cum aceste valori proprii nu ar prezente.
Teorema 58. [Metoda partiala de gradienti conjugati] Presupunem ca Q = Q
T
> 0 are
n m valori proprii in intervalul [a, b], a > 0, si cele ramase sunt mai mari decat b. Atunci
pentru metoda partiala de gradienti conjugati restartata dupa m+ 1 pasi avem
E(x
k+1
)

b a
b +a

E(x
k
),
unde punctul x
k+1
se determina din x
k
prin m+ 1 pasi de gradienti conjugati.
Nota: Metoda partiala de gradienti conjugati poate vazuta ca o generalizare a metodei celei mai
abrupte pante atat in lozoe cat si in implementare si comportare. Rata de convergenta este
marginita de aceeasi formula insa cu cea mai mare valoare proprie eliminata.
CAPITOLUL 4: Metode de Directii Conjugate 90 Metoda PArtiala de Gradienti Conjugati
6. Extensii la Probleme Nepatratice
Metoda GC poarte extinsa la cazul general (nepatratic) intr-un numar de directii diferite
in functie de ce proprietati ale lui f sunt mai usor de calculat: Aproximare Patratica, Metoda
FletcherReeves, Metoda PolakRibiere, si PARTAN.
Aproximare patratica
Facem urmatoarele asocieri
g
k
f(x
k
)
T
, Q F(x
k
).
Algoritmul ce rezulta este identic cu GC pentru probleme patratice, si implica o aproximare
patratica ce trebuie sa e satisfacatoare macar local.
Cand se aplica problemelor nepatratice, metodele GC nu se vor termina dupa n pasi si atunci
avem urmatoarele posibilitati:
Continuam sa gasim directii conform algoritmului GC pana cand un anumit criteriu de oprire
este indeplinit;
CAPITOLUL 4: Metode de Directii Conjugate 91 Extensii la Probleme Nepatratice
Algoritmul se opreste dupa n (sau n+1) pasi si se restarteaza cu un pas de metoda de gradient
(cea mai abrupta panta).
Dintr-o serie de motive metoda a doua este de preferat conducand la urmatorul algoritm:
Pasul 1. Incepand cu x
0
se calculeaza g
0
= f(x
0
)
T
si se atribuie d
0
= g
0
;
Pasul 2. Pentru k = 0, 1, . . . , n 1:
a) Setam x
k+1
= x
k
+
k
d
k
, unde
k
=
g
T
k
d
k
d
T
k
F(x
k
)d
k
;
b) Se calculeaza g
k+1
= f(x
k+1
)
T
;
c) Cat timp k < n 1, setam d
k+1
= g
k+1
+
k
d
k
unde

k
=
g
T
k+1
F(x
k
)d
k
d
T
k
F(x
k
)d
k
si se repeta a);
Pasul 3. Se inlocuieste x
0
cu x
n
si se reia cu Pasul 1.
Avantaje: Nu sunt necesare cautari unidimensionale la nici un pas;
Algoritmul converge intr-un numar nit de pasi pentru o problema patratica.
Dezavantaje: F(x
k
) trebuie evaluata la ecare pas;
Algoritmul nu este global convergent.
CAPITOLUL 4: Metode de Directii Conjugate 92 Extensii la Probleme Nepatratice
Cautari Unidimensionale
Este de preferat sa evitam asocierea Q F(x
k
).
Intai se gaseste
k
la Pasul 2 a) printro cautare unidimensionala care minimizeaza functia
obiectiv (aceasta este in acord cu formula din cazul patratic).
In al doilea rand, formula pentru
k
este inlocuita cu alta formula (echivalenta in cazul patratic):

k
=
g
T
k+1
g
k+1
g
T
k
g
k
(Metoda FletcherReeves ) sau

k
=
(g
k+1
g
k
)
T
g
k+1
g
T
k
g
k
(Metoda PolakRibiere).
Capitolul 5: Metode de Tip QvasiNewton 93 Cuprinsul Capitolului
Capitolul 5: METODE DE TIP QVASINEWTON
In acest capitol abordam intr-un nou mod problema gasirii unor metode intermediare intre
metoda celei mai abrupte pante si metoda lui Newton. Acestea sunt din nou motivate de dorinta de
a accelera convergenta tipic lenta a metodei celei mai abrupte pante in paralel cu evitarea evaluarii,
memorarii si inversarii Hessianului cerute de metoda lui Newton. Ideea principala aici este sa folosim
o aproximatie a inversei Hessianului in locul inversei exacte.
Aceasta metode sunt cele mai sosticate metode disponibile Analiza convergentei este relativ
complicata si ne vom rezuma doar la a prezenta principalele caracteristici.
1. Metoda Newton Modicata
2. Constructia Inversei
3. Metoda DavidonFletcherPowell
4. Familii Broyden
5. Proprietati de Convergenta
6. Metode QvasiNewton fara Memorie
Capitolul 5: Metode de Tip QvasiNewton 94 Cuprinsul Capitolului
1. Metoda Newton Modicata
Consideram problema min f(x) si propunem o rezolvare bazata pe procesul iterativ general
x
k+1
= x
k

k
S
k
f(x
k
)
T
, (17)
unde S
k
este o matrice nn simetrica si
k
este ales astfel incat sa minimizeze f(x
k+1
). (Pentru
S
k
= I obtinem metoda celei mai abrupte pante iar pentru S
k
= F(x
k
)
1
obtinem metoda lui
Newton). Filosoa acestei modicari a metodei standard este sa alegem S
k
aproximativ egal cu
F(x
k
)
1
, cu conditia suplimentarea ca aceasta aproximatie sa e usor de construit.
Nota: Pentru a garanta descresterea pentru mici trebuie sa impunem S
k
> 0.
Ca de obicei prezentam metodele intai pentru problema patratica
1
2
x
T
Qx b
T
x, Q = Q
T
> 0
si apoi extindem, prin aproximare, la probleme mai generale. Pentru cazul patratic avem
x
k+1
= x
k

k
S
k
g
k
, g
k
= Qx
k
b,
k
=
g
T
k
S
k
g
k
g
T
k
S
k
QS
k
g
k
. (18)
Capitolul 5: Metode de Tip QvasiNewton 95 Metoda Newton Modicata
Teorema 59. [Cazul patratic] Fie x

punctul unic de minim al lui f. Denim E(x) :=


1
2
(x x

)Q(x x

). Pentru algoritmul (18)(18) avem la ecare pas k


E(x
k+1
)

B
k
b
k
B
k
+b
k

2
E(x
k
),
unde b
k
si B
k
sunt cea mai mica si respectiv cea mai mare valoare proprie a matricii S
k
Q.
Nota: Pentru cazul patratic trebuie sa asiguram ca S
k
este cat mai apropiat Q
1
intrucat in
acest caz atat b
k
cat si B
k
sunt aproape de 1 si convergenta va rapida.
Pentru cazul nepatratic trebuie sa asiguram ca S
k
este cat mai apropiat de F(x
k
)
1
.
Algoritmul (17) nu contine idei noi ci este o extensie simpla a rezultatelor anterioare.
Teorema precedenta constituie un instrument puternic ce poate caracteriza proprietatile de
convergenta ale unor algoritmi relativ complecsi de tipul qvasiNewton prezentati in acest capitol.
O Metoda Clasica
O metoda standard pentru a aproxima metoda lui Newton fara evaluarea lui F(x
k
)
1
pentru ecare
k este
x
k+1
= x
k

k
[F(x
0
)]
1
f(x
k
)
T
,
adica Hessianul in punctul initial x
0
este folosit in intregul proces de cautare. Ecacitatea procedurii
este guvernata de cat de rapid se schimba Hessianul, adica de marimea derivatei de ordinul 3.
Capitolul 5: Metode de Tip QvasiNewton 96 Metoda Newton Modicata
2. Constructia Inversei
Ideile principale ale metodelor qvasiNewton sunt:
Constructia unei aproximatii ale inversei Hessianului folosind informatie obtinuta pe masura ce
procesul de cautare evolueaza;
Aproximarea curenta H
k
este folosita la ecare pas pentru a deni noua directie de cautare
punand S
k
= H
k
in metoda Newton modicata;
Aproximarea converge la inversa Hessianului in punctul solutie iar metoda per ansamblu se
comporta relativ similar metodei lui Newton.
Fie f : R
n
de clasa c
2
. Pentru doua puncte x
k+1
si x
k
denim g
k+1
:= f(x
k+1
)
T
,
g
k
:= f(x
k
)
T
si p
k
= x
k+1
x
k
. Atunci
g
k+1
g
k
F(x
k
)p
k
.
Daca Hessianul F este constant atunci avem
q
k
:= g
k+1
g
k
= Fp
k
(19)
si vedem ca evaluarea gradientului in doua puncte ne furnizeaza informatie despre F.
Capitolul 5: Metode de Tip QvasiNewton 97 Constructia Inversei
Presupunand ca n directii liniar independente p
0
, p
1
, . . . , p
n1
si q
k
corespunzatori sunt
cunoscuti atunci F este determinat in mod unic. Intradevar, daca P si Q sunt matrici n n cu
coloane p
k
si q
k
respectiv, avem
F = QP
1
.
Construim aproximatii succesive H
k
pentru F
1
bazandu-ne pe datele obtinute la primii k pasi ai
procesului de cautare astfel incat daca F ar fost constant aproximarea sa e consistenta cu (19)
pentru acesti pasi adica
H
k+1
q
i
= p
i
, 0 i k. (20)
Dupa n pasi liniar independenti vom avea H
n
= F
1
.
Pentru orice k < n xat, problema construirii unui H
k
potrivit admite o innitate de solutii
deoarece exista mai multe grade de libertate decat constrangeri. In particular, se pot satisface
proprietati suplimentare prin exploatarea gradelor de libertate.
Corectii de Rang 1
Denim o recurenta de forma
H
k+1
:= H
k
+a
k
z
k
z
T
k
(= H
T
k+1
)
unde z
k
este un vector si a
k
un scalar ce denesc o matrice de rang (cel mult) unu. Alegem z
k
si
a
k
a.i. (20) este indeplinita obtinand urmatorul rezultat.
Capitolul 5: Metode de Tip QvasiNewton 98 Constructia Inversei
Teorema 60. Fie F = F
T
o matrice xata si presupunem ca vectorii p
0
, p
1
, . . . p
k
sunt dati.
Denim q
i
= Fp
i
, i = 0, 1, . . . , k. Initializand cu orice matrice simetrica H
0
e
H
i+1
= H
i
+
(p
i
H
i
q
i
)(p
i
H
i
q
i
)
T
q
T
i
(p
i
H
i
q
i
)
. (21)
Atunci
p
i
= H
k+1
q
i
, i k.
Procedura globala:
1. Calculam directia de cautare d
k
cu formula d
k
:= H
k
g
k
;
2. Minimizam f(x
k
+
k
d
k
) in raport 0;
3. Determinam x
k+1
= x
k
+
k
d
k
, p
k
=
k
d
k
si g
k+1
;
4. Calculam H
k+1
din (21) pentru i = k.
Dicultati: Formula de actualizare (21) pastreaza pozitivitatea doar daca
q
T
i
(p
i
H
i
q
i
) > 0.
Chiar daca aceasta cantitate este pozitiva, poate relativ mica, conducand deci la probleme
numerice majore la inversare.
Capitolul 5: Metode de Tip QvasiNewton 99 Constructia Inversei
3. Metoda DavidonFletcherPowell
Prima metoda obtinuta original de Davidon si imbunatatita de Fletcher si Powell;
Are proprietatea atractiva ca pentru o functie patratica genereaza directiile de gradienti conjugati
construind simultan inversa Hessianului !
La ecare pas inversa Hessianului este actualizata printr-o suma de doua matrici simetrice de
rang 1;
Este o procedura de corectie de rang 2 numita si metoda de metrica variabila.
Procedura: Se incepe cu orice matrice simetrica si pozitiv denita H
0
, orice punct x
0
, si k = 0.
Pasul 1: d
k
:= H
k
g
k
;
Pasul 2: Se minimizeaza f(x
k
+d
k
) in raport cu 0 pentru a obtine x
k+1
, p
k
=
k
d
k
,
si g
k+1
;
Pasul 3: Se seteaza q
k
= g
k+1
g
k
si
H
k+1
= H
k
+
p
k
p
T
k
p
T
k
q
k

H
k
q
k
q
T
k
H
k
q
T
k
H
k
q
k
.
Se actualizeaza k si se trece la Pasul 1.
Capitolul 5: Metode de Tip QvasiNewton 100 Metoda DavidonFletcherPowell Method
Se pot demonstra urmatoarele proprietati atractive:
H
k
> 0 H
k+1
> 0.
Daca f este functie patratica cu Hessianul constant F atunci metoda DFP produce directii p
k
care sunt Fconjugate. Daca metoda se ruleaza n pasi atunci H
n
= F
1
.
Teorema 61. Daca f este patratica avand Hessianul F pozitiv denit, atunci pentru metoda
DFP avem
p
T
i
Fp
j
= 0, 0 i < j k, (22)
H
k+1
Fp
i
= p
i
, 0 i k. (23)
Nota:
Deoarece p
k
sunt Fortogonali si deoarece minimizam f succesiv de-alungul acestor directii
observam ca procedura este de fapt o metoda de gradienti conjugati.
Daca aproximarea initiala H
0
este luata egala cu matricea identitate (H
0
= I) metoda coincide
cu metoda de gradienti conjugati.
In orice caz, procesul iterativ converge exact in n pasi.
p
0
, p
1
, . . . , p
k
sunt vectori proprii corespunzatori unor valori proprii unitare pentru matricea
H
k+1
F (asa cum rezulta din (23)). Acesti vectori proprii sunt liniar independenti deoarece sunt
Fortogonali si prin urmare H
n
= F
1
.
Capitolul 5: Metode de Tip QvasiNewton 101 Metoda DavidonFletcherPowell Method
4. Familii Broyden
Formulele de actualizare pentru inversul Hessianului sunt bazate pe satisfacerea relatiilor
H
k+1
q
i
= p
i
, 0 i k, (24)
care s-a obtinut din
q
i
= Fp
i
, 0 i k,
ce are loc in cazul pur patratic.
Exista posibilitatea sa actualizam aproximatii ale Hessianului propriuzis in loc sa actualizam
inversa acestuia caz in care trebuie sa satisfacem relatiile
q
i
= B
k+1
p
i
, 0 i k. (25)
Ecuatia (25) are aceeasi forma ca (24) cu exceptia faptului ca q
i
si p
i
sunt interschimbate si H
este inlocuit cu B. Prin urmare orice formula pentru H obtinuta pentru a satisface (24) poate
transformata intr-o formula de actualizare pentru B, adica obtinem o formula complementara prin
interschimbarea rolurilor lui B si H si respectiv ale lui q si p. Viceversa, orice formula de actualizare
Capitolul 5: Metode de Tip QvasiNewton 102 Familii Broyden
care satisface (25) poate transformata intr-o formula complementara pentru actualizarea lui H.
Este usor de vericat ca daca luam complementul unui complement obtinem formula originala.
De exemplu, actualizarea de rang unu este
H
k+1
= H
k
+
(p
k
H
k
q
k
)(p
k
H
k
q
k
)
T
q
T
k
(p
k
H
k
q
k
)
si formula complementara corespunzatoare este
B
k+1
= B
k
+
(q
k
B
k
p
k
)(q
k
B
k
p
k
)
T
p
T
k
(q
k
B
k
p
k
)
.
Similar, formula DFP
H
DFP
k+1
= H
k
+
p
k
p
T
k
p
T
k
q
k

H
k
q
k
q
T
k
H
k
q
T
k
H
k
q
k
devine prin luarea complementului
B
k+1
= B
k
+
q
k
q
T
k
q
T
k
p
k

B
k
p
k
p
T
k
B
k
p
T
k
B
k
p
k
(26)
care mai este cunoscuta sub numele de actualizarea BroydenFletcherGoldfarbShanno.
Capitolul 5: Metode de Tip QvasiNewton 103 Familii Broyden
O modalitate alternativa de a transforma o formula de actualizare pentru H intruna pentru
B si viceversa este prin calcularea inversei. Incepand cu
H
k+1
q
i
= p
i
, 0 i k,
avem
q
i
= H
1
k+1
p
i
, 0 i k,
ceea ce inseamna ca H
1
k+1
satisface (25) care este criteriul pentru actualizarea lui B.
Deosebit de important, inversa unei formule de actualizare de rang 2 este tot o formula de rang
2. Acest lucru se poate verica folosind celebra formula ShermanMorrison
[A +ab
T
]
1
= A
1

A
1
ab
T
A
1
1 +b
T
A
1
a
(27)
unde A este o matrice n n si a si b sunt vectori ndimensionali (desigur ca formula este
adevarata cu conditia ca inversele respective sa existe).
Actualizarea BroydenFletcherGoldfarbShanno pentru H produce, prin calcularea inversei, o
actualizare corespunzatoare pentru H de forma
H
BFGS
k+1
= H
k
+

1 +
q
T
k
H
k
q
k
q
T
k
p
k
_
p
k
p
T
k
p
T
k
q
k

p
k
q
T
k
H
k
+H
k
q
k
p
T
k
q
T
k
p
k
. (28)
Capitolul 5: Metode de Tip QvasiNewton 104 Familii Broyden
Remarci:
Aceasta formula poate folosita in mod identic cu formula DFP;
Experimente numerice au indicat ca performantele ei sunt superioare formulei DFP;
Ambele formule DFP si BFGS contin corectii de rang 2 simetrice ce se construiesc din
vectorii p
k
si H
k
q
k
. Prin urmare o combinatie liniara ponderata a acestor formule va de acelasi
tip (simetrica, rang 2, construita pe baza lui p
k
si H
k
q
k
).
Obtinem astfel o intreaga colectie de actualizari cunoscute sub numele de familii Broyden
denite de
H

= (1 )H
DFP
+H
BFGS
(29)
unde este un parametru ce poate lua orice valoare reala.
O metoda Broyden este denita ca o metoda qvasiNewton in care la ecare iteratie un membru
al familiei Broyden este folosit ca formula de actualizare. In general, parametrul variaza de la
o iteratie la alta si prin urmare trebuie sa specicam sirul
1
,
2
, . . .. O metoda Broyden pura
foloseste un constant. Deoarece H
DFP
si H
BFGS
satisfac relatia fundamentala (24) aceasta
relatie este deasemenea satisfacuta de toti membrii familiei Broyden.
Teorema 62. Daca f este patratica cu Hessian pozitiv denit F, atunci pentru o metoda Broyden
avem
p
T
i
Fp
j
= 0, 0 i < j k, (30)
Capitolul 5: Metode de Tip QvasiNewton 105 Familii Broyden
H
k+1
Fp
i
= p
i
, 0 i k. (31)
Observatii:
Familia Broyden nu pastreaza cu necesitate pozitivitatea lui H

pentru toate valorile lui ;


Alegerea sirului
k
este irelevanta pentru functii patratice (vezi teorema de mai sus). Se poate
arata ca si pentru functii nepatratice si cautari unidimensionale exacte punctele generate de toate
metodele Broyden coincid (daca singularitatile sunt evitate si minimele multiple sunt rezolvate in
mod consistent). Deci anumite diferente apar numai in cazul cautarilor unidimensionale inexacte.
Proprietati ale metodelor Broyden:
Necesita numai informatie despre gradient (derivate de ordinul 1);
Directiile de deplasare sunt intotdeauna de descrestere daca asiguram H
k
> 0;
In general H
k
converge la inversa Hessianului (in cel mult n pasi pentru functii patratice);
Metode Partiale de tip QvasiNewton
Metodele de tip Broyden pot restartate la ecare m+1 < n pasi, obtinandu-se metode partiale
de tip qvasiNewton. Pentru m mic, acestea necesita memorie modesta intrucat aproximatia
inversei Hessianului poate memorata implicit prin memorarea vectorilor p
i
si q
i
, i m + 1. In
cazul patratic aceasta corespunde exact cu metoda partiala de gradienti conjugati si are proprietati
similare de convergenta.
Capitolul 5: Metode de Tip QvasiNewton 106 Familii Broyden
5. Proprietati de Convergenta
Diversele metode qvasiNewton sunt relativ dicil de analizat si prin urmare analiza lor este
adesea facuta prin analogie.
Convergenta Globala
Metodele qvasiNewton sunt rulate intr-o maniera continua, incepand cu o aproximatie initiala care
este imbunatatita de-alungul intregului proces iterativ.
Sub anumite ipoteze relativ stringente se poate demonstra ca procedurile sunt global
convergente.
Alternativ, daca se restarteaza metoda qvasiNewton la ecare n sau n + 1 pasi atunci
convergenta globala este garantata de prezenta primului pas iterativ la ecare ciclu.
Convergenta Locala
Metodele au in general convergenta superliniara. Trebuie remarcat ca metodele sunt relativ sensibile
la cautari unidimensionale inexacte.
Capitolul 5: Metode de Tip QvasiNewton 107 Proprietati de Convergenta
6. Metode QvasiNewton fara Memorie
Analiza precedenta a metodelor qvasiNewton poate folosita ca baza pentru reconsiderarea
metodelor de gradienti conjugati si obtinerea unei noi clase de proceduri atractive.
Sa consideram o simplicare a metodei qvasiNewton BFGS in care H
k+1
este denit de o
actualizare BFGS aplicata lui H = I in locul lui H
k
. Astfel H
k+1
este determinat fara referinta la
precedentul H
k
si prin urmare actualizarea se numeste fara memorie.
Procedura: Startam in orice punct x
0
cu k = 0.
Pasul 1: Setam H
k
= I;
Pasul 2: Setam
d
k
= H
k
g
k
; (32)
Pasul 3: Minimizam f(x
k
+d
k
) in raport cu 0 pentru a obtine
k
, x
k+1
, p
k
=
k
d
k
,
g
k+1
, si q
k
= g
k+1
g
k
(trebuie ales
k
sucient de precis pentru a asigura p
T
k
q
k
> 0).
Capitolul 5: Metode de Tip QvasiNewton 108 Metode QvasiNewton fara Memorie
Pasul 4: Daca k nu este multiplu de n setam
H
k+1
= I +

1 +
q
T
k
q
k
q
T
k
p
k
_
p
k
p
T
k
p
T
k
q
k

p
k
q
T
k
+q
k
p
T
k
q
T
k
p
k
. (33)
Fie k := k + 1 si ne intoarcem la Pasul 2. Daca k este multiplu de n ne intoarcem la Pasul 1.
Combinand (32) si (33) este usor de vazut ca
d
k+1
= g
k+1

1 +
q
T
k
q
k
q
T
k
p
k
_
p
k
p
T
k
g
k+1
p
T
k
q
k
+
p
k
q
T
k
g
k+1
+q
k
p
T
k
g
k+1
q
T
k
p
k
. (34)
Daca ecare cautare unidimensionala este exacta, atunci p
T
k
g
k+1
= 0 si prin urmare p
T
k
q
k
=
p
T
k
g
k
. In acest caz (34) este echivalenta cu
d
k+1
= g
k+1
+
q
T
k
g
k+1
p
T
k
q
k
= g
k+1
+
k
d
k
,
unde
k
=
q
k
q
T
k+1
g
T
k
q
k
. Aceasta coincide cu forma PolakRibiere a gradientilor conjugati. Prin urmare
folosirea actualizarii BFGS in aceasta maniera conduce la un algoritm de tip Newton modicat cu
coecient matriceal pozitiv denit si care este echivalent cu o implementare standard a metodei de
gradient conjugat atunci cand cautarea unidimensionala este exacta.
Capitolul 5: Metode de Tip QvasiNewton 109 Metode QvasiNewton fara Memorie
Cu toate acestea acest algoritm este folosit fara cautare unidimensionala exacta intr-o forma
similara cu metoda de gradienti conjugati folosind (34).
Mai general, se poate extinde aceasta idee si se poate obtine o actualizare Broyden fara memorie
de forma
d
k+1
= g
k+1
+ (1 )
q
T
k
g
k+1
q
T
k
q
k
q
k
+
q
T
k
g
k+1
q
T
k
p
k
p
k
.
Aceasta este echivalenta cu metoda de gradienti conjugati doar pentru = 1, corespunzand
actualizarii BFGS. Prin urmare, in multe situatii, se prefera = 1 pentru aceasta metoda.
Capitolul 6: Minimizare cu Constrangeri 110 Introducere
Capitolul 6: CONDITII DE MINIMIZARE CU CONSTRANGERI
Constrangeri
Plan Tangent
Conditii Necesare de Ordinul Intai (Constrangeri de Tip Egalitate)
Exemple
Conditii de Ordinul Doi
Valori Proprii in Subspatiul Tangent
Constrangeri de Tip Inegalitate
Principalele idei in studiul problemelor cu constrangeri de tip egalitate sunt:
Caracterizarea suprafetei determinate de curba fezabila denita de aceste egalitati (in R);
Considerarea valorii functiei obiectiv dealungul unor curbe pe aceasta suprafata;
Incepem prin studiul conditiilor necesare si suciente satisfacute in punctele solutie. Principalele
instrumente tehnice sunt multiplicatorii Lagrange si o matrice Hessiana speciala care, folosite
impreuna, formeaza fundatia pentru dezvoltarea si analiza algoritmilor folositi in cazul constrans.
Capitolul 6: Minimizare cu Constrangeri 111 Introducere
1. Constrangeri
Problema generala neliniara de care ne ocupam este
minimizeaza f(x)
cand h
i
(x) = 0, i = 1, 2, . . . , m,
g
j
(x) 0, j = 1, 2, . . . , p,
x R
n
,
unde m n iar functiile f, h
i
si g
j
(i = 1, 2, . . . , m, j = 1, 2, . . . , p) sunt continue
(de obicei chiar de clasa c
2
). Pentru simplicarea notatiei introducem functiile vectoriale h =
(h
1
, h
2
, . . . , h
m
) si g = (g
1
, g
2
, . . . , g
p
).
Constrangerile h(x) = 0 si g(x) 0 sunt numite constrangeri functionale in timp ce x
este o constrangere de tip multime. Intocmai ca in cazul neconstrans, consideram ca este R
n
sau
presupunem ca punctele solutie sunt in interiorul lui .
Punct fezabil: Un punct satisfacand toate constrangerile functionale.
Constrangeri active: O constrangere de tip inegalitate g
i
(x) 0 se numeste activa intr-un
punct fezabil daca g
i
(x) = 0 si inactiva daca g
i
(x) < 0. Prin conventie toate constrangerile de
tip egalitate sunt active.
Capitolul 6: Minimizare cu Constrangeri 112 Constrangeri
Observatii:
Constrangerile active intrun punct fezabil restrang domeniul de fezabilitate intr-o vecinatate a
lui x in timp ce cele inactive nu au nici o inuenta (in vecinatatea lui x);
Presupunand ca stim a priori care constrangeri sunt active in punctele solutie, punctul solutie va
un minim local al problemei denita prin ignorarea constrangerilor inactive si tratarea tuturor
constrangerilor active drept constrangeri de tip egalitate. In acest caz se poate considera ca
problema are numai constrangeri de tip egalitate;
Vom considera in continuare probleme avand numai constrangeri de tip egalitate pentru a
economisi notatie si a izola principalele idei ce guverneaza problemele constranse. Ulterior, vom
proceda la anumite adaugiri privitoare la modul de alegere al constrangerilor active;
Principala noastra preocupare o constituie solutiile locale si vom da doar anumite scurte remarci
privind solutiile globale;
Capitolul 6: Minimizare cu Constrangeri 113 Constrangeri
2. Plan Tangent
Multimea de egalitati
h
i
(x) = 0, i = 1, 2, . . . , m, (35)
deneste o submultime a lui R
n
numita o (hiper)suprafata. Daca egalitatile sunt regulate, intr-un
sens ce va descris mai jos, atunci hipersuprafata este regulata si are dimensiune n m.
Suprafata neteda: Daca functiile h
i
apartin lui c
1
, (i = 1, 2, . . . , m).
Curba pe suprafata S: O familie de puncte x(t) S parametrizate continuu de t, a t b.
Curba diferentiabila x(t): Daca x(t) este diferentiabila in raport cu t (acesta este o functie
vectoriala).
O curba x(t) trece printrun punct x

daca x

= x(t

) pentru un t

a.i. a t

b.
Plan tangent in punctul x

: Multimea tuturor derivatelor in x

ale tuturor curbelor diferentiabile


pe S care trec prin x

(acesta este un subspatiu a lui R


n
).
Pentru caracterizarea planului tangent la o curba (35) introducem urmatoarele denitii.
Capitolul 6: Minimizare cu Constrangeri 114 Plan Tangent
Denitia 63. Un punct x

care satisface constrangerea h(x

) = 0 este numit regulat pentru


respectiva constrangere daca vectorii gradient h
1
(x

), . . . , h
m
(x

) sunt liniar independenti.


Teorema 64. Intr-un punct regulat x

pe suprafata denita de h(x) = 0 planul tangent este


M = y : h(x

)y = 0].
Observatie: Conditia de regularitate a unui punct nu este intrinseca suprafetei denita de constrangeri
ci este specica reprezentarii particulare in termenii lui h. Planul tangent este independent de
reprezentare in timp ce M nu este.
Exemplul 65. Fie h(x
1
, x
2
) = 0. Atunci h = 0 genereaza axa x
2
, si ecare punct pe aceasta
axa este regulat. Alternativ, daca h(x
1
, x
2
) = x
2
1
din nou S este axa x
2
dar acum nici un punct
de pe axa nu este regulat. Intr-adevar, avem M = R
2
, in timp ce planul tangent este axa x
2
.
Capitolul 6: Minimizare cu Constrangeri 115 Plan Tangent
3. Conditii Necesare de Ordinul Intai
Lema 66. Fie x

punct regulat al constrangerilor h(x) = 0 si punct de extrem local al lui f cu


constrangerile h. Atunci oricare ar y R
n
care satisface
h(x

)y = 0
satisface deasemenea
f(x

)y = 0.
Aceasta lema arata ca f(x

) este ortogonal la planul tangent ceea ce implica ca este o


combinatie liniara a gradientilor lui h evaluati in x

(coecientii acestei combinatii liniare sunt exact


multiplicatorii Lagrange).
Teorema 67. [Conditii necesare de ordinul intai] Fie x

un punct de extrem local al lui f cu


constrangerile h(x) = 0. Presupunem ca x

este un punct regulat pentru aceste constrangeri.


Atunci exista R
m
astfel incat
f(x

) +
T
h(x

) = 0.
Capitolul 6: Minimizare cu Constrangeri 116 Conditii Necesare de Ordinul Intai
Observatie: Conditiile necesare de ordinul intai
f(x

) +
T
h(x

) = 0
impreuna cu constrangerile
h(x

) = 0
dau n+m ecuatii (in general neliniare) cu n+m variabile ce sunt componentele lui x

si . Deci
in cazuri nepatologice conditiile necesare pot furniza o solutie unica !
In termenii Lagrangianului asociat cu problema constransa
(x, ) := f(x) +
T
h(x)
conditiile necesare pot exprimate in forma

x
(x, ) = 0,

(x, ) = 0.
4. Exemple
de discutat la Seminar
Capitolul 6: Minimizare cu Constrangeri 117 Conditii Necesare de Ordinul Intai
5. Conditii de Ordinul Doi
In aceasta sectiune presupunem ca f, h c
2
.
Teorema 68. [Conditii Necesare de Ordinul Doi] Presupunem ca x

este un minim local al lui


f cu constrangerile h = 0 si este punct regulat al acestor constrangeri. Atunci exista R
m
astfel incat
f(x

) +
T
h(x

) = 0.
Daca M = y : h(x

)y = 0] este planul tangent atunci matricea


L(x

) = F(x

) +
T
H(x

)
este pozitiv semidenita pe M adica
y
T
L(x

)y 0, y M.
Observatii: Pentru o functie vectoriala h = (h
1
, h
2
, . . . , h
m
) prima derivata este o matrice mn
h(x) :=

h
i
(x)
x
j

Capitolul 6: Minimizare cu Constrangeri 118 Conditii de Ordinul Doi


iar a doua derivata este un tensor tridimensional denit in termenii celor m Hessieni
H
1
(x), . . . , H
m
(x) corespunzatori celor m componente ale functiei. Avem deasemenea ca
gradientul lui
T
h(x) este
T
h(x) iar Hessianul este

T
H(x) :=
m

i=1

i
H
i
(x).
Teorema 69. [Conditii Suciente de Ordinul Doi] Presupunem ca exista un punct x

care
satisface h(x

) = 0 si un R
n
astfel incat
f(x

) +
T
h(x

) = 0.
Sa presupunem deasemenea ca matricea
L(x

) = F(x

) +
T
H(x

)
este pozitiv denita pe M = y : h(x

)y = 0], adica pentru y M, y ,= 0, avem


y
T
L(x

)y > 0. Atunci x

este un minim local strict al lui f cu constrangerile h(x) = 0.


Capitolul 6: Minimizare cu Constrangeri 119 Conditii de Ordinul Doi
6. Valori Proprii in Subspatiul Tangent
Matricea L restrictionata la subspatiul M care este tangent la suprafata denita de constrangeri
joaca in cadrul conditiilor de ordin doi un rol similar cu cel jucat de Hessianul functiei obiectiv in
cazul fara constrangeri.
Mai mult, valorile proprii corespunzatoare ale lui L restrictionate la M (notam acest operator
cu L
M
) determina rata de convergenta a algoritmilor corespunzatori.
Denim L
M
: M M prin L
M
(y) := proiectia lui Ly pe M. Aceasta este o aplicatie
liniara din M in M.
Un vector y M este un vector propriu al lui L
M
daca exista un numar real astfel incat
L
M
y = y, si este atunci o valoare proprie. In particular, y este un vector propriu daca Ly
poate scris ca suma intre y si un vector ortogonal pe M.
Reprezentare matriciala pentru L
M
: Fie e
1
, e
2
, . . . , e
nm
o baza ortonormala pentru M si E
matricea baza corespunzatoare de dimensiune n (n m),
y M, z R
nm
, a. i. y = Ez.
Capitolul 6: Minimizare cu Constrangeri 120 Valori Proprii in Subspatiul Tangent
Prin urmare E
T
LEz este vectorul ale carui componente dau reprezentarea in termenii bazei si,
in mod corespunzator, matricea de dimensiune (n m) (n m) E
T
LE este reprezentarea
matriceala a lui L restrictionat la M.
Valorile proprii ale lui L restrictionat la M sunt exact valorile proprii ale lui E
T
LE si acestea
sunt independente de matricea baza ortogonala E.
Hessieni Bordati
Abordarea de mai sus pentru determinarea valorilor proprii ale lui L
M
este simpla si directa. Putem
insa considera si o alta abordare utila bazata pe constructia unor matrici si determinanti de ordin
n +m in loc de n m. Vom da intai cateva caracterizari :
M = x R
n
: hx = 0];
z M z = h
T
w, w R
m
(necesitatea este mai greu de aratat). In plus, x este un vector propriu al lui L
M
daca satisface
urmatoarele doua conditii:
1. x M;
2. Lx = x +z, unde z M.
Capitolul 6: Minimizare cu Constrangeri 121 Valori Proprii in Subspatiul Tangent
Acestea sunt echivalente in termenii lui z cu
hx = 0
Lx = x +h
T
w
care este un sistem de n + m ecuatii liniare in necunoscutele w, x. Acesta are o solutie nenula
daca si numai daca determinantul este zero, i.e.,
det

O h
h
T
L I

p() = 0.
Observati ca p() este un polinom in de grad nm. Prin modul de obtinere el este si polinomul
caracteristic al lui L
M
. Obtinem urmatorul criteriu:
Teorema 70. [Hessian Bordat] Matricea L este pozitiv denita pe subspatiul M = x :
hx = 0] daca si numai daca ultimii n m minori principali ai lui
B =

O h
h
T
L

au toti semnul (1)


m
.
Capitolul 6: Minimizare cu Constrangeri 122 Valori Proprii in Subspatiul Tangent
7. Constrangeri de Tip Inegalitate
Consideram acum probleme de forma
minimizeaza f(x)
cu h(x) = 0,
g(x) 0,
(36)
unde f, h, g sunt de clasa c
1
iar g este o functie pdimensionala.
Denitia 71. Fie x

un punct ce satisface constrangerile


h(x

) = 0, g(x

) 0
si e J multimea indicilor j pentru care g
j
(x

) = 0. Atunci x

este numit un punct regulat


al constrangerilor daca vectorii gradient h
i
(x

), g
j
(x

), 1 i m, j J sunt liniar
independenti.
Teorema 72. [KuhnTucker] Fie x

un punct de minim relativ pentru problema (36) si


presupunem ca x

este un punct regulat pentru constrangeri. Atunci exista un vector R


n
si un
Capitolul 6: Minimizare cu Constrangeri 123 Constrangeri de Tip Inegalitate
vector R
p
, cu 0, astfel incat
f(x

) +
T
h(x

) +
T
g(x

) = 0,

T
g(x

) = 0.
(37)
Teorema 73. [Conditii Necesare de Ordinul Doi] Presupunem ca functiile f, h, g c
2
, x

este un minim local pentru (36) si este punct regulat al respectivelor constrangeri. Atunci exista
R
m
, R
p
, 0 a. i. (37) este adevarata si astfel incat
L(x

) = F(x

) +
T
H(x

) +
T
G(x

)
este pozitiv semidenita pe subspatiul tangent al constrangerilor active in x

.
Teorema 74. [Conditii Suciente de Ordinul Doi] Fie f, h, g c
2
. x

satisfacand
constrangerile (36) este un punct de minim relativ in sens strict daca au loc conditiile :
Exista R
m
si R
p
a.i.
0,

T
g(x

) = 0,
f(x

) +
T
h(x

) +
T
g(x

) = 0.
Capitolul 6: Minimizare cu Constrangeri 124 Constrangeri de Tip Inegalitate
Hessianul
L(x

) = F(x

) +
T
H(x

) +
T
G(x

)
este pozitiv denit pe subspatiul
M
t
= y : h(x

)y = 0, g
j
(x

)y = 0, j J]
unde
J = j : g
j
(x

) = 0,
j
> 0].
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 125
Capitolul 7: MINIMIZARE CU CONSTRANGERI PRINCIPII
GENERALE ALE ALGORITMILOR
Introducere
Metode Primale
Metoda de Penalizare si Bariera
Metode Duale si de Plan Secant
Metode de Tip Lagrange
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 126
1. Introducere
In acest capitol vom da o descriere foarte sumara a principiilor ce guverneaza algoritmii in cazul
optimizarilor cu constrangeri.
In general, problema de optimizare cu constrangeri este intotdeauna redusa la una fara
constrangeri, cea din urma rezolvandu-se printr-o modicare oarecare a unuia dintre algoritmii
cunoscuti. Cele patru clase de metode amintite mai sus corespund unei scheme de clasicare ce are
in vedere multimea pe care se face efectiv cautarea minimului.
Consideram o problema de minimizare a unei functii de n variabile si avand m constrangeri.
Exista diverse metode de rezolvare a acestei probleme ce lucreaza in spatii de dimensiune n m,
n, m sau n + m. Aceste patru clase de metode isi au fundamentul in diverse parti ale teoriei
prezentate in capitolul anterior.
In orice caz, exista puternice interconexiuni intre diversele metode atat in forma nala in care
se implementeaza algoritmul cat si in performantele specice. De exemplu, rata de convergenta a
algoritmilor cei mai mai buni dpdv practic este determinata de structura Hessianului Lagrangianului
intocmai precum structura Hessianului functiei obiectiv determina rata de convergenta in multe
metode pentru probleme fara constrangeri. Pe scurt, cu toate ca diversii algoritmi difera substantial
in motivatie, in nal sunt guvernati de un set comun de principii.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 127 Introducere
2. Metode Primale
Consideram problema
min f(x),
cu h(x) = 0,
g(x) 0,
unde x este de dimensiune n, in timp ce f, g si h au dimensiunile egale cu 1, p si m.
Metodele primale rezolva problema prin minimizarea lui f in regiunea din R
n
denita de
constrangeri. O metoda primala este o metoda de cautare care actioneaza direct pe functia originala
cautand solutia optimala intro regiune fezabila. Fiecare punct curent este fezabil iar valoarea
functiei obiectiv descreste continuu. Pentru o problema cu n variabile si avand m constrangeri de
tip egalitate, metodele primale actioneaza in spatiul fezabil care are dimensiune n m.
Avantajele principale:
Fiecare punct generat de metoda este fezabil. Prin urmare, punctul nal (la care se termina
cautarea) este fezabil si probabil aproape optimal reprezentand prin urmare o solutie acceptabila
a problemei practice ce a motivat programarea neliniara;
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 128 Metode Primale
Cel mai adesea, se poate garanta ca daca metoda genereaza un sir convergent atunci punctul
limita al sirului este cel putin un minim local cu constrangeri. Mai precis, convergenta globala
este cel mai adesea satisfacatoare pentru aceste metode;
Cele mai multe dintre metodele din aceasta clasa nu se bazeaza pe structura particulara a
problemei, precum ar convexitatea, si prin urmare sunt aplicabile problemelor generale de
programare neliniara.
Dezavantaje majore:
Aceste metode necesita o procedura preliminara pentru a obtine un punct fezabil initial;
Apar dicultati majore de calcul intrucat trebuie sa ramanem permanent in regiunea fezabila;
Anumite metode pot sa nu convearga daca nu sunt luate anumite precautii speciale.
Concluzii: Ratele de convergenta sunt relativ bune si pentru constrangeri liniare metodele
primale sunt dintre cele mai eciente. Mai mult, sunt simple si general aplicabile.
Exista doua clase de metode primale:
Metode de directii fezabile
Metode de constrangeri active
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 129 Metode Primale
Metode de directii fezabile
Ideea este ca respectiva cautare sa e facuta intr-o regiune fezabila de forma
x
k+1
= x
k
+
k
d
k
,
unde d
k
este o directie si
k
un scalar nenegativ. Scalarul se alege a.i. sa minimizeze functia
obiectiv f cu restrictia ca punctul x
k+1
si segmentul de dreapta ce uneste x
k
si x
k+1
sa e fezabile.
Prin urmare, un intreg segment x
k
+d
k
, > 0, trebuie sa e continut in regiunea fezabila. Deci
ecare pas este o compunere de doi subpasi:
Se alege o directie fezabila
Se executa o cautare unidimensionala cu constrangeri
Dezavantaje:
Pentru probleme generale este posibil sa nu existe nici o directie fezabila. Prin urmare trebuie
sau sa relaxam cerinta de fezabilitate permitand ca punctele de cautare sa poata devia usor de
la suprafata determinata de constrangeri sau sa introducem deplasari dealungul unor curbe pe
suprafata determinata de constrangeri;
In forma lor pura majoritatea metodelor de directii fezabile nu sunt global convergente;
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 130 Metode Primale
Metode de Constrangeri Active
Ideea centrala a acestor metode este sa impartim constrangerile de tip inegalitate in doua grupe:
unele tratate drept constrangeri active iar altele care sunt tratate drept inactive. Cele inactive sunt
ignorate !
La ecare pas al unui algoritm se deneste o multime de constrangeri numite multimea curenta
(sau de lucru) si care sunt tratate drept active. Multimea de lucru este intotdeauna o submultime
a constrangerilor active in punctul curent. Prin urmare punctul curent este fezabil pentru multimea
de lucru. Algoritmul se deplaseaza pe suprafata denita de multimea de lucru spre un punct mai
apropiat de solutie. In noul punct multimea de lucru se poate schimba. Deci metoda constrangerilor
active consta in urmatoarele etape:
Determinarea unei multimi de lucru curente care este o submultime a constrangerilor active ;
Deplasarea pe suprafata denita de multimea de lucru curenta spre un punct superior (calitativ);
Directia de deplasare este in general determinata de aproximarile de odinul intai si ordinul doi
ale functiilor in punctul curent intr-un mod asemanator ca pentru cazul neconstrans.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 131 Metode Primale
3. Metode de Penalizare si Bariera
Acestea sunt proceduri care aproximeaza problemele de optimizare cu constrangeri prin probleme
fara constrangeri. Pentru metodele de penalizare aproximarea este realizata prin adaugarea la functia
obiectiv a unui termen ce are o valoare mare atunci cand constrangerile sunt violate. Pentru metodele
de bariera se adauga un termen ce favorizeaza punctele interioare regiunii fezabile in raport cu cele
de pe frontiera.
In aceste metode intervine un parametru c care determina severitatea penalizarii sau barierei
si indica gradul in care problema neconstransa aproximeaza problema originala constransa. Cand
c aproximarea devine din ce in ce mai exacta si exista si anumite functii de penalizare care
dau solutii exacte pentru valori nite ale parametrului.
Pentru o problema cu n variabile si m constrangeri, metodele de penalizare si bariera actioneaza
direct in spatiul ndimensional al variabilelor.
Exista doua chestiuni fundamentale care trebuie considerate:
Cat de bine aproximeaza problema neconstransa problema originala. Mai precis, trebuie vazut
daca pe masura ce c este crescut spre innit solutia problemei neconstranse converge la solutia
problemei originale constranse.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 132 Metode de Penalizare si Bariera
Cum poate rezolvata o problema neconstransa atunci cand functia obiectiv contine un termen
de penalizare sau bariera; analizand acest fenomen rezulta ca pe masura ce c este crescut
(pentru a obtine o buna aproximare), structura corespunzatoare a problemei neconstranse devine
progresiv mai nefavorabila incetinind prin urmare rata de convergenta. Prin urmare, trebuie sa
deducem proceduri de accelerare pentru a evita aceasta convergenta lenta.
Metode de Penalizare
Consideram problema
minimizeaza f(x)
unde x S
(38)
unde f este continua in R
n
si S este o multime in R
n
. In majoritatea aplicatiilor S este denita
implicit printr-un numar de constrangeri functionale dar aici putem considera direct cazul general.
Ideea metodei de penalizare este sa inlocuim problema (38) cu o problema neconstransa de
forma
minimizeaza f(x) +cP(x) (39)
unde c este o constanta pozitiva si P este o functie denita pe R
n
care satisface: (i) P este
continua; (ii) P(x) 0, x R
n
; (iii) P(x) = 0 daca si numai daca x S.
Procedura pentru rezolvarea problemei (38) prin metoda de penalizare este urmatoarea: Fie
c
k
], k = 1, 2, . . . un sir care tinde la innit astfel incat pentru ecare k, c
k
0, c
k+1
> c
k
.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 133 Metode de Penalizare si Bariera
Denim functia
q(c, x) := f(x) +cP(x).
Pentru ecare k rezolvam problema
minimizeaza q(c
k
, x) (40)
obtinand o solutie x
k
. In general, presupunem ca pentru ecare k problema (40) are o solutie.
Aceasta este adevarat in particular atunci cand q(c, x) creste nemarginit pentru ]x] .
Metode de Bariera
Metodele de bariera sunt aplicabile problemelor de forma
minimizeaza f(x)
unde x S
(41)
unde S are un interior nevid care este oricat de aproape de orice punct al lui S. Intuitiv, aceasta
inseamna ca multimea are un interior si este posibil sa ajungem la orice punct de frontiera cu puncte
din interior. O astfel de multime se numeste robusta.
Metodele de bariera stabilesc o bariera pe frontiera multimii fezabile care impiedica procedura
de cautare sa paraseasca multimea. O functie bariera este o functie B denita pe interiorul lui S
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 134 Metode de Penalizare si Bariera
astfel incat (i) B este continua; (ii) B(x) 0; (iii) B(x) pe masura ce x se apropie de
frontiera lui S.
Corespunzator problemei (41) consideram problema aproximativa
minimizeaza f(x) +
1
c
B(x)
unde x interiorul lui S
(42)
unde c este o constanta pozitiva. Aceasta problema este oarecum mai complicata decat problema
originala dar poate rezolvata printr-o metoda de cautare fara constrangeri. Pentru a gasi solutia
pornim cu un punct initial interior si folosim ulterior metoda celei mai abrupte pante sau alta
procedura de cautare iterativa pentru probleme neconstranse. Deorece valoarea functiei tinde la
innit in apropierea frontierei lui S, procedura de cautare va ramane automat in interiorul lui S si
nu mai trebuie sa tinem seama explicit de constrangere. Astfel, cu toate ca problema (42) este din
punct de vedere formal o problema constransa, din punct de vedere procedural este neconstransa.
Metoda lucreaza in modul urmator: Fie c
k
un sir care tinde la innit astfel incat pentru orice
k, k = 1, 2, . . ., c
k
0, c
k+1
> c
k
. Denim functia
r(c, x) = f(x) +
1
c
B(x).
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 135 Metode de Penalizare si Bariera
Pentru ecare k rezolvam problema
minimizeaza r(c
k
, x)
unde x interiorul lui S
si obtinem punctul x
k
. Pentru metodele de penalizare si bariera avem urmatorul rezultat:
Teorema 75. Orice punct limita al unui sir generat de metoda de penalizare sau bariera este o
solutie a problemei originale (38).
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 136 Metode de Penalizare si Bariera
4. Metode Duale si de Plan Secant
Metodele Duale sunt bazate pe faptul ca multiplicatorii Lagrange sunt necunoscutele
fundamentale asociate cu problema constransa; indata ce acesti multiplicatori sunt determinati,
gasirea punctelor solutie este simpla (cel putin in anumite cazuri particulare). Tehnicile duale nu
abordeaza problema originala constransa in mod direct ci abordeaza o asa numita problema duala
ale carei necunoscute sunt multiplicatorii Lagrange ai primei probleme. Pentru o functie obiectiv cu
n variabile si m constrangeri de tip egalitate metodele duale fac cautarea in spatiul m dimensional
al multiplicatorilor Lagrange.
Metodele de plan secant determina o serie de programe liniare din ce in ce mai bune a
caror solutie converge la solutia problemei originale. Aceste metode sunt adesea foarte usor de
implementat dar teoria asociata lor nu este foarte bine dezvoltata si proprietatile lor de convergenta
nu sunt foarte atractive.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 137 Metode Duale si de Plan Secant
5. Metode Lagrange
Aceste metode sunt bazate pe rezolvarea directa a conditiilor necesare de ordinul intai de tip
Lagrange. Pentru probleme cu constrangeri de tip egalitate
minimizeaza f(x)
cu h(x) = 0
unde x este ndimensional si h(x) este mdimensional, aceasta abordare conduce la rezolvarea
unui sistem de ecuatii
f(x) +
T
h(x) = 0,
h(x) = 0,
in necunoscutele x si . Multimea conditiilor necesare este un sistem de n +m ecuatii in n +m
necunoscute (componentele lui x si ). Aceste metode lucreaza intr-un spatiu (n+m)dimensional.
CAPITOLUL 7: Principii Generale ale Algoritmilor cu Constrangeri 138 Metode Lagrange
Tehnici de Optimizare
(Partea aIIa: Programare Liniara)
Cristian OARA
Facultatea de Automatica si Calculatoare
Universitatea Politehnica Bucuresti
Splaiul Independentei 313,
Bucuresti, Romania
Fax: + 40 21 3234 234
Email: oara@riccati.pub.ro
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 139
Capitolul 8: PROPRIETATI DE BAZA ALE PROGRAMARII LINIARE
Introducere
Exemple de Probleme de Programare Liniara
Teorema Fundamentala a Programarii Liniare
Relatii cu Convexitatea
Exercitii
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 140
1. Introducere
In acest capitol dam o descriere a principiilor ce guverneaza problemele de programare
(optimizare) liniara cu constrangeri.
Problema de programare liniara : problema matematica in care functia obiectiv este liniara
in necunoscute si constrangerile constau din egalitati liniare si inegalitati liniare (Totul este liniar !).
Forma concreta a inegalitatilor poate in general diferi dar, asa cum vom arata putin mai tarziu,
orice program liniar se poate aduce in urmatoarea forma standard:
minimizati c
1
x
1
+c
2
x
2
+ +c
n
x
n
atunci cand a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
si x
1
0, x
2
0, . . . , x
n
0,
(43)
unde b
i
, c
i
si a
ij
sunt constante reale xate si x
j
sunt numere reale ce trebuie determinate.
Fara a restrange generalitatea, presupunem intotdeauna ca b
i
0 (printr-o eventuala
multiplicare a ecarei ecuatii cu -1 !).
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 141 Introducere
Relatiile (43) se pot rescrie compact in forma
minimizati c
T
x
atunci cand Ax = b si x 0
(44)
in care x este un vector ndimensional (coloana), c
T
este un vector ndimensional (linie), A este o
matrice de dimensiune mn, b este un vector mdimensional (coloana) iar inegalitatea vectoriala
x 0 inseamna ca ecare componenta in parte a lui x este semipozitiva (mai mare sau egala cu
zero).
Multe alte forme aparent diverse de programe liniare pot convertite in forma standard:
Exemplul 76. Consideram problema
minimizati c
1
x
1
+c
2
x
2
+ +c
n
x
n
atunci cand a
11
x
1
+a
12
x
2
+ +a
1n
x
n
b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
b
m
si x
1
0, x
2
0, . . . , x
n
0
in care multimea constrangerilor este determinata in totalitate de inegalitati liniare. Problema se
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 142 Introducere
poate exprima alternativ sub forma
minimizati c
1
x
1
+c
2
x
2
+ +c
n
x
n
atunci cand a
11
x
1
+a
12
x
2
+ +a
1n
x
n
+y
1
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
+y
2
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
+y
m
= b
m
si x
1
0, x
2
0, . . . , x
n
0,
si y
1
0, y
2
0, . . . , y
m
0.
Aceasta noua problema considerata in n + m necunoscute x
1
, . . . x
n
, y
1
, . . . , y
m
este in forma
standard iar matricea de tip A ce descrie acum multimea de constrangeri de tip egalitate are
forma speciala

A I

.
Exemplul 77. Daca inegalitatile liniare de la Exemplul 1 sunt reversate (i.e. sunt de tipul
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
b
i
),
atunci aceasta este echivalenta cu
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
y
i
= b
i
, si y
i
0.
Din Exemplele 1 si 2 este clar ca prin multiplicare cu -1 si introducerea unor variabile suplimentare
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 143 Introducere
orice set de inegalitati liniare se poate converti la o forma standard constrangand corespunzator
variabilele necunoscute (de tip y
i
) sa e semipozitive !
Exemplul 78. Fie un program liniar dat in forma standard cu exceptia faptului ca una sau mai
multe variabile necunoscute nu trebuie sa e semipozitive (ci arbitrare).
Problema se transforma intruna standard prin metoda urmatoare. Sa presupunem ca in (43)
x
1
0 nu apare si atunci x
1
este libera sa ia valori arbitrare (pozitive sau negative). Fie
x
1
= u
1
v
1
(45)
in care cerem ca u
1
0 si v
1
0. Substituind u
1
v
1
in locul lui x
1
peste tot in (43) obtinem
ca liniaritatea constrangerilor se pastreaza si acum toate cele n + 1 variabile u
1
, v
1
, x
2
, . . . , x
n
trebuie sa e semipozitive (deci din nou un program standard).
Este usor de observat aparitia unei redundante introduse de aceasta tehnica (o constanta aditiva
!).
Exemplul 79. Aceeasi problema o alta metoda ! O alta abordare in rezolvarea problemei 3
cand x
1
nu este constrans ca semn este sal eliminam pe x
1
impreuna cu una dintre ecuatiile de
constrangere, de exemplu
a
i1
x
1
+a
i2
x
2
+. . . +a
in
x
n
= b
i
(46)
(singura cerinta este ca aceasta ecuatie sa aibe a
i1
coecientul lui x
1
nenul).
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 144 Introducere
Din aceasta ecuatie x
1
se poate exprima ca o combinatie liniara de celelalte variabile + o
constanta, expresie ce se inlocuieste peste tot in (43). Se obtine o noua problema de acelasi tip
cu cea originala in necunoscutele x
2
, x
3
, . . . , x
n
iar ecuatia i devine identic zero si deci se poate
elimina.
Schema de lucru prevede rezolvarea acestui din urma program si obtinerea in nal a lui x
1
pe
baza ecuatiei eliminate (46).
Exemplul 80. Dam un exemplu de aplicare a tehnicii de mai sus. Fie programul
minimizati x
1
+ 3x
2
+ 4x
3
atunci cand x
1
+ 2x
2
+x
3
= 5
2x
1
+ 3x
2
+x
3
= 6
si x
2
0, x
3
0.
Deoarece x
1
este liber, rezolvam prima constrangere obtinand
x
1
= 5 2x
2
x
3
(47)
care inlocuit in functia obiectiv si intra doua constrangere genereaza problema echivalenta in forma
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 145 Introducere
standard
minimizati x
2
+ 3x
3
+ 5
atunci cand x
2
+x
3
= 4
si x
2
0, x
3
0.
Dupa ce se rezolva aceasta problema (avand solutia x
2
= 4, x
3
= 0), valoarea lui x
1
= 3 se
obtine din ecuatia (47).
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 146 Introducere
2. Exemple de Probleme de Programare Liniara
Exemplul 81. [Problema dietei economice] Se pune problema sa determinam o dieta cat mai
economica care sa acopere insa in totalitate substantele nutritive necesare organismului uman
problema tipica de alocat resurse pentru dieteticianul unei mari armate ! Ipotezele sunt: exista pe
piata n alimente care se vand la pretul c
i
per bucata, si exista m ingrediente nutritionale de baza
pe care ecare om trebuie sa le consume intr-o cantitate de minim b
j
unitati (din elementul j). In
plus, ecare aliment contine a
ji
unitati din elementul nutritional j.
Fie x
i
numarul de unitati din alimentul i din dieta. Problema este atunci sa selectam x
i
care
minimizeaza costul total

n
i=1
c
i
x
i
atunci cand avem constrangerile nutritionale
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
b
m
si constrangerile x
1
0, x
2
0, . . . , x
n
0,
asupra cantitatilor de alimente.
Exemplul 82. [Problema transportului] Trebuie livrate cantitatile a
1
, a
2
, . . . , a
m
dintr-un
produs depozitat in m locatii astfel incat sa ajunga in nal cantitatile b
1
, b
2
, . . . , b
n
la ecare
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 147 Exemple
dintre cele n destinatii nale. Costul de a transporta o unitate de produs de la locatia initiala i la
cea nala j este de c
ij
. Se cere obtinerea cantitatilor x
ij
ce trebuie transportate de i la j astfel
incat sa se minimizeze costul transportului. Problema de minimizat se formuleaza precum urmeaza
minimizati

ij
c
ij
x
ij
atunci cand

j
x
ij
= a
i
, pentru i = 1, 2, . . . , m,

i
x
ij
= b
j
, pentru j = 1, 2, . . . , n,
x
ij
0, pentru i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Pentru consistenta problemei trebuie ca

m
i=1
a
i
=

n
j=1
b
j
(cantitatea trimisa este egala cu
cantitatea receptionata). Problema de transport este deci o problema de programare liniara in mn
variabile. Ecuatille ce descriu constrangerile se pot pune in forma uzuala rezultand o matrice de
dimensiune (m+n) mn avand drept elemente 0 si 1 !
Exemplul 83. [Problema de productie] Presupunem ca avem o unitate industriala ce efectueaza
n activitati productive si ecare activitate productiva consta in obtinerea a diverse cantitati din
m produse distincte. Fiecare activitate productiva se poate efectua la orice nivel x
i
0 dar
cand este operata la nivel unitar activitatea i costa c
i
si produce a
ji
unitati din produsul j.
Presupunem liniaritatea unitatii industriale. Nr. de produse nite ce trebuie obtinut este specicat
prin b
1
, b
2
, . . . , b
m
si le dorim produse la un cost minim. Programul liniar se sintetizeaza prin (43)
!
Exemplul 84. [Problema de depozitare] De Discutat la Seminar
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 148 Exemple
3. Teorema Fundamentala a Programarii Liniare
Ipoteza fundamentala (implicita): Constrangerile de tip egalitate
Ax = b, A R
mn
, b R
m
(48)
au matricea A surjectiva ( m linii liniar independente ( n)).
Ratiunea introducerii acestei ipoteze sta in alte doua presupuneri naturale:
Sunt mai multe variabile decat ecuatii (avem unde optimiza !!!)
Ecuatiile sunt liniar independente (problema are solutie si nu are ecuatii redundante !!! )
Denitia 85. Fie B orice m m matrice nesingulara (numita si matrice baza) formata din
coloane ale lui A, e x
b
unica solutie a ecuatiei Bx
b
= b si x R
n
obtinuta extinzand x
b
cu
zerouri corespunzatoare componentelor ce nu sunt asociate coloanelor lui B. Atunci x se numeste
solutie fundamentala a ecuatiei (48) in raport cu baza B iar componentele sale asociate cu
coloanele lui B sunt numite variabile fundamentale.
Observatia 86. Sub ipoteza fundamentala facuta sistemul (48) are intotdeauna o solutie si
cel putin o solutie fundamentala ! Solutiile fundamentale nu sunt neaparat nenule !
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 149 Teorema Fundamentala a Programarii Liniare
Denitia 87. Daca o solutie fundamentala are macar una dintre variabilele fundamentale nule
atunci solutia se numeste degenerata.
Observatia 88. Intr-o solutie fundamentala nedegenerata se pot deosebi imediat variabilele
fundamentale de celelalte (pozitiv vs. zero) pe cand in cele degenerate variabilele fundamentale
nule se pot interschimba cu cele nefundamentale !
Consideram in continuare sistemul complet de constrangeri al unui program liniar
Ax = b,
x 0.
(49)
Denitia 89. Vectorul x satisfacand (49) se numeste fezabil.
Deci putem avea solutii fundamentale fezabile si nefezabile, si o solutie fundamentala fezabila
poate degenerata sau nu.
Teorema centrala a programarii liniare pune in evidenta caracterul primordial jucat de solutiile
fundamentale fezabile. Esentialmente, teorema arma ca este necesar sa consideram doar solutii
fundamentale fezabile atunci cand cautam optimul unui program liniar pentru ca valoarea optima
este intotdeauna obtinuta intr-o astfel de solutie !
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 150 Teorema Fundamentala a Programarii Liniare
Corespunzator unui program in forma standard
minimizati c
T
x
atunci cand Ax = b si x 0
(50)
o solutie fezabila a constrangerilor ce atinge minimul functiei obiectiv cu aceste constrangeri se
numeste solutie fezabila optimala. Daca aceasta solutie este in plus fundamentala atunci atunci
se numeste solutie fundamentala fezabila optimala !
Teorema 90. [Teorema fundamentala a programarii liniare] Fie Ao mn matrice surjectiva
si e (50) programul liniar asociat.
Daca exista o solutie fezabila atunci exista si o solutie fundamentala fezabila.
Daca exista o solutie fezabila optimala atunci exista si o solutie fundamentala fezabila optimala.
Observatia 91. Teorema reduce sarcina complexa de a rezolva o problema de programare
linara la aceea de a cauta in submultimea solutiilor fundamentale fezabile care este considerabil
mai ieftina decat sarcina originala intrucat avem cel mult
C
m
n
=
n!
m!(n m)!
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 151 Teorema Fundamentala a Programarii Liniare
solutii fundamentale (corespunzatoare modalitatilor diverse de a alege mcoloane din n coloane).
Prin urmare sarcina calculatorie se termina intr-un numar nit de pasi (chiar daca mare) prin
intermediul unui algoritm foarte simplu dar extrem de inecient !
O metoda ecienta de calcul numita simplex este prezenta in capitolul urmator.
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 152 Teorema Fundamentala a Programarii Liniare
4. Relatii cu Convexitatea
Principalele rezultate prezentate anterior au interpretari deosebit de interesante in termenii
teoriei multimilor convexe si proprietatilor asociate. Principala legatura intre proprietatile algebrice
si cele geometrice consta in relatia formala dintre solutiile fundamentale fezabile ale inegalitatilor
liniare si punctele extreme ale varietatilor liniare (politop).
Denitia 92. Un punct x apartinand unei multimi convexe C se numeste punct extrem al lui C
daca nu exista doua puncte distincte x
1
si x
2
in C a.i.
x = x
1
+ (1 )x
2
pentru un , 0 < < 1.
Teorema 93. [Echivalenta punctelor extreme si a solutiilor fundamentale] Fie A o m n
matrice surjectiva si b R
m
. Fie K politopul convex constand din toti vectorii x R
n
satisfacand
Ax = b,
x 0.
(51)
Atunci x este un punct extrem al lui K daca si numai daca x este solutie fundamentala
fezabila a lui (51).
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 153 Relatii cu Convexitatea
Aceasta corespondenta ne permite sa demonstram cateva proprietati geometrice ale unui politop
convex denit de constrangerile unui program liniar.
Corolarul 94. Daca politopul corespunzator lui (51) este nevid atunci are cel putin un punct
extrem.
Corolarul 95. Daca o problema de programare liniara are o solutie nita optimala atunci are si o
solutie nita optimala care este un punct extrem al multimii constrangerilor.
Corolarul 96. Multimea constransa K denita de (51) are cel mult un numar nit de puncte
extreme.
In nal, prezentam un caz special ce este caracteristic problemelor de programare liniara bine
formulate: K este nevid si marginit.
Corolarul 97. Daca politopul K denit de (51) este marginit, atunci K este un poliedru convex,
i.e., K consta din puncte ce sunt combinatii convexe ale unui numar nit de puncte.
Exemplul 98. Consideram multimea constransa in R
3
denita de
x
1
+x
2
+x
3
= 1,
x
1
0, x
2
0, x
3
0
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 154 Relatii cu Convexitatea
si ilustrata in Figura 1.
x1
x3
x2
Figura 1: Multimea Fezabila ptr. Exemplul 98
Aceasta multime are trei puncte extreme, corespunzand celor C
2
3
= 3 solutii fundamentale ale
lui x
1
+x
2
+x
3
= 1.
Exemplul 99. Consideram multimea constransa in R
3
denita de
x
1
+x
2
+x
3
= 1,
2x
1
+ 3x
2
= 1,
x
1
0, x
2
0, x
3
0
si ilustrata in Figura 2.
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 155 Relatii cu Convexitatea
x1
x3
x2
Figura 2: Multimea Fezabila ptr. Exemplul 99
Aceasta multime are doua puncte extreme corespunzand celor doua solutii fundamentale fezabile.
Observati deasemenea ca sistemul de ecuatii are trei solutii fundamentale
(2, 1, 0), (
1
2
, 0,
1
2
), (0,
1
3
,
2
3
),
din care insa prima nu este fezabila !
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 156 Relatii cu Convexitatea
Exemplul 100. Consideram multimea constransa in R
2
denita de
x
1
+
8
3
x
2
4,
x
1
+x
2
2,
2x
1
3,
x
1
0, x
2
0
si ilustrata in Figura 3.
1
2
1
2 x2=0 x1
x
3=
0
x5=0
x
4
=
0
x
1
=
0
x2
Figura 3: Multimea Fezabila ptr Exemplul 100
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 157 Relatii cu Convexitatea
Prin inspectie vizuala observam ca aceasta multime are 5 puncte extreme. Pentru a compara
acest exemplu cu rezultatele generale obtinute pana acum aplicam procedura de transformare
introdusa in Exemplul 1 din Sectiunea 1 obtinand in nal multimea echivalenta in R
5
x
1
+
8
3
x
2
+x
3
= 4,
x
1
+x
2
+x
4
= 2,
2x
1
+x
5
= 3,
x
1
0, x
2
0, x
3
0, x
4
0, x
5
0.
Solutiile fundamentale pentru acest sistem se obtin punand oricare doua variabile egale cu zero si
rezolvand pentru obtinerea celorlalte trei, in total un numar de C
3
5
= 10 combinatii. Dintre acestea
doar 5 sunt fezabile corespunzand celor 5 colturi ale poligonului din Figura 3. Alternativ, laturile
poligonului corespund unei variabile egale cu zero iar colturile (punctele extreme) sunt punctele in
care doua variabile sunt egale cu zero.
Exemplul 101. Ultimul exemplu indica ca si atunci cand nu sunt exprimate in forma standard,
punctele extreme ale multimii denite de constrangerile unui program liniar corespunde posibilelor
puncte solutie. Ilustram acest fapt pe constrangerile din exemplul precedent avand functia de
minimizat
2x
1
x
2
.
Multimea punctelor satisfacand 2x
1
x
2
= z pentru z xat este o dreapta. Cand z variaza se
obtin diverse drepte paralele asa cum este prezentat in Figura 4.
CAPITOLUL 8: Proprietati de Baza ale Programarii Liniare 158 Relatii cu Convexitatea
1
2
1
2 x1
x2
z=-1.5
z=-2
z=-1
Figura 4: Solutia extrema
Valoarea optimala a problemei de programare liniara este cea mai mica valoare a lui z pentru
care dreapta respectiva are un punct in comun cu multimea fezabila. Este clar, macar in doua
dimensiuni, ca punctele solutie vor include intotdeauna un punct extrem ! Observati din gura ca
aceasta se intampla in punctul (
3
2
,
1
2
) cu z = 3
1
2
!
CAPITOLUL 9: Metoda Simplex 159
Capitolul 9: METODA SIMPLEX
Ideea de baza a metodei simplex este ca pornind de la o solutie fundamentala fezabila sa gasim
o noua solutie fundamentala fezabila in care functia obiectiv sa descreasca. Procesul se continua
pana cand se obtine minimul.
Teorema programarii liniare din capitolul precedent ne asigura ca parcurgand numai aceste
puncte in R
n
(solutii fundamentale fezabile) putem obtine in nal solutia optimala dorita. Metoda
simplex arata ca in plus aceasta cautare se poate face intr-o maniera ecienta dpdv numeric.
In primele cinci sectiuni ale capitolului dam o descriere detaliata a metodei simplex pornind de
la o examinare atenta a sistemului de ecuatii liniare ce deneste constrangerile. Aceasta abordare
desi necesita matematica extrem de simpla nu se poate exprima prea usor intr-o forma matriceala
compacta. In ultimele sectiuni ale capitolului, schimbam punctul de vedere si ne concentram asupra
unei viziuni matriceale ce conduce la o reprezentare compacta a metodei simplex cat si la metode
alternative de implementare.
Pivoti
Puncte Extreme Adiacente
Determinarea unei Solutii Minime Fezabile
CAPITOLUL 9: Metoda Simplex 160
Algoritmul
Variabile Articiale
Forma Matriceala a Metodei Simplex
Metoda Simplex Revizuita
Metoda Simplex via Descompunerea LU
Concluzii Finale
CAPITOLUL 9: Metoda Simplex 161
1. Pivoti
Reamintim in contextul programarii liniare operatiile de pivotare asupra unui sistem de ecuatii
liniare. Avem doua tipuri de pivotari cu semnicatii duale:
Pivotare pe linii;
Pivotare pe coloane.
Fie sistemul Ax = b, cu A R
mn
, b R
m
, m n, avand forma explicita
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
(52)
Sub ipotezele uzuale (i.e. A surjectiva) si cu m < n sistemul (52) nu are o solutie unica ci o
varietate liniara de solutii. Presupunand pentru comoditate ca primele m coloane ale lui A sunt
liniar independente, sistemul (52) poate redus prin scheme clasice de eliminare Gaussiana pe
linii (multiplicarea unei linii cu o constanta nenula si adunarea de combinatii liniare de linii) la
CAPITOLUL 9: Metoda Simplex 162 Pivoti
urmatoarea forma canonica:
x
1
+ a
1,m+1
x
m+1
+a
1,m+2
x
m+2
+ +a
1,n
x
n
=

b
1
,
x
2
+ a
2,m+1
x
m+1
+a
2,m+2
x
m+2
+ + a
2,n
x
n
=

b
2
,
.
.
.
.
.
.
x
m
+ a
m,m+1
x
m+1
+a
m,m+2
x
m+2
+ +a
m,n
x
n
=

b
m
.
(53)
In aceasta reprezentare echivalenta variabilele x
1
, . . . , x
m
sunt numite fundamentale iar celelalte
nefundamentale. Solutia fundamentala corespunzatoare
x
1
=

b
1
, x
2
=

b
2
, . . . , x
m
=

b
m
, x
m+1
= 0, . . . , x
n
= 0.
Extindem denitia formei canonice a unui sistem astfel: un sistem este in f.c. daca dintre cele
n variabile exact m sunt fundamentale si au proprietatile: ecare variabila fundamentala apare
intr-o singura ecuatie cu coecientul 1; nu apar doua variabile fundamentale in aceeasi ecuatie
(echivalent cu a spune ca sistemul dupa o anumita reordonare a variabilelor si ecuatiilor are forma
(53)).
Din economie de notatie, in programarea liniara se foloseste urmatoarea reprezentare a
CAPITOLUL 9: Metoda Simplex 163 Pivoti
coecientilor sistemului (53) sub forma de tabel:
1 0 0 a
1,m+1
a
1,m+2
a
1,n

b
1
0 1 0 a
2,m+1
a
2,m+2
a
2,n

b
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
m,m+1
a
m,m+2
a
mn

b
m
(54)
Prin pivotare se poate inlocui o variabila fundamentala cu una nefundamentala si reciproc. Procedura
se poate realiza pe linii sau coloane.
Pivotare pe linii: Foloseste reprezentarea sistemului Ax = b sub forma ecuatiilor
a
1
x = b
1
a
2
x = b
2
.
.
.
a
m
x = b
m
unde a
i
este linia i a matricii A.
Sa presupunem ca in sistemul canonic (53) vrem sa inlocuim variabila fundamentala x
p
,
1 p m cu variabila nefundamantala x
q
(este posibil numai daca a
pq
,= 0). Acest lucru se
poate realiza prin impartirea liniei p la a
pq
pentru a obtine un coecient unitar pentru x
q
in aceasta
CAPITOLUL 9: Metoda Simplex 164 Pivoti
ecuatie, si prin scaderea liniei p multiplicate cu un coecient potrivit din toate celelalte linii pentru
a obtine un coecient zero pentru x
q
(in respectivele ecuatii). Fie a
ij
coecientii noului sistem
obtinut. Avem:
_
_
_
a
ij
= a
ij

a
pi
a
pq
a
iq
, i ,= p,
a
pj
=
a
pj
a
pq
.
(55)
Ecuatiile de mai sus se numesc de pivotare iar elementul a
pq
este pivotul.
Pivotare pe coloane: Foloseste reprezentarea sistemului Ax = b in ideea ca b este o
combinatie liniara de coloane ale lui A de tipul
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= b,
in care a
i
este coloana i a matricii A.
Fie sistemul canonic (54) cu primele m coloane formand o baza. Coecientii unei coloane
din tabel reprezinta coecientii combinatiei liniare a acestor vectori baza care genereaza respectivul
vector coloana, i.e.,
a
j
=
m

k=1
a
kj
a
k
(56)
Tabelul se mai poate reinterpreta ca dand expresia vectorului a
j
in termenii vectorilor baza
a
1
, a
2
, , a
m
(similar pentru

b).
CAPITOLUL 9: Metoda Simplex 165 Pivoti
Sa presupunem ca vrem sa inlocuim unul dintre vectorii din baza a
p
, 1 p m cu alt vector
a
q
. Daca noii vectori a
1
, . . . , a
m
sunt liniar independenti, ei constituie o baza in functie de care
orice alt vector poate reprezentat (este posibil numai daca a
pq
,= 0). Operatiile de actualizare a
tabloului pleaca de la reprezentarea
a
q
=
m

i=1,i,=p
a
iq
a
i
+a
pq
a
p
din care rezulta a
p
,
a
p
=
1
a
pq
a
q

i=1,i,=p
a
iq
a
pq
a
i
. (57)
Introducand (57) in (56) obtinem
a
j
=
m

i=1,i,=p

a
ij

a
iq
a
pq
a
pj

a
i
+
a
pj
a
pq
a
q
. (58)
Daca a
ij
sunt coecientii noului sistem atunci obtinem imediat expresii identice ca in cazul pivotarii
pe linii (55).
Observatia 102. Daca un sistem de ecuatii nu este de la inceput in forma canonica el se poate
aduce in forma canonica concatenand m vectori unitari tabloului si, plecand de la acesti vectori ca
baza, inlocuind ecare dintre ei prin pivotare cu coloane de-ale lui A.
CAPITOLUL 9: Metoda Simplex 166 Pivoti
2. Puncte Extreme Adiacente
Solutia unui program liniar se gaseste in multimea solutiilor fundamentale fezabile ale sistemului
Ax = b, x 0 (Teorema programarii liniare) iar prin pivotare putem sa ne deplasam dintr-o solutie
fundamentala in alta. In aceasta sectiune specializam cautarea a.i. orice noua solutie fundamentala
gasita prin pivotare sa e fezabila !
Concluzia de baza: Cu toate ca nu este in general posibil sa specicam perechile de variabile ce
sunt interschimbate (pastrand evident pozitivitatea lui x), este posibil sa specicam care variabila
nefundamentala va deveni fundamentala si apoi sa determinam cu care variabila fundamentala
o inlocuim !
Ipoteza de Nedegenerare: Orice solutie fundamentala fezabila a lui Ax = b, x 0, este o
solutie nedegenerata!
Ipoteza simplica mult o suma de argumentatii ale metodei simplex. In cazul in care nu este
indeplinita poate conduce la esuarea metodei. Ipoteza este facuta pentru a simplica expunerea si
intotdeauna se poate asigura extensia la cazul general prin anumite modicari simple ale metodei
simplex.
CAPITOLUL 9: Metoda Simplex 167 Puncte Extreme Adiacente
Determinarea vectorului care paraseste baza
Presupunem ca avem solutia fundamentala fezabila x
T
=

x
1
x
2
. . . x
m
0 . . . 0

sau, echivalent, reprezentarea


b =
m

k=1
x
k
a
k
. (59)
Din ipoteza de nedegenerare avem x
i
> 0, i = 1, . . . , m. Presupunem ca vrem sa introducem in
baza vectorul a
q
, q > m, care are reprezentarea in vechea baza
a
q
=
m

k=1
a
kq
a
k
. (60)
Multiplicand (60) cu 0 si extragand-o din (59) obtinem
m

k=1
(x
k
a
kq
)a
k
+a
q
= b. (61)
Aceasta relatie arata ca pentru orice 0 b este o combinatie de cel mult m+ 1 vectori. Pentru
= 0 obtinem vechea solutie. Cand creste de la zero in sus rezulta ca respectivul coecient al lui
a
q
creste, si este clar ca pentru nu prea mare (61) da o solutie fezabila dar nefundamentala.
Coecientii celorlalti vectori vor creste sau vor scadea odata cu cresterea lui pana cand unul (sau
mai multi) se vor anula. Acest lucru se intampla ori de cate ori cel putin un coecient a
kq
> 0.
CAPITOLUL 9: Metoda Simplex 168 Puncte Extreme Adiacente
In acest caz punem
= min
k

x
k
a
kq
: a
kq
> 0] (62)
si am obtinut o noua solutie fezabila cu vectorul a
q
inlocuit de a
p
, unde p este indexul ce
minimizeaza (62). Daca minimul (62) este obtinut simultan pentru mai multi indici atunci noua
solutie este degenerata si oricare vector avand componenta corespunzatoare nula se poate considera
ca parasind baza !
Daca nici unul dintre a
kq
nu este pozitiv, atunci toti coecientii lui (61) cresc (sau raman
constanti) cand il crestem pe si nu se poate obtine nici o noua solutie fundamentala ! In aceasta
situatie observam ca sistemul Ax = b, x 0 are solutii fezabile cu coecienti oricat de mari de
unde rezulta ca multimea K a solutiilor fezabile este nemarginita !
Pe scurt: Dandu-se o solutie fundamentala fezabila si un vector arbitrar a
q
sunt posibile doua
situatii:
Exista o noua solutie fundamentala fezabila avandu-l pe a
q
in baza (in locul unuia dintre vectorii
originali);
Multimea solutiilor fezabile este nemarginita !
CAPITOLUL 9: Metoda Simplex 169 Puncte Extreme Adiacente
Ilustrarea operatiilor in tablou:
a
1
a
2
a
3
a
m
a
m+1
a
m+2
a
n
b
1 0 0 0 a
1,m+1
a
1,m+2
a
1,n

b
1
0 1 0 0 a
2,m+1
a
2,m+2
a
2,n

b
2
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
m,m+1
a
m,m+2
a
mn

b
m
(63)
Acest tablou are o solutie cu baza a
1
, a
2
, , a
m
. Presupunem ca

b
i
0 a.i. solutia
fundamentala corespunzatoare este fezabila. Dorim introducerea coloanei q > m si mentinerea
fezabilitatii. Pentru a determina care element din coloana q sal folosim ca pivot (si deci ce vector
al bazei va eliminat) folosim (62) ptr. calcularea rapoartelor
x
k
a
kq
=

b
k
a
kq
, k = 1, 2, , m, din
care il alegem pe cel mai mic nenegativ, si pivotam pe respectivul a
kq
.
Interpretare Geometrica
Exista doua interpretari geometrice ale conceptelor introduse:
In spatiul in care este reprezentat x: Regiunea fezabila este o multime convexa iar solutiile
fundamentale fezabile sunt punctele extreme (vezi cursul precedent). Punctele extreme adiacente
sunt puncte care stau pe o latura comuna.
CAPITOLUL 9: Metoda Simplex 170 Puncte Extreme Adiacente
In spatiul in care sunt reprezentate coloanele lui A si b; Relatia fundamentala este
b =
n

k=1
a
i
x
i
.
Un exemplu cu m = 2 si n = 4 este reprezentat in Figura 9.1. O solutie fezabila este o
reprezentare a lui b folosind combinatii semipozitive de a
i
. O solutie fundamentala fezabila este o
reprezentare a lui b folosind numai m combinatii pozitive.
a2
b
a1
a4
a3
Figura 9.1
Observati ca putem pleca cu o baza formata din a
1
si a
2
dar nu din a
1
si a
4
! Daca plecam cu
a
1
si a
2
si pentru a obtine o baza adiacenta il adaugam pe a
3
, atunci automat iese a
2
. Daca il
adaugam pe a
4
atunci iese automat a
1
!
CAPITOLUL 9: Metoda Simplex 171 Puncte Extreme Adiacente
3. Determinarea unei Solutii Minime Fezabile
Ce stim deja ? Cum sa pivotam si indata ce am selectat o noua coloana arbitrara care va intra
in baza stim sa determinam care coloana iese din baza a.i. solutia sa ramana fezabila (sau respectiv
sa determinam ca solutia este nemarginita).
Ce dorim in continuare ? Cum selectam coloana pe care o vom introduce in baza a.i. sa
reducem valoarea functiei !
Cuplam cele doua idei si obtinem metoda simplex !
Presupunem ca avem solutia fundamentala fezabila x
T
=

x
T
B
0

=

x
1
x
2
. . . x
m
0 . . . 0

impreuna cu tabloul
a
1
a
2
a
3
a
m
a
m+1
a
m+2
a
n
b
1 0 0 0 a
1,m+1
a
1,m+2
a
1,n

b
1
0 1 0 0 a
2,m+1
a
2,m+2
a
2,n

b
2
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
m,m+1
a
m,m+2
a
mn

b
m
.
(64)
CAPITOLUL 9: Metoda Simplex 172 Determinarea unei Solutii Minime Fezabile
Valoarea functiei corespunzatoare oricarei solutii este
z =
n

i=1
c
i
x
i
= c
T
B
x
B
=: z
0
, c
T
B
=

c
1
. . . c
m

. (65)
Daca atribuim valori arbitrare lui x
m+1
, . . . , x
n
variabilele fundamentale se obtin din (64) prin
formulele
x
1
=

b
1

n
j=m+1
a
1j
x
j
x
2
=

b
2

n
j=m+1
a
2j
x
j
.
.
.
.
.
.
x
m
=

b
m

n
j=m+1
a
mj
x
j
.
(66)
Folosind (66) se pot elimina variabilele x
1
, . . . , x
m
din formula generala (65) si se obtine
z = c
T
x = z
0
+ (c
m+1
z
m+1
)x
m+1
+ (c
m+2
z
m+2
)x
m+2
+ + (c
n
z
n
)x
n
(67)
unde
z
j
:=
m

i=1
a
ij
c
j
, m+ 1 j n. (68)
Relatia (67) este fundamentala pentru determinarea coloanei pivot ce va introdusa in baza
intrucat da valoarea functiei in orice punct al solutiei Ax = b in termenii variabilelor libere
x
m+1
, , x
n
.
CAPITOLUL 9: Metoda Simplex 173 Determinarea unei Solutii Minime Fezabile
Din aceste formule se poate deduce daca exista vreun avantaj in inlocurirea unei varibile
fundamentale cu una noua. De exemplu, daca unul dintre coecientii c
j
z
j
este negativ pentru
un j, m+1 j n, atunci cresterea lui x
j
de la zero la o valoare pozitiva va descreste valoarea
functiei si deci va genera o solutie mai buna !
Deducem acum relatiile dintr-o alta perspectiva. Fie a
i
coloana i a tabloului. Orice solutie
satisface
x
1
e
1
+x
2
e
2
+ +x
m
e
m
= b
n

j=m+1
x
j
a
j
Luand produsul scalar al acestei ecuatii vectoriale cu c
T
B
obtinem
m

i=1
c
i
x
i
= c
T
B
b
n

j=m+1
x
j
z
j
in care z
j
:= c
T
B
a
j
. Adunand

n
j=m+1
c
j
x
j
ambilor membri se obtine relatia anterioara
c
T
x = z
0
+
n

j=m+1
(c
j
z
j
)x
j
. (69)
Teorema 103. [Imbunatatirea solutiei fundamentale fezabile] Fie o solutie fundamentala
fezabila nedegenerata avand valoarea corespunzatoare a functiei obiectiv z
0
si presupunem ca
CAPITOLUL 9: Metoda Simplex 174 Determinarea unei Solutii Minime Fezabile
exista j a.i. c
j
z
j
< 0. Atunci exista o solutie fundamentala fezabila cu z < z
0
. Daca
coloana a
j
poate inlocui un vector in baza fundamentala originala pentru a obtine o noua solutie
fundamentala fezabila atunci aceasta noua solutie va avea z < z
0
. Daca a
j
nu poate inlocui un
vector din baza originala atunci K este nemarginit si functia obiectiv poate facuta oricat de mica
(spre ).
Este clar ca daca la orice pas avem c
j
z
j
< 0 pentru un j oarecare, este posbil sa-l facem pe
x
j
> 0 si sa descrestem functia obiectiv. Ramane de determinat daca c
j
z
j
0 pentru toti j
implica optimalitatea !
Teorema 104. [Conditia de optimalitate] Daca pentru o solutie fundamentala fezabila avem
r
j
:= c
j
z
j
0, pentru toti j, atunci solutia este optimala.
Coecienti de cost relativ sau redus: r
j
:= c
j
z
j
(se introduc chiar si pentru variabilele
fundamentale ind 0) joaca un rol primordial in metoda simplex !
CAPITOLUL 9: Metoda Simplex 175 Determinarea unei Solutii Minime Fezabile
4. Algoritmul Metodei Simplex
Presupuneri initiale: Avem o solutie fundamentala fezabila si tabloul corespunzator lui
Ax = b este in forma canonica (metode de obtinere a unei solutii fundamentale fezabile initiale
vor discutate in sectiunea urmatoare).
Folosim tabelul simplex (are o linie in plus):
a
1
a
2
a
3
a
m
a
m+1
a
m+2
a
n
b
1 0 0 0 a
1,m+1
a
1,m+2
a
1,n

b
1
0 1 0 0 a
2,m+1
a
2,m+2
a
2,n

b
2
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
m,m+1
a
m,m+2
a
mn

b
m
0 0 0 0 r
m+1
r
m+2
r
n
z
0
.
(70)
Solutia fundamentala corespunzatoare acestui tabel este
x
i
=

b
i
, 1 i m,
0, m+ 1 i n
CAPITOLUL 9: Metoda Simplex 176 Algoritmul Metodei Simplex
si ind fezabila avem

b
i
0, i = 1, 2, , m. Valoarea functiei obiectiv este z
0
.
Coecientii de cost relativ r
j
indica daca valoarea functiei obiectiv va descreste sau va creste
daca x
j
este introdus in solutie. Daca toti coecientii sunt semipozitivi atunci solutia este optimala.
Daca unii sunt negativi atunci se poate imbunatati solutia. Cand sunt mai multi negativi oricare
se poate selecta pentru a determina in ce coloana se va face pivotarea dar de obicei se ia cel mai
puternic negativ.
Ultima linie a tabelului poate tratata similar cu celelalte cum este explicat in continuare.
Intradevar, putem vedea z ca o variabila suplimentara si
n

i=1
c
i
x
i
z = 0
ca o ecuatie suplimentara. Atunci tabelul simplex va avea m + 1 variabile fundamentale si cerand
ca permanent z sa e una dintre ele nu mai este nevoie de adaugarea unei coloane in tabel !
Deci putem intotdeauna incepe un tabel avand ca ultima linie coecientii c
i
, i = 1, 2, . . . , n
si un membru drept nul. Folosind operatii standard de pivotare anulam (prin pivotare pe linii)
elementele din aceasta linie ce corespund variabilelor fundamentale. Aceasta este echivalent cu a
CAPITOLUL 9: Metoda Simplex 177 Algoritmul Metodei Simplex
tranforma ecuatia suplimentara in
n

j=m+1
r
j
x
j
z = z
0
(71)
care este echivalenta cu (69) si deci r
j
obtinuti sunt exact coecientii de cost relativ.
Dupa ce a fost selectata o coloana q in care se pivoteaza, selectia nala a pivotului se face
pe baza calcularii rapoartelor
b
i
a
iq
pentru elementele a
iq
> 0, i = 1, 2, , m si selectand acel
indice p corespunzator celui mai mic raport. Pivotarea pe acest element pastreaza fezabilitatea si
descreste valoarea functiei obiectiv (in ipoteza de nedegenerare). Daca exista mai multi indici care
ating minimul se poate folosi oricare dintre acestia. Daca nu sunt elemente semipozitive in coloana
problema este nemarginita. Dupa ce actualizam in nal tabelul cu pivotul a
pq
(inclusiv ultima linie)
se obtine un nou tabel in forma canonica iar noua valoare a functiei obiectiv va apare in coltul
dreaptajos.
Algoritmul simplex:
Pasul 0: Formeaza un tablou simplex corespunzantor unei solutii fundamentale fezabile.
Coecientii de cost relativ se obtin prin reducere pe linii;
Pasul 1: Daca toti r
j
0, Stop. Solutia curenta este optimala;
CAPITOLUL 9: Metoda Simplex 178 Algoritmul Metodei Simplex
Pasul 2: Se alege q a.i. r
q
< 0 ptr. a aa care variabila nefundamentala va deveni
fundamentala;
Pasul 3: Se calculeaza

b
i
a
iq
ptr. a
iq
> 0, i = 1, 2, , m. Daca nu exista a
iq
> 0, Stop.
Problema este nemarginita. Altfel se alege un i = p pentru care se atinge minimul rapoartelor.
Pasul 4: Pivoteaza elementul a
pq
actualizand toate liniile incluzand-o pe ultima. Returnare la
Pasul 1.
In ipoteza de nedegenerare algoritmul se opreste cand este atinsa optimalitatea sau cand
se descopera nemarginirea.
Daca nici una dintre conditii nu este descoperita la o anumita solutie fundamentala atunci
functia obiectiv este strict descrescuta.
Deoarece exista numai un numar nit de solutii si nici o baza nu se repeta intrucat functia
obiectiv ia o valoare strict mai mica, algoritmul va gasi in nal o baza fundamentala ce
satisface una dintre cele doua conditii de terminare !
CAPITOLUL 9: Metoda Simplex 179 Algoritmul Metodei Simplex
Degenerare
In timpul aplicarii simplex este posibil sa gasim baze degenerate ! Cum procedam ?
In multe cazuri putem sa le tratam ca baze fundamentale fezabile nedegenerate;
Exista posbilitatea teoretica ca minimul lui

b
i
a
iq
sa e zero implicand ca aceasta variabila
fundamentala egala cu zero trebuie sa paraseasca baza
Noua variabila x
q
intra in baza la valoarea zero, functia obiectiv nu descreste, si noua baza
este deasemenea degenerata ! Mai mult, exista posbilitatea (mai mult teoretica) ca acest proces
sa continue pentru cativa pasi dupa care se reapara aceeasi baza degenerata originala rezultand un
ciclu care se repeta indenit de mult !
Exista metode care pot evita astfel de cicluri si care sunt bazate pe perturbarea usoara a
datelor problemei a.i. valorile nule sa e inlocuite cu mici valori pozitive (vezi Exercitiile).
In practica nu sunt necesare astfel de proceduri intrucat simplex nu intra in general niciodata
in astfel de cicluri.
Deoarece procedurile anticiclare sunt simple ele sunt intotdeauna incluse in software-ul
comercial pentru a evita orice posibila evolutie neplacuta.
CAPITOLUL 9: Metoda Simplex 180 Algoritmul Metodei Simplex
5. Variabile Articiale
Cum gasim o solutie initiala fundamentala si fezabila ?
Caz simplu: Consideram ca avem o problema de optimizare cu constrangeri de tipul Ax b
cu b 0. Aceasta problema se trateaza prin introducerea de variabile suplimentare care automat
furnizeaza un punct de plecare pentru metoda simplex.
Caz general: Rareori este posibil sa obtinem sau sa ghicim o solutie initiala fundamentala si
fezabila !! Trebuie dezvoltat un mecanism care sa functioneze pentru orice problema !! Interesant
(si din fericire adevarat), in orice problema solutia intitiala se poate obtine rezolvand TOT o
problema de programare liniara avand insa initializarea evidenta (pentru care putem deci utiliza
metoda simplex )!
Solutie: Prin operatii elementare constrangerile unui program liniar se pot aduce intotdeauna
la forma
Ax = b,
x 0,
(72)
cu b 0. Pentru a gasi o solutie intitiala pentru aceasta problema consideram problema (articala)
CAPITOLUL 9: Metoda Simplex 181 Variabile Articiale
de minimizare
minimizati

m
i=1
y
i
atunci cand Ax +y = b,
x 0,
y 0,
(73)
unde y
T
=

y
1
y
2
y
m

este un vector de variabile articiale.


Daca (72) are o solutie fezabila, atunci este clar ca (73) va avea o solutie (considerata in
variabilele x si y) avand minimul egal cu zero si y = 0. Daca (72) nu are solutie fezabila atunci
valoarea minima a lui (73) este mai mare decat zero.
Problema (73) este o problema de programare liniara in variabilele x si y si sistemul este deja
in forma canonica cu solutia fundamentala fezabila y = b. Daca rezolvam sistemul (73) cu metoda
simplex obtinem o solutie fundamentala fezabila la ecare pas! Daca valoarea minima a functiei
obiectiv este zero, atunci solutia nala va avea toti y
i
= 0 si atunci solutia nala nu va contine
niciunul dintre y
i
ca variabila fundamentala (desigur sub ipoteza de nedegenerare). Daca in solutia
nala unii y
i
sunt si zero si variabile fundamentale atunci intotdeauna se pot intershimba cu x
i
pastrand niveleul zero al functiei a.i. solutia nala sa aibe numai variabile fundamentale de tip x
i
(situatia este mai complicata in acest caz, vezi Exercitiile).
Concluzii generale : Metoda generala este in doua faze:
Faza I: Se introduc variabile articiale, se obtine o problema de programare liniara care se
CAPITOLUL 9: Metoda Simplex 182 Variabile Articiale
rezolva (prin simplex) obtinandu-se o solutie fundamentala fezabila pentru problema originala ! In
aceasta faza este posibil sa determinam ca problema originala nu are nici o solutie fundamentala
fezabila ! In aceasta faza se introduc variabile articiale doar in acele ecuatii care nu contin variabile
suplimentare !
Faza II: Folosind solutia fundamentala fezabila determinata la Faza I se minimizeaza functia
obiectiv originala. In faza II se omit functia si variabilele articiale de la Faza I !
CAPITOLUL 9: Metoda Simplex 183 Variabile Articiale
6. Forma Matriceala a Metodei Simplex
Permite o scriere condensata a metodei simplex ce conduce in nal la metoda simplex revizuita
care prezenta numeroase avantaje numerice.
noindent Fie B matricea coecientilor variabilelor fundamentale (si care este submatrice a lui A)
este formata din (primele) m coloane liniar independente si deci este matrice baza !
Partitionand
A =

B D

, x =

x
B
x
D

, c =

c
B
c
D

obtinem problema de programare liniara


minimizeaza c
T
B
x
B
+c
T
D
x
D
atunci cand Bx
B
+Dx
D
= b
x
B
0, x
D
0.
(74)
Solutia fundamentala ce este presupusa fezabila corespunzatoare bazei B este x
T
=

x
T
B
O

unde x
B
= B
1
b (obtinuta punand automat x
D
= 0). Pentru un x
D
arbitrar valoarea lui x
B
este
x
B
= B
1
x
B
B
1
Dx
D
(75)
CAPITOLUL 9: Metoda Simplex 184 Forma Matriceala a Metodei Simplex
care substituita in expresia functiei obiectiv conduce la
z = c
T
B
(B
1
b B
1
Dx
D
) +c
T
D
x
D
= c
T
B
B
1
b + (c
T
D
c
T
B
B
1
D)x
D
(76)
care exprima costul oricarei solutii in termenii lui x
D
. Prin urmare
r
T
D
= c
T
D
c
T
B
B
1
D (77)
este vectorul de cost relativ (pentru variabilele nefundamentale). Componentele acestui vector se
folosesc pentru a hotari care vector va adus in baza.
Tabloul initial este

A b
c
T
0

B D b
c
T
B
c
T
D
0

(78)
care nu este in general in forma canonica si nu corespunde unui punct in procedura simplex. Daca
folosim B drept matrice baza atunci tabloul corespunzator devine

I B
1
D B
1
b
0 c
T
D
c
T
B
B
1
D c
T
B
B
1
b

(79)
care este forma matriceala cautata !
CAPITOLUL 9: Metoda Simplex 185 Forma Matriceala a Metodei Simplex
7. Metoda Simplex Revizuita
Experienta practica extensiva (cu probleme din domenii extrem de diverse si avand diferite valori
pentru m si n) a aratat ca metoda converge la o solutie optimala in aproximativ m pivotari (posibil
si
3m
2
).
Concluzie interesanta: Daca m << n (matricea A are mult mai putine linii decat coloane)
pivotii vor aparea in timpul optimizarii doar intr-o mica parte dintre coloane ! Deci efortul facut
pentru actualizarea celorlalte coloane dupa pivotare este complet inutil !
Metoda simplex revizuita rezolva aceste probleme:
Ordoneaza diferit calculele metodei simplex a.i. sa evite calculele inutile;
Chiar in situatia in care pivotarea este necesara in toate coloanele dar m este mic in comparatie
cu n metoda economiseste uzual un numar important de operatii;
Algoritmul simplex revizuit:
Pasul 0: Se dau B
1
(inversa unei baze curente), si solutia curenta x
B
=

b = B
1
b;
CAPITOLUL 9: Metoda Simplex 186 Metoda Simplex Revizuita
Pasul 1: Se calculeaza coecientul de cost relativ r
T
D
:= c
T
D
c
T
B
B
1
D. Operatia se
efectueaza calculand intai
T
= c
T
B
B
1
si apoi vectorul de cost r
T
D
:= c
T
D

T
D. Daca
r
D
0, STOP; valoarea curenta este optimala;
Pasul 2: Alegeti q a.i. r
q
< 0 ptr. a aa care variabila nefundamentala va deveni fundamentala
(se alege cel mai negativ coecient de cost); se calculeaza a
q
:= B
1
a
q
care da vectorul a
q
in
baza curenta;
Pasul 3: Calculati

b
i
a
iq
ptr. a
iq
> 0, i = 1, 2, , m. Daca nu exista a
iq
> 0, STOP.
Problema este nemarginita. Altfel alege un i = p pentru care se atinge minimul si deci vectorul
p va parasi baza;
Pasul 4: Actualizeaza B
1
si solutia curenta B
1

b. Returnare la Pasul 1.
Observatia 105. Actualizarea lui B
1
se obtine prin operatiile uzuale de pivotare aplicate unei
matrici formate din B
1
si din a
q
, unde pivotul este dat de elementul corespunzator din a
q
.
Simultan se poate desigur actualiza si B
1

b adaugand o singura coloana.


Observatia 106. Pentru inceperea procedurii avem nevoie de o solutie initiala fezabila si de inversa
bazei initiale. In multe probleme baza initiala este matricea identitate I
m
(si evident si inversa)
rezultand din variabile suplimentare sau articiale !
CAPITOLUL 9: Metoda Simplex 187 Metoda Simplex Revizuita
Forma Produs a Inversei
Aceasta varianta de metoda simplex revizuita se bazeaza pe o reprezentare de tip produs a inversei
bazei. Avantajele variantei:
Are nevoie de mai putine calcule decat alte metode;
Avantajul principal consta in necesarul foarte mic de memorie rapida.
Sa presupunem ca tabloul T se modica prin pivotarea cu un pivot a
pq
din coloana a
q
=
_
_
_
_
a
1q
a
2q

a
mq
_
_
_
_
. Rezultatul pivotarii este matricea ET in care E este matricea elementara
E =
_
_
_
_
_
_
_
_
_
_
_
1 0 0 v
1
0 0
0 1 0 v
2
0 0
1
.
.
. 0
v
p
0
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 v
m
0 1
_
_
_
_
_
_
_
_
_
_
_
, (80)
CAPITOLUL 9: Metoda Simplex 188 Metoda Simplex Revizuita
cu elementele v
i
din coloana p avand valorile
v
i
=
a
iq
a
pq
, i ,= p,
v
p
=
1
a
pq
.
(81)
Matricea E se determina pe baza coloanei pivot. Multiplicarea oricarei coloane la stanga cu
matricea E adauga unei componente arbitrare i ,= p componenta p multiplicata cu v
i
si multiplica
componenta p cu v
p
aceasta corespunde exact operatiilor de pivotare facute intr-o coloana a
tabelului!
Initializand algoritmul simplex cu o matrice baza identitate obtinem dupa k pivotari succesive
inversa
B
1
:= E
k
E
k1
. . . E
2
E
1
(82)
in care E
i
este matricea elementara corespunzatoare pivotarii i. Aplicand aceasta reprezentare a
inversei se obtine o noua varianta a metodei simplex revizuite.
Metoda Simplex Revizuita de Tip Produs
Pasul 0: Presupunem ca dupa pivotarea k am avem memorate E
1
, . . . E
k
.
Pasul 1: Se calculeaza solutia de baza prin formula recursiva
x
B
= (E
k
(E
k1
. . . (E
1
b)))
CAPITOLUL 9: Metoda Simplex 189 Metoda Simplex Revizuita
Pasul 2: Se calculeaza coecientii de cost relativ r
T
D
= c
T
D
c
T
B
B
1
D (se foloseste aceeasi
metoda de calcul cu ca anterior). Vectorul se obtine prin formula recursiva

T
= (((c
T
B
E
k
)E
k1
) . . . E
1
).
Daca r
D
0, STOP; solutia curenta este optimala.
Pasul 3: Se selecteaza cel mai negativ coecient de cost relativ si se calculeaza vectorul
corespunzator
a
q
= (((E
k
)E
k1
. . . (E
1
a
q
))).
Pasul 4: Daca nu exista a
iq
> 0, STOP. Problema este nemarginita. Altfel alege un i = p
pentru care se atinge minimul

b
i
a
iq
pentru care a
iq
> 0 stabilind astfel care vector paraseste
baza. In felul aceasta s-a determinat care componenta este noul pivot si deci E
k+1
. Returnare
la Pasul 1.
Observatia 107. Pentru stocarea matricilor E este necesara memorarea a numai m+1 numere:
(p, v
1
, . . . , v
m
). Mai mult, nici nu este nevoie sa reconstituim matricile E in mod explicit ci doar
formulele de multiplicat E la dreapta cu un vector coloana (Pasii 1 si 3) si la stanga cu un vector
linie (Pasul 2) !
Observatia 108. In cazul rezolvarii unor probleme de dimensiuni mari prin aceasta metoda
majoritatea informatiilor se pot pastra in memoriile mai lente ale masinii de calcul (HDD, DVD,
CAPITOLUL 9: Metoda Simplex 190 Metoda Simplex Revizuita
etc). Coloanele lui A se pot aduce in memoria RAM in mod individual, si se pot inmulti cu B
1
prin aducerea succesiva in memoria RAM a vectorilor de dimensiune m + 1 ce denesc matricile
E.
Observatia 109. Problemele de dimensiuni mari care apar uzual in programarea liniara au multa
structura, implicand adesea ca matricea A (si desemenea matricea B) sunt matrici rare (cu putine
elemente nenule). In orice caz, B
1
nu este matrice rara in general si acest fapt evidentiaza avantajul
formei produs. Un avantaj suplimentar al formei produs este ca vectorii (p, v
1
, v
2
, . . . , v
m
) denind
matricile E sunt probabil ei insasi rari, generand o reducere masiva in memoria si timpul de executie
necesare.
Reinversare
Pentru probleme de dimensiuni mari sau prost conditionate numeric erorile de calcul se acumuleaza
pana la un nivel la care B
1
este puternic imprecisa ! Evaluarea erorii la pasul curent se face
evaluand
Bx
B
b
in care x
B
este valoarea curenta gasita prin formula x
B
= B
1
b in care pentru calculul lui B
1
se
foloseste valoarea curenta a lui B
1
. Daca eroarea este semnicativa este recomandata reinversarea
cat mai exact posibil a lui B si restartatea procedurii. Aceasta operatie se numeste reinversare
si este o componenta esentiala a oricarei biblioteci de programe. Pentru inversarea lui B se poate
CAPITOLUL 9: Metoda Simplex 191 Metoda Simplex Revizuita
folosi orice procedura numeric stabila, cel mai adesea folosindu-se proceduri de pivotare in care
pivotii se aleg la ecare pas a.i. sa minimizeze erorile de calcul.
In cazul formei produs reinversarea serveste si pentru controlul necesarului de memorie: sirul
lung de matrici elementare ce descriu inversa lui B este inlocuit cu un sir de m matrici ! Mai
mult, in acest caz alegerea pivotilor se face a.i. sa mentinem structura rara (in afara de acuratetea
calculelor).
CAPITOLUL 9: Metoda Simplex 192 Metoda Simplex Revizuita
8. Metoda Simplex via Descompunerea LU
In procedura propusa in sectiunea precedenta am vazut ca parcurgerea unui pas din metoda
simplex nu este dependenta de cunoasterea explicita a inversei B
1
ci de rezolvarea unor sisteme
de ecuatii avand matricea coecient B. Cu aceasta observatie procedura simplex din sectiunea
precedenta se poate da in forma:
Algoritmul simplex revizuit:
Pasul 0: Se da baza curenta B.
Pasul 1: Se calculeaza solutia curenta x
B
ce satisface Bx
B
=

b;
Pasul 2: Se rezolva
T
B = c
T
B
si se calculeaza coecientul de cost relativ r
T
D
:= c
T
D

T
D.
Daca r
D
0, STOP; valoarea curenta este optimala;
Pasul 3: Se alege q a.i. r
q
< 0 ptr. a aa care variabila nefundamentala va deveni fundamentala
(se alege cel mai negativ coecient de cost); se rezolva Ba
q
:= a
q
care da vectorul a
q
in baza
curenta;
Pasul 4: Se calculeaza

b
i
a
iq
ptr. a
iq
> 0, i = 1, 2, , m. Daca nu exista a
iq
> 0, STOP.
Problema este nemarginita. Altfel se alege un i = p pentru care se atinge minimul si deci
vectorul p va parasi baza;
CAPITOLUL 9: Metoda Simplex 193 Metoda Simplex via Descompunerea LU
Pasul 5: Actualizeaza B. Returnare la Pasul 1.
Din procedura de mai sus se observa ca intr-adevar nu este nevoie de B
1
ci doar de rezolvarea
a trei sisteme de ecuatii liniare, doua avandu-l pe B drept coecient matriceal si unul pe B
T
. In
procedurile anterioare sistemele erau implicit rezolvate prin operatiile corespunzatoare de pivotare pe
masura ca metoda progresa. Dpdv al ecientei si preciziei numerice metoda de pivotare prezentata
nu este la fel de ecienta precum eliminarea Gaussiana pentru sisteme generale de ecuatii liniare.
In consecinta are rost sa adaptam eliminarea Gaussiana pentru metoda simplex, rezultatul ind o
versiune a metodei simplex revizuite care are o stabilitate numerica mai buna si pentru probleme de
dimensiuni mari ofera economii importante de memorie.
Ne concentram asupra celor trei sisteme ce trebuie rezolvate la ecare pas:
Bx
B
= b,
T
B = c
T
B
, Ba
q
= a
q
. (83)
Presupunem ca B a fost descompus sub forma B = LU unde L si U sunt matrici inferior
respectiv superior triangulare (presupunem pentru simplitate ca nu avem nevoie de reordonare pe
linii se poate relaxa dar complexitatea expunerii creste considerabil). Deci ecare sistem (83) se
poate rezolva prin rezolvarea a doua sisteme triangulare.
Cheia cresterii ecientei metodei simplex consta in actualizarea ecienta a acestor doua matrici
CAPITOLUL 9: Metoda Simplex 194 Metoda Simplex via Descompunerea LU
triangulare cand se schimba un singur vector baza ! Presupunem ca la inceputul metodei simplex
avem
B =

a
1
a
2
. . . a
m

si la sfarsitul ciclului vom avea


B =

a
1
a
2
. . . a
p1
a
p+1
. . . a
m
a
q

(vectorul a
p
s-a inlocuit cu a
q
). Sa observam ca B se obtine din B prin eliminarea lui a
p
, siftarea
vectorilor cu indici mai mari spre stanga si adaugarea lui a
q
in extremitatea dreapta. Avem
L
1
B =

L
1
a
1
L
1
a
2
. . . L
1
a
p1
L
1
a
p+1
. . . L
1
a
m
L
1
a
q

=

u
1
u
2
. . . u
p1
u
p+1
. . . u
m
L
1
a
q

= H
in care u
i
sunt exact coloanele lui U iar matricea H are forma
H =
CAPITOLUL 9: Metoda Simplex 195 Metoda Simplex via Descompunerea LU
cu zerouri sub diagonala principala in primele k 1 coloane si zerouri sub elementul imediat de sub
diagonala principala in restul de coloane. Matricea H se poate construi fara calcule suplimentare
deoarece u
i
sunt cunoscute si L
1
a
q
este deja calculat atunci cand se rezolva al treilea sistem
(83). Tot ce avem de facut este sa anulam elementele nenule subdiagonale folosind de exemplu
eliminarea Gaussiana. In nal se obtine matricea superior triangulara U ca urmare a aplicarii unor
transformari de tipul
M
i
=
_
_
_
_
_
_
_
_
_
_
_
1
1
.
.
.
1
m
i
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
, i = k, k + 1, . . . , m1 (84)
sub forma
U = M
m1
M
m2
M
k
H. (85)
Obtinem in nal
B = LH = LM
1
k
M
1
k+1
M
1
m1
U, (86)
L = LM
1
k
. . . M
1
m1
(87)
CAPITOLUL 9: Metoda Simplex 196 Metoda Simplex via Descompunerea LU
si deci descompunerea
B = LU. (88)
Se observa ca L se calculeaza simplu si este inferior triunghiulara deoarece
M
1
i
=
_
_
_
_
_
_
_
_
_
1
1
.
.
.
1
m
i
1
.
.
.
1
_
_
_
_
_
_
_
_
_
Observatia 110. Exista multe variante concrete de implementare: transformarile M
i
se pot
memora in loc sa evaluam L; descompunerea LU se poate reevalua periodic (similar ca la
reinversare) si se pot folosi intreschimbari de linii si coloane pentru a mximiza stabilitatea sau pentru
a minimiza densitatea descompunerii (vezi Exercitiile)
CAPITOLUL 9: Metoda Simplex 197 Metoda Simplex via Descompunerea LU
9. Concluzii
Metoda simplex se bazeaza pe faptul ca daca valoarea optimala a unui program liniar este
nita atunci se atinge la o solutie fundamentala fezabila. Exista doua interpretari posibile ale
metodei simplex:
(Prin variatii continue): Se pleaca cu o solutie fezabila fundamentala si una dintre variabilele
nefundamentale este crescuta incet de la zero. In timp ce aceasta variabila este crescuta, restul
de variabile fundamentale sunt ajustate a.i. sa se pastreze fezabiliatea. Schimbarea functiei
obiectiv la o schimbare unitara a variabilei nefundamentale este coecientul de cost relativ
asociat cu variabila nefundamentala. Daca coecientul este negativ, valoarea functiei obiectiv
este imbunatatita pe masura ce variabila nefundamentala este crescuta pana in punctul in care
o crestere mai mare violeaza fezabilitatea. In acest punct una dintre variabilele fundamentale
este zero si se face intreschimbarea cu varibila nefundamentala.
(Prin variatii discrete): Deoarece este necesar sa consideram doar solutii fundamentale fezabile,
se selecteaza diverse baze si se calculeaza solutiile fundamentale corespunzatoare prin rezolvarea
unor sisteme de ecuatii liniare. Logica alegerii unor noi baze este generata de coecientii de cost
relativ.
Concluzii
Tehnici de Optimizare
(Partea aIIIa: Control Optimal)
Cristian OARA
Facultatea de Automatica si Calculatoare
Universitatea Politehnica Bucuresti
Splaiul Independentei 313,
Bucuresti, Romania
Fax: + 40 1 3234 234
Email: oara@riccati.pub.ro
Concluzii
Capitolul 10 : INTRODUCERE
Recapitulati notiunile de la TS I + II:
Semnal
Sistem
Control
Control Automat
Comportare Dezirabila a unui Sistem
CAPITOLUL 11: NOTIUNI DE BAZA 200 Notiuni de Baza
Capitolul 11 : NOTIUNI DE BAZA
Sistem Liniar
Proprietati de Baza ale Sistemelor Liniare
Spatii de Semnale si Functii de Transfer
Evolutii pe Spatiul Starilor Generate de Intrari L
2
Operatorul L
2
IntrareIesire
Descriere Dinamica:
x(t) = Ax(t) +Bu(t),
y(t) = Cx(t) +Du(t),
(89)
in care t R, x(t) R
n
este starea, u(t) R
m
este intrarea, y(t) R
p
este iesirea sistemului,
si A, B, C, D sunt matrici constante de dimensiuni adecvate
A R
nn
, B R
nm
, C R
pn
, D R
pm
.
Comportarea intrareiesire a sistemului (89) este descrisa convenabil de matricea de transfer
CAPITOLUL 11: NOTIUNI DE BAZA 201 Notiuni de Baza
care este matricea rationala proprie de dimensiuni p m
G(s) := C(sI A)
1
B +D =

A B
C D

(s). (90)
Facand o schimbare de variabile de forma x := Tx (T matrice inversabila), vectorul transformat
x satisface

x(t) =

A x(t) +

Bu(t),
y(t) =

C x(t) +

Du(t),
(91)
in care

A := TAT
1
,

B := TB,

C := CT
1
,

D := D. (92)
NOTA:
G(s) se obtine luand transformata Laplace in (89) si explicitand y(s) ca functie de u(s) in
forma
y(s) = G(s)u(s) (93)
Incepand cu o reprezentare a lui G ca matrice rationala proprie putem intotdeauna obtine
reprezentare de stare (89) scriind realizarea standard (A, B, C, D) a lui G.
Se poate intotdeauna asigura minimalitatea realizarii.
CAPITOLUL 11: NOTIUNI DE BAZA 202 Notiuni de Baza
O schimbare de variabila (transformare de similaritate sau transformare de echivalenta) nu
afecteaza spectrul matricii A nici matricea de transfer intrareiesire.
CAPITOLUL 11: NOTIUNI DE BAZA 203 Notiuni de Baza
Proprietati de Baza ale Sistemelor Liniare
Un sistem se numeste
stabil: daca toate valorile proprii ale lui A sunt in C

antistabil: daca toate valorile proprii ale lui A sunt in C


+
dihotomic: daca A nu are valori proprii pe axa imaginara
NOTA:
Stabilitatea, antistabilitatea, dihotomia si proprietatile I/O sunt invariante sub transformari de
coordonate
Facand o transformare de coordonate T, un sistem dihotomic se poate descompune intro parte
stabila si una antistabila:

A = TAT
1
=

O
O A
+

]n

]n
+
,

B = TB =

B
+

,

C = CT
1
=

C

C
+

. .
n

n
+
(94)
CAPITOLUL 11: NOTIUNI DE BAZA 204 Proprietati de Baza ale Sistemelor Liniare
in care A

este stabila si A
+
este antistabila.
Un sistem se numeste:
Controlabil: daca (A, B) satisface
rank

sI A B

= n, s
Stabilizabil: daca (A, B) satisface
rank

sI A B

= n, s, Re s 0
Exista F a.i. A +BF este stabila
Antistabilizabil: daca (A, B) satisface
rank

sI A B

= n, s, Re s 0.
Notiuni duale: Observabilitate, Detectabilitate, Antidetectabilitate
CAPITOLUL 11: NOTIUNI DE BAZA 205 Proprietati de Baza ale Sistemelor Liniare
Spatii de Semnale si Matrici de Transfer
DEFINIM:
L

(C
0
): spatiul Banach al functiilot matriciale complexe G(s) care sunt marginite pe C
0
, cu
normaL

(C
0
)
jGj

:= sup
sC
0
(G(s)) (95)
in care : valoarea singulara maxima.
RH

: subspatiul rational constand din matrici proprii p m cu elemente marginite pe axa


imaginara.
RH

+,pm
spatiul matricilor rationale proprii cu elemente analitice in C
+
C
0
RH

,pm
spatiul matricilor rationale proprii cu elemente analitice in C

C
0
.
NOTA:
Daca A este dicotomic G RL

.
Daca A este stabila G RH

+
Daca A este antistabila G RH

.
CAPITOLUL 11: NOTIUNI DE BAZA 206 Spatii de Semnale si Matrici de Transfer
Un sistem cu matricea de transfer RH

+
este stabil intrareiesire (coincide cu RH

+
)
Un sistem stabil (numit si intern stabil cu A stabila) este intotdeauna stabil in sens intrare
iesire.
Reciproca nu este adevarata decat daca realizarea este stabilizabila si detectabila.
Problema centrala in Teoria sistemelor: stabilitatea interna pentru ca garanteaza ca orice
semnal de energie nita (norma L
2
nita) injectat oriunde in sistem genereaza semnale de energie
marginita (norma L
2
nita).
Pentru functii de transfer avem
jGj

= sup
R
(G(j)) = sup
R
jG(j)j
in care j j este norma operatoriala indusa a matricii (= norma indusa a operatorului intrareiesire
a sistemului).
NOTA:
Norma L

a unui sistem este nita daca si numai daca matricea de transfer este analitica pe
axa imaginara incluzand la innit !
Norma L

a unui sistem da energia maxima a semnalului de iesire cand intrarea este un semnal
de energie marginita de 1 ! Cel mai prost caz!
CAPITOLUL 11: NOTIUNI DE BAZA 207 Spatii de Semnale si Matrici de Transfer
Rezultate asupra normei L

Teorema 111. [Teorema lui Rellich] Fie matricea nn M(x) = M

(x) depinzand continuu


de parametrul real x apartinand intervalului I. Atunci exista functii reale continue
1
, . . . ,
n
denite pe I, a.i.
n
(x) . . .
1
(x), pentru orice x in I, si (M(x)) =
i
(x)].
Corolarul 112. Pentru G RL

pm
, (G(j)) depinde continuu de R, este marginita si
isi atinge maximum pentru [, ], unde prin denitie G(j) = G(j) = D.
Teorema 113. Presupunem ca sirul de sisteme
G
k
=

A
k
B
k
C
k
D
k

, k N, (96)
este a.i. A
k
A, B
k
B, C
k
C si D
k
D cand k , A si A
k
sunt stabile, si
G(s) = C(sI A)
1
B +D 0. Atunci
lim
k
jG
k
j

= 0.
Demonstratie: Rezultatul poate suna evident dar nu este deloc trivial !!!!
CAPITOLUL 11: NOTIUNI DE BAZA 208 Spatii de Semnale si Matrici de Transfer
Rezultate privind norma L
2
DEFINIM: Spatiul L
2
(M): Spatiul Hilbert al functiilor complexe matriciale (vectoriale sau
scalare ) G(t) pentru care
_
M
Trace [G

(t)G(t)]dt < , (97)


unde M este sau Z, (, ), C
0
, sau D.
In particular, L
2
(C
0
) este spatiul Hilbert al functiilor matriciale (vectoriale sau scalare) G(s)
cu norma L
2
(C
0
) nita
jGj
2
:=
1
2
_

Trace [G

(j)G(j)]d]
1
2
. (98)
NOTA:
Daca G G este o functie rationala atunci norma L
2
(C
0
) este nita daca si numai daca G
nu are poli pe axa imaginara si este strict proprie.
Norma L
2
a unui sistem da energia semnalului de iesire cand la intrare se aplica un impuls
Dirac!!!
CAPITOLUL 11: NOTIUNI DE BAZA 209 Spatii de Semnale si Matrici de Transfer
Calculul alternativ al normelor
Presupunem D = 0 si A stabila. Norma L
2
(C
0
) a lui G se poate calcula folosind
jGj
2
= [Trace (B
T
QB)]
1
2
= [Trace (CPC
T
)]
1
2
(99)
in care P si Q sunt unicele solutii ale urmatoarelor ecuatii
AP +PA
T
+BB
T
= 0, A
T
Q+QA +C
T
C = 0. (100)
Pp D = 0 si A antistabila. Norma L
2
(C
0
) a lui G se poate calcula folosind
jGj
2
= [Trace (B
T

QB)]
1
2
= [Trace (C

PC
T
)]
1
2
(101)
unde

P si

Q sunt unicele solutii ale ecuatiilor
A

P +

PA
T
BB
T
= 0, A
T

Q+

QA C
T
C = 0. (102)
Calculul normei L

necesita intotdeauna o cautare iterativa !!!


CAPITOLUL 11: NOTIUNI DE BAZA 210 Spatii de Semnale si Matrici de Transfer
Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
Investigam solutiile particulare ale sistemului diferential
x = Ax +Bu, (103)
unde A R
nn
, B R
nm
, in cazul in care u este o functie L
2,m
(, ): spatiul Hilbert al
functiilor de patrat integrabil in sens Lebesgue pe (, ), luand valori in R
m
.
Daca u L
2,m
denim norma L
2
a lui u:
juj
2
:= (
_

ju(t)j
2
dt)
1
2
< .
Fie deasemenea
L
2,m
+
: subspatiile inchise a lui L
2,m
de functii cu suport [0, )
L
2,m

: subspatiile inchise a lui L


2,m
al functiilor cu suport (, 0]
Nota:
L
2,m
= L
2,m
+
L
2,m

.
CAPITOLUL 11: NOTIUNI DE BAZA 211 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
Solutii L
2
ale lui x = Ax +Bu
Cautam solutii L
2
in cazurile urmatoare:
1. Sub conditii initiale
2. Pe intreaga axa de timp:
A stabila
A antistabila
A dihotomica
A arbitrara
CAPITOLUL 11: NOTIUNI DE BAZA 212 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
1. Solutii sub conditii intitiale
Fie R
n
arbitrar, si u L
2,m
+
. Fie x
,u
solutia care satisface x(0) = data de formula de
variatie a constantelor
x
,u
(t) = e
At
+
_
t
0
e
A(t)
Bu()d, t 0 (104)
sau in forma operatoriala
x
,u
= +1u (105)
cu
: R
n
L
2,n
+
, ()(t) := e
At
, t 0, (106)
si
1 : L
2,m
+
L
2,n
+
, (1u)(t) :=
_
t
0
e
A(t)
Bu()d, t 0. (107)
NOTA:
Acesti doi operatori nu sunt cu necesitate marginiti
Daca A este stabila, atunci x
,u
L
2,n
+
si ambii operatori si 1 sunt marginiti.
Ne intereseaza si alte solutii ale x = Ax+Bu (pe intreaga axa de timp). In orice caz, proprietatile
lor depind puternic de spectrul lui A si trebuie deci considerate separat cazurile in care A este
stabila, antistabila, dihotomica, si arbitrara.
CAPITOLUL 11: NOTIUNI DE BAZA 213 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
2. Solutii pe intreaga axa
Teorema 114. Fie A stabila. Atunci pentru ecare u L
2,m
, ecuatia x = Ax + Bu are o
solutie unica x
u
e
(absolut continua) in L
2,n
, data de
x
u
e
(t) =
_
t

e
A(t)
Bu()d , t R. (108)
Putem deni operatorul marginit 1
e
: L
2,m
L
2,n
prin
(1
e
u)(t) :=
_
t

e
A(t)
Bu()d , t R (109)
si obtinem forma operatoriala a solutiei
x
u
e
= 1
e
u. (110)
Mai mult, avem urmatoarele conexiuni intre cei doi operatori 1 introdusi pana acum
1 = P
n
+
1
e
P
m
+
= 1
e
P
m
+
, (111)
unde P
r

sunt proiectiile ortogonale ale lui L


2,r
pe L
2,r

.
CAPITOLUL 11: NOTIUNI DE BAZA 214 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
Teorema 115. Fie A antistabila. Atunci pentru oricare u L
2,m
, ecuatia x = Ax +Bu are o
solutie unica x
u
e
in L
2,n
(absolut continua) data de
x
u
e
(t) =
_

t
e
A(t)
Bu()d , t R. (112)
Analog, putem deni in acest caz operatorul liniar marginit 1
e
: L
2,m
L
2,n
dat de
(1
e
u)(t) :=
_

t
e
A(t)
Bu()d , t R, (113)
a.i. x
u
e
= 1
e
u continua sa e valida.
Teorema 116. Fie A dihotomica. Atunci, oricare u in L
2,m
, ecuatia x = Ax +Bu are o unica
solutie in L
2,n
data de
x
u
e
(t) =
_
t

e
A(t)

Bu()d
_

t
e
A(t)

+
Bu()d , t R (114)
unde

and
+
sunt proiectiile lui R
n
pe subspatiile stabile si antistabile ale lui A.
Similar, denim operatorul liniar marginit 1
e
: L
2,m
L
2,n
, x
u
e
:= 1
e
u si 1 : L
2,m
+
L
2,n
+
,
1 := P
n
+
1
e
P
m
+
, x
u
:= 1u.
CAPITOLUL 11: NOTIUNI DE BAZA 215 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
Cazul general: A arbitrar
Asa cum am vazut, in acest caz denim solutiile (cu conditii initiale) x
,u
prin
x
,u
(t) = e
At
+
_
t
0
e
A(t)
Bu()d, t 0. (115)
In general, x
,u
nu este in L
2,n
+
. Este interesant sa consideram multimea acelor functii de
intrare u care fac x
,u
integrabila (in patratul normei). Aceste intrari pot vazute ca stabilizand
sistemul in bucla deschisa. Introducem
/

:= u : u L
2,m
+
a.i. x
,u
L
2,n
+
]. (116)
Daca A este stabila atunci /

= L
2,m
+
. In general, avem:
Lema 117. Presupunem (A, B) stabilizabila si e F o reactie stabilizatoare. Fie R
n
si
u L
2,m
+
. Atunci u /

daca si numai daca u = Fx


,v
F
+ v , in care v este arbitrara in L
2,m
+
si x
,v
F
este unica solutie in L
2,n
+
a lui
x
F
= (A +BF)x
F
+Bv , x
F
(0) = .
CAPITOLUL 11: NOTIUNI DE BAZA 216 Evolutii in Spatiul Starilor Corespunzatoare Intrarilor L
2
Operatorul L
2
IntrareIesire
Consideram un sistem liniar cu A dihotomica si un u L
2,m
arbitrar. Atunci
x(t) = Ax(t) +Bu(t),
y(t) = Cx(t) +Du(t)
(117)
se poate rescrie ca
x = x
u
e
= 1
e
u
y = (C1
e
+D)u ( L
2,p
).
Sistemul (117) deneste astfel un operator liniar marginit din L
2,m
in L
2,p
:
(u)(t) =
_
t

Ce
A(t)

Bu()d
_

t
Ce
A(t)

+
Bu()d +Du(t). (118)
Printr-o transformare T care descompune sistemul in partile sale stabile si antistabile obtinem
(u)(t) =
_
t

e
A

(t)
B

u()d
_

t
C
+
e
A
+
(t)
B
+
u()d +Du(t). (119)
CAPITOLUL 11: NOTIUNI DE BAZA 217 Operatorul L
2
IntrareIesire
Deoarece A este dihotomica,
G(s) = C(sI A)
1
B +D RL

pm
.
Daca y L
2,p
, u L
2,m
sunt a.i.
y = u,
atunci transformatele Fourier y, u L
2
(C
0
),
y(j) = G(j) u(j), a.p.t.
Teorema 118. Daca sistemul este dihotomic, atunci norma operatorului intrareiesire este egala
cu norma L

(C
0
) matricii sale de transfer, i.e.,
jj = jGj

. (120)
Avem urmatorul rezultat in cazul unui sistem inversabil (avand D inversabila).
Propozitia 119. Fie D inversabila si A BD
1
C este dihotomica. Atunci operatorul intrare
iesire este inversabil si inversa sa este operatorul intrareiesire al sistemului
x(t) = (A BD
1
C)x(t) + BD
1
y(t),
u(t) = D
1
Cx(t) + D
1
y(t).
(121)
CAPITOLUL 11: NOTIUNI DE BAZA 218 Operatorul L
2
IntrareIesire
Capitolul 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV
Denitii si Echivalenta
Transformari sub Echivalenta
Indici Patratici
Sistemul Riccati
Ecuatia Matriciala Algebrica Riccati
Sistemul KalmanYakubovichPopov
Sistemul Hamiltonian
Functia Popov
Operatorul I/O al Sistemului Hamiltonian
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 219 Denitii si Echivalenta
Denitii si Echivalenta
Denitia 120. [Triplet Popov] Un triplet de matrici
:= (A, B; P), P :=

Q L
L
T
R

= P
T
,
unde A R
nn
, B R
nm
, Q = Q
T
R
nn
, L R
nm
, R = R
T
R
mm
, si
P R
(n+m)(n+m)
, se numeste triplet Popov.
Semnicatie: Reprezentare pe scurt a unei perechi constand din:
Un sistem dinamic controlat
x = Ax +Bu (122)
Un indice patratic de performanta
J =
_
t
1
t
0
w
T
(t)Pw(t)dt, w(t) :=

x(t)
u(t)

, (123)
unde x(t) si u(t) satisfac (122).
Reprezentare alternativa explicita a unui triplet Popov ca = (A, B; Q, L, R)
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 220 Denitii si Echivalenta
Denitia 121. [Echivalenta si triplete Popov] Doua triplete Popov
= (A, B; Q, L, R),

= (

A,

B;

Q,

L,

R),
se numesc (X, F)echivalente daca exista F R
mn
si X = X
T
R
nn
a.i.

A = A +BF,

B = B,

Q = Q+LF +F
T
L
T
+F
T
RF +

A
T
X +X

A,

L = L +F
T
R +XB,

R = R.
(124)
Echivalent Feedback (sau Fechivalent): X = 0
Echivalent Redus F = 0 si X a.i.

Q = 0 ( ecuatie Lyapunov: Q+A
T
X +XA = 0)
Relatia de mai sus este intr-adevar o relatie de echivalenta ce satisface axiomele corespunzatoare.
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 221 Denitii si Echivalenta
Transformari sub Echivalenta
Vedem in continuare cum se transforma diversele obiecte asociate cu un indice patratic + sistem
dinamic controlat (sau cu un triplet Popov) sub relatia de echivalenta :
Indice patratic
Sistemul algebric Riccati (ARS)
Ecuatia algebrica Riccati (ARE)
Sistemul Kalman-Popov-Yakubovich (KPYS)
Sistemul Hamiltonian
Fascicolul (matricial) Hamiltonian extins (EHP)
Functia Popov
Operatorul I/O al sistemului Hamiltonian
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 222 Transformari sub Echivalenta
Indice Patratic
J

(, u) :=
_

0

x
u

Q L
L
T
R

x
u

dt =

x
,u
u

Q L
L
T
R

x
,u
u

L
2,n
+
L
2,m
+
,
(125)
unde
x
,u
(t) = e
At
+
_
t
0
e
A(t)
Bu()d, t 0 (126)
este solutia
x = Ax +Bu, x(0) = (127)
u /

:= u : u L
2,m
+
a.i. x
,u
L
2,n
+
] (128)
Reamintire: Multimea /

contine acele intrari care fac solutia x


,u
de patrat integrabil. Aceste
intrari stabilizeaza sistemul in bucla deschisa !!!
Daca A este stabila, J

(, u) este denita pentru toti R


n
si u L
2,m
+
i.e. /

= L
2,m
+
.
Propozitia 122. Fie = (A, B; P) si e

= (

A,

B;

P) un (X, F) echivalent. Atunci:
J

(, u) = J

(, u) +
T
X, (u /

) unde u = Fx
,u
+u.
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 223 Transformari sub Echivalenta
Sistemul Algebric Riccati
Sistemul de ecuatii in necunoscutele F R
mn
, X = X
T
R
nn
,

A
T
X +X
.
A +Q L +XB
B
T
X +L
T
R

.
Matricea de Disipativitate

I
F
.

= 0 (129)
se numeste sistemul algebric Riccati (ARS) asociat cu : ARS().
Denitia 123. O pereche (X, F) satisfacand (129), cu X = X
T
si A+BF stabila, se numeste
solutie stabilizanta a ARS().
Propozitia 124. Fie (X, F), (

X,

F) solutii stabilizante ale ARS(). Atunci X =

X
.
.
Observatie: F este in general neunica daca R nu este inversabila!!!
Propozitia 125. Fie = (A, B; P) si

= (

A,

B;

P) un (X, F)equivalent.
(X
s
, F
s
) este o solutie (stabilizanta) a ARS()
(X
s
X, F
s
F) este o solutie (stabilizanta) a ARS(

).
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 224 Transformari sub Echivalenta
Ecuatia Algebrica Riccati (ARE)
Ecuatia algebrica Riccati este un caz particular al sistemului Riccati atunci cand R este
nensingulara. Intr-adevar, avem pentru X = X
T
,
F = R
1
(B
T
X +L
T
),
A
T
X +XA (XB +L)R
1
(B
T
X +L
T
) +Q = 0
(130)
care este ecuatia algebrica Riccati asociata cu .
Denitia 126. O solutie simetrica X se numeste stabilizanta daca A + BF este stabila. F se
numeste reactie stabilizanta.
Corolarul 127. Daca ARE() are o solutie stabilizanta atunci aceasta este unica.
Corolarul 128. Fie = (A, B; P) si

= (

A,

B;

P) doua triplete Popov (X, F) echivalente.
X
s
este solutia stabilizanta a ARE()

X
s
X este solutia stabilizanta a ARE(

). Mai mult,

F
Ricc
= F
Ricc
F. (131)
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 225 Transformari sub Echivalenta
Sistemul KalmanYakubovichPopov
O inlocuire comoda a ecuatiei Riccati folosita pentru a completa forma patrata.
Fie = (A, B; Q, L, R), R inversabila, J o mm matrice de semn. Sistemul neliniar
R = V
T
JV ,
L +XB = W
T
JV ,
Q+A
T
X +XA = W
T
JW,
(132)
se numeste sistemul KalmanPopovYakubovich (KPYS) in forma J: KPYS(, J).
NOTA: R inversabila J inversabila
J =

I
m
1
I
m
2

, sgn (R) = J. (133)


Denitia 129. Un triplet de matrici (X = X
T
, V, W) ce satisface (132) a.i. A + BF este
stabila, pentru
F := V
1
W, (134)
se numeste solutie stabilizanta a sistemului KPYS(, J) si F se numeste reactia stabilizanta.
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 226 Transformari sub Echivalenta
NOTA:
Daca (X = X
T
, V, W) este o solutie a KPYS(, J) X este o solutie simetrica a ARE().
Daca X este o solutie simetrica a ARE(), atunci putem alege V a.i. R = V
T
JV (cu
conditia sgn (R) = J). Atunci luam W := (L + XB)V
1
J
1
care satisface deasemenea
ultima ecuatie. Prin urmare (X, V, W) este o solutie a KPYS(, J).
Reactia Riccati coincide cu reactia sistemului KPYS F := V
1
W.
CONCLUZII:
Sistemul KPYS(, J) are o solutie (stabilizanta) (X = X
T
, V, W) daca si numai daca
ARE() are o solutie (stabilizanta) X si sgn (R) = J.
Daca (X, V, W), (

X,

V ,

W) sunt solutii stabilizante ale KPYS(, J), atunci X =



X.
Daca J = I
m
sau J = I
m
, atunci KPYS devine KPYS in forma de pozitivitate
R = V
T
V,
L +XB = W
T
V,
Q+A
T
X +XA = W
T
W,
(135)
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 227 Transformari sub Echivalenta
sau in forma de negativitate
R = V
T
V,
L +XB = W
T
V,
Q+A
T
X +XA = W
T
W.
(136)
Propozitia 130. Fie un triplet Popov si (X, V, W) o solutie a KPYS(, J). Pentru oricare
u /

avem
J

(, u) =
_
V u +Wx
,u
, J(V u +Wx
,u
)
_
L
2,m
+
+
T
X. (137)
Propozitia 131. Fie = (A, B; P) si

= (

A,

B;

P) doua triplete Popov (X, F)
echivalente.
(X
s
, V
s
, W
s
) este o solutie (stabilizanta) pentru KPYS(, J)

(X
s
X, V
s
, W
s
+V
s
F) este o solutie (stabilizanta) pentru KPYS(

, J).
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 228 Transformari sub Echivalenta
Sistemul Hamiltonian
Fie = (A, B; Q, L, R). Sistemul diferential liniar
x = Ax +Bu,

= Qx A
T
Lu,
v = L
T
x +B
T
+Ru,
(138)
se numeste sistemul Hamiltonian cu timp continuu: HS().
Ne intereseaza acele functii (u, x, ) care fac v = 0 pentru sistemul Hamiltonian (determinam
in acest fel punctele critice).
Propozitia 132. Fie = (A, B; P) si

= (

A,

B;

P) (X, F) echivalente.
(u, x, ) v = 0 pentru HS() (pentru un anumit interval de timp)

(u Fx, x, Xx) v = 0 pentru HS(

) (pe acelasi interval de timp).


CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 229 Transformari sub Echivalenta
Fascicolul (matricial) Hamiltonian extins (EHP)
Fie = (A, B; Q, L, R). Fascicolul matricial sM

, cu
M

:=
_
_
I O O
O I O
O O O
_
_
, N

:=
_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
, (139)
se numeste fascicolul Hamiltonian extins: EHP().
Observatii:
Matricile M

si N

sunt patrate (2n+m) (2n+m), dar sM

nu este o problema
de valori proprii standard intrucat M

este singular !!!


Cu toate acestea, daca R este inversabil, avem
Q(M

)Z =

I
2n
O
O O

O
O I
m

, (140)
Q =
_
_
I
n
O BR
1
O I
n
LR
1
O O I
m
_
_
, Z =
_
_
I
n
O O
O I
n
O
R
1
L
T
R
1
B
T
R
1
_
_
,
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 230 Transformari sub Echivalenta
H

:=

A BR
1
L
T
BR
1
B
T
Q+LR
1
L
T
A
T
+LR
1
B
T

. (141)
Deci avem o problema de valori proprii clasica sI
2n
H

pentru matricea Hamiltoniana H

.
EHP() este exact fascicolul de transmisie (sistem) al HS(). Cum suntem interesati in solutii
ce anuleaza iesirea sistemului HS este natural ca fascicolul sistem sa joace un rol central in
caracterizarea acestora.
Daca luam v = 0 in HS() obtinem un sistem descriptor diferential
z(t) :=
_
_
x(t)
(t)
u(t)
_
_
M

z = N

z.
Propozitia 133. Fie = (A, B; Q, L, R),

= (

A,

B;

Q,

L,

R) doua triplete Popov (X, F)
echivalente. Atunci EHP() si EHP(

) sunt legate prin


sM

= U(sM

)V, (142)
unde
U :=
_
_
I O O
X I F
T
O O I
_
_
, V :=
_
_
I O O
X I O
F O I
_
_
. (143)
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 231 Transformari sub Echivalenta
Functia Popov (in timp continuu)
Fie = (A, B; Q, L, R). Pentru s C \ (A) (A
T
)] denim functia matriciala
rationala

(s) := [B
T
(sI A
T
)
1
I]

Q L
L
T
R

(sI A)
1
B
I

, (144)
ce se numeste functia lui Popov.
Nota:

=
_
_
_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
_
_
, i.e.,

este exact matricea de transfer de la u la v a HS().


EHP() este exact fascicolul de transmisie asociat cu aceasta realizarea a functiei Popov.

este autoadjuncta, i.e., are urmatoarea simetrie :

(s) =
T

(s) (=:

(s)).

se numeste si densitate spectrala introdusa de Popov in celebra monograe:


Hiperstabilitatea Sistemelor Automate (1960); joaca un rol major in identicari, prelucrarea
semnalelor, sisteme automate, teoria circuitelor, etc.
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 232 Transformari sub Echivalenta
Factorizare Spectrala
Propozitia 134. Fie = (A, B; P),

= (

A,

B;

P) doua triplete (X, F) echivalente.
1. Pentru s C \ (A) (A
T
) (

A) (

A
T
)]

(s) = S

F
(s)

(s)S
F
(s), (145)
unde
S
F
:=

A B
F I

. (146)
2. Mai mult, daca (X
s
= X
T
s
, F
s
) este o solutie a ARS() (sau ARE), atunci

(s) = S

F
s
(s)RS
F
s
(s) (147)
unde S
F
s
este (146) scrisa pentru F = F
s
. (Identitatea de factorizare spectrala )
CAPITOLUL 12: OPTIMIZARE PATRATICA & TRIPLETE POPOV 233 Transformari sub Echivalenta
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA
Operatorul I/O al Sistemului Hamiltonian
Principalul Rezultat in Domeniul Timp
Cazul Clasic de Pozitiviate: LQP
Ridicarea Ipotezei de Stabilitate
Conditia de Signatura
Optimizare Maxmin/Jocuri Dinamice
Conditii Frecventiale
Conditia de Signatura Frecventiala
Inegalitati matriciale Riccati
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 234 Operatorul I/O al Sistemului Hamiltonian
Operatorul I/O al Sistemului Hamiltonian
Fixam un triplet Popov = (A, B; Q, L, R), A R
nn
, B R
nm
, si investigam
expresiile indicilor patratici pentru diverse solutii ale ecuatiilor diferentiale. Fie A dihotomica.
Investigam intai criteriul patratic extins
J
e,
(u) :=
_

x
u

Q L
L
T
R

x
u

dt
unde u L
2,m
si x este solutia pe intreaga axa a ecuatiei diferentiale liniare x = Ax + Bu.
Substituind solutia L
2,n
data de x
u
e
= 1
e
u, obtinem
J
e,
(u) =

x
u
e
u

Q L
L
T
R

x
u
e
u

u,

1

e
I

Q L
L
T
R

1
e
I

= u, 7
e,
u) , (148)
unde 7
e,
este un operator liniar marginit din L
2,m
in L
2,m
dat de
7
e,
:= R +L
T
1
e
+1

e
L +1

e
Q1
e
= 7

e,
. (149)
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 235 Operatorul I/O al Sistemului Hamiltonian
Teorema 135. Fie = (A, B; Q, L, R) un triplet Popov. Daca A este dihotomica, atunci
operatorul 7
e,
este operatorul L
2
intrareiesire al sistemului Hamiltonian.
Fie A stabila. Pentru ecare u L
2,m
+
indicele patratic J

(, u) este bine denit. Inlocuim


solutia x
,u
= +1u, pentru x(0) = :
J

(, u) =

x
,u
u

Q L
L
T
R

x
,u
u

1
O I

Q L
L
T
R

1
O I

O
1

Q L
L
T
R

1
O I

1
o,
1

, (150)
in care toti operatorii ce intervin sunt liniar marginiti:
1
o,
: R
n
R
n
, 1
o,
:=

Q, (151)
1

: L
2,m
+
R
n
, 1

:=

(Q1 +L), (152)


7

: L
2,m
+
L
2,m
+
, 7

:= R +L
T
1 +1

L +1

Q1 = 7

. (153)
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 236 Operatorul I/O al Sistemului Hamiltonian
NOTA: Daca A este stabila atunci 7

este operatorul Toeplitz avand drept simbol functia


Popov

. Intradevar, functia Popov este matricea de transfer a sistemului Hamiltonian si 7

este operatorul Toeplitz asociat cu operatorul intrareiesire al sistemului Hamiltonian 7


e,
.
Denitia 136. Fie un operator liniar marginit din L
2,m
in L
2,p
. Denim
1. Operatorul cauzal Hankel asociat cu : H

:= P
p
+
]
L
2,m

2. Operatorul Hankel anticauzal asociat cu :



H

:= P
p

]
L
2,m
+
.
3. Operatorul Toeplitz cauzal asociat cu , T

:= P
p
+
]
L
2,m
+
.
4. Operatorul Toeplitz anticauzal asociat cu :

T

:= P
p

]
L
2,m

unde P
r

sunt proiectiile ortogonale uzuale ale lui L


2,r
pe L
2,r

.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 237 Operatorul I/O al Sistemului Hamiltonian
Rezultatul Central
Dat = (A, B; Q, L, R) cu A R
nn
, B R
nm
, scopul principal este obtinerea
conditiilor necesare si suciente de existenta a solutiei stabilizatoare a ARE()
A
T
X +XA (XB +L)R
1
(B
T
X +L
T
) +Q = 0, (154)
in termenii operatorului Toeplitz 7

introdus mai sus.


7

: L
2,m
+
L
2,m
+
, 7

:= R +L
T
1 +1

L +1

Q1 = 7

. (155)
Teorema 137. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila. Urmatoarele armatii
sunt echivalente:
1. R este nesingulara si ARE() are o (unica) solutie stabilizanta
X := 1
o,
1

7
1

2. Operatorul Toeplitz 7

(avand drept simbol functia Popov) are o inversa marginita


Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 238 Rezultatul Central
Corolarul 138. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila. Presupunem ca
operatorul Toeplitz 7

are o inversa marginita si e X solutia stabilizanta a ARE(). Atunci avem


J

(, u

) =
__
x
,u

u
_
,

Q L
L
T
R

_
x
,u

u
__
L
2,n
+
L
2,m
+
=
T
X (156)
pentru orice R
n
si u

= 7
1

.
Nota:
Nu se face nici o presupunere privind pozitivitatea lui R, Q, sau a altor matrici. Putem deci
formula in acest cadru jocuri necooperative, teoriile de tip Nash, puncte sa, H

, etc.
In plus avem formule operatoriale pentru solutia stabilizanta a ecuatiei Riccati si pentru valoarea
criteriului patratic in punctul critic.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 239 Rezultatul Central
Cazul Clasic de Pozitivitate: LQP
Presupunerea de baza aici este ca matricea R este pozitiv denita (coecientul termenului
patratic).
Corolarul 139. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila.
1. R > 0 si ARE() are o solutie stabilizanta X

Operatorul 7
e,
este coerciv
2. Daca operatorul 7
e,
este coerciv atunci minimul indicelui patratic este
min
uL
2,m
+
J

(, u) =
T
X, R
n
, (157)
si minimul se atinge pentru u = u

= 7
1

si satisface deasemenea u

= Fx

, unde
F := R
1
(B
T
X +L
T
) este reactia Riccati.
3. Daca in plus

Q L
L
T
R

0, (158)
si operatorul 7
e,
este coerciv, atunci X 0.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 240 Cazul Clasic de Pozitivitate: LQP
Putem relaxa conditia de coercivitate precum urmeaza.
Corolarul 140. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila. Presupunem ca R > 0
si ca perechea (A, B) este controlabila. Daca
7
e,
0, (159)
atunci exista o solutie simetrica X a ARE(), a.i. pentru F := R
1
(B
T
X + L
T
) sa avem
(A +BF) C

C
0
. (Numim X o solutie semistabilizanta a ARE).
Corolarul 141. [Ecuatia Riccati clasica de control] Fie
s
= (A, B; C
T
C, 0, I) tripletul
Popov standard de control si presupunem ca (A, B) si (C, A) sunt stabilizabila si respectiv
detectabila. Atunci ARE(
s
)
A
T
X +XA XBB
T
X +C
T
C = 0 (160)
are o solutie stabilizanta pozitiv semidenita.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 241 Cazul Clasic de Pozitivitate: LQP
Ridicarea Ipotezei de Stabilitate
Folosind o reactie este trivial sa relaxam ipoteza de stabilitate in cea de stabilizabilitate asupra
perechii (A, B).
NOTA: Daca ARE() are o solutie stabilizanta atunci automat perechea (A, B) trebuie sa e
stabilizabila.
Teorema 142. Fie = (A, B; Q, L, R) un triplet Popov cu (A, B) stabilizabila. Atunci
urmatoarele doua armatii sunt echivalente.
1. R este nensingulara si ARE() are o (unica) solutie stabilizanta.
2. Exista F R
mn
a.i. A + BF este stabila si Fechivalentul lui ,

= (

A,

B;

Q,

L,

R),
are un operator Toeplitz asociat 7

ce este inversabil.
NOTA: Daca punctul 2 al Teoremei este adevarat pentru un F stabilizant, atunci are loc pentru
orice F stabilizant.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 242 Ridicarea Ipotezei de Stabilitate
Conditia de Signatura
Am vazut ca existenta unei solutii stabilizante a ecuatiei ARE este intim legata de existenta
unei inverse marginite a operatorului Toeplitz 7

. Un caz simplu in care inversabilitatea acestui


operator este garantata este cazul de pozitivitate.
In continuare elaboram o conditie mai sosticata pentru inversabilitatea operatorului Toeplitz
7

. Aceasta conditie numita conditia de signatura, este relevanta pentru jocurile dinamice (Nash)
si va juca un rol central in rezolvarea celor mai importante probleme din teoria sistemelor optimale
si robuste.
Fie = (A, B; Q, L, R), cu A R
nn
stabila, B R
nm
. Partitionam
B = [B
1
B
2
], B
i
R
nm
i
, i = 1, 2, m
1
+m
2
= m, (161)
si matricile L si R le partitionam corespunzator in acord cu B, i.e.,
L = [L
1
L
2
], R =

R
11
R
12
R
T
12
R
22

. (162)
Solutia problemei cu conditii initiale
x = Ax +B
1
u
1
+B
2
u
2
, x(0) = , (163)
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 243 Conditia de Signatura
se scrie ca
x
,u
1
,u
2
= +1
1
u
1
+1
2
u
2
.
Avem deasemenea
7

7
11
7
12
7

12
7
22

. (164)
NOTA: 7
22
coincide cu operatorul Toeplitz 7

2
asociat cu tripletul Popov

2
= (A, B
2
; Q, L
2
, R
22
). (165)
Teorema 143. Fie = (A, B; Q, L, R) un triplet Popov avand matricile partitonate ca mai
sus si A stabila. Daca 7
22
>> 0 si
7

11
= 7
11
7
12
7
1
22
7

12
<< 0, (166)
atunci
1. ARE(
2
) are o solutie stabilizanta X
2
.
2. ARE() are o solutie stabilizanta X a.i.
X X
2
. (167)
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 244 Conditia de Signatura
Probleme Maxmin /Optimizarea Dinamica a Jocurilor
Teorema 144. Aceleasi presupuneri ca in teorema precedenta. Fie
J

(, u
1
, u
2
) =
_
_
_
x
,u
1
,u
2
u
1
u
2
_
_
,
_
_
Q L
1
L
2
L
T
1
R
11
R
12
L
T
2
R
T
12
R
22
_
_
_
_
x
,u
1
,u
2
u
1
u
2
_
_
_
indicele patratic denit pentru toti (, u
1
, u
2
) R
n
L
2,m
1
+
L
2,m
2
+
. Avem:
1. Pentru ecare R
n
si ecare u
1
L
2,m
1
+
, exista un unic u
2
in L
2,m
2
+
, notat u
,u
1
2
, ce
minimizeaza J

(, u
1
, u
2
), i.e.,
J

(, u
1
, u
2
) J

(, u
1
, u
,u
1
2
) (168)
pentru toti u
2
L
2,m
2
+
.
2. Pentru ecare in R
n
, exista un unic u
1
, notat u

1
, care maximizeaza J

(, u
1
, u
,u
1
2
).
3. Daca notam u

2
= u
,u

1
2
, atunci
J

(, u

1
, u

2
) =
T
X (169)
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 245 Probleme Maxmin
pentru ecare R
n
, unde X este solutia stabilizanta a ARE().
Mai mult, daca x

este solutia corespunzand lui u


1
= u

1
si u
2
= u

2
, atunci
u

=
_
u

1
u

2
_
= F
Ricc
x

, (170)
unde F
Ricc
este reactia stabilizanta Riccati.
NOTA: Concluzia Teoremei 144 se poate exprima sintetic in felul urmator:
max
u
1
min
u
2
J

(, u
1
, u
2
) =
T
X. (171)
Si solutia maxmin este disponibila in forma feedback (170).
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 246 Probleme Maxmin
Conditii Frecventiale
Pana in prezent am dat un numar de conditii necesare si suciente pentru existenta solutiei
stabilizante a ARE. Aceste conditii au fost exprimate in termenii diversilor operatori ce intervin in
descrierea dinamica (in domeniul timp) a sistemului Hamiltonian HS. In aceasta sectiune exprimam
aceste conditii in domeniul frecvential.
Traditional, acesta a constituit un subiect major de cercetare si a fost unul dintre punctele
centrale ce au facut atat de atractiva Teoria Pozitivitatii. Conditiile frecventiale erauusor de
vericat de catre ingineri.
Era extrem de dezirabil atunci sa avem o legatura intre aceste conditii si proprietati de spatiul
starilor (realizari). Odata cu dezvoltarea tehnicilor moderne de control automat accentul s-a mutat
oarecum spre tehnicile de spatiul starilor.
Existenta solutiei stabilizante a ARE() a fost legata de existenta inversei marginite a
operatorului Toeplitz 7

. Exista rezultate puternice de teoria operatorilor ce leaga inversabilitatea


acestui operator de proprietati de factorizare ale simbolului rational asociat. Vom folosi astfel de
rezultate pentru a da complementul frecvential al rezultatelor operatoriale.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 247 Conditii Frecventiale
Teorema 145. [Rezultatul central] Fie = (A, B; P) un triplet Popov cu A stabila.
Urmatoarele armatii sunt echivalente.
1. R este nesingulara si ARE() are o solutie stabilizanta.
2. Functia Popov

este antianalitic factorizabila, i.e., exista si , doua unitati in RH

+,mm
a.i.

(s) = [(s)]

(s). (172)
In particular,
(s) := R(I F
Ricc
(sI A)
1
B), (s) := I F
Ricc
(sI A)
1
B.
Teorema 146. [Indepartarea ipotezei de stabilitate] Fie = (A, B; P) un triplet Popov cu
(A, B) stabilizabila. Atunci urmatoarele doua armatii sunt echivalente.
1. R este nensingulara si ARE() are o solutie stabilizanta.
2. Functia Popov

este antianalitic prefactorizabila, i.e., exista un F a.i. pentru tripletul Popov


Fechivalent

sa avem

este analitic factorizabila.


Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 248 Conditii Frecventiale
Cazul de Pozitivitate: A Stabila
Corolarul 147. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila.
1. R > 0 si ARE() are o solutie stabilizanta X

> 0 (pe axa imaginara)


2. Daca oricare armatie de la 1. este indeplinita, minimul indicelui patratic este
min
uL
2,m
+
J

(, u) =
T
X R
n
si se atinge pentru u

= Fx

, unde F :=
R
1
(B
T
X +L
T
) este reactia Riccati stabilizanta.
3. Daca

Q L
L
T
R

0, (173)
si oricare armatie 1. este indeplinita atunci X 0.
Corolarul 148. [Relaxarea ipotezei de pozitivitate] Fie = (A, B; Q, L, R) un triplet
Popov cu A stabila. Presupunem R > 0 si (A, B) este controlabila. Daca

0,
atunci exista o solutie simetrica X a ARE(), a.i. pentru F := R
1
(B
T
X + L
T
) sa avem
(A +BF) C

C
0
. (Numim X o solutie semistabilizanta a ARE).
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 249 Conditii Frecventiale
Cazul de Pozitivitate: A arbitrara
Corolarul 149. Fie = (A, B; Q, L, R) un triplet Popov. Presupunem ca :
a. Perechea (A, B) este stabilizabila.
b. Realizarea lui

=
_
_
_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
_
_
, (174)
este controlabila si observabila pe axa imaginara.
c.

(j) > 0, R.
Atunci ARE() are o solutie stabilizanta X si min
u/

(, u) =
T
X.
Daca

Q L
L
T
R

0, atunci X 0.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 250 Conditii Frecventiale
Conditia de Signatura in Domeniul Frecvential
Prezentam in continuare o versiune in domeniul frecvential a conditii de signatura pentru
operatori. De fapt vom da un rezultat mai puternic pentru sistemul KYPS().
Consideram din nou tripletul Popov = (A, B; Q, L, R) cu B, L si R partitionate ca
B =

B
1
B
2

, L =

L
1
L
2

, R =

R
11
R
12
R
T
12
R
22

, (175)
(B
i
R
nm
i
, i = 1, 2, m = m
1
+ m
2
). Fie functia Popov

partitionata in concordanta cu
R,

11

12

12

22

. (176)
Introducem deasemenea matricea de semn
J :=

I
m
1
I
m
2

. (177)
Notam tripletul Popov
2
= (A, B
2
; Q, L
2
, R
22
). Este usor de vericat ca
22
=

2
.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 251 Conditia de Signatura in Domeniul Frecvential
O conditie sucienta
Teorema 150. Fie = (A, B; Q, L, R) un triplet Popov cu A stabila si intrarile partitionate
ca mai sus. Presupunem
22
> 0 pe C
0
. Daca exista un S RH

+,m
2
m
1
a.i.

I S

I
S

< 0 pe C
0
, (178)
atunci KPYS(, J) are o solutie stabilizanta
(X, V, W) = (X,

V
11
O
V
21
V
22

W
1
W
2

)
in care partitiile lui V si W sunt in concordanta cu J.
Conditia (178) este doar sucienta pentru satisfacerea (166) care, in schimb, este o conditie
sucienta pentru inversabilitatea lui 7

(ptr. ca 7
22
>> 0). Din moment ce stim ca existenta
unei solutii stabilizante este echivalenta cu inversabilitatea lui 7

, este extrem de interesant sa


gasim o situatie in care existenta solutiei stabilizante implica conditia (178). Acesta este scopul
urmatorului rezultat care este piatra de temelie a solutiilor problemelor de control optimal si robust:
problema Nehari, problema de control H

si robustetea stabilizarii.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 252 Conditia de Signatura in Domeniul Frecvential
O Conditie Necesara si Sucienta
Teorema 151. Fie = (A, B; Q, L, R) un triplet Popov cu intrarile partitionate ca mai sus.
Presupunem ca :
a. A este stabila.
b.
22
> 0 pe C
0
.
c.

Q L
2
L
T
2
R
22

0.
I. Urmatoarele armatii sunt echivalente:
1. Exista S RH

+,m
2
m
1
care satisface inegalitatea de signatura.

I S

I
S

< 0 on C
0
. (179)
2. KPYS(, J) are o solutie stabilizanta
(X, V, W) = (X,

V
11
O
V
21
V
22

W
1
W
2

)
cu X 0, unde partitiile lui V si W sunt in acord cu J.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 253 Conditia de Signatura in Domeniul Frecvential
II. Daca 1 sau 2 are loc, atunci exista o matrice rationala
G =

G
1
G
2
G
3
G
4

partitionata in acord cu

a.i. G si G
4
sunt unitati in RH

+
si

= G

JG, (180)
(i.e., G este un factor Jspectral al lui

). Clasa tuturor S care rezolva inegalitatea de signatura


este data de
S = S
2
S
1
1
,

S
1
S
2

= G
1

, (181)
unde este un parametru liber in RH

+,m
2
m
1
, cu jj

< 1.
Capitolul 13: TEORIE RICCATI: ABORDARE DINAMICA SI FRECVENTIALA 254 Conditia de Signatura in Domeniul Frecvential
Inegalitati Algebrice Riccati
Dam in continuare un rezultat remarcabil privind inegalitatile algebrice Riccati. In acest scop
introducem urmatoarele notatii: pentru un triplet Popov xat = (A, B; Q, L, R) si pentru
X = X
T
,
CRICOP(, X) := A
T
X +XA (XB +L)R
1
(B
T
X +L
T
) +Q.
Teorema 152. Fie = (A, B; Q, L, R) un triplet Popov cu Q 0. Urmatoarele armatii
sunt echivalente.
1. A este stabila si

< 0 pe C
0
.
2. R < 0 si exista X > 0 a.i. CRICOP(, X) < 0.
NOTA: Armatia 2 este echivalenta cu
D

(X) =

A
T
X +XA +Q XB +L
L
T
+B
T
X R

< 0
pentru X > 0.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 255 Inegalitati Algebrice Riccati
Capitolul 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat
In acest capitol prezentam o noua abordare a ecuatiei matriciale algebrice Riccati prin intermediul
fasciolelor matriciale. Ca si in capitolele precedente consideram ecuatii Riccati sub ipoteze foarte
generale asupra coecientilor matriciali ce permit includerea situatiilor de joc (de tip H

) in care
coecientul patratic are semn nedenit. Singura restrictie majora a capitolului (pentru pastrarea
dezvoltarilor teoretice la un nivel acceptabil de complexitate) consta in ipoteza de regularitate
sub care functia Popov corespunzatoare ia valori de rang intreg, i.e. este inversabila ca matrice
rationala.
Valori proprii pentru fascicole matriciale: cazul regulat
Structura de valori proprii a unui fascicol Hamiltonian extins (EHP)
ARE si EHP
Ecuatia Bernoulli
Algoritmi numerici
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 256
Valori proprii pentru fascicole matriciale: cazul regulat
Fie M, N matrici mn cu elemente in R.
Fascicol Matricial: Matricea polinomiala de ordinul 1 M N in variabila
Fascicol matricial regulat: Un fascicol matricial patrat (n n) cu un determinant neidentic nul
det(M N) , 0.
Problema de valori proprii generalizate: Problema rezolvarii pentru C a ecuatiei polinomiale
() := det (M N) = 0 (182)
Observatii:
Daca M sau N sunt inversabile atunci fascicolul M N este regulat
Un fascicol matricial regulat poate insa avea ambele matrici N si M singulare
Deoarece M poate singulara, polinomul caracteristic () are gradul n
f
n
Valori proprii (generalizate) nite: Cele n
f
radacini ale ()
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 257 Valori proprii pentru fascicole matriciale
Valori proprii innite: Spunem ca = este o valoare proprie (generalizata) a lui M N
daca = 0 este o valoare proprie generalizata a fasciolului reciproc N M; valabil si pentru
mutiplicitati algebrice si geometrice
Observatie:
n

= n n
f
Un fascicol regulat n n M N intotdeauna are n valori proprii (nite si innite) care
impreuna formeaza spectrul (M, N)
Pentru o valoare proprie generalizata
0
exista un vector propriu (generalizat) x(,= 0) C
n
a. i.

Nx =
0
Mx daca
0
este nita,
Mx = 0 daca
0
este innita
Denitia 153. Doua fascicole M N si

M

N, cu M, N,

M,

N C
mn
se numesc
(strict) echivalente daca exista doua matrici constante inversabile Q C
mm
, Z C
nn
, a.i.
Q(M N)Z =

M

N. (183)
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 258 Valori proprii pentru fascicole matriciale
Forma canonica Weierstrass a unui fascicol matricial
Relatia de ecchivalenta stricta induce o forma canonica in multiumea fascicolelor regulate nn
numita forma canonica Weierstrass (extinde forma canonica Jordan).
Pentru orice fascicol regulat M N, cu M, N C
nn
, exista doua matrici inversabile
Q, Z C
nn
a. i.
Q(M N)Z = M
W
N
W
unde
M
W
N
W
:=
_
M

I
n

O
O I
n
f
N
f
_
, (184)
iar N
f
este in forma canonica Jordan, M

este nilpotenta si in forma canonica Jordan


M

:= diag (J
s

1
(0), J
s

2
(0), . . . , J
s

(0)) (185)
si J
s
(0) este un bloc elementar Jordan ss (nilpotent) (avand o singura valoare proprie in = 0).
Observatie:
Valorile proprii generalizate (si multiplicitatile lor) ale fascicolului M N coincid cu valorile
proprii (si multiplicitatile lor) ale matricii N
f
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 259 Valori proprii pentru fascicole matriciale
Multiplicitatile partiale, algebrice si geometrice ale valorii proprii innite a lui M N coincid
cu multiplicitatile valorii proprii din zero a lui M

Multimea valorilor proprii (+ multiplicitatile) determina complet forma canonica Weierstrass a


unui fascicol regulat (pana la o permutare a blocurilor diagonale pe diagonala principala).
Daca M este inversabil nu exista valori proprii innite si forma canonica Weierstrass se reduce
la forma canonica Jordan a lui M
1
N
Exista o varianta reala a acestor concepte (analog cu Jordan)!
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 260 Valori proprii pentru fascicole matriciale
Subspatii de deatie ale unui fascicol
Extindem in continuare notiunea de spatiu invariant al unei matrici la notiunea de spatiu de
deatie al unui fascicol (regulat).
Denitia 154. Fie M N un fascicol regulat, cu M, N C
nn
. Subspatiul liniar \ C
n
se numeste spatiu de deatie a lui M N daca
dim(M\ +N\) = dim\. (186)
Observatii:
Cele mai simple spatii de deatie sunt vectorii proprii (generalizati) !
Pentru M = I
n
, denitia spatiului de deatie se reduce la ce de spatiu invariant a lui N:
dim(\ +N\) = dim\ N\ \
Fie \ C
n
un spatiu arbitrar (nu neaparat de deatie) avand dimensiunea si
V := M\ +N\. Avem:
k := dimV dim\ = ,
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 261 Valori proprii pentru fascicole matriciale
(egalitatea avand loc doar daca \ este spatiu de deatie).
Fie \ = ImZ
1
, V = ImQ
1
. Construim matricile inversabile Q si Z, partitionate
Z = [ Z
1
Z
2
]
. .
n
, Q = [ Q
1
Q
2
]
. .
k n k
. (187)
Din moment ce M\ V si N\ V:
Q
1
(M N)Z =

M
11
N
11
M
12
N
12
O
.
M
22
N
22

] k
] n k,
(188)
. .
n
unde k . In acest nou sistem de coordonate \ si V sunt reprezentate de
\ = Im

, V = Im

I
k
O

. (189)
Daca \ este acum un spatiu de deatie atunci dimV = k = = dim\, M
ii
si N
ii
sunt
patrati ptr. i = 1, 2, si denim fascicolul restrictionat si spectrul restrictionat al fascicolului la \
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 262 Valori proprii pentru fascicole matriciale
ca ind
(M N)]
\
:= M
11
N
11
, (M, N)]
\
:= (M
11
, N
11
). (190)
Consideram o partitie a planului complex in doua multimi disjuncte
C = C
b
C
r
(191)
(cel bun si cel rau ). Un spatiu de deatie \ este de deatie C
b
daca (M, N)]
\
C
b
.
Propozitia 155. Fie M N un fascicol regulat cu M, N F
nn
.
1. Daca \ C
n
este un spatiu de deatie de dimensiune a lui M N si V := M\ +N\
atunci exista matrici complexe inversabile Z =

Z
1
Z
2

, Q =

Q
1
Q
2

, cu \ =
ImZ
1
si V = ImQ
1
, a.i.
Q
1
(M N)Z =
_
M
11
N
11
M
12
N
12
O M
22
N
22
_
]
] n ,
(192)
. .
n
unde M
ii
N
ii
(i = 1, 2) sunt regulate, (M
11
, N
11
) (M
22
, N
22
) = (M, N) si
(M, N)]
\
= (M
11
, N
11
).
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 263 Valori proprii pentru fascicole matriciale
2. Reciproc, daca are loc (192) pentru matricile inversabile Q si Z partitionate ca mai sus atunci
\ = ImZ
1
este un spatiu de deatie a lui M N, V = ImQ
1
unde V := M\ +N\,
si (M, N)]
\
= (M
11
, N
11
).
Corolarul 156. Fie M N un fascicol regulat cu coecienti in C si e
1

2
= (M, N)
o partitie a spectrului. Atunci exista un spatiu de deatie \ C
n
a.i.
(M, N)]
\
=
1
.
Daca M si N au elemente reale si
1
este o multime simetrica, atunci putem alege \ R
n
. Daca

1

2
= , atunci \ este unic.
Dam in continuare o caracterizare utila a unui spatiu de deatie in termenii unei matrici baza
asociate.
Teorema 157. Fie M N un fascicol regulat, cu M, N C
nn
.
1. Daca V C
n
este o baza pentru spatiul de deatie \ cu spectru nit atunci exista o matrice
patrata S C

a.i.
MV S = NV (193)
si I S este echivalent cu (M N)]
\
.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 264 Valori proprii pentru fascicole matriciale
2. Reciproc, daca are loc MV S = NV pentru o matrice baza V C
n
si o matrice S C

atunci \ = ImV este un spatiu de deatie a lui M N si I S este echivalent cu


(M N)]
\
.
Relatia (193) generalizeaza caracterizarea unui spatiu invariant al unei matrici la acea de spatiu de
deatie al unui fascicol regulat.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 265 Valori proprii pentru fascicole matriciale
Structura de valori proprii a unui fascicol Hamiltonian extins (regulat)
Fie = (A, B; Q, L, R) un triplet Popov, cu A R
nn
, B R
nm
. Asociem:
EHP() : M

:=
_
_
I O O
O I O
O O O
_
_

_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
(194)
si functia Popov

() =
_
_
_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
_
_
. (195)
Reamintire:
EHP() este fascicolul de transmisie (sistem) asociat cu realizarea de mai sus a

.
EHP (si in general un fascicol matricial oarecare) se numeste regulat daca
det(sM

) , 0.
Notam pentru M

:
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 266 Structura de v.p. a unui EHP
n

f
: numarul de v.p. generalizate nite in C

n
0
f
: numarul de v.p. generalizate nite in C
0
n
+
f
: numarul de v.p. generalizate nite in C
+
n

: numarul de v.p. generalizate innite


Fie
0
numarul de zerouri ale

(
1
) din zero ( numarul de zerouri ale lui

() la ).
Teorema 158. Pentru un EHP regulat avem:
1. n

f
= n
+
f
.
2. rank
R()
(M

) = 2n +m, rank
R()

() = m.
3. n

= m+
0
.
Demonstratie. 1. Se poate verica direct
P(M

)
T
P = M

,
unde
P :=
_
_
O I
n
O
I
n
O O
O O I
m
_
_
.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 267 Structura de v.p. a unui EHP
Deci
det(M

) = det(M

).
EHP-ul ind regulat rezulta ca este o v.p. generalizata a lui M

daca si numai daca


este o v.p. generalizata a lui M

cu aceeasi multiplicitate.
2. Deoarece M

este fascicolul de transmisie al functiei Popov

() avem
rank
R()
(M

) = 2n + rank
R()

(). (196)
Din regularitatea fascicolului rezulta ca rank
R()
(M

) = 2n+m care combinat cu (196)


conduce la rank
R()

() = m.
3. Pentru orice pentru care I A si I +A
T
sunt inversabile avem identitatea
M

=
_
_
I
n
O O
O I
n
O
X() Y() I
m
_
_
_
_
I
n
A O B
Q I
n
+A
T
L
O O

()
_
_
,
unde
X() := [L
T
+B
T
(I
n
+A
T
)
1
Q](I
n
A)
1
,
Y() := B
T
(I
n
+A
T
)
1
,
ambele nu au poli in = 0. Deoarece fascicolul M

este regulat,
det(M

) = (1)
m

m
det(I
n
A) det(I
n
+A
T
) det(

(
1
)).
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 268 Structura de v.p. a unui EHP
Folosind forma SmithMcMillan a lui

, obtinem ca = 0 este o valoare proprie generalizata


a lui M

cu multiplicitatea m +
0
ceea ce inseamna ca = este o v.p. a lui
M

avand aceeasi multiplicitate n

= m+
0
.
Denitia 159. Un EHP regulat se numeste dihotomic daca
n
0
f
= 0, n

= m
(sau, echivalent, daca n
0
f
= 0 si
0
= 0).
Observatii
Zerourile

() sunt printre valorile proprii generalizate ale M

.
Dihotomia implica ca

() nu are zerouri pe axa imaginara inclusiv la innit


Dihotomia implica R =

() nesingulara.
Dihotomia implica ca toate multiplicitatile valorii proprii de la innit sunt egale cu 1.
Propozitia 160. [Dihotomie si Spatii de Deatie ] Un EHP regulat este dihotomic daca si
numai daca are un spatiu de deatie C

de dimensiune n.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 269 Structura de v.p. a unui EHP
In particular, rezultatul anterior implica ca EHP este dihotomic daca si numai daca
M

V S = N

V, V =
_
_
V
1
V
2
V
3
_
_
]n
]n
]m
(197)
unde V este o matrice baza pentru subspatiul de deatie C

de dimensiune n si S este o matrice


n n stabila.
Denitia 161. Un subspatiu de deatie \ se numeste disconjugat daca admite o matrice baza cu
V
1
avand rang intreg pe coloane (injectiva).
Observati ca disconjugarea este independenta de alegerea matricii baza.
Denitia 162. Un EHP regulat se numeste stabil (antistabil) disconjugat daca este dihotomic si
are un subspatiu de deatie disconjugat C

(C
+
) de dimensiune n.
Observatie:
Un EHP dihotomic are un unic subspatiu de deatie (maximal) ndimensional C

(si C
+
).
Disconjugarea unui EHP este bine denita
Un EHP dihotomic are intotdeauna un subspatiu de deatie ndimensional C

si un subspatiu
de deatie ndimensional C
+
, ecare in parte putand disconjugat sau nu.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 270 Structura de v.p. a unui EHP
Propozitia 163. Daca V =
_
_
V
1
V
2
V
3
_
_
]n
]n
]m
este o matrice baza a unui spatiu de deatie C

(sau C
+
) a unui EHP regulat atunci
V
T
1
V
2
= V
T
2
V
1
. (198)
Demonstratie. Scriind (197) explicit obtinem
V
1
S = AV
1
+ BV
3
,
V
2
S = QV
1
A
T
V
2
LV
3
,
0 = L
T
V
1
+ B
T
V
2
+ RV
3
,
(199)
unde S este stabila (sau antistabila). Adunand prima ecuatie premultiplicata cu V
T
2
celei de-a doua
transpusa si postmultiplicata cu V
1
si folosind a treia ecuatie (199) obtinem
V
T
2
V
1
S +S
T
V
T
2
V
1
+V
T
1
QV
1
V
T
2
BV
3
V
T
3
B
T
V
2
V
T
3
RV
3
= 0. (200)
Aceasta ecautie este de tip Lyapunov in V
T
2
V
1
, avand un termen liber simetric. Deoarece S este
stabila (sau antistabila) V
T
2
V
1
este unica solutie simetrica.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 271 Structura de v.p. a unui EHP
ARE si EHP
Dam in continuare conditii necesare si suciente de existenta a solutiei stabilizante (si
antistabilizante) a ARE, impreuna cu formule de calcul si un algoritm numeric stabil.
Teorema 164. Urmatoarele armatii sunt echivalente:
1. Matricea R este inversabila si
A
T
X +XA (XB +L)R
1
(L
T
+B
T
X) +Q = 0 (201)
are o solutie stabilizanta (antistabilizanta).
2. EHP
M

=
_
_
I O O
O I O
O O O
_
_

_
_
A O B
Q A
T
L
L
T
B
T
R
_
_
(202)
este regulat si stabil (antistabil) disconjugat.
Mai mult, solutia si reactia se pot calcula cu formulele
X = V
2
V
1
1
, F = V
3
V
1
1
(203)
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 272 ARE si EHP
in care V =
_
_
V
1
V
2
V
3
_
_
]n
]n
]m
este o matrice baza a subspatiului de deatie ndimensional C

(C
+
) a EHP.
Pentru R inversabil, obtinem identitatea
Q(M

)Z =

I
2n
O
O O

O
O I
m

, (204)
in care
H

:=

A BR
1
L
T
BR
1
B
T
Q+LR
1
L
T
A
T
+LR
1
B
T

(205)
si
Q =
_
_
I
n
O BR
1
O I
n
LR
1
O O I
m
_
_
, Z =
_
_
I
n
O O
O I
n
O
R
1
L
T
R
1
B
T
R
1
_
_
.
Matricea H

este o matrice Hamiltoniana de dimensiune 2n 2n ce satisface prin denitie


H
T

J +

JH

= 0, pentru

J :=

O I
n
I
n
O

.
Corolarul 165. Presupunem R inversabila. Atunci urmatoarele armatii sunt echivalente.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 273 ARE si EHP
1. ARE are o solutie stabilizanta (antistabilizanta).
2. Matricea Hamiltoniana H

are un subspatiu invariant ndimensional C

(C
+
) care admite o
baza cu V
1
inversabila:
V =

V
1
V
2

.
n
]n
]n
. (206)
Solutia stabilizanta si reactia corespunzatoare se pot calcula din X = V
2
V
1
1
, F =
R
1
(B
T
X +L
T
).
Observatii:
Existenta solutiei stabilizante pentru ARE se poate verica alternativ folosind matricea
Hamiltoniana sau EHP.
Solutiile se pot calcula rezolvand problema de valori proprii pentru matricea Hamiltoniana de
dimensiune 2n in loc sa rezolvam problema mai complicata de valori proprii generalizate pentru
EHP avand dimensiune 2n +m.
Folosirea matricii Hamiltoniene poate conduce la solutii extrem de inexacte daca R este prost
conditionata in raport cu inversarea numerica. In acest caz se foloseste intotdeauna EHP in loc
de matricea Hamiltoniana.
CAPITOLUL 14: Ecuatii Riccati si Fascicole Matriciale: Cazul Regulat 274 ARE si EHP
Ecuatia Bernoulli
In cazul particular in care Q = 0, L = 0, si R este nensingulara, ecuatia algebrica Riccati se
numeste ecuatie Bernoulli:
A
T
X +XA XBR
1
B
T
X = 0. (207)
Din cauza formei sale particulare, ecuatia Bernoulli are cateva proprietati suplimentare.
Propozitia 166. Fie R inversabila. Daca ecuatia Bernoulli are o solutie stabilizanta
(antistabilizanta) atunci A este dihotomica.
Propozitia 167. Fie R < 0. Daca ecuatia Bernoulli are o solutie stabilizanta pozitiv semidenita
X atunci A este stabila.
Teorema 168. Fie A dihotomica, perechea (A, B) stabilizabila, si R > 0. Atunci ecuatia
Bernoulli are o solutie stabilizanta pozitiv semidenita.
Capitolul 15: Aplicatii in Teoria Sistemelor 275 ARE si EHP
Capitolul 15: Aplicatii in Teoria Sistemelor
In acest capitol prezentam cateva aplicatii generale ale rezultatelor Riccati in teoria generala a
sistemelor, rezultate ce vor ulterior folosite in teoria controlului optimal.
Lema de Real-Marginire
Factorizari Coprime Normalizate
Teorema Micii Amplicari
Factorizare Spectrala si Inner-outer (interioara-exterioara)
Capitolul 15: Aplicatii in Teoria Sistemelor 276
Lema urmatoare contine un rezultat celebru in Teoria Sistemelor dand conditii necesare si
suciente pentru ca un sistem sa e marginit in norma H

de un > 0.
Lema 169. Fie > 0 si
G =

A B
C D

.
Urmatoarele armatii sunt echivalente:
1. A este dihotomica, (A, B) este stabilizabila si jGj

< .
2. ARE
A
T
X +XA (XB +C
T
D)(
2
I +D
T
D)(D
T
C +B
T
X) +C
T
C = 0
are o solutie stabilizanta X care satisface urmatoarele proprietati:

c
(X) +
c
(X) =
c
(A),
c
(X) =
c
(A)
in care
c
(X),
c
X,
c
(X) reprezinta numarul de valori proprii cu parte reala strict negativa,
strict pozitiva si respectiv egala cu zero.
Capitolul 15: Aplicatii in Teoria Sistemelor 277 Lema de Real-Marginire
Lema 170. [Varianta stricta] Fie > 0 si
G =

A B
C D

.
Urmatoarele doua armatii sunt echivalente:
1. A este stabila si jGj

<
2.
2
I +D
T
D < 0 si exista X > 0 a.i.

A
T
X +XA +C
T
C XB +C
T
D
D
T
C +B
T
X
2
I +D
T
D

< 0
Capitolul 15: Aplicatii in Teoria Sistemelor 278 Lema de Real-Marginire
Factorizari Coprime Normalizate
Teorema 171. Fie G =

A B
C O

, cu (A, B) stabilizabila si (C, A) detectabila. Fie

X
= (A, B; C
T
C, 0, I),
Y
= (A
T
, C
T
; BB
T
, 0, I)
si e X si Y solutii stabilizante a ARE(
X
) si ARE(
Y
). Denim F := B
T
X, K := Y C
T
,
A
F
:= A +BF, A
K
:= A +KC
.
, si matricile de transfer RH

+
:
M =

A
F
B
F I

, N =

A
F
B
C O

,
U =

A
K
B
F I

, W=

A
K
K
F O

M =

A
K
K
C I

,

N =

A
K
B
C O

U =

A
F
K
C I

,

W=

A
F
K
F O

.
(208)
Atunci avem:
Capitolul 15: Aplicatii in Teoria Sistemelor 279 Factorizari Coprime Normalizate
1.

W U

M

N

_
N

U
M

W
_
=

I O
O I

(209)
( identitatea de factorizare coprima (dubla))
2.
G = NM
1
, N

N+M

M = I, (210)
i.e., perechea (N, M) este o factorizare coprima normalizata la dreapta a lui G peste RH

+
.
3.
G =

M
1

N,

N

+

M

= I, (211)
i.e. perechea (

N,

M) deneste o factorizare coprima normalizata la stanga a lui G peste RH

+
.
Capitolul 15: Aplicatii in Teoria Sistemelor 280 Factorizari Coprime Normalizate
Teorema Micii Amplicari
Aceasta teorema da un instrument puternic pentru evaluarea stabilitatii interne a unui sistem
in bucla inchisa.
Teorema 172. [Teorema Micii Amplicari] Fie
G
i
=

A
i
B
i
C
i
D
i

, y
i
= G
i
u
i
, i = 1, 2,
doua sisteme cu A
i
stabila, i = 1, 2, avand functiile de transfer G
1
si G
2
de dimensiune p m si
mp. Presupunem ca S
c
:= I
m
D
2
D
1
(sau, echivalent

S
c
:= I
p
D
1
D
2
) este nensingulara.
Daca
jG
1
j

<
1

jG
2
j


pentru > 0, atunci sistemul in bucla inchisa a lui G
1
cu G
2
este (intern) stabil.
Capitolul 15: Aplicatii in Teoria Sistemelor 281 Teorema Micii Amplicari
Factorizari spectrale si interioareexterioare
Denitia 173. Fie G() RH

+,pm
avand rang intreg pe coloane pe intreaga axa imaginara,
i.e.,
rank G(j) = m (= rank
R()
G()), R. (212)
1. Un G
o
() RH

+,mm
inversabil cu inversa in RH

+,mm
a.i.
G

()G() = G

o
()G
o
() (213)
se numeste un factor spectral al lui G.
2. Fie G
i
:= GG
1
o
RH

+,pm
. Atunci G
i
este interioara, i.e., este in RH

+
si verica
G

i
()G
i
() = I (214)
Mai mult,
G() = G
i
()G
o
() (215)
deneste o factorizare interioaraexterioara a lui G.
Capitolul 15: Aplicatii in Teoria Sistemelor 282 Factorizari spectrale si interioareexterioare
Teorema 174. Fie
G =

A B
C D

. (216)
Presupunem ca G este injectiva (rang intreg pe coloane) pe axa imaginara extinsa si realizarea ei
este stabilizabila si C
0
observabila. Denim tripletul Popov de pozitivitate
= (A, B; C
T
C, C
T
D, D
T
D).
1. ARE() are o solutie stabilizatoare X, cu reactia Riccati corespunzatoare F.
2. Fie H o matrice inversabila a.i. H
T
H = D
T
D. Denim
G
o
:=

A B
HF H

,
G
i
:=

A +BF BH
1
C +DF DH
1

.
(217)
Atunci G
o
este un factor spectral si G
i
este factorul interior a lui G, si impreuna ele denesc o
factorizare interioara-exterioara.
Capitolul 15: Aplicatii in Teoria Sistemelor 283 Factorizari spectrale si interioareexterioare
Capitolul 16: Problema Nehari patru bloc
In acest capitol dam solutia problemei Nehari care consta in a aproxima optimal (!!!!) in
norma L

un sistem stabil cu unul antistabil. Consideram in acest capitol cazul general in care
aproximantul actioneaza doar pe un colt al sistemului aproximat, problema ce mai este cunoscuta si
sub numele de tip patru bloc.
Abordaarea pe care o dam consta in reducerea problemei Nehari la o conditie de signatura care
poate rezolvata pe baza rezultatelor ce le-am obtinut anterior.
Problema Nehari si conditia de signatura
Problema Parrott
Solutia problemei Nehari
Capitolul 16: Problema Nehari patru bloc 284
Problema Nehari si conditia de signatura
Consideram un sistem antistabil (avand matricea A antistabila)
T =

A B
C D

=
_
_
A B
1
B
2
C
1
D
11
D
12
C
2
D
21
D
22
_
_
=

T
11
T
12
T
21
T
22

RH

. (218)
Denim un aproximant pentru sistemul T ca ind un sistem stabil (cu A
S
stabil)
S =

A
S
B
S
C
S
D
S

RH

+
. (219)
Dandu-se sistemul antistabil T si un > 0, problema Nehari suboptimala (4NP) consta in
gasirea tuturor aproximantilor (stabili) S (atunci cand exista !), a.i.

T
11
+S T
12
T
21
T
22

< . (220)
Capitolul 16: Problema Nehari patru bloc 285 Problema Nehari si conditia de signatura
Problema Nehari optimala consta in gasirea aproximantilor (stabili) S a.i.
min

SRH

+,p
1
m
1

T
11
+

S T
12
T
21
T
22

T
11
+S T
12
T
21
T
22

=
min
. (221)
Observatie:
Cazul optimal este echivalent cu gasirea lui
min
si toti S stabili care satisfac (220) cu inegalitatea
stricta relaxata la una nestricta, si =
min
. Din motive de timp vom trata numai cazul
suboptimal care este esentialmente echivalent cu cel optimal dpdv numeric.
Nu restrangem cu nimic generalitatea presupunand D
11
= 0 si = 1. Presupunem indeplinite
aceste ipoteze.
Inegalitatea (220) este echivalenta cu o problema doi bloc

T
1
+S
T
2

< 1 (222)
cu constrangerea structurala S =

S O

, unde T
1
:=

T
11
T
12

, T
2
:=
Capitolul 16: Problema Nehari patru bloc 286 Problema Nehari si conditia de signatura

T
21
T
22

. Mai departe, (222) este echivalenta cu


(T
1
+S)

(T
1
+S) +T

2
T
2
I =

T
1
T
2

T
1
T
2

+S

T
1
+T

1
S I
= T

T +S

T
1
+T

1
S I < 0, pe C
0
. (223)
Rescriind (223) in mod compact rezulta conditia de signatura
_
I S

T I
m
T

1
T
1
I
p
1

I
S

< 0, pe C
0
(224)
asupra functiei Popov

:=

T I
m
T

1
T
1
I
p
1

. Aceasta este in schimb asociata tripletului


Popov
= (A, B; Q, L, R)
:= (A,

B O
p
1

; C
T
C,

C
T
D C
T
1

D
T
D I D
T
1
D
1
I
p
1

). (225)
Astfel problema Nehari 4bloc are o solutie S daca si numai daca conditia de signatura (224)
are loc pentru S.
Capitolul 16: Problema Nehari patru bloc 287 Problema Nehari si conditia de signatura
Oricum, nu putem aplica direct rezultatele date in Capitolul 13 din doua motive:
A este antistabila pe cand noi avem nevoie sa e stabila
Solutia S a inegalitatii (224) trebuie sa aibe a un patern de zerouri care nu este dat automat
de conditia generala de signatura.
Pentru a depasi prima dicultate vom transforma intai tripletul antistabil intr-unul stabil
prin luarea unuor echivalenti potriviti. Pentru a deni echivalentii Popov potriviti

folosim solutia
ecuatiei Riccati care exprima proprietatea de contractivitate

T
12
T
22

< 1. (226)
Observati ca (226) este o conditie necesara de rezolvare a problemei Nehari 4 bloc.
Pentru a depasi a doua dicultate vom actualiza solutia conditiei de signatura printr-o structura
potrivita. Cheia consta intr-o factorizare J spectrala a unei functii Popov avand o structura prescrisa
de zerouri.
Teorema 175. Fie :=

11

12

12

22

, cu
22
> 0 pe C
0
. Presupunem ca admite
o factorizare J spectrala
= G

JG, (227)
Capitolul 16: Problema Nehari patru bloc 288 Problema Nehari si conditia de signatura
unde J := diag (I
m
, I
p
1
) = diag (I
m
1
, I
m
2
, I
p
1
), factorul spectral are structura
particulara
G =

G
1
G
2
G
3
G
4

=
_
_
_
G
11
O G
13
G
21
G
22
G
23
G
31
O G
33
_
_
_
, (228)
G este o unitate in RH

+,(m+p
1
)(m+p
1
)
si G
4
(= G
33
) este o unitate in RH

+,p
1
p
1
.
Atunci clasa tuturor S RH

+
, ( S =

S O
p
1
m
2

, S RH

+,p
1
m
1
), care satisfac
conditia de signatura
_
I S

I
S

< 0, pe C
0
, (229)
este data de
S := S
2
S
1
1
,

S
1
S
2

= G
1

I
m

, =

O

, (230)
unde este un element arbitrar a lui RH

+,p
1
m
1
cu jj

< 1.
Capitolul 16: Problema Nehari patru bloc 289 Problema Nehari si conditia de signatura
Problema Parrott
Dam intai solutia problemei Nehari patru bloc in cazul matricial constant in aceasta forma
este cunoscuta si sub numele de problema lui Parrott (elementara dar netriviala !!!).
Teorema 176. [Problema Parrott] Fie D =

O D
12
D
21
D
22

. Exista S a. i.
j

S
.
D
12
D
21
D
22

j < 1 (231)
daca si numai daca: jD
2
j < 1 si jD
2
j < 1, unde D
2
:=

D
21
D
22

si D
2
:=

D
12
D
22

.
Daca aceste conditii sunt indeplinite atunci
R :=
_
D
T
D I D
T
1
D
1
I
_
=
_
_
_
D
T
21
D
21
I D
T
21
D
22
O
D
T
22
D
21
D
T
2
D
2
I D
T
12
O D
12
I
_
_
_
, (232)
Capitolul 16: Problema Nehari patru bloc 290 Problema Parrott
are o J factorizare
R = V
T
JV, V =
_
_
V
11
O O
V
21
V
22
V
23
V
31
O V
33
_
_
. (233)
Clasa tutoror matricilor S este data de
S = V
1
33
(V
31
+V
11
), R
p
1
m
1
, cu jj < 1. (234)
Capitolul 16: Problema Nehari patru bloc 291 Problema Parrott
Solutia problemei Nehari 4 bloc
Introducem intai niste notatii. Denim tripletele Popov

1
= (A, B
2
; C
T
C, C
T
D
2
, D
T
2
D
2
I), D
2
:=

D
12
D
22

2
= (A
T
, C
T
2
; BB
T
, BD
T
2
, D
2
D
T
2
I), D
2
:=

D
21
D
22

= (

A,

B;

Q,

L,

R),
(235)

A := (A +B
2
F
1
)
T
,

B :=

(C
T
2
+F
1
D
T
22
)D
21
X
1
B
1
O C
T
1
+F
T
1
D
T
12

Q := 0,

L =

B
1
B
2
O

R :=

D
T
D I D
T
1
D
1
I

(236)
unde X
1
si F
1
sunt solutia stabilizanta si reactia stabilizanta a ARE(
1
).
Capitolul 16: Problema Nehari patru bloc 292 Solutia problemei Nehari 4 bloc
Teorema 177. Problema Nehari suboptimala are o solutie S daca si numai daca:
1. KYPS(
1
, I) are o solutie stabilizanta (X
1
, V
1
, W
1
), cu X
1
0.
2. KYPS(
2
, I) are o solutie stabilizanta (X
2
, V
2
, W
2
), cu X
2
0.
3. (X
1
X
2
) < 1.
Daca aceste conditii au loc atunci KYPS(

, J) are o solutie stabilizanta (

X, V, W), cu

X 0
satisfacand

X = X
2
(I X
1
X
2
)
1
. Clasa solutiilor problemei Nehari patru bloc este
S = (G
31
+G
33
)(G
11
+G
13
)
1
,
unde este stabil, jj

< 1,

G
11
G
13
G
31
G
33

=
_
_
_
_

A +

B

F

B
1
V
11
+

B
3
V
31

B
3
V
33

F
1
V
11
O

F
3
V
31
V
33
_
_
_
_
,
si

F := V
1
W =
_

F
T
1

F
T
2

F
T
3
_
T
.
Capitolul 16: Problema Nehari patru bloc 293 Solutia problemei Nehari 4 bloc
Capitolul 17: Problema de Reglare H
2
Optimala
In acest capitol consideram problema de control (reglare) H
2
optimala care consta in gasirea
unui regulator care stabilizeaza intern si minimizeaza norma H
2
a sistemului rezulta in bucla
inchisa.
Fromularea problemei
Evaluarea normei H
2
Rezultatul central
Capitolul 17: Capitolul 16: Problema H
2
294
Formularea problemei
Consideram un sistem dinamic liniar
x = Ax +B
1
u
1
+B
2
u
2
,
y
1
= C
1
x +D
12
u
2
,
y
2
= C
2
x +D
21
u
1
,
(237)
avand matricea de transfer data de : T =

A B
C D

=
_
_
A B
1
B
2
C
1
O D
12
C
2
D
21
O
_
_
=

T
11
T
12
T
21
T
22

unde u si y sunt intrarea si iesirea lui T partitionate in acord cu T a.i.


y =

y
1
y
2

= Tu =

T
11
T
12
T
21
T
22

u
1
u
2

. (238)
u
1
: vectorul intrarilor exogene (perturbatii, zgomote si semnale referinta)
y
1
: vectorul iesirilor reglate (semnale de tip eroare)
u
2
: vectorul intrarilor reglate
Capitolul 17: Capitolul 16: Problema H
2
295
y
2
: vectorul iesirilor masurate
Controlul (Reglarea) sistemului: folosind informatia masurata y
2
gasiti o marime de comanda
u
2
a.i. raspunsul rezultant y
1
la intrarea u
1
sa indeplineasca anumite cerinte xate prin proiectare.
Problema: Gasiti un u
2
potrivit, ca iesire a unui sistem numit regulator si avand intrarea y
2
,
a.i. raspunsul sistemului rezultant sa aibe energie cat mai mica y
1
cand intrarea in sistem u
1
este un impuls Dirac.
Denim un regulator pentru sistemul dat ca ind alt sistem dinamic liniar
x
K
= A
K
x
K
+B
K
u
K
,
y
K
= C
K
x
K
,
(239)
avand matricea de transfer K =

A
K
B
K
C
K
O

, unde u
K
si y
K
sunt intrarea si iesirea lui K.
Sistemul in bucla inchisa se obtine conectand regulatorul la sistemul dat a.i. u
2
y
K
si
u
K
y
2
.
Capitolul 17: Capitolul 16: Problema H
2
296
K
T
-
-
-

u
1
u
2
y
K
y
1
y
2
u
K
u
2
y
K
u
K
y
2
Sistemul in bucla inchisa rezultat avand intrarea u
1
si iesirea y
1
este bine denit si dat de
y
1
= T
y
1
u
1
u
1
, T
y
1
u
1
= LFT(T, K) = T
11
+T
12
K(I T
22
K)
1
T
21
(240)
T
y
1
u
1
=

A
R
B
R
C
R
O

=
_
_
A B
2
C
K
B
1
B
K
C
2
A
K
B
K
D
21
C
1
D
12
C
K
O
_
_
.
Capitolul 17: Capitolul 16: Problema H
2
297
Problema de Control Optimal H
2
: Dandu-se T, gasiti un regulator strict propriu K pentru care
sistemul in bucla inchisa T
y
1
u
1
:
1. Este intern stabil ((A
R
) C

)
2. Are norma H
2
minima ( jT
y
1
u
1
j
2
isi atinge minimul peste clasa tuturor sistemelor
K= K : K strict proprii si care stabilizeaza intern T
y
1
u
1
]).
Regulator Stabilizant : Un regulator care satisface conditia de stabilitate interna
Regulator Optimal: Un regulator care atinge minimul normei L
2
Am presupus implicit: (i) T
11
() = D
11
= 0; (ii) T
22
() = D
22
= 0; (iii) K() =
D
K
= 0;
Ipotezele (i) si (iii) asigura T
y
1
u
1
() = D
R
= 0 care este o conditie necesara pentru
nitudinea normei H
2
a sistemului in bucla inchisa;
Ipoteza (iii) asigura automat ca sistemul in bucla inchisa este bine denit;
Presupunerea (ii) este facuta pentru simplicarea formulelor (nu se pierde din generalitate);
intr-adevar, daca K rezolva problema cu D
22
= 0
,
atunci K(I + D
22
K)
1
rezolva problema
originala cu D
22
arbitrar;
Nici (i) nici (iii) nu sunt necesare pentru rezolvarea problemei de reglare H
2
si pot i relaxate
(s-au facut pentru simplicarea expunerii).
Capitolul 17: Capitolul 16: Problema H
2
298
O evaluare a normei L
2
Dam in continuare o evaluare utila a normei L
2
a unui sistem stabil in termenii iesirii sistemului
atunci cand semnalul de intrare este un impuls Dirac.
Consideram sistemul stabil (A stabila)
T =

A B
C O

, y = Tu. (241)
Norma L
2
a lui T este denita ca
jTj
2
:=

1
2
_

Trace [T

(j)T(j)]d
1
2
. (242)
Fie u
i
:= e
i
, (i = 1, . . . , m), unde este distributia Dirac si e
1
, . . . , e
m
este baza
Euclidiana standard in R
m
.
Fie y
i
iesirea pentru u = u
i
, (i = 1, . . . , m).
Capitolul 17: Capitolul 16: Problema H
2
299
Din stabilitatea lui A rezulta ca y
i
L
2,p
+
si are forma explicita:
y
i
(t) = 0, ptr. t < 0,
y
i
(t) = Ce
At
Be
i
, ptr. t 0.
Fie deasemenea matricea de raspuns cauzal la impuls:
(t) := 0, ptr. t < 0
(t) = Ce
At
B, ptr. t 0.
Avem succesiv
m

i=1
jy
i
j
2
2
=
m

i=1
_

0
e
T
i

T
(t)(t)e
i
dt =
_

0
[
m

i=1
e
T
i

T
(t)(t)e
i
]dt
=
_

0
Trace [
T
(t)(t)]dt =
1
2
_

Trace [T

(j)T(j)]d (243)
in care ultima ecuatie este o consecinta a formulei lui Parseval. Deci
jTj
2
2
=
m

i=1
jy
i
j
2
2
. (244)
Capitolul 17: Capitolul 16: Problema H
2
300
Principalul rezultat
Teorema 178. Fie sistemul T. Asociem doua triplete Popov

12
= (A, B
2
; C
T
1
C
1
, C
T
1
D
12
, D
T
12
D
12
), (245)

21
= (A
T
, C
T
2
; B
1
B
T
1
, B
1
D
T
21
, D
21
D
T
21
). (246)
Presupunem:
(H1) Perechea (A, B
2
) este stabilizabila, D
12
are rang intreg pe coloane, si
rank

A jI B
2
C
1
D
12

= n +m
2
, R.
(H2) Perechea (C
2
, A) este detectabila, D
21
are rang intreg pe linii, si
rank

A jI B
1
C
2
D
21

= n +p
2
, R.
Capitolul 17: Capitolul 16: Problema H
2
301
Atunci ARE(
12
) data de
A
T
X +XA (XB
2
+C
T
1
D
12
)(D
T
12
D
12
)
1
(B
T
2
X +D
T
12
C
1
) +C
T
1
C
1
= 0 (247)
ate o solutie stabilizanta X
s
0, si ARE(
21
) data de
AY +Y A
T
(Y C
T
2
+B
1
D
T
21
)(D
21
D
T
21
)
1
(C
2
Y +D
21
B
T
1
) +B
1
B
T
1
= 0 (248)
are o solutie stabilizanta Y
s
0.
Mai mult, exista un regulator strict propriu
K =

A +B
2
F
s
+K
T
s
C
2
K
T
s
F
s
O

(249)
care rezolva problema de reglare H
2
optimala, unde
F
s
:= (D
T
12
D
12
)
1
(B
T
2
X
s
+D
T
12
C
1
),
K
s
:= (D
21
D
T
21
)
1
(C
2
Y
s
+D
21
B
T
1
),
sunt reactiile Riccati stabilizante. Valoarea optimala (minimala) a normei H
2
este
min
KK
jT
y
1
u
1
j
2
= [Trace (B
T
1
X
s
B
1
) + Trace (C
1
Y
s
C
T
1
)]
1
2
. (250)
Capitolul 17: Capitolul 16: Problema H
2
302
Observatii:
(A, B
2
) stabilizabila si (C
2
, A) detectabila sunt necesare pentru indeplinirea cerintei de
stabilitate interna.
Celelalte ipoteze sunt necesare pentru existenta solutiei stabilizante a celor doua ecuatii Riccati
dar NU sunt necesare pentru existenta unei solutii a problemei H
2
optimale. In caz ca una
dintre cele doua ipoteze nu este indeplinita obtinem o asa numita problema singulara.
Demonstratia se bazeaza pe solutia a trei probleme particulare H
2
optimale, ecare in parte ind
data sub forma unei propozitii separate: 1 bloc, 2 bloc si 2 bloc duala.
Schema de demonstratie este:
1. Rezolvam problema 1 bloc
2. Reducem problema 2 bloc la cea 1 bloc
3. Scriem solutia problemei 2 bloc duale prin argumente de dualitate
4. Reducem cazul general la o problema 2 bloc duala
Propozitia 179. [1 bloc] Presupunem ca T satisface ipotezele:
(1 blocH1) D
12
este patrata si inversabila si A B
2
D
1
12
C
1
este stabila.
Capitolul 17: Capitolul 16: Problema H
2
303
(1 blocH2) D
21
este patrata si inversabila si A B
1
D
1
21
C
2
este stabila.
Atunci o solutie si valoare optimala a normei H
2
sunt date de
K =

A B
1
D
1
21
C
2
B
2
D
1
12
C
1
B
1
D
1
21
D
1
12
C
1
O

, (251)
min
KK
jT
y
1
u
1
j
2
= 0.
Demonstratie. Inlocuim expresia regulatorului si obtinem
T
y
1
u
1
=
_
_
A B
2
D
1
12
C
1
B
1
B
1
D
1
21
C
2
A B
1
D
1
21
C
2
B
2
D
1
12
C
1
B
1
C
1
C
1
O
_
_
=
_
_
A B
2
D
1
12
C
1
B
2
D
1
12
C
1
B
1
O A B
1
D
1
21
C
2
O
O C
1
O
_
_
. (252)
Capitolul 17: Capitolul 16: Problema H
2
304
Propozitia 180. [2 bloc] Presupunem ca T satisface urmatoarele ipoteze:
(2 blocH1) Perechea (A, B
2
) este stabilizabila, D
12
are rang intreg pe coloane, si
rank

A jI B
2
C
1
D
12

= n +m
2
, R.
(2 blocH2) D
21
este patrata si inversabila si A B
1
D
1
21
C
2
este stabila.
Atunci ARE
A
T
X +XA (XB
2
+C
T
1
D
12
)(D
T
12
D
12
)
1
(B
T
2
X +D
T
12
C
1
) +C
T
1
C
1
= 0 (253)
are o solutie stabilizanta X
s
0. O solutie si valoarea optimala a normei H
2
sunt date de
K =

A B
1
D
1
21
C
2
+B
2
F
s
B
1
D
1
21
F
s
O

, (254)
min
KK
jT
y
1
u
1
j
2
= [Trace (B
T
1
X
s
B
1
)]
1
2
. (255)
Demonstratie. Din (2 blocH1) rezulta ca ARE are o solutie stabilizanta X
s
0. Mai mult,
existenta solutiei stabilizante X
s
a ARE(
12
) este echivalenta cu existenta solutiei stabilizante
Capitolul 17: Capitolul 16: Problema H
2
305
(X
s
, V
s
, W
s
), X
s
0, a KPYS
D
T
12
D
12
= V
T
V,
C
T
1
D
12
+XB
2
= W
T
V,
C
T
1
C
1
+A
T
X +XA = W
T
W,
(256)
unde F
s
= V
1
s
W
s
este reactia stabilizanta. Consideram sistemul

T =

T
11

T
12
T
21
T
22

=
_
_
A B
1
B
2
W
s
O V
s
C
2
D
21
O
_
_
,

y
1
y
2

T
11

T
12
T
21
T
22

u
1
u
2

(257)
care se obtine inlocuind iesirea y
1
= C
1
x +D
12
u
2
cu iesirea
y
1
= W
s
x +V
s
u
2
.
Cum V
s
este inversabil, se verica imediat ca

T satisface ipotezele (1 blocH1) si (1 blocH2).
Daca scriem regulatorul pentru cazul 1bloc cu date obtinute din

T obtinem (254). Cu alte
cuvinte, regulatorul K din (254) rezolva problema 1bloc formulata pentru sistemul (257). Prin
urmare sistemul in bucla inchisa din gura
Capitolul 17: Capitolul 16: Problema H
2
306
K

T
-
-
-

u
1
u
2
y
K
y
1
y
2
u
K
u
2
y
K
u
K
y
2
dat de

T
y
1
u
1
= LFT(

T, K) =

T
11
+

T
12
K(I T
22
K)
1
T
21
, (258)
este intern stabil si
j

T
y
1
u
1
j
2
2
=
m

i=1
j y
i
1
j
2
2
= 0 (259)
unde y
i
1
este iesirea lui

T
y
1
u
1
pentru intrarea u
1
= u
i
1
= e
i
. Stabilitatea interna a (258) este
echivalenta cu faptul ca matricea de stare

A
R
=

A B
2
F
s
B
1
D
1
21
C
2
A B
1
D
1
21
C
2
+B
2
F
s

Capitolul 17: Capitolul 16: Problema H


2
307
este stabila. In orice caz, este usor de sa vedem ca

A
R
este matricea de stare a lui
T
y
1
u
1
= LFT(T, K) = T
11
+T
12
K(I T
22
K)
1
T
21
, (260)
si prin urmare T
y
1
u
1
este deasemenea intern stabila. Rezulta ca K satisface cerinta de stabilitate a
problemei H
2
formulate pentru T si ramane sa aratam ca cerinta de optimalitate este deasemenea
indeplinita. Evaluam succesiv:
jy
1
(t)j
2
= jC
1
x(t) +D
12
u
2
(t)j
2
= x
T
(t)C
T
1
C
1
x(t) + 2x
T
(t)C
T
1
D
12
u
2
(t) +u
T
2
(t)D
T
12
D
12
u
2
(t)
(256)
= x
T
(t)W
T
s
W
s
x(t) x
T
(t)(A
T
X
s
+X
s
A)x(t) + 2x
T
(t)W
T
s
V
s
u
2
(t)
2x
T
(t)X
s
B
2
u
2
(t) +u
T
2
(t)V
T
s
V
s
u
2
(t)
= jW
s
x(t) +V
s
u
2
(t)j
2
x
T
(t)X
s
(Ax(t) +B
2
u
2
(t))
(Ax(t) +B
2
u
2
(t))
T
X
s
x(t)
= j y
1
(t)j
2
x
T
(t)X
s
x(t) x
T
(t)X
s
x(t)
+x
T
(t)X
s
B
1
u
1
(t) +u
T
1
(t)B
T
1
X
s
x(t)
= j y
1
(t)j
2

d
dt
(x
T
(t)X
s
x(t)) +x
T
(t)X
s
B
1
u
1
(t) +u
T
1
(t)B
T
1
X
s
x(t).
Capitolul 17: Capitolul 16: Problema H
2
308
Fie K orice regulator a.i. T
y
1
u
1
= LFT(T, K) este intern stabila. Asa cum a rezultat mai sus,

T
y
1
u
1
= LFT(

T, K) este desemenea intern stabila.


Fie x
K
(t) si x
R
(t) vectorul de stare al lui K si respectiv al lui T
y
1
u
1
. Consideram intrarea
impulsiva u
1
= u
i
1
:= e
i
.
si conditia initiala x(0

) = 0, x
K
(0

) = 0. Atunci obtinem cu
(240),
x
R
(0
+
) =

x(0
+
)
x
K
(0
+
)

= B
R
e
i
=

B
1
B
K
D
21

e
i
.
Prin urmare
x(0
+
) = B
1
e
i
, (261)
x
K
(0
+
) = B
K
D
21
e
i
, u
i
1
(t) = 0, t > 0, si toate semnalele din bucla inchisa ale T
y
1
u
1
si

T
y
1
u
1
sunt functii exponential descrescatoare in L
2
+
. Notam y
i
1
si y
i
1
iesirile lui T
y
1
u
1
si

T
y
1
u
1
la intrarea u
i
1
.
Integram pe (0, ) ambii membrii pentru u
1
(t) = u
i
1
:= e
i
si cu (261) obtinem succesiv
jy
i
1
j
2
2
= j y
i
1
j
2
2
+e
T
i
B
T
1
XB
1
e
i
,
m
1

i=1
jy
i
1
j
2
2
=
m
1

i=1
j y
i
1
j
2
2
+ Trace (B
T
1
X
s
B
1
)
de unde concluzionam
jT
y
1
u
1
j
2
2
= j

T
y
1
u
1
j
2
2
+ Trace (B
T
1
X
s
B
1
).
Capitolul 17: Capitolul 16: Problema H
2
309
Aceasta egalitate are loc pentru toate regulatoarele K pentru care T
y
1
u
1
(si automat

T
y
1
u
1
) este
intern stabila. Dar jT
y
1
u
1
j
2
2
Trace (B
T
1
XB
1
) si egalitatea are loc pentru K dat de (254)
deoarece are loc (259). Din aceasta concluzionam ca (255) are loc si demonstratia este incheiata.
Propozitia 181. [2 bloc duala] Prespunem ca T satisface urmatoarele ipoteze:
(2 bloc dualH1) D
12
este patrata si inversabila si A B
2
D
1
12
C
1
este stabila.
(2 bloc dualH2) Perechea (C
2
, A) este detectabila, D
21
are rang intreg pe linii si
rank

A jI B
1
C
2
D
21

= n +p
2
, R.
Atunci ARE(
21
)
AY +Y A
T
(Y C
T
2
+B
1
D
T
21
)(D
21
D
T
21
)
1
(C
2
Y +D
21
B
T
1
) +B
1
B
T
1
= 0 (262)
are o solutie stabilizanta Y
s
0. O solutie si valoarea optimala (minima) a normei H
2
sunt date
de
K =
_
_
A B
2
D
1
12
C
1
+K
T
s
C
2
K
T
s
D
1
12
C
1
O
_
_
(263)
Capitolul 17: Capitolul 16: Problema H
2
310
min
KK
jT
y
1
u
1
j
2
= [Trace (C
1
Y
s
C
T
1
)]
1
2
. (264)
Demonstratie. Demonstratia este o consecinta a dualitatii cu problema 2 bloc. Mai precis, daca T
satisface ipotezele problemei 2 bloc duale, atunci T
T
satisface ipotezele problemei 2 bloc. Scriem
solutia K a problemei 2 bloc formulate pentru T
T
si obtinem ca K
T
este o solutie a problemei
2 bloc duale formulate pentru T. Restul demonstratiei este o simpla chestiune de substitutii in
formule.
Demonstratia Teoremei 178. Observam intai ca cele doua ARE sunt ecuatiile Riccati de pozitivitate
asociate cu T
12
si respectiv T
21
. Atunci cu (H1) si (H2) rezulta ca Riccati-urile corespunzatoare
au solutii stabilizante X
s
0 si Y
s
0.
Mai departe urmam acceasi linie de rationament ca la cazul 2 bloc. Existenta solutiei stabilizante
X
s
a ARE este echivalenta cu existenta unei solutii stabilizante (X
s
, V
s
, W
s
), X
s
0, a KPYS
dat in (256). Consideram din nou sistemul (257) care se obtine inlocuind iesirea y
1
cu iesirea y
1
.
Cum V
s
este inversabil, este usor de vericat ca sistemul

T satisface acum ipotezele problemei 2
bloc duale. Daca scriem regulatorul corespunzator pentru

T dat de (257) ajungem exact la (249).
Cu alte cuvinte, regulatorul K in (249) rezolva problema 2 bloc duala formulata pentru sistemul
(257).
Capitolul 17: Capitolul 16: Problema H
2
311
Deci

T
y
1
u
1
este desemenea intern stabil. Din stabilitatea interna a

T
y
1
u
1
rezulta in mod analog
ca in demonstratia Propozitiei 180 ca T
y
1
u
1
este deasemenea intern stabil.
A ramas de aratat ca K este intradevar optimal si sa obtinem evaluarea (250). In acest scop
e K orice regulator a.i. T
y
1
u
1
este intern stabil. Din Propozitia 181 aplicata lui (257) obtinem
j

T
y
1
u
1
j
2
2
Trace (C
1
Y
s
C
T
1
) (265)
si mai departe
jT
y
1
u
1
j
2
2
Trace (B
T
1
X
s
B
1
) + Trace (C
1
Y
s
C
T
1
). (266)
Egalitatea din (266) are loc daca si numai daca egalitatea din (265) are loc. Dar, asa cum am
explicat mai sus, pentru K dat de (249) egalitatea (265) are loc si prin urmare rezulta (250)
incheind astfel demonstratia Teoremei 178.
Capitolul 17: Capitolul 16: Problema H
2
312
Capitolul 18 Problema de reglare H

(sub)optimala
In acest capitol consideram problema de reglare H

(sub)optimala (numita si problema atenuarii


perturbatiei) ce consta in gasirea clasei tuturor regulatoarelor care stabilizeaza intern sistemul in
bucla inchisa si ii minimizeaza norma H

(o fac mai mica decat un > 0).


Solutia propusa se bazeaza din nou pe conditia de signatura pe care deja stim s-o rezolvam.
Formularea problemei
Presupuneri de baza
Problema H

si conditia de signatura
Solutia
Schita demonstratiei
Capitolul 18: Problema de reglare H

(sub)optimala 313
Formularea problemei
Cadrul este complet similar celui din capitolul anterior. Consideram un sistem dinamic liniar:
x = Ax +B
1
u
1
+B
2
u
2
,
y
1
= C
1
x +D
11
u
1
+D
12
u
2
,
y
2
= C
2
x +D
21
u
1
+D
22
u
2
,
(267)
avand matricea de transfer data de : T =

A B
C D

=
_
_
A B
1
B
2
C
1
D
11
D
12
C
2
D
21
D
22
_
_
=

T
11
T
12
T
21
T
22

unde u si y semnica intrarea si iesirea lui T partitionate conform a.i.


y =

y
1
y
2

= Tu =

T
11
T
12
T
21
T
22

u
1
u
2

. (268)
u
1
: vectorul intrarilor exogene
y
1
: vectorul iesirilor reglate
u
2
: vectorul intrarilor reglate
Capitolul 18: Problema de reglare H

(sub)optimala 314 Formularea problemei


y
2
: vectorul iesirilor masurate
Problema: Gasiti o intrare potrivita u
2
(ce este iesire a unui sistem numit regulator avand intrarea
y
2
) astfel incat raspunsul rezultat y
1
sa aibe energie cat mai mica atunci cand intrarea u
1
este
cel mai prost semnal posibil de energie unitara (i.e., o functie in L
2
, de norma 1, aleasa astfel incat
sa maximizeze y
1
). Cum u
1
este vazut ca un semnal perturbator conditia poate privita ca o
cerinta de atenuare a perturbatiei.
Denim regulatorul prin formulele generale
x
K
= A
K
x
K
+B
K
u
K
,
y
K
= C
K
x
K
+D
K
u
K
,
(269)
avand matricea de transfer K =

A
K
B
K
C
K
D
K

, unde u
K
si y
K
sunt intrarea si iesirea lui K.
Sistemul in bucla inchisa se obtine conectand regulatorul la sistemul nominal a.i. u
2
y
K
si
u
K
y
2
.
Capitolul 18: Problema de reglare H

(sub)optimala 315 Formularea problemei


K
T
-
-
-

u
1
u
2
y
K
y
1
y
2
u
K
u
2
y
K
u
K
y
2
Sistemul in bucla inchisa este bine denit daca matricea

I
p
2
D
22
D
K
I
m
2

este nensingulara.
Buna denire poate exprimata echivalent prin conditia S = I
p
2
D
22
D
K
nensingulara, sau ca

S := I
m
2
D
K
D
22
nensingulara. Daca sistemul in bucla inchisa este bine denit atunci sistemul
rezultat avand intrarea u
1
si iesirea y
1
este dat de
T
y
1
u
1
= LFT(T, K) = T
11
+T
12
K(I T
22
K)
1
T
21
,
T
y
1
u
1
=

A
R
B
R
C
R
D
R

=
_
_
_
_
A +B
2

S
1
D
K
C
2
B
2

S
1
C
K
B
1
+B
2

S
1
D
K
D
21
B
K
S
1
C
2
A
K
+B
K
S
1
D
22
C
K
B
K
S
1
D
21
C
1
+D
12
D
K
S
1
C
2
D
12

S
1
C
K
D
11
+D
12
D
K
S
1
D
21
_
_
_
_
.
(270)
Capitolul 18: Problema de reglare H

(sub)optimala 316 Formularea problemei


Problema H

(sub)optimala: Dandu-se un sistem T si > 0, gasiti toate regulatoarele K


pentru care sistemul in bucla inchisa T
y
1
u
1
este bine denit (I D
22
D
K
este inversabila), intern
stabil, i.e.,
(A
R
) C

, (271)
si marginit in norma H

de , i.e.,
jT
y
1
u
1
j

< . (272)
Deoarece jT
y
1
u
1
j

= sup
ju
1
j
2
=1
jy
1
j
2
, rezulta ca (272) impune de fapt o margine asupra
normei L
2
a raspunsului sistemului atunci cand intrarea este arbitrara de norma L
2
egala cu
unitatea.
Observatie: Calcule simple arata ca realizarea lui (I T
22
K)
1
, T
y
2
u
1
:= (I T
22
K)
1
T
21
,
si T
u
2
u
1
= K(I T
22
K)
1
T
21
impart aceeasi matrice de stare care este exact A
R
:
(I T
22
K)
1
=

A
R

, T
y
2
u
1
=

A
R

, T
u
2
u
1
=

A
R

.
Daca regulatorul K stabilizeaza T, atunci sistemul rezultant este automat stabil, i.e., T
y
1
u
1

RH

+,p
1
m
1
, si deasemenea (I T
22
K)
1
RH

+,p
2
p
2
, T
y
2
u
1
RH

+,p
2
m
1
, si T
u
2
u
1

RH

+,m
2
m
1
. O problema naturala in acest context este determinarea unui
min
peste clasa tuturor
regulatoarelor stabilizante, si scrierea unei formule pentru regulator ce asigura optimul (minimul).
Problema se numeste optimala si este considerabil mai dicila.
Capitolul 18: Problema de reglare H

(sub)optimala 317 Formularea problemei


Presupuneri de baza
Facem o multime de presupuneri aditionale asupra sistemului dat care sau simplica considerabil
expunerea (fara restrangerea generalitatii) sau sunt de natura tehnica intrinseca.
(H1) = 1: Este o simpla scalare
(H2) D
22
= 0: Daca K este o solutie a problemei in cazul D
22
= 0 atunci K(I + D
22
K)
1
este
o solutie a problemei originale. Aceasta presupunere simplica considerabil restrictia impusa de
buna denire a buclei (implica automat buna denire) si conduce la formule mai simple pentru
solutie.
(H3) Perechea (A, B
2
) este stabilizabila si perechea (C
2
, A) este detectabila: Aceste presupuneri
sunt necesare pentru existenta clasei compensatoarelor stabilizante. Intr-adevar:
A
R
=

A +B
2

S
1
D
K
C
2
B
2

S
1
C
K
B
K
S
1
C
2
A
K
+B
K
S
1
D
22
C
K

(273)
=

A O
O A
K

B
2
O
O B
K

S
1
D
K

S
1
S
1
S
1
D
22

C
2
O
O C
K

.
Capitolul 18: Problema de reglare H

(sub)optimala 318 Presupuneri de baza


Daca A
R
este stabila deducem ca perechea matriciala
(

A O
O A
K

B
2
O
O B
K

)
este stabilizabila si perechea matriciala
(

C
2
O
O C
K

A O
O A
K

)
este detectabila de unde rezulta ca perechea (A, B
2
) este stabilizabila si perechea (C
2
, A) este
detectabila. Rezulta in particular si ca (A
K
, B
K
) si (C
K
, A
K
) trebuie sa e stabilizabile si
respectiv detectabile.
(H4) Ipoteze de regularitate.
(R1) Fascicolul de transmisie T
12
dat de

sI A B
2
C
1
D
12

are rang intreg pe coloane ptr. s C


0
.
Capitolul 18: Problema de reglare H

(sub)optimala 319 Presupuneri de baza


(R2) Fascicolul de transmisie T
21
dat de

sI A B
1
C
2
D
21

are rang intreg pe linii ptr. s C


0
.
O problema ce satisface aceste doua presupuneri se numeste regulata, altfel se numeste singulara
(mult mai dicila !!!!). Desigur aceste doua presupuneri nu sunt necesare ci sunt datorate
complicatiilor tehnice ce apar in absenta lor.
Capitolul 18: Problema de reglare H

(sub)optimala 320 Presupuneri de baza


DAP si conditia de signatura
Este usor de vericat ca functia Popov asociata cu
c
este data de

c
=

11
T
11
I T

11
T
12
T

12
T
11
T

12
T
12

,

T
11
T
12

:=
_
_
A B
1
B
2
C
1
D
11
D
12
_
_
.
Din presupunerile de regularitate (R1) avem

c
,22
= T

12
T
12
> 0 (274)
pe C
0
si este clar ca

C
T
1
D
T
12


C
1
D
12

0.
Daca luam S := T
u
2
u
1
= K(I T
22
K)
1
T
21
(functia de transfer in bucla inchisa de la u
1
la u
2
), atunci este clar ca S RH

+
si

I S

I
S

= I + (T
11
+T
12
S)

(T
11
+T
12
S).
Dar T
11
+T
12
S = T
11
+T
12
T
u
2
u
1
= T
y
1
u
1
.
Capitolul 18: Problema de reglare H

(sub)optimala 321 DAP si conditia de signatura


Deoarece regulatorul este contractiv, avem I +T

y
1
u
1
T
y
1
u
1
< 0 pe C
0
, si rezulta ca

I S

I
S

< 0 (275)
pe C
0
. De aici automat avem ca ARE(
c
) - sau KPYS(
c
) - are o solutie stabilizanta.
Reciproca este deasemenea valabila si da clasa solutiilor problemei H

atunci cand stim clasa


solutiilor inegalitatii de signatura.
Capitolul 18: Problema de reglare H

(sub)optimala 322 DAP si conditia de signatura


Solutia
Rezultatul central contine doua aspecte. Pe de-o parte sunt conditiile de existenta ale solutiei,
care sunt in forma necesara si sucienta si care se pot verica usor dpdv numeric. Pe de-alta
parte este formula explicita ce genereaza clasa tutoror regulatoarelor (atunci cand exista). Conditiile
de existenta si clasa regulatoarelor sunt exprimate in termenii solutiei stabilizante a sistemului
KalmanPopovYakubovich (sau, echivalent, a ARE).
Teorema 182. Presupunem ca T satisface ipotezele (H2)-(H4). Asociem cu T tripletele Popov :

c
= (A,

B
1
B
2

; Q
c
, L
c
, R
c
);
o
= (A
T
,

C
T
1
C
T
2

; Q
o
, L
o
, R
o
),
unde
Q
c
= C
T
1
C
1
; L
c
= C
T
1

D
11
D
12

; R
c
=

D
T
11
D
T
12


D
11
D
12

I
m
1
O
O O

Q
o
= B
1
B
T
1
; L
o
= B
1

D
T
11
D
T
21

; R
o
=

D
11
D
21


D
T
11
D
T
21

I
p
1
O
O O

.
Fie
J
c
=

I
m
1
O
O I
m
2

, J
o
=

I
p
1
O
O I
p
2

.
Capitolul 18: Problema de reglare H

(sub)optimala 323 Solutia


Atunci avem :
(I) Problema H

suboptimala are solutie daca si numai daca urmatoarele conditii sunt


indeplinite:
(C1) Sistemul KalmanPopovYakubovich KPYS(
c
, J
c
) are o solutie stabilizanta
(X, V
c
, W
c
) = (X,

V
c11
O
V
c21
V
c22

W
c1
W
c2

), cu X 0.
(C2) Sistemul KalmanPopovYakubovich KPYS(
o
, J
o
) are o solutie stabilizanta
(Y, V
o
, W
o
) = (Y,

V
o11
O
V
o21
V
o22

W
o1
W
o2

), cu Y 0.
(C3) (XY ) < 1.
(II) Presupunem (C1). Fie J

I
m
2
O
O I
p
2

, si e:

= (A
T
+F
T
1
B
T
1
,

F
T
2
V
T
c22
C
T
2
+F
T
1
D
T
21

; Q

, L

, R

),
Capitolul 18: Problema de reglare H

(sub)optimala 324 Solutia


unde

F
1
F
2

este reactia stabilizanta a KPYS(


c
, J
c
) si Q

:= B
1
(V
T
c11
V
c11
)
1
B
T
1
;
L

:= B
1
(V
T
c11
V
c11
)
1

V
T
c21
D
T
21

; R

:=

V
c21
D
21

(V
T
c11
V
c11
)
1

V
T
c21
D
T
21

I
m
2
O
O O

.
Problema H

are solutie daca si numai daca (C1) este adevarata si urmatoarea conditie (C4) este
adevarata :
(C4) Sistemul KPYS(

, J

) are o solutie stabilizanta (Z, V

, W

) =
(Z,

V
11
O
V
21
V
22

W
1
W
2

), cu Z 0.
Mai mult, avem relatia intre solutiile KPYS:
Z := Y (I XY )
1
. (276)
(III) Presupunem ca (C1) si (C4) sunt adevarate (sau, echivalent, (C1)-(C3)). Atunci clasa
tuturor solutiilor problemei H

suboptimale este K = LFT(K


g
, Q), unde Q RH

+,m
2
p
2
Capitolul 18: Problema de reglare H

(sub)optimala 325 Solutia


este un parametru arbitrar cu jQj

< 1 si
K
g
=
_
_
A
g
B
g1
B
g2
C
g1
D
g11
D
g12
C
g2
D
g21
D
g22
_
_
=

K
g11
K
g12
K
g21
K
g22

, (277)
are coecientii scrisi in termenii sistemului original si ale solutiilor ARE.
Capitolul 18: Problema de reglare H

(sub)optimala 326 Solutia


Schita demonstratiei
Necesitatea lui (C1) se foloseste direct conditia de signatura
Necesitatea lui (C2) prin dualitate
Daca (C1) are loc atunci (C4) este necesara pentru existenta solutiei H

din nou din conditia


de signatura.
Daca (C1) are loc atunci (C4) este echivalenta cu (C2) impreuna cu (C3) se foloseste o
transformare de echivalenta pe fascicole matriciale acest fapt demonstreaza si necesitatea lui
(C3) si celelalte armatii cu exceptia clasei regulatoarelor
Pentru clasa regulatoarelor consideram intai o problema mai simpla de tip 2 bloc solutia ei se
poate scrie direct pe baza solutiilor inegalitatii de signatura
In nal, in cazul general se foloseste ARE(
c
, J
c
) pentru a reduce problema la una mai simpla
care este la randul ei o problema de tip 2 bloc duala.
Capitolul 18: Problema de reglare H

(sub)optimala 327 Schita demonstratiei


Capitolul 19: Stabilizare Robusta
In acest capitol aratam ca problema stabilizarii robuste pentru diverse tipuri de incertitudini
(aditive, multiplicative, pe factori coprimi) este echivalenta cu o problema de tip H

optimala
formulata pentru un sistem generalizat particular a carei solutie se poate obtine pe baza rezultatelor
din capitolul precedent.
Fie sistemul pm dat de G, y = Gu, si e (

N,

M) o factorizare corpima peste RH

+
astfel
incat G =

M
1

N. Denim un regulator stabilizant pentru G ca ind un sistem K pentru care


sistemul in bucla inchisa format din G si K este intern stabil.
Pentru > 0 introducem clasele de sisteme
1
a

:= G
a

: G
a

= G+, RH

+,pm
si jj

< ], (278)
1
m

:= G
m

: G
m

= (I +)G, RH

+,pp
si jj

< ], (279)
1
cf

:= G
cf

: G
cf

= (

M+
M
)
1
(

N+
N
),
=

N

M

RH

+,p(p+m)
si jj

< ]. (280)
Fiecare clasa 1
a

, 1
m

si 1
cf

reprezinta o clasa de sisteme perturbate obtinute din G prin


Capitolul 19: Stabilizare Robusta 328
considerarea unor incertitudini aditive, multiplicative sau pe factori coprimi. Notam cu 1

oricare
dintre aceste trei clase, si prin G

un element generic a lui 1

.
Cel mai mare =
max
pentru care exista un singur regulator stabilizator pentru toate sistemele
1

max
se numeste marginea maxima de stabilitate pentru clasa respectiva de incertitudini.
Problema de Stabilizare Robusta (suboptimala): Dandu-se un sistem nominal G, o margine
si clasa sistemelor 1

, unde <
max
, gasiti un regulator (sau toata clasa) K, u = Ky, care
stabilizeaza toate sistemele G

.
K
G

Regulatorul K se numeste robust. Problema de stabilizare robusta optimala consta in


constructia unui regulator K (sau toata clasa) pentru toate sistemele in 1

max
.
Aratam in continuare cum o problema de stabilizare robusta se poate converti intr-o problema
echivalenta de tip H

de tipul celor studiate in capitolul precedent.


Capitolul 19: Stabilizare Robusta 329
Fiecare clasa de sisteme incerte 1

se poate reprezenta ca o transformare liniar fractionara


superioara (ULFT) a unui sistem generalizat si a unui sistem perturbator :
T
a
:=

T
a
11
T
a
12
T
a
21
T
a
22

O I
m
I
p
G

, (281)
T
m
:=

T
m
11
T
m
12
T
m
21
T
m
22

O G
I
p
G

, (282)
T
cf
=
_
T
cf
11
T
cf
12
T
cf
21
T
cf
22
_
=
_
_
_
_
O I
m

M
1
G

M
1
G
_
_
_
_
. (283)
Un calcul de rutina arata ca
ULFT(T
a
, ) = G+ = G
a

, (284)
ULFT(T
m
, ) = (I +)G = G
m

, (285)
ULFT(T
cf
, ) = (

M+
M
)
1
(N+
N
) = G
cf

, =

N

M

. (286)
Acesta ne arata ca in oricare caz clasa sistemelor incerte se poate reprezenta sub forma unei
ULFT(T, ) asa cum este descris in gurile :
Capitolul 19: Stabilizare Robusta 330
T

- -
T

K
-

-
T
y
1
u
1
:= LLFT(T, K)
Deci obtinem conguratiile echivalente de mai sus in care atat T
y
1
u
1
cat si sunt stabile si
T
y
1
u
1
= LLFT(T, K).
Capitolul 19: Stabilizare Robusta 331
Intorcandu-ne la problema originala de convertire a problemei de stabilizare robusta intr-una de
tip H

obtinem urmatorul rezultat.


Teorema 183. Un regulator K este o solutie a problemei de stabilizare robusta in raport cu orice
clasa de sisteme 1

,
max
, daca si numai daca K este o solutie a problemei H

suboptimale
cu =
1

pentru T.
Prin urmare putem obtine o expresie a marginii de stabilitate si o solutie pentru problema stabilizarii
robuste evaluand intai
min
=
1

max
si construind ulterior regulatorul optimal pentru problema H

optimala corespunzatoare datelor respective.


Observatie: Problema optimala se poate rezolva in acest caz pornind de la una suboptimala si
facand o analiza de perturbatii singulare.
Capitolul 19: Stabilizare Robusta 332
Asta a fost TOT !!! Succes la Examen !!!
Capitolul 19: Stabilizare Robusta 333

S-ar putea să vă placă și