Sunteți pe pagina 1din 108

Calculul variatiilor si

controlul sistemelor diferentiale


C
at
alin-George Lefter

Editura Alexandru Myller


Iasi, 2006

EDITURA ALEXANDRU MYLLER


Iasi, B-DUL CAROL I, nr.11,
tel. 0232-201061 / fax. 0232-201060
http://www.math.uaic.ro/sm/

Descrierea CIP a Bibliotecii Nationale a Rom


aniei

LEFTER, CATALIN-GEORGE
Calculul variatiilor si controlul ecuatiilor diferentiale /
Cat
alin-George Lefter. - Iasi : Editura Alexandru Myller, 2006
Bibliogr.
Index.
ISBN (10) 973-86987-4-X ; ISBN (13) 978-973-86987-4-X
517.9

Referent stiintific
Prof. Univ. Dr. Gheorghe Anicul
aesei
Facultatea de Matematica
Universitatea Alexandru Ioan Cuza Iasi

c
Toate
drepturile asupra acestei edit
ii apart
in autorului
si Editurii Alexandru Myller

Lucrarea de fata este o introducere n teoria clasica a calculului variatiilor


si n ramura mai nou
a a matematicii, continuare natural
a a acesteia, teoria
controlului ecuatiilor diferentiale. In cursul lucr
arii s-a urm
arit denirea
problematicii, descrierea metodelor matematice specice si a formalismului
hamiltonian ce sta la baza celor dou
a domenii, precum si exemplicarea
acestora n cazuri concrete.
Lucrarea se adreseaza n special studentilor facult
atilor de matematica
sau zica, dar poate util
a oricui doreste o introducere n acest domeniu.
F
ar
a a avea pretentia unei monograi de a face o prezentare complet
a si n
maxima generalitate, lucrarea si propune sa ofere o imagine clara a ideilor
si rezultatelor fundamentale.

Cuprins
Introducere
Partea 1.

1
Calculul variatiilor

Capitolul 1. Problema de calculul variatiilor


1.1. Formularea problemei. Exemple
1.2. Ecuatiile Euler-Lagrange
1.3. Conditii necesare. Conditii suciente de extrem local slab
1.4. Teorema lui Noether

11
11
16
18
26

Capitolul 2. Formalismul canonic


2.1. Sisteme hamiltoniene
2.2. Variatia total
a a unei functionale
2.3. Ecuatia Hamilton-Jacobi. Metoda lui Jacobi de integrare a
sistemelor hamiltoniene

29
29
33

Partea 2.

39

Controlul sistemelor diferentiale

35

Capitolul 3. Controlul sistemelor liniare


3.1. Controlabilitatea sistemelor liniare
3.2. Control optimal. Principiul de maxim al lui Pontriaghin
3.3. Ecuatia program
arii dinamice
3.4. Problema regulatorului liniar-p
atratic
3.5. Stabilizarea sistemelor diferentiale liniare
3.6. Problema de timp optimal pentru sisteme liniare

41
41
46
48
50
53
56

Capitolul 4. Reprezentarea ecuatiilor diferentiale


pe variet
ati diferentiabile
4.1. Ecuatii diferentiale pe varietati diferentiabile
4.2. Reprezentarea exponentiala a uxurilor

59
59
61

Capitolul 5. Controlabilitatea sistemelor diferentiale


5.1. Teorema orbitei si consecinte
5.2. Sisteme analitice. Integrabilitate. Teorema lui Frobenius

73
73
76

Capitolul 6. Principiul de maxim al lui Pontriaghin


6.1. Multimi accesibile si probleme de control optimal
6.2. Forma geometrica a principiului de maxim al lui Pontriaghin

79
79
81

6.3.
6.4.
6.5.
6.6.

Probleme de control optimal cu timp nal liber


Principiul de maxim pentru problemele de control optimal
Legatura dintre principiul de maxim si principiul program
arii
dinamice
Probleme de control optimal - exemple

Index
Bibliograe

83
85
88
90
99
101

Introducere
Scopul acestei carti este de a prezenta, ntr-un volum restr
ans, problematica si ideile fundamentale din dou
a ramuri ale matematicii: Calculul
variatiilor si Teoria controlului. Teoria controlului, dezvoltat
a ncep
and cu

a o continuare modern
a a Calculului variatiilor, fata de
anii 50, reprezint
care si diversic
a mult problematica, ns
a cu care pastreaza n comun un
aspect deosebit de important care este structura hamiltonian
a subiacent
a.
Acest capitol introductiv face o trecere n revista a principalelor notiuni
si rezultate considerate n lucrare. Pentru nceput, mention
am urm
atoarea
conventie de notatie: daca M este o varietate diferentiabil
a si q : IR M
d
este neteda, atunci q = q(t) Tq(t) M , unde Tq(t) M este spatiul tangent
dt
la M n q(t). In cazul n care varietatea diferentiabil
a M = IRn , derivata
d
a cu y  = y(t) IRn .
unei functii netede y : IR IRn va notat
dt
Calculul variatiilor. Fie M o varietate diferentiabil
a ndimensional
a,
M0 , M1 M subvarietati ale lui M , T M este bratul tangent al lui M ,
L : IR T M IR o functie pe care o numim lagrangean. Problema de
a si de clasa C 1 pe
calculul variatiilor este de a gasi o curb
a q , continu
portiuni, care rezolv
a problema de minim
 t1
L(t, q(t), q(t))dt,

(0.1)
inf J(q), J(q) =
qC

t0

C = {q : [t0 , t1 ] M ; qi := q(ti ) Mi , q C([t0 , t1 ]), C 1 pe portiuni}.


Motivatia studiului acestei probleme provine at
at din mecanic
a cat si din
geometrie (v.1.1, unde sunt prezentate cateva exemple, sau monograile
[3],[11],[27]).
Studiul conditiilor de ordinul nt
ai n cazul problemei simple de calculul
acut n 1.2. In acest caz
variatiilor, cand M = IRn si q0 , q1 sunt xate, este f
spatiul variatiilor admisibile este H = {h : [t0 , t1 ] IRn ; h(t0 ) = h(t1 ) =
a q este minim pentru J n C, atunci prima variatie a lui J
0, h C 1 }; dac
n q este nula:
(0.2)

J(q )h :=

d
J(q + sh)|s=0 = 0.
ds

a. Aceasta este numai o


O curb
a q ce satisface (0.2) se numeste extremal
conditie necesar
a pentru ca aceasta curb
a sa realizeze inmul lui J . In
1

conditii de regularitate pentru q aceasta se reduce la


d
(0.3)
Lq (t, q (t), (q )(t)) Lq (t, q (t), (q )(t)) = 0,
dt
care sunt ecuatiile Euler-Lagrange ; acestea formeaza un sistem de n ecuatii
diferentiale de ordinul al doilea (v.1.2, 1.3). Extremala q mosteneste rea. De altfel, conditia
gularitatea lui L dac
a matricea (Lqq ) este pozitiv denit
necesar
a a lui Legendre ne spune c
a daca q realizeaza inmul lui J, atunci
(Lqq ) 0 de-a lungul lui q .
In 1.3 consideram conditii de ordinul al II-lea. Presupunem c
a matricea
> 0. Vom studia a doua variatie a lui J:
(Lqq )(t, q, q)
 t1
d2
2

2(t, h, h)dt,
J(q)h := 2 J(q + sh)|s=0 =
ds
t0


= 1 Lqq (t, q , q )h2 + 2Lqq (t, q , q )hh + Lqq (t, q , q )h 2 .
unde (t, h, h)
2
Conditia necesara de ordinul al doilea pentru ca q sa realizeze inmul
este ca a doua variatie sa e pozitiv
a: 2 J(q ) 0. Vom ajunge astfel
la notiunea de punct conjugat. Acesta este un punct t (t0 , t1 ] pentru care
a doua ecuatie a lui Euler (ecuatia Euler-Lagrange asociata lagrangeanului
are o solutie nenul
(t, h, h))
a cu h(t0 ) = h(t) = 0. Conditia necesara a lui
a n intervalul
Jacobi ne spune c
a dac
a q realizeaza inmul, atunci nu exist

a
(t0 , t1 ) puncte conjugate cu t0 n raport cu extremala q . Conditia sucient
de minim local slab este urmatoarea: dac
a intervalul nchis [t0 , t1 ] nu contine
puncte conjugate cu t0 , atunci extremala q este un minim local n raport
cu topologia C 1 . Tot n 1.3 vom extinde toate notiunile introduse la cazul
n-dimensional.
In 1.4 prezentam teorema lui Noether, care ne da un mod de constructie
a integralelor prime pentru ecuatiile Euler-Lagrange atunci c
and lagrangeanul este invariant la un grup de difeomorsme. Aceast
a teorema este deosebit de utila ntruc
at majoritatea legilor de conservare pentru sistemele
mecanice se obtin drept consecinte ale acestui rezultat (v.[3]).
Capitolul 2 studiaz
a formalismul canonic hamiltonian. Ecuatiile EulerLagrange se transform
a dintr-un sistem de ordinul al doilea pe bratul tangent T M ntr-un sistem de ordinul nt
ai pe bratul cotangent T M , care are
o structur
a natural
a de varietate simplectica. Acesta este sistemul hamiltonian. Aceasta transformare permite studiul si integrarea unor sisteme
din mecanic
a care nu admit alte abord
ari. De asemenea, punctul de vedere
hamiltonian este util n studiul asimptotic care se face n teoria perturbatiilor
si permite o ntelegere mai profund
a a propriet
atilor calitative ale sistemelor
mecanice complicate care apar, de exemplu, n mecanica cereasc
a, mecanica
statistic
a, mecanica cuantica etc. (v.[3],[17]).

Astfel, n 2.1 consideram un lagrangean cu proprietatea c


a (Lqq (t, q, q))
este matrice nedegenerata pentru orice (t, q, q).
Notam cu
(0.4)

p = Lq (t, q, q).
2

Conditia de nedegenerare ne asigur


a ca formula (0.4) deneste un difeomorsm local (t, q, q)
(t, q, p) de la T M la T M . p se numeste variabila
adjunct
a, iar ansamblul variabilelor (q, p) formeaza variabilele canonice. Se
introduce de asemenea hamiltonianul sistemului
(0.5)

H(t, q, p) = (p, q)
L(t, q, q).

Aceste transformari ne conduc la urm


atorul sistem diferential de 2n ecuatii
de ordinul I:

(t, q, p)
q =

p
(0.6)

p =
(t, q, p)
q
Acestea sunt ecuatiile lui Hamilton sau sistemul hamiltonian. Solutiile acestui sistem sunt extremalele corespunzatoare lagrangeanului
 (q, p), (q,
L(t,
p))
= (p, q)
H(t, q, p)
pe T M . Proiectiile pe M ale acestora sunt extremale pentru J. Consider
am
de asemenea forma Lax a sistemelor hamiltoniene:
(0.7)

d
F (q, p) = {H, F },
dt

H F
H F

reprezint
a paranteza Poisson a hamilp q
q p
tonienilor F = F (q, p), H = H(t, q, p). Considerarea celor dou
a puncte de
vedere pentru solutiile sistemelor hamiltoniene, si anume ca acestea sunt, pe
iar pe de alt
de o parte, extremale pentru lagrangeanul L,
a parte c
a hamiltonienii F (q, p) evolueaz
a de-a lungul curbelor integrale conform ecuatiei
(0.7), ne conduce la introducerea notiunii de transformare canonic
a (i.e.
care pastreaza structura simplectic
a si deci forma sistemului hamiltonian)
si a notiunii de functie generatoare pentru o transformare canonic
a.
In 2.2 calcul
am variatia totala a unei functionale de tipul (0.1), c
and
asate sa se miste liber pe subvarietati diferentiabile
capetele (ti , qi ) sunt l
ang
a ecuatiile Eulerdin spatiul (t, q). Obtinem pentru o extremala q , pe l
Lagrange, conditiile de transversalitate
unde {H, F } =

1
(pq Ht)|t=t
t=t0 = 0.

In 2.3 se prezinta metoda lui Jacobi de integrare a sistemelor hamiltoniene.


Astfel, functia valoare S(t, q) care se deneste ntr-o vecin
atate a punctului
(t0 , q0 ) prin
 t
L(s, q (s), q (s))ds,
S(t, q) =
t0
3

unde q este unica extremala ce uneste (t0 , q0 ) cu (t, q), veric


a ecuatia cu
derivate partiale de ordinul nt
ai numit
a ecuatia Hamilton-Jacobi:
(0.8)

S
S
(t, q) + H(t, q,
)(t, q) = 0.
t
q

De fapt, ecuatiile lui Hamilton reprezint


a ecuatiile caracteristicilor pentru
(0.8). Existenta unei solutii generale, depinz
and de n parametri, pentru
(0.8), conduce la integrarea sistemului hamilonian corespunz
ator. De altfel, n acest caz, solutia S este o functie generatoare pentru o transformare
canonic
a, iar n noile coordonate, obtinute prin aceast
a transformare, sistemul hamiltonian are o forma simplu de integrat. Aceasta este n esenta
metoda lui Jacobi.
Controlul sistemelor diferentiale. Fie problema Cauchy pentru sistemul
diferential

y = f (t, y, u)
(0.9)
y(0) = y0 .
a starea sistemului, u U = U IRm reprezint
a
y IRn reprezint
controlul care apartine spatiului controalelor U . Ipotezele pe care le vom
considera pentru f si pentru strategiile (controalele) admisibile u = u(t) U
ne vor asigura existenta globala si unicitatea solutiei problemei Cauchy,
solutie notata cu y u (t). Multimea U de functii cu valori n U , pe care o
vom preciza n situatiile concrete studiate, se numeste multimea controalelor
admisibile. Aceasta va , dupa caz, L (0, T ; U ), L2 (0, T ; U ) sau multimea
funtiilor masurabile cu valori n U , constante pe portiuni.
Problemele pe care le vom aborda sunt controlabilitatea, stabilizarea si
controlul optimal (v. [37] pentru o introducere n teoria controlului).
Controlabilitatea. Vom spune ca sistemul (0.9) este exact controlabil n
at
timp T dac
a, pentru orice y0 , y1 , exista o stategie u = u(t) astfel nc
solutia corespunzatoare a problemei Cauchy cu data initiala y0 sa satisfaca
y u (T ) = y1 . Sistemul este nul controlabil daca pentru orice y0 exista
u U astfel nc
at y u (T ) = 0.
Vom spune ca sistemul (0.9) este aproximativ controlabil n timp T
dac
a pentru orice y0 , y1 exista un sir de controale admisibile un U
astfel nc
at y un (T ) y1 .
Stabilizarea sistemelor diferentiale. Fie y o stare stationar
a a sistemului (0.9). Se pune problema determin
arii unui control n form
a feedback
u = Ky, astfel nc
at solutia sistemului cu bucl
a nchis
a obtinut y  (t) =
f (t, y(t), Ky(t)) sa verice lim |y(t) y| = 0.
t

Controlul optimal. In teoria controlului optimal se ataseaza unui sistem


de forma (0.9) o functionala de cost J(y, u) care are n general forma
 t1
L(t, y(t), y  (t))dt + l(y(T )).
(0.10)
J(y, u) =
t0
4

Un control u U se numeste admisibil daca J(y u , u) < +. Se caut


a
at
controlul admisibil u (t), numit control optimal, astfel nc
J(y , u ) = inf J(y u , u).

(0.11)

uU

Perechea (y , u ) se numeste pereche optimala (am notat y = y u ).


In capitolul 3 studiem problemele enuntate mai sus pentru sistemele
liniare, n care
f (t, y, u) = A(t)y + B(t)u, t (0, T ),
unde t A(t) Mn (IR), t B(t) Mnm (IR) sunt functii continue, iar
U = IRm .
In 3.1 se studiaza controlabilitatea acestor sisteme. Aceasta este echivalent
a, n cazul sistemelor nit dimensionale pe care le studiem aici, cu controlabilitatea aproximativ
a si cu inegalitatea de observabilitate
 T
2
|B p(t)|2 dt
|p(0)| C
0

unde p este o solutie arbitrar


a a ecuatiei adjuncte p + A p = 0. Aceasta
este de asemenea echivalenta cu proprietatea de unic
a continuare B p(t)

0, t [0, T ] p(t) 0, t [0, T ]. In cazul n care matricile A, B sunt


constante, proprietatea de unic
a continuare enuntata este echivalenta cu
faptul c
a rangul matricei lui Kalman [A|B] := [B, AB, . . . , An1 B] este n.
In 3.2 consideram problema de control optimal si discut
am conditiile
de optimalitate sau principiul de maxim al lui Pontriaghin (v.[32]). Astfel, pentru o functionala de cost de tipul (0.10) se introduce hamiltonianul
depinz
and de u:
H u (t, y, p) = (p, f (t, y, u)) L(t, y, u).
De mentionat ca prima ecuatie, n y, a sistemului hamiltonian cu hamiltonianul H u este exact (0.9). Pincipiul de maxim al lui Pontriaghin spune n
a o solutie (y , p ) a sisesenta ca daca u este control optimal, atunci exist

u
temului hamiltonian cu hamiltonianul H si conditiile n capete y(0) = y0 ,
p(T ) = l(y(T )), iar
(0.12)

H u (t, y , p ) = max H u (t, y , p ).


uU

Demonstratia dat
a aici functioneaza n cazul problemei Bolza pentru sistemele liniare cu functionala de cost patratica. Notam cu Hmax (t, y, p) =
a acesta este regulat, atunci
max H u (t, y, p) hamiltonianul maximizat. Dac
uU

demonstr
am ca (y , p ) satisfac si sistemul hamiltonian cu hamiltonianul
arii adjuncte p
Hmax , iar controlul optimal u se exprima cu ajutorul st
folosind proprietatea de maxim (0.12).
In 3.3 problema de control optimal este nglobat
a ntr-o familie de probleme de control optimal pentru care variem data initiala (t0 , y0 ). Functia
valoare obtinut
a veric
a o ecuatie cu derivate partiale de ordinul nt
ai.
5

Aceasta ecuatie este ecuatia program


arii dinamice, sau ecuatia lui Bellman (sau Hamilton-Jacobi-Bellman) si este de fapt ecuatia Hamilton-Jacobi
asociata hamiltonianului Hmax (v.[10]). Rezolvarea unei probleme Cauchy
pentru aceast
a ecuatie permite obtinerea controlului optimal n form
a feed
back. In acest punct avem o imagine de ansamblu asupra trunchiului comun
reprezentat de formalismul hamiltonian ce exista at
at n problemele de calculul variatiilor, cat si n problemele de control optimal.
Cele dou
a metode fundamentale ale controlului optimal, principiul de
maxim si principiul program
arii dinamice, le aplic
am n 3.4 sistemelor
liniare cu functionala de cost patratica de forma

1 T
1
J(y, u) =
(Q(t)y, y) + (R(t)u, u)dt + (P0 y(T ), y(T )).
2 0
2
1
Ecuatia lui Bellman, pentru care c
aut
am o solutie de forma (P (t)y, y),
2
conduce n aceast
a situatie la o ecuatie diferentiala Riccati
P  + P A + A P P BR1 B P + Q = 0,

P (T ) = P0 ,

a iar controlul
care n conditii de pozitivitate pentru Q, R, P0 , are solutie unic
optimal se exprim
a n form
a feedback cu ajutorul lui P :
u (t) = R1 B P (t)y.
Paragraful 3.5 studiaz
a stabilizarea cu control feedback liniar a sistemelor liniare. Rezultatul central este ca controlabilitatea sistemului este
echivalenta cu proprietatea de completa stabilizare a sistemului (i.e. pentru
orice < 0 se poate alege feedbackul astfel nc
at sistemul liniar cu bucla
nchisa obtinut are toate valorile proprii cu partea real
a mai mica decat
, deci sistemul se poate stabiliza cu orice descrestere exponentiala). De
asemenea, problema stabilizarii este legata de o problem
a de control optimal cu functionala de cost patratica cu orizont innit. Aceasta conduce la
ecuatia Riccati algebrica:
SA + A S SBR1 B S + Q = 0.
a, ne furnizeaz
a un control
Solutia minimal
a S a acestei ecuatii, cand exist

feedback, u (t) = R B Sy(t), ce stabilizeaza sistemul liniar.


In 3.6 analiz
am problema de timp optimal pentru sistemele liniare. Rezultatul fundamental demonstrat aici, n anumite ipoteze, este o teorema
numit
a de bang-bang. Aceasta spune ca, dac
a multimea controalelor U este
un poliedru, atunci timpul optimal se obtine cu un control ce este constant
pe portiuni, are un num
ar nit de puncte de comutare si ia valori n v
arfurile
poliedrului U .
Urm
atoarele trei capitole trateaza aspecte geometrice ale problemelor
de control. Astfel, n capitolul 4 sunt prezentate elemente de calculul operatorial introdus de A.Agrachev si R.V.Gamkrelidze n [1],[26], care permite tratarea ecuatiilor diferentiale pe varietati diferentiabile, din punct de
vedere formal, ca pe ecuatiile liniare. Acest calcul, numit si reprezentare
6

exponentiala sau calcul cronologic, permite nlocuirea obiectelor neliniare


(punctele variet
atii, vectorii tangenti si campurile vectoriale, difeomorsmele, uxurile) cu obiecte liniare care sunt functionale liniare, operatori
sau morsme de algebre pe algebra functiilor innit diferentiabile pe varietatea considerat
a. Mention
am formula variatiei constantelor care capata
consistenta si n cazul neliniar folosind aceast
a reprezentare. Aceste tehnici
ne permit n capitolul 6,6.2,6.3 sa prezent
am demonstratia principiului de
maxim n form
a geometrica dat
a n [2]. Acesta se aplica unei probleme de
multimi accesibile la care se reduce o problema de control optimal; aceast
a
reducere este descrisa n 6.1. Tot n capitolul 6, 6.4 d
am principiul de
maxim pentru diferitele tipuri de probleme de control optimal (Lagrange,
Bolza, Mayer) si pentru problemele cu timp liber. Analiz
am n 6.5 legatura
dintre principiul de maxim al lui Pontriaghin si principiul program
arii dinamice, iar n 6.6 trat
am un num
ar de exemple concrete de probleme de
control optimal.
Controlabilitatea sistemelor neliniare este tratata n capitolul 5, unde
rezultatul principal este teorema orbitei sau teorema lui Nagano-Sussmann.
In ncheierea acestui capitol trebuie de mentionat ca lucrarea de fata nu
si-a propus o prezentare complet
a a domeniului, multe directii importante
de cercetare neind abordate. De aceea, ncheiem cu o lista bibliograc
a
care, departe de a exhaustiv
a, reecta mai degrab
a preferintele autorului
si reprezint
a din punctul de vedere al acestuia texte care pot de referinta
n ramurile corespunz
atoare ale matematicii:
Teoria ecuatiilor diferentiale - v. [4],[16],[33],[35].
Geometrie - v. [22],[23],[24]
Calculul variatiilor - v. [11],[27].
Mecanica teoretica, Fizica matematica - v. [3],[17],[31].
Teoria clasica a controlului, principiul de maxim, principiul programarii dinamicii - v. [10],[28],[32],[37].
Teoria geometrica a controlului - v. [2],[29],[30].
Teoria controlului stochastic - v. [25]
Optimizare si control optimal pentru ecuatii diferentiale nit si
innit dimensionale - v. [5],[6],[7],[8],[14].
Control optimal n ipoteze de regularitate minimal
a - v. [12],
[13],[15].
Solutii de v
ascozitate pentru ecuatii Hamilton-Jacobi - v. [18],[19],
[20],[21].

Partea 1

Calculul variatiilor

CAPITOLUL 1

Problema de calculul variatiilor


1.1. Formularea problemei. Exemple
Problema simpla de calculul variatiilor consta n a determina curbele
de clasa C 1 pe portiuni, q : [t0 , t1 ] IR, ce satisfac conditiile la capete
q(t0 ) = q0 , q(t1 ) = q1 si care minimizeaza o functionala de tipul
 t1
L(t, q(t), q(t))dt.

(1.1)
J(q) =
t0

d
Am notat cu q = q  = q. L se numeste lagrangeanul problemei. Conditiile
dt
asupra lagrangeanului L vor precizate ulterior.
Ne propunem s
a determin
am conditii necesare de extrem si conditii suciente pentru ca o curb
a q = q(t) sa e extrem local ntr-o anumit
a topologie.
Metodele folosite pentru a obtine aceste conditii au la baz
a metodele din
analiza functiilor reale de varibil
a reala, ns
a se identic
a cu acestea numai
ntr-o prim
a etap
a, ulterior c
ap
atand aspecte specice.
Amintim n continuare c
ateva rezultate elementare privind caracterizarea punctelor de extrem pentru o functie de variabil
a real
a. Fie f : [a, b]
IR.
Conditii necesare de extrem. Daca f este diferentiabil
a de clasa C 2 si x
[a, b] este punct de minim pentru f , atunci:
Daca x (a, b) atunci f  (x ) = 0, f  (x ) 0.
Daca x = a (respectiv x = b) atunci f  (x ) 0 (respectiv f  (x ) 0).
Conditii suficiente de extrem (local). Daca f este diferentiabil
a, de clasa C 2 ,
atunci
Daca x (a, b) si f  (x ) = 0, f  (x ) > 0 atunci x este un punct de
minim local strict.
Daca x = a (respectiv x = b) si f  (x ) > 0 (respectiv f  (x ) < 0)
atunci x este un punct de minim local strict.
Conditii suficiente de extrem global. Daca f este inferior semicontinu
a si
marginit
a inferior, atunci exist
a x [a, b] punct de minim pentru f .
Conditii suficiente de unicitate a punctului de minim. Daca f este strict
convex
a, atunci f are cel mult un punct de minim n intervalul [a, b].
11

Fie acum un spatiu normat X, J : X IR. Fie, de asemenea, K X.


Consider
am problema de minimizare
inf J(x) .

xK

Daca u K, atunci spunem c


a u este interior n directia v daca u + v K
pentru || < 0 . u se numeste radial n directia v daca u + v K pentru
0 < 0 . Prima variatie a lui J se deneste prin
J(u)v =

d
J(u + v)|=0 .
d

A doua variatie este data de formula:


2 J(u)v =

d2
J(u + v)|=0 .
d2

Prima si a doua variatie exista n anumite ipoteze de regularitate pentru


functionala J. De exemplu, acestea sunt bine denite pentru J C 1 (X),
a acestora li se poate da un sens pentru functionale
respectiv J C 2 (X), ns
cu regularitate mai mic
a, nlocuind derivata directionala clasica cu diferite
notiuni de gradienti generalizati (subdiferentiala pentru functii convexe,
gradienti generalizati n sens Clarke pentru functii local lipschitziene etc.
- v. [34],[12]).
Teorema 1.1.1. i) Dac
a J are punct de minim pe K, ntr-un punct x
interior n directia v si exist
a prima si a doua variatie a lui J n x , atunci
a punctul de minim x este numai radial
J(x )v = 0 si 2 J(x )v 0. Dac

n directia v atunci J(x )v 0.


ii)Dac
a multimea K este convex
a, J este convex
a pe K si J(u)v 0 pentru
orice v astfel nc
at x este radial n directia v, atunci x este punct de minim
global.
iii) Dac
a multimea K este convex
a si J este strict convex
a pe K, atunci J
are cel mult un punct de minim.
iv)Dac
a X este spatiu reflexiv, multimea K este convex
a si nchis
a iar J este
J(u) = +), atunci
convex
a, inferior semicontinu
a si coerciv
a(
lim
u,uK

J si atinge infimul pe K.
Inainte de a aplica rezultatele mentionate pentru functionalele de tipul
(1.1), prezent
am cateva exemple care sa motiveze studiul acestor probleme.
Exemplul 1.1.1. Suprafata minima de rotatie.
Se pune problema
determin
arii unei curbe q : [t0 , t1 ] IR+ , q(t0 ) = q0 , q(t1 ) = q1 pentru care
aria suprafetei de rotatie este minima. Se stie ca aria suprafetei de rotatie
este data de formula
 t1

q(t) 1 + q(t)
2 dt.
J(q) = 2
t0
12

Asadar, n acest caz, lagrangeanul este L(t, q, q)


= 2q 1 + q2 iar multimea
de denitie a functionalei este multimea curbelor continue si de clasa C 1 pe
portiuni cu capetele xate n q0 , q1 .
Exemplul 1.1.2. Problema brahistocronei. Un punct material de mas
a
m se misca f
ar
a frecare de-a lungul unei curbe aate n plan vertical, ce
asirii unei astfel de
uneste punctele (x0 , y0 ), (x1 , y1 ). Se pune problema g
curbe pentru care timpul de parcurgere al acesteia s
a e minim. Aceast
a
curb
a se numeste brahistocron
a.
F
ar
a a restrange generalitatea alegem reperul cartezian xOy astfel nc
at
x0 = 0, y0 = 0 si miscarea are loc n sensul pozitival axei Oy. Not
am cu
s lungimea arcului de curb
a parcurs si cu v modulul vitezei. Conservarea
energiei ne spune c
a
1
mv 2 = mgy.
2
Pe de alt
a parte,
ds

= 1 + y 2 x,

v=
dt
d
y. Obtinem
unde y  =
dx

1 + y 2
dx,
dt =
2gy
deci functionala pe care trebuie sa o minimizam este
 x1

1 + y 2 (x)

dx.
J(y) =
2gy(x)
x0

1 + y 2
Lagrangeanul pentru problema brahistocronei este L(x, y, y  ) =
2gy
iar multimea de denitie este multimea curbelor denite pe [x0 , x1 ], continue
si de clasa C 1 pe portiuni, cu capetele xate n y0 , y1 .
Exemplul 1.1.3. Mecanica lagrangeana este ramura mecanicii ce studiaz
a miscarea unui sistem mecanic cu ajutorul spatiului conguratiilor.
Spatiul conguratiilor are o structur
a de varietate diferentiabil
a pe care o
not
am cu M . Coordonatele locale pe M sunt coordonate generalizate ale
sistemului mecanic. Un sistem mecanic lagrangean este denit de o functie
diferentiabil
a L : IR T M IR numit
a lagrangean, unde T M este bratul
tangent al lui M . Traiectoriile sistemului mecanic, q : [t0 , t1 ] M , sunt
extremale (v. 1.2) pentru functionala
 t1
L(t, q(t), q(t))dt.

J(q) =
t0

Un caz particular al sistemelor lagrangeene sunt sistemele mecanice cu legaturi


olonome pentru care lagrangeanul L are forma
(1.2)

L(t, q, q)
= T (q)
U (t, q)
13

unde q se numesc viteze generalizate, T este energia cinetica a sistemului si


U reprezint
a energia potentiala (v. [3]).
De exemplu, e un sistem de n puncte materiale de mase m1 , . . . , mn ,
ntr-un c
amp de forte de potential U = U (q) unde q = (
r1 , . . . , rn ) iar
a
ri = (xi , yi , zi ) sunt vectorii de pozitie ai punctelor materiale. q reprezint
coordonatele generalizate ale sistemului. Energia cinetic
a este
T (q)
=

n

1
i=1

mi |ri |2

iar lagrangeanul este dat de (1.2)


Fortele care actioneaza asupra sistemului sunt
Fi =

U (q).

ri

Legea lui Newton spune c


a ecuatiile de miscare ale sistemului sunt
mi ri = Fi =

U (q).

ri

Vom vedea ca acestea coincid cu conditiile ca traiectoriile sistemului mecanic


sa e extremale pentru J (principiul minimei actiuni al lui Hamilton, v. [3])
si care se exprima prin ecuatiile Euler-Lagrange (v. 1.2).
Exemplul 1.1.4. Miscarea unui punct material ntr-un c
amp de forte
central. Fie r vectorul de pozitie al punctului material de mas
a m, r = |
r |,
U = U (r) potentialul fortei centrale. Ecuatia lui Newton este

U (r) = F (r)
r.

r
Inmultind ecuatia vectorial cu cu r, obtinem ca d (
r r ) = 0, deci miscarea
dt
este plan
a. In planul miscarii introducem coordonatele plare (r, ) n care
2
2
|r | = r + r 2 2 . Asadar, lagrangeanul sistemului este
= m (r 2 + r 2 2 ) U (r).
L((r, ), (r,
))
2
mr =

Exemplul 1.1.5. Problema atractiei de catre dou


a mase fixe egale.
Consider
am un punct material P , de masa 1, ce se misca n plan n c
ampul
gravitational al dou
a puncte materiale xe O1 , O2 , aate la distata 2l unul
de celalalt. Fie di = dist (P, Oi ), i = 1, 2. Alegem 1 = r1 + r2 , 2 =
r1 r2 drept coordonate generalizate ale punctului si exprimam lagrageanul
n aceste coordonate. Aceste coordonate se mai numesc coordonate eliptice.
Lagrangeanul este, dup
a cum am vazut n exemplul 1.1.3, L = T U unde
T este energia cinetica iar U este energia potentiala. Energia cinetic
a este
T =

|r |2
2

14

unde r este vectorul de pozitie ntr-un reper cartezian. Energia potentiala


este
k
4k1
k
= 2
,
U =
r1 r2
1 22
cu k o constant
a pozitiv
a. Fie un sistem de axe n centrul O al segmentului
[O1 O2 ], ce are dreapta O1 O2 axa absciselor. Fie (r, ) coordonate polare n
acest sistem. Energia cinetica a punctului material are n aceste coordonate
expresia
1
T = (r 2 + r 2 2 ).
2
Legatura ntre coordonatele polare si coordonatele eliptice se obtine adun
and
egalitatile r12 = r 2 + l2 + 2rl cos , r22 = r 2 + l2 2rl cos :
2
1 + 22 = 4(r 2 + l2 )
1 2 = 4rl cos .
Un calcul elementar, dar nu imediat, ne conduce la urm
atoarea expresie a
lagrangeanului
2 2 22
22 12 22
4k1
+
+
.
L(1 , 2 , 1 , 2 ) = 1 1
8 1 4l2
8 4l2 2 12 22
Exemplul 1.1.6. Geodezicele unei varietati riemanniene. Se numeste
varietate riemannian
a o varietate diferentiabil
a M pe care este denita,
a p
atratica (, )q pozitiv
pentru ecare spatiu tangent Tq M, q M , o form
denit
a, depinz
and neted de q. Not
am cu g(v) = (v, v)q pentru v Tq M si
numim g metrica riemannian
a pe M . In coordonate locale (q 1 , . . . , q n ) pe
n
n


i
v
, metrica g are forma g(v) =
gij v i v j . Lungimea
M , dac
av=
q i
i=1

i,j=1

unei curbe netede : [t0 , t1 ] M este data de formula


 t1
g((t))dt.

J() =
t0

Se pune problema determin


arii curbei de lungime minim
a care uneste punctele q0 , q1 M . Lagrangeanul problemei, n coordonate locale, este
1

2
n

i j

gij q q
.
L(q, q)
=
i,j=1

Curbele care sunt extremale pentru J (v. 1.2) se numesc geodezice.

15

1.2. Ecuatiile Euler-Lagrange


Consider
am n cele ce urmeaza o functionala de tipul (1.1). Presupunem
ca L este de clasa C 2 n ansamblul variabilelor. Multimea de denitie a
functionalei J este


C = q : [t0 , t1 ] IR|q C[t0 , t1 ], C 1 pe portiuni , q(t0 ) = q0 , q(t1 ) = q1 .
Fie multimea variatiilor admisibile
H = {h : [t0 , t1 ] IR|h C[t0 , t1 ], C 1 pe portiuni , h(t0 ) = h(t1 ) = 0}.
Intruc
at orice x C este interior n orice directie h Y, putem calcula
J(x)h:
 t1
d
d

J(q + h) =
L(t, q + h, q + h)dt
=
d
d t0
 t1
+ Lq (t, q + h, q + h)
hdt.

Lq (t, q + h, q + h)h
=
t0

L
L
, Lq =
. Deci, f
acand = 0, obtinem urm
atoarea
q
q
expresie pentru prima variatie:
 t1

Lq (t, q, q)h
+ Lq (t, q, q)
hdt.
(1.3)
J(q)h =

Am notat cu Lq =

t0

realizeaza minimul, atunci J(q )h = 0, h H.


Daca
a . In cazul n
O curb
a q pentru care J(q ) = 0 se numeste extremal

2
and prin p
arti, obtinem:
care q este de clasa C atunci, integr
 t1
d
[Lq (t, q , q ) Lq (t, q , q )]hdt
0 = J(q )h =
dt
t0
pentru orice h H. Rezulta ca
d
Lq (t, q , q ) Lq (t, q , q ) = 0.
dt
Aceasta este ecuatia Euler-Lagrange care este o ecuatie diferentiala, de
ordinul al doilea. De altfel, aceasta este ntotdeauna satisf
acut
a n sens
distributional.
Asadar, dac
a q realizeaza inmul lui J si este de clasa C 2 , atunci q
veric
a (1.4). Nu orice extremala realizeaza inmul. Vom reveni asupra
acestei chestiuni n 1.3.
and cu p(t) =
Daca q nu este decat de clasa C 1 pe portiuni atunci, not
 t
Lq (s, q (s), q (s))ds si integr
and prin p
arti n (1.3), obtinem:

(1.4)

t0

(1.5)

0 = J(q )h =

t1
t0

[p(t) + Lq (t, q (t), q (t))]hdt


16

pentru orice h C. Deci, derivata n sens distributional a functiei p +


a, are loc
Lq (t, q , q ) ind nul
(1.6)

p(t) Lq (t, q (t), q (t)) = cst pe [t0 , t1 ].

a deci, ntr-un punct t de salt al


Rezulta ca Lq (t, q , q ) este functie continu

derivatei q , are loc:


(1.7)
Lq (t, q (t), q (t 0)) = Lq (t, q (t), q (t + 0))
Aceasta este prima dintre conditiile de compatibilitate ale lui WeierstrassErdmann asupra c
arora vom reveni n 2.2.
Regularitatea solutiilor pentru ecuatia Euler-Lagrange.
a si presupunem c
a Lqq (t, q , ) > 0.
Teorema 1.2.1. Fie q extremal
r

r
Atunci, dac
a L C pentru un r 2, rezult
a c
a q C .
a cu conditia WeierstrassDemonstratie Ipoteza Lqq (t, q , ) > 0 mpreun
Erdmann (1.7) ne spune c
a n orice punct t (t0 , t1 ) are loc q (t 0) =
q (t + 0), deci q este de clasa C 1 si p C 1 (t0 , t1 ). De asemenea, conditia
am teorema functiilor implicite n (1.6)
Lqq (t, q , ) > 0 ne permite sa aplic
privit
a ca ecuatie n ultima variabil
a q . Cum p(t) este de clasa C 1 , rezulta
ca q este de clasa C 1 deci q C 2 . Pentru r > 2 rezultatul se obtine prin
inductie.
Observat
ia 1.2.1. Un lagrangean pentru care Lqq (t, q, ) > 0 se numeste
lagrangean regulat . Ecuatia Euler Lagrange este n acest caz o ecuatie
diferential
a de ordinul II, nedegenerat
a. Aceast
a nseamn
a, rezolv
and o
a pentru fiecare valorare
problem
a Cauchy, c
a din punctul initial (t0 , q0 ) pleac
ate o extremal
a unic
a.
a lui q(0)

= q0 c
Observat
ia 1.2.2. Pentru un lagrangean regulat ce nu depinde explicit
de t, L = L(q, q),
are loc pentru orice extremal
a q:
L(q , q ) q Lq (q , q ) = cst,
adic
a avem o integral
a prim
a pentru ecuatia Euler-Lagrange.

Intr-adev
ar, utiliz
and (1.4), avem c
a
d
d
(L(q , q ) q Lq (q , q )) = q (Lq (q , q ) Lq (q , q )) = 0.
dt
dt
Problema brahistocronei. Revenim la exemplul 1.1.2. Am v
azut ca lagrangeanul n problema
brahistocronei
este
(facem
abstract

ie
de
constanta

2

1+y
. Se veric
a usor ca acesta este lagrangean re1/ 2g): L(y, y  ) =

y
gulat deci extremalele sunt netede n domeniul y > 0. Problema este deci
de a g
asi extremalele functionalei
 x1

1 + y2
dx.
J(y) =

y
x0
17

F
ar
a a restrange generalitatea putem presupune c
a x0 = 0. Lagrangeanul
L nu depinde explicit de x, deci avem o integral
a prim
a: L + y  Ly = cst,
2
in
and cont de directia de
de unde un simplu calcul ne d
a y(1 + y ) = cst. T
miscare a punctului obtinem ecuatia:

Cy
y =
,
y
cu o constant
a C > 0. Aceasta este o ecuatie cu variabile separabile care,
tin
and cont de faptul c
a y(0) = 0, are solutia
 y
z
dz.
x=
C z
0

and cu r = C/2, obtinem


Cu schimbarea de variabil
a z = C sin si not
2
solutia n form
a parametrica

x = r( sin )
(1.8)
.
y = r(1 cos )
Aceasta este ecuatia parametrica a unei cicloide, adic
a a curbei descrise de
un punct de pe un cerc de raz
a r ce se rostogoleste, f
ar
a sa alunece, pe o
dreapt
a orizontal
a. este unghiul de rotatie al cercului. Solutia problemei este unicul arc neted de cicloida, de ecuatii (1.8), ce uneste punctele
(0, 0), (x1 , y1 ).

1.3. Conditii necesare. Conditii suficiente de extrem local slab


In cele ce urmeaza vom presupune c
a lagrangeanul L este regulat si de
clasa C 3 . Fie q o extremala n problema simpla de calculul variatiilor.
Notam cu
(1.9)


= 1 Lqq (t, q , q )h2 + 2Lqq (t, q , q )hh + Lqq (t, q , q )h 2 .
(t, h, h)
2
Un calcul simplu ne arat
a ca
 t1
2

2(t, h, h)dt
=: Q(q )h,
J(q )h =
t0

iar noul lagrangean este de asemenea regulat.


Consecinta imediata a teoremei 1.1.1,i) este:
a infimul, atunci Q(q )h 0 pentru
Propozit
ia 1.3.1. Dac
a q realizeaz
orice h H adic
a forma p
atratic
a Q este pozitiv
a pe H.
In cele ce urmeaza ne propunem s
a d
am o interpretare concreta a pozitivitatii celei de a doua variatii. Vom vedea ca aceasta este legata de comportarea familiilor de extremale ce pleaca dintr-un punct dat (t0 , q0 ).
18

Propozit
ia 1.3.2. Fie q(, s), s (0, s1 ), o familie de extremale ast q
q

(t, 0) =
fel nc
at q = q(, 0), q(t0 , s) = q0 s (0, s1 ), (t0 , 0) = 0,
s
s
q
0 pentru un t (t0 , t1 ]. Atunci, not
(, 0), h este extremal
a
and cu h =
s

a verific
a ecuatia (numit
a si a doua ecuatie
pentru functionala Q(q )(), adic
a lui Euler)
d
(1.10)
h h = 0
dt

cu h(t0 ) = h(t),h 0.
Demonstratie Intruc
at q(, s) sunt extremale pentru L, care este lagrangean regulat, acestea veric
a ecuatia Euler-Lagrange (1.4). Deriv
am
ecuatia (1.4) n raport cu s pentru s = 0 si obtinem (pentru simplitate
omitem argumentul (t, q (t), q (t)) al lui L):
d
d

.
0 = Lqq h + Lqq h (Lqq
h + Lqq h) = h
dt
dt h
0 ) = q (t0 , 0) = 0. Faptul c
h 0 deoarece h(t
a h(t0 ) = h(t1 ) = 0 rezult
a
s
imediat din ipotez
a.
Definit
ia 1.3.1. Fie q extremal
a pentru L. Perechea (t, q (t)) cu t
a cu (t0 , q0 ) de-a lungul extremalei (sau n raport
(t0 , t1 ) se numeste conjugat
a exist
a h extremal
a pentru a doua problem
a a lui Euler
cu extremala) q dac
(solutie pentru (1.10)) astfel nc
at h(t0 ) = h(t) = 0, h 0. Vom mai spune
si c
a t este conjugat cu t0 n raport cu q .
Observat
ia 1.3.1. Multimea punctelor conjugate de pe extremalele ce
a o curb
a nf
asur
atoare a acestor familii de
pleac
a din (t0 , q0 ), q(, s), formeaz
extremale, dat
a parametric prin s (t(s), q(t(s), s)) unde t = t(s) verific
a

q(t, s) = 0 (v. [11]).


ecuatia
s
Teorema 1.3.1. (Conditia necesara a lui Jacobi) Dac
a q este un minim

a puncte (t, q (t)), conjugate


pentru J pe intervalul [t0 , t1 ], atunci nu exist

cu (t0 , q0 ) n raport cu q , cu t (t0 , t1 ).


atam mai nt
ai
Demonstratie Fie h extremala pentru Q(q )() n H. Ar
and cont de (1.10) avem
ca Q(q )h = 0. Cu dat de (1.9) si tin
= h d + h
= d (h )
2 = hh + h
h
h
h
h
dt
dt
deci
 t1

2(t, h(t), h(t))ds


= h |t1 = 0.
Q(q )h =
h t0

t0

Intruc
at q este minim pentru J, inf Q(q )h = 0. Presupunem acum
hH
ca t (t0 , t1 ) este conjugat cu t0 . Rezulta ca exista pe [t0 , t] extremala
19

h 0 pentru Q(q )(), cu h(t0 ) = h(t) = 0. Din consideratiile anterioare


 t

2(t, h, h)dt
= 0 deci, dac
a extindem pe h cu 0 pe intervalul [t, t1 ],
t0

obtinem ca Q(q )h = 0. Asadar acest h 0 realizeaza inmul lui Q(q )().


Cum este lagrangean regulat rezulta ca h C 2 si satisface ecuatiile (1.10).
Cum h = 0 pe (t, t1 ) rezulta ca h 0 pe (t0 , t1 ), contradictie.
Fie acum forma patratica pe H:
 t1
P (t)h 2 + R(t)h2 dt
(1.11)
Q(h) =
t0

unde P (t), R(t) sunt functii continue, h H. Not


am cu
= P (t)h 2 + R(t)h2 .
(t, h, h)
Propozit
ia 1.3.3. Dac
a Q(h) 0 pentru orice h H, atunci P (t)
0, t (t0 , t1 ).
Demonstratie Presupunem, prin reducere la absurd, c
a exista t (t0 , t1 )
cu P (t) < 0. Fie

1
( |t t|) pentru |t t| <
h (t) =

0
pentru |t t|
Se veric
a usor ca lim Q(h ) = , ceea ce contrazice pozitivitatea lui Q.
0

Corolar 1.3.1. (Conditia necesara a lui Legendre) Dac


a q este minim

pentru J, atunci Lqq (t, q (t), q (t)) 0.


Demonstratie Se aplica propozitia 1.3.3 functionalei Q() = Q(q )() care
poate adus
a la forma (1.11) printr-o integrare prin p
arti.
Extindem acum notiunea de punct conjugat n raport cu forme p
atratice
generale pentru care presupunem n cele ce urmeaza ca P (t) > 0, t.
a
Definit
ia 1.3.2. Punctul t (t0 , t1 ) se numeste conjugat cu t0 dac
exist
a o extremal
a h 0 pentru Q, pe (t0 , t), cu h(t0 ) = h(t) = 0.
Analogul teoremei 1.3.1, cu demonstratie identica, are enuntul:
Teorema 1.3.2. (Conditia necesara a lui Jacobi) Presupunem c
a forma
p
atratic
a Q este pozitiv
a pe H: Q(h) 0, h H. Atunci intervalul (t0 , t1 )
nu contine puncte conjugate cu t0 .
Teorema 1.3.3. Forma p
atratic
a Q este strict pozitiv
a pe H (adic
a
Q(h) > 0, h H \ {0}) dac
a si numai dac
a intervalul nchis [t0 , t1 ] nu
contine puncte conjugate cu t0 .
20

Demonstratie () : Am demonstrat c
a n intervalul (t0 , t1 ) nu exist
a
puncte conjugate cu t0 . Presupunem ca t1 ar punct conjugat cu t0 . Aceasta
nseamna ca exista h H, solutie nenul
a pentru (1.10) deci Q(h) = 0 ceea
ce contrazice ipoteza Q > 0.
() : Ideea este de a adauga la integrandul lui Q o diferentiala exacta
care sa nu i schimbe valoarea iar noul integrand s
a e un p
atrat perfect.
at
Astfel, caut
am w C 1 (t0 , t1 ) astfel nc
 t1
d
P (t)h 2 + R(t)h2 + (wh2 )dt
Q(h) =
dt
t0
 t1
d
(wy 2 )dt = 0) si integrandul P h 2 + Rh2 +
pentru h H (observ
am ca
t0 dt
d
(wh2 ) = P (t)h 2 + (R(t) + w )h2 + 2whh sa e un p
atrat perfect. Acest
dt
lucru se nt
ampl
a dac
a:
P (R + w ) = w2

(1.12)
si, n acest caz,

t1

Q(h) =


2
P h + P 1 wh dt.

t0

Se observ
a ca, dac
a aceasta scriere este posibila, atunci Q este strict pozitiv
a.
Intr-adev
ar, dac
a Q(h) = 0 atunci h + P 1 wh = 0 pe (t0 , t1 ), h(t0 ) = 0 si
deci, n mod necesar, h 0.
Ramane deci de gasit o solutie a ecuatiei Riccati (1.12) care nu se anaut
am w de forma
uleaza pe intervalul nchis [t0 , t1 ]. C
w(t) =

u(t)

P (t)
u(t)

si ecuatia (1.12) devine


d
(P u)
+ Ru = 0.
dt
Aceasta este o ecuatie diferentiala liniar
a de ordinul al doilea n u si se
observ
a ca este exact ecuatia Euler-Lagrange atasata functionalei Q. Din
ipotez
a, intervalul (t0 , t1 ] nu contine puncte conjugate cu t0 si deci extremala
0 ) = 1 nu se anuleaz
a pe intervalul
h a lui Q ce satisface h(t0 ) = 0, h(t
(t0 , t1 ]. Din propritatea de continuitate a solutiei n raport cu datele initiale,
0 ) = 1 cu > 0 sucient de mic
extremala care verica u(t0 ) = 0, u(t
a pe [t0 , t1 ]. Demonstratia
este denit
a pe intervalul [t0 , t1 ] si nu se anuleaz
este ncheiat
a.
(1.13)

Conditii suficiente de extrem local slab.


In continuare, nzestr
am multimea de denitie a lui J, functiile C 1 (t0 , t1 )
a de norma
cu capetele xate n q0 , q1 , cu topologia dat

qC 1 = sup (|q(t)| + |q(t)|).


t[t0 ,t1 ]

21

Vom numi extrem local slab un extrem local n raport cu topologia dat
a de
norma  C 1 .
a pentru functionala
Teorema 1.3.4. Presupunem c
a q este extremal
(1.1) (deci este solutie a ecuatiei (1.4)) si intervalul nchis [t0 , t1 ] nu contine
puncte conjugate cu t0 n raport cu extremala q . Atunci q este un minim
local slab.
Demonstratie Fie P (t) = Lqq (t, q (t), q (t)). Deoarece lagrangeanul este
at P (t) > 0.
regulat, P (t) > 0 pe [t0 , t1 ] si putem alege > 0 astfel nc
Din continuitatea solutiilor unei ecuatii diferentiale n raport cu parametrii
t1

2 dt > 0 pentru y = 0.

(h)
rezulta ca forma p
atratica Q(h)
= Q(q )h 2
t
0
 t1
 2
(y ) . Rezulta ca forma p
atratica Q este pozitiv denit
a
Deci Q(y)
t0

n raport cu topologia spatiului Sobolev H 1 si q este minim local n raport


cu topologia H 1 . Deci q este minim local si n raport cu topologia C 1 care
este mai tare.
Suprafata minim
Pentru exemplul 1.1.1 lagrangeanul este

a de rotatie.
q
a qL
q L =

= cst,
L(t, q, q)
= q 1 + q2 . Avem integrala prim
1 + q2
deci ecuatia satisf
acut
a de extremale este
1
2
q C 2.
q =
C
Aceasta este o ecuatie cu variabile separabile ce are solutiile
q(t) = C cosh(

1
t + s),
C

cu C, s constante. Acestea sunt catenarele. Far


a restrange generalitatea,
1
. Not
am cu q = q(t, s) extremalele
presupunem t0 = 0 si gasim C =
cosh s
respective. Multimea punctelor conjugate se aa pe o curb
a q = e(t) =
q(t, s(t)), obtinut
a prin rezolvarea ecuatiei qs (t, s) = 0 (v. observatia 1.3.1).
a extremale ce unesc (0, q0 ), (t1 , q1 ) si numai
Daca q1 > e(t1 ), exista dou
una dintre acestea nu contine puncte conjugate cu (0, q0 ). Aceasta este un
minim local slab si de fapt realizeaza minimul lui J pe multimea curbelor
at,
ce satisfac q(t) > e(t). Mai exista o curb
a q = e1 (t) > e(t) astfel nc
a realizeaza inmul lui J. Daca
dac
a q1 e1 (t1 ), atunci catenara obtinut
a
q1 < e1 (t1 ) inmul lui J este aria suprafetei de rotatie degenerata format
din reuniunea discurilor de raze q0 , q1 , aate n planele verticale t = 0,
respectiv t = t1 . Pentru q1 = e1 (t1 ) inmul se realizeaza pe catenara si este
egal cu aria suprafetei de rotatie degenerate (v.[11]).

22

Ecuatii Euler-Lagrange in IRn .


1
q
: IR IRn IRn IR.
Fie q = IRn si un lagrangean L(t, q, q)
n
q
Problema de calculul variatiilor este aceeasi, de a determina curbele q :
[t0 , t1 ] IRN , care satisfac anumite conditii la limit
a (de exemplu q(t0 ) = q0 ,
q(t1 ) = q1 ) si care minimizeaza functionala
 t1
L(t, q, q)dt.

J(q) =
t0

In cele ce urmeaza determin


am prima si a doua variatie a functionalei
J si reformul
am conditiile necesare si cele suciente studiate n cazul scalar.
Demonstratiile vor f
acute numai dac
a acestea difera substantial de cazul
scalar.
Lagrangeanul L l consider
am de clasa C 3 . Multimile de denitie, respectiv multimea variatiilor admisibile sunt C, respectiv H, unde am schimbat
d
pe IR cu IRn . Prima variatie a functionalei J este J(q)h = J(q + sh)|s=0 :
dt
 t1
L
L
h+
hdt = 0.
J(q)h =
q
q
t0
L
L
, Lq =
Aici este produsul scalar din IRn . Vom mai nota cu Lq =
q
q
gradientii n raport cu q, respectiv q.
Integr
and prin p
arti (n ipoteza c
a
2
a
regularitatea integranzilor o permite, de exemplu q C ), obtinem ca dac
q realizeaza inmul si este de clasa C 2 , atunci satisface ecuatiile EulerLagrange :


L
d L

(t, q (t), q (t))


(t, q (t), q (t)) = 0.
(1.14)
dt q
q
Observat
ia 1.3.2. Ecuatiile (1.14) formeaz
a un sistem diferential de
ordinul al doilea, de n ecuatii cu n necunoscute. Solutiile acestui sistem se
a pentru
numesc extremale. Dac
a matricea Lqq = (Lqi qj ) este pozitiv definit
orice (t, q, q),
lagrangeanul se numeste regulat. Pentru un lagrangean regulat
a C k . Demonstratia acestui fapt
de clas
a C k , toate extremalele sunt de clas
este identic
a cu a teoremei 1.2.1 folosind n plus argumentul conform c
aruia
a.
gradientul unei functii strict convexe de clas
a C 1 este o functie injectiv
Variatia a doua a functionalei J este:
2 J(q)h =

(1.15)

t1

d2
J(q + sh)|s=0 =
ds2

n 


Lqi qj hi hj + 2Lqi qj hi h j + Lqi qj h i h j dt,

t0 i,j=1

unde derivatele lagrangeanului L sunt evaluate n (t, q(t), q(t)).

23

Vom presupune n cele ce urmeaza ca Lqi qj = Lqi qj , i, j = 1, . . . , n. In


aceasta ipoteza de simetrie, forma p
atratica Q(h) = 2 J(q)h se poate scrie,
dup
a o integrare prin p
arti, sub forma:
 t1
h)
+ (R(t)h, h)dt,
Q(q)h =
(P (t)h,
t0

d
Lqq (t, q(t), q(t))

dt
sunt functii continue cu valori matrici simetrice iar (, ) este produsul scalar
a poate
din IRn . Ipoteza de simetrie ne usureaza scrierea si calculele, ns
evitat
a. Daca nu este satisfacut
a, n expresia lui Q(q)h, dup
a integrarea
 t1
(A(t)h (t), h(t))dt cu
prin p
arti, mai apare un termen integral de forma

R(t) = Lqq (t, q(t), q(t))

unde P (t) = Lqq (t, q(t), q(t)),

t0

, iar A(t) matrice antisimetrica. Esential


A(t)ij = (Lqi qj Lqi qj )(t, q(t), q(t))
este faptul c
a, dac
a h este extremala pentru Q(q), atunci Q(q)h = 0, lucru
care ramane adev
arat si daca ipoteza respectiva nu este satisfacut
a.
Conditia necesar
a a lui Legendre se enunta astfel:
a infimul functionalei J, atunci, h
Teorema 1.3.5. Dac
a q realizeaz

a pentru orice t (t0 , t1 ), adic


a q
H, Q(q )h 0 si P (t) este pozitiv
N
IR ,(P (t)q, q) 0.
A doua ecuatie a lui Euler este ecuatia Euler-Lagrange asociata lui Q:

d 
P (t)h R(t)h = 0
(1.16)
dt
Vom presupune n cele ce urmeaza ca P (t) > 0, t (Lqq > 0). Astfel, sistemul
(1.16) este un sistem diferential de ordinul al doilea, nedegenerat. Fix
and
valoarea lui h n t0 , h(t0 ) = 0, spatiul solutiilor este ndimensional. O
baz
a n spatiul solutiior este formata din solutiile {h1 , . . . , hn } care verica
problema Cauchy cu valorile initiale hi (t0 ) = 0, h i (t0 ) = ei , unde ei sunt
vectorii bazei canonice n IRn .
a pentru J. (t, q (t)) se numeste conjuDefinit
ia 1.3.3. Fie q extremal
a vectorii {h1 (t), . . . , hn (t)} sunt liniar dependenti. Altfel
gat cu (t0 , q0 ) dac
spus, exist
a o solutie nenul
a a ecuatiei (1.16) care se anuleaz
a n t0 , t.
Teorema 1.3.6. (Conditia necesara a lui Jacobi) Dac
a q este minim
local slab, atunci intervalul deschis (t0 , t1 ) nu contine puncte conjugate cu
t0 .
Conditia suficient
a de minim local slab se enunta ca n cazul scalar:
Teorema 1.3.7. Dac
a intervalul nchis [t0 , t1 ] nu contine puncte conjugate cu t0 atunci q este minim local slab.
Demonstratie Ideea este de a adauga un termen la lagrangeanul lui Q care
sa nu schimbe valoarea acestuia (o integral
a exacta) si care sa formeze sub
integral
a un p
atrat perfect, de unde s
a rezulte ca Q este o forma p
atratica
24

d
pozitiv denit
a. Caut
am asadar un termen de forma (W h, h) unde W (t)
dt
este o matrice simetrica. Are loc:
 t1

h) + (R(t)h, h) + d (W (t)h, h)dt =


(P (t)h,
Q(q )(h) =
dt
t0


t1

h)
+ (R(t)h, h) + 2(W h  , h) + (W  h, h)dt
(P (t)h,

t0

Pentru a obtine un p
atrat perfect sub integral
a ar trebui ca W sa verice
ecuatia Riccati
W  = R + W P 1 W.

(1.17)
In acest caz

t1

Q(q )(h) =

 1

1
1
1
P 2 h + P 2 W h, P 2 h + P 2 W h dt.

t0
1
21

a P 2 h+P
W h 0 pe [t0 , t1 ]. Cum h(t0 ) = 0,
Q(q ) se anuleaza numai dac
ar rezulta ca h 0 deoarece verica o problem
a Cauchy pentru un sistem
liniar omogen. Deci, ceea ce am obtinut p
an
a acum este ca daca putem
am
rezolva ecuatia Riccati (1.17) pe intervalul [t0 , t1 ], atunci Q > 0. Caut
pe W de forma
W = P U  U 1 ,

unde U (t) este o functie matriceal


a. Astfel, dac
a W satisface ecuatia Riccati
1.17, atunci U veric
a ecuatia


d 
P U  + RU = 0.
dt

Cum intervalul (t0 , t1 ] nu contine puncte conjugate cu t0 , intervalul [t0 , t1 ]


nu contine puncte conjugate cu t0 pentru un > 0 sucient de mic (am
extins functiile ce intervin P, R la intervalul [t0 , t0 ] ca functii continue).
Solutia acestei ecuatii cu datele initiale U (t0 ) = 0n , U  (t0 ) = In
exista pe tot intervalul [t0 , t1 ] si, ntruc
at acest interval nu contine puncte
conjugate cu t0 solutia are proprietatea ca det(U (t)) = 0, t [t0 , t1 ]. Deci
solutia W a ecuatie Riccati exista pe ntreg intervalul [t0 , t1 ] si astfel Q > 0.
Rationamentul functioneaz
a acum exact ca n cazul scalar(v. teorema 1.3.4).
Geodezicele varietatilor riemanniene. Revenim la exemplul 1.1.6. Dac
a
este extremala pentru J (adic
a geodezic
a ), reparametriz
am curba dup
a
lungimea de arc astfel nc
at, n coordonatele locale alese L(q, q)
= 1. Sistemul ecuatiilor Euler-Lagrange se scrie astfel:
n
n
d
1 gij i j
q q =
gik qi , k = 1, . . . , n.
2
q k
dt
i,j=1

i=1

25

Se noteaza cu

1 kl
=
g (glj,i + gli,j gij,l )
2
n

kij

l=1

care se numesc simbolii lui Christoel. Am notat cu gij,l =


(gij )1 . Cu aceste notatii ecuatiile geodezicelor devin
k

q =

gij
si (gij ) =
q l

kij qi qj , k = 1, . . . , n.

i,j=1

Geodezicele sunt de asemenea extremale pentru functionala energie cu lan



= L(q, q)
gij qi qj .
grangeanul L
2=
i,j=1

1.4. Teorema lui Noether


Integrarea unui sistem de ecuatii diferentiale este echivalenta cu determinarea unui num
ar corespunz
ator de integrale prime functional independente (v. [4],[33],[35]). In cazul ecuatiilor Euler-Lagrange este posibila
determinarea unei integrale prime dac
a lagrangeanul este invariant la un
grup de difeomorsme. Acesta este continutul teoremei lui Noether. Pentru
simplitate vom considera lagrangieni care nu depind explicit de t.
Fie un difeomorsm al variet
atii diferentiabile M . Vom spune c
a lagrangeanul L : T M IR este invariant la transformarea daca L(v) =
a tangent
a denit
a
L( (v)). Am notat cu : T M T M aplicatia liniar
= D(q)q.
Facem aici
n coordonate locale (q, q)
pe T M prin (q, q)
observatia ca un difeomorsm care invariaz
a lagrangeanul transform
a extremale n extremale: daca q(t) este extremala (veric
a ecuatiile EulerLagrange), atunci (q(t)) este extremala.
a pe L.
Teorema 1.4.1. Fie s un C 1 grup de difeomorfisme ce invariaz
Atunci


ds
(q)|s=0

(1.18)
I(q, q)
= Lq (q, q),
ds
este integral
a prim
a pentru sistemul Euler-Lagrange.
Demonstratie Fie q(t) o curb
a integral
a pentru ecuatiile Euler-Lagrange
in
and cont c
a hs invariaz
a pe L si ca (s, ) veric
a
si e (s, t) = hs (q(t)). T
ecuatiile Euler-Lagrange, obtinem

 


L(, ) = Lq (, ), + Lq (, ), =
0=
s
s
s
 





Lq (, ), + Lq (, ), =
Lq (, ), .
=
t
s
s
t
s
26

d
Facem acum pe s = 0 si, cum 0 = Id, obtinem ca I(q(t), q(t))

= 0 deci
dt
I este integrala prim
a.
Mecanica lagrangeana. Revenim acum la exemplul 1.1.3. Fie un sistem de
a a acestui sistem este
n puncte materiale de mase mi . Energia cinetic
n

x 2 + yi2 + zi2
.
mi i
T =
2
i=1

Presupunem c
a sistemul este conservativ, adic
a exista un potential al fortelor
care actioneaza asupra sistemului: U = U (xi , yi , zi ). Lagrangeanul sistemului este L = T U . Este usor de v
azut ca euatiile lui Euler nu sunt altceva
decat ecuatiile lui Newton. In prezenta simetriilor, legi de conservare se
obtin din teorema lui Noether. Astfel, dac
a lagrangeanul este invariant la
translatii s : (xi , yi , zi ) (xi + s, yi , zi ), obtinem integrala prim
a
n

Lx i = cst

i=1

adica proiectia pe axa Ox a impulsului total al sistemului se conserv


a.
Daca L este invariant la rotatii
s : (xi , yi , zi ) (xi cos s + yi sin s, xi sin s + yi cos s, zi ),
se obtine din teorema lui Noether c
a
n

Lx i yi Lyi xi = cst,
i=1

adica componenta pe axa Oz a momentului cinetic total se conserva.


Miscarea plan
a ntr-un c
amp de forte central Abord
am aici exemplul 1.1.4.
mr 2 mr 2 2
+

Lagrangeanul, n coordonate polare q = (r, ), este L(r, ) =


2
2
U (r). Ecuatiile Euler-Lagrange sunt

m
r mr 2 = U  (r)
2r r + r 2 = 0 .
Intruc
at lagrangeanul nu depinde explicit de t, energia L q Lq = cst, deci
avem o integral
a prim
a
mr 2 mr 2 2
+
+ U (r) = cst.
E=
2
2
O a doua integral
a prim
a se obtine e integr
and a doua ecuatie, e observand
ca lagrangeanul este invariant la grupul de difeomorsme s (r, ) = (r, +s)
si aplic
and teorema lui Noether obtinem ca
M = r 2 = cst.
Aceasta reprezinta a doua lege a lui Kepler. Este de fapt vorba despre
conservarea momentului cinetic si acest lucru are urm
atoarea interpretare
27

geometrica: viteza areolara (viteza de variatie a ariei descrise de raza vectoare) este constanta. Introduc
and aceasta integral
a prim
a n prima ecuatie
din sistemul Euler-Lagrange obtinem ecuatia
K
m
r = 3 U  (r).
r
2
M m
constant
a pozitiv
a. Aceasta ecuatie diferentiala de ordinul
cu K =
2
al doilea si autonom
a poate integrat
a. Astfel se reduce sistemul la studiul
K
unei miscari 1-dimensionale cu potential V (r) = U (r)+ 2 . Avem integrala
2r
prim
a a energiei pentru aceast
a ecuatie care conduce la o ecuatie de ordinul
nt
ai:

r = 2(E V (r))/m
si care combinat
a cu expresia lui M ne d
a urm
atoarea ecuatie pentru r ca
functie de , r = r():

r 2 2(E V (r))/m
dr
=
.
d
M
Daca miscarea are loc n c
amp central gravitational, potentialul U este de
k
forma U (r) = , k > 0. Solutiile se gasesc de forma
r
p
,
r=
1 + e cos
care este ecuatia unei conice n coordonate polare. Dac
a traiectoria este
marginit
a (e (1, 1)), atunci ea este elips
a cu unul din focare n O. Aceasta
este prima lege a lui Kepler, cu referire la miscarea planetelor n jurul soarelui. Pentru un studiu detaliat al miscarii unui punct material ntr-un c
amp
de forte central, v. [3].

28

CAPITOLUL 2

Formalismul canonic
2.1. Sisteme hamiltoniene
Consider
am din nou sistemul de ecuatii Euler-Lagrange
 
L
d L

= 0,
dt q
q
care este format din n ecuatii diferentiale de ordinul al doilea. Ne propunem
n continuare s
a reducem ordinul sistemului tansform
andu-l ntr-un sistem
2
de 2n ecuatii de ordinul I. Vom presupune c
a L C si
este nesingular
a t, q, q,

(Lqq (t, q, q))

(2.1)

ceea ce nseamna ca sistemul Euler-Lagrange este sistem de ordinul al doilea


nedegenerat. Aceasta se nt
ampl
a dac
a lagrangeanul este regulat. Not
am
cu

pi = Lqi (t, q, q).

(2.2)

pi se numesc variabile conjugate iar ansamblul variabilelor (q, p) formeaza


variabilele canonice. Teorema functiilor implicite, care poate aplicata
tin
and cont de ipoteza de nedegenerare, ne spune c
a ecuatiile (2.2) denesc
un difeomorsm local de la spatiul (t, q, q)
n spatiul (t, q, p) si, dup
a cum
vom vedea mai tarziu, de la bratul tangent n bratul cotangent. Hamiltonianul sistemului se deneste, cu ajutorul acestui difeomorsm local, prin
H(t, q, p) = L(t, q, q)
+

(2.3)

pi qi

i=1

Ne intereseaza sa scriem ecuatiile Euler-Lagrange n noile coordonate. Pentru aceasta calcul


am diferentiala lui H, tin
and cont de (2.2),(2.3):
dH = dL +

qi dpi +

i=1

L
dt
t

n

i=1

L i
dq
q i

n

i=1

pi dqi =

i=1


L i i
dq +
q dpi +
pi dqi =
i
q
n

i=1

i=1

n
n

L i i
L
dq
+
q dpi .
= dt
t
q i
i=1

i=1

29

L
d
=
and n
pi deci, evalu
i
q
dt
coordonatele (t, q, p) diferentiala lui H, obtinem sistemul

H = L

t
t

H
L
= i
i
q
q

H = qi

pi
Din ecuatiile Euler-Lagrange stim ns
a ca

Ultimele dou
a ecuatii le scriem n forma

qi =
pi
(2.4)
H .

p i =
q i
Acesta este sistemul hamiltonian care este un sistem de 2n ecuatii diferentiale
de ordinul nt
ai. Acesta mai poate scris si n forma:
 
 
d
q
q
= JH
,
p
dt p


0n In
.
unde J =
In 0n
Transformata Legendre
a.
Fie f : D(f ) IRn IR {+} convexa, inferior semicontinu
Transformata Legendre a lui f este functia convexa f : D(f ) IRn
IR {+} denit
a prin
f (x ) = sup [(x , x) f (x)].
xIRn

Subdiferentiala functiei f n punctul x0 este multimea


f (x0 ) = {x IRn |(x , x x0 ) f (x) f (x0 )} .
Facem aici observatia ca dac
a f este diferentiabil
a G
ateaux atunci f (x0 ) =
f (x0 ).
Are loc urm
atorul rezultat:
Teorema 2.1.1. Urm
atoarele conditii sunt echivalente:
i) x f (x)
ii) x f (x )
iii) f (x) + f (x ) = (x , x).
Pentru demonstratie, precum si pentru studiul detaliat al functiilor convexe se pot consulta monograile [34],[6].
30

Presupunem n cele ce urmeaza ca lagrangeanul L este n plus functie


convex
a n raport cu variabila q,
ceea ce mpreun
a cu conditia de nedegenerare (2.1) ne spune c
a lagrangeanul L este regulat si strict convex n raport
cu q.
Observ
am ca hamiltonianul H nu este altceva decat transformata
Legendre a lagrangeanului L n raport cu variabila q:

L(t, q, q)}.

H(t, q, p) = sup {(p, q)


n
qIR

Intr-adev
ar, supremul se atinge ntr-un punct q cu proprietatea c
a diferentiaL
(t, q, q).

la functiei din parantez


a n raport cu q este 0, adica are loc p =
q
Facem aici observatia ca, n general, transformata Legendre a unei functii
convexe, inferior semicontinue pe un spatiu normat, este denit
a pe dualul
acelui spatiu normat. Cum lagrangeanul L este denit pe bratul tangent
T M al unei variet
ati diferentiabile M , hamiltonianul H este denit n mod
natural pe bratul cotangent T M . Calculele pe care le-am facut si formulele
obtinute p
an
a acum sunt valabile si n cazul unei variet
ati diferentiabile M ,
n coordonatele locale pe aceast
a varietate.
D
am n continuare o alta formulare a ecuatiilor lui Hamilton, care ne va
ajuta s
a identic
am acele transformari, numite si canonice, care lasa invariant
a forma sistemului. Acestea sunt transform
ari care p
astreaza structura
simplectica a bratului cotangent T M .
Consider
am asadar o functie F (t, q, p), neted
a si ne intereseaza cum
variaz
a aceasta de-a lungul traiectoriilor sistemului (2.4). Astfel,

F
F
d
F (t, q(t), p(t)) = F (t, q, p) +
q +
p =
dt
t
q
p
F H
F H

= F (t, q, p) + {H, F }
= F (t, q, p) +
t
q p
p q
t
H F H F

reprezint
a paranteza Poisson a functiilor
unde {H, F } =
p q
q p
H, F . Forma Lax a sistemului hamiltonian (2.4) este data de

d
F (t, q, p) = F (t, q, p) + {H, F }.
(2.5)
dt
t
Observat
ia 2.1.1. Dac
a F nu depinde explicit de t atunci ecuatia (2.5)
d
F (q, p) = {H, F } si conditia ca F s
a fie integral
a prim
a pentru
devine
dt
sistemul (2.4) se scrie {H, F } = 0. Dac
a n plus H nu depinde de t atunci

H este integral
a prim
a. In cazul sistemelor mecanice, H are semnificatie de
energie; aceasta se conserv
a dac
a hamiltonianul nu depinde explicit de timp.
Observat
ia 2.1.2. Paranteza Poisson are urm
atoarele propriet
at i ce se
verific
a prin calcul direct:
{H, F } = {F, H} (antisimetrie)
{{F,G},H}+{{G,H},F}+{{H,F},G}=0 (identitatea lui Jacobi)
31

Paranteza Poisson defineste astfel pe C (IR2n ) o structur


a de algebr
a Lie.
Transform
ari canonice.
Ne propunem s
a g
asim o schimbare de coordonate T : (q, p) (Q, P )
care sa transforme sistemele de forma (2.4) n sisteme de aceeasi forma,
eventual mai usor de integrat. Folosim pentru aceasta forma (2.5) a sistemului hamiltonian. Fie F = F (q, p) un hamiltonian neted si not
am cu
F (Q, P ) = F (q, p). Dorim ca ecuatia (2.5) n noile cooronate s
a aib
a aceeasi
forma si anume
d
(Q,P ) .
F = {F , H}
dt
Acest lucru are loc pentru orice F, H daca si numai dac
a
(Q,P ) = {F, H}(q,p) ,
{F , H}
de unde rezult
a conditia necesara si sucienta:
(2.6)

{Pi , Qj }(q,p) = ij
{Qi , Qj }(q,p) = 0
{Pi , Pj }(q,p) = 0, i, j = 1, n.

Transform
arile care verica aceste conditii se numesc transform
ari canonice.
Un alt punct de vedere care ne conduce la denirea transform
arilor
canonice este legat de echivalenta dintre ecuatiile Euler-Lagrange

s
i
ecuat
iile

lui Hamilton. Mai precis, sa observ
am ca extremalele pentru L(t, q, q)dt

sunt proiectiile extremalelor pentru H(t, q, p) + qpdt

pe spatiul q. Daca
consider
am acum schimbarea de coordonate (q, p) (Q, P ) iar hamilto

nianul n noile coordonate este


 H , i.e. H (t, Q, P ) = H(t, q, p), punem
conditia ca extremalele pentru H(t, q, p)+qpdt

sa coincid
a cu extremalele

dt. Aceasta se nt
ampl
a dac
a exista o functie
pentru
H (t, Q, P ) + QP
at
neted
a pe bratul cotangent T M , S = S(t, q, p) astfel nc
(2.7)

H(t, q, p)dt + pdq = H (t, Q, P )dt + P dQ + dS,

adica cei doi integranzi difer


a printr-o diferentiala exacta. S se numeste
functie generatoare a transform
arii canonice. Dac
a S se poate scrie ca o
a ca
functie S = S1 (t, q, Q), atunci din 2.7 rezult

S1

(t, q, Q)
H = H +

S1
(t, q, Q)
p=
(2.8)
q

S1

(t, q, Q)
P =
Q
32

A doua ecuatie se poate rezolva, local, folosind teorema functiilor implicite,


2 S1
este matrice nesingulara, caz n care se obtine Q = Q(q, p).
dac
a
qQ
A treia ecuatie ne furnizeaz
a P = P (q, p). Se pot construi si alte functii
generatoare care sa depind
a de alt grup de variabile. De exemplu, dac
a
adun
am d(P Q) la (2.7), not
am cu S2 = S + P Q si privim pe pe S2 ca
functie de (t, q, P ), S2 = S2 (t, q, P ) obtinem
(H H)dt + pdq + qdP = dS2

(2.9)
deci

S2

(t, q, P )

H = H +

S2
.
(t, q, P )
p=

Q = S2 (t, q, P )
P

(2.10)

Aceste ecuatii denesc o transformare canonica daca

2 S2
este matrice
qP

nesingular
a.
2.2. Variatia total
a a unei functionale
 t1
L(t, q, q)dt
si vom presupune
Consider
am din nou functionala J(q) =
t0

de data aceasta ca (t0 , q0 ), respectiv (t1 , q1 ), se misca pe cate o subvarietate


a calculam prima variatie
M0 , respectiv M1 din spatiul (t, q). Ne propunem s
a functionalei J. Pentru aceasta s
a consider
am o familie de curbe q s =
q s (t), q 0 = q, denite pe (t0 (s), t1 (s)), cu (ti (s), q s (ti (s))) Mi , i = 0, 1 si
depinz
and neted de s. Not
am cu qi (s) = q s (ti (s)), i = 0, 1 si cu
d
|s=0 q s (t), t (t0 , t1 ).
ds
Derivata n raport cu s o not
am cu  . Prima variatie a lui J n q, n directia
h, este
d
J(q)h = |s=0 J(q s ) =
ds
h(t) =

t1

=
t0

Lq (t, q, q)h+L

hdt+L(t
1 ))t1 (0)L(t0 , q0 , q(t
0 ))t0 (0) =
q (t, q, q)
1 , q1 , q(t


t1

=
t0


d
Lq (t, q, q)
hdt+
Lq (t, q, q)
dt

tt10 + L(t1 , q1 , q(t


1 ))t1 (0) L(t0 , q0 , q(t
0 ))t0 (0).
+Lq (t, q, q)h|
33

Notam cu p = Lq (t, q, q)
si cu H = L + q Lq = p q L. Amintim ca (q, p)
sunt variabilele canonice iar H este hamiltonianul sistemului. De asemenea,
i ), i = 0, 1. Astfel, prima variatie poate scrisa n forma:
h(ti ) = qi (0) q(t

 t1 
d
1
Lq Lq hdt + (pq Ht)|t=t
(2.11)
J(q)h =
t=t0 .
dt
t0
O extremal
a pentru problema general
a de calculul variatiilor este o curba
q pentru care J(q ) = 0 si este, desigur, o extremala pentru problema
simpla de calculul variatiilor, cand capetele sunt xate. Lu
and asadar
h(t0 ) = h(t1 ) = 0 cu t0 , t1 de asemenea xate, obtinem ca o extremala
a verice n primul r
and ecuatiile Euler-Lagrange. Pentru o
q trebuie s

extremala q are n plus loc


1
J(q )h = (pq Ht)|t=t
t=t0 = 0.

In concluzie, extremalele pentru problema general


a de calculul variatiilor
veric
a sistemul

Lq Lq = 0
dt
(2.12)

1
(pq Ht)|t=t
t=t0 = 0.
Exemplul 2.2.1. Distanta dintre dou
a curbe Consider
am dou
a curbe
a q = q(t), q(t0 ) = q0 , q(t1 ) = q1
n IRn , q0 = (t0 ), q1 = (t1 ). O curb
 t1

are lungimea J(q) =


1 + q2 dt. Distanta ntre cele dou
a curbe date
t0

este o extremala pentru J. Variabilele canonice sunt q, p =

q
1 + q2

iar

1
. Cum lagrangeanul nu depinde de t, H = cst
hamiltonianul H =

1 + q2
deci q = cst si distanta se atinge pe o dreapt
a q(t) = at + b.
Conditia a doua din (2.12) devine
(p1  (t1 ) H|t=t1 )t1 (p0  (t0 ) Ht=t0 )t0 = 0
a ca 0 = p1  (t1 ) H|t=t1 =
si cum t0 , t1 sunt variatii independente, rezult

p0 (t0 ) Ht=t0 Deci
1
1
, q(t
1) = 
,
q(t
0) = 
(t0 )
(t0 )
relatii care exprima faptul c
a extremala trebuie sa e ortogonal
a n q0 , q1
pe curbele date.
Acestea sunt conditii de transversalitate si se regasesc n aceea
si forma

n cazul mai general al unui lagrangean de forma L(t, q, q)


= f (t, q) 1 + q2 .
atile diferentiabile
Daca t0 , t1 sunt xate iar q0 , q1 se misca liber pe subvariet
M0 , M1 M , atunci, pentru un lagrangean general, conditiile de transversalitate ne spun ca starea adjunct
a p este perpendicular
a n capete pe variet
atile respective: pi = p(ti ) Mi , i = 0, 1.
34

Extremale nenetede. Conditiile Weierstrass-Erdmann.


Consider
am acum cazul n care o extremala q = q(t) este neneteda, mai
precis este continua si de clasa C 1 pe portiuni. Fie intervalele deschise (t0 , c)
si (c, t1 ) pe care presupunem c
a h este neteda iar n c avem salt al derivatei
q.
Vom nota cu J1 , respectiv J2 , functionala calculata pe intervalele (t0 , c)
si respectiv (c, t1 ). Are loc atunci
J = J1 + J2 .
Dar
J1 = Lq q|t=c0 H|t=c0 c,
J2 = Lq q|t=c+0 + H|t=c+0 c.
Obtinem asadar
t=c0
q|t=c + H|t=c+0
J = Lq |t=c+0
t=c0 c.

Cum q(c) si c sunt variatii independente, rezult


a ca

Lq |t=c0 = Lq |t=c+0
(2.13)

L + q Lq |t=c0 = L + q Lq |t=c+0 .
Acestea sunt conditiile Weierstrass-Erdmann care exprim
a faptul c
a, de-a
lungul extemalelor, variabilele canonice q, p si hamiltonianul H sunt functii
continue.
2.3. Ecuatia Hamilton-Jacobi. Metoda lui Jacobi de integrare a
sistemelor hamiltoniene
In cele ce urmeaza presupunem c
a lagrangeanul L este regulat, adica
matricea (Lqq ) este matrice nesingulara. Aceasta nseamna ca sistemul 1.4
este un sistem diferential de ordinul 2, nedegenerat. Dac
a x
am q(t0 ), atunci
solutia sistemului 1.4 depinde de n parametri q,
deci pentru (t, q) ntr-o
a extremala care uneste
vecinatate sucient de mica a lui (t0 , q0 ), exista o unic
am cu t,q si denim functia
(t0 , q0 ) cu (t, q); o not
S(t, q) = J(t,q ).
Proprietatea de dependenta diferentiabil
a de datele initiale a solutiei problemei Cauchy pentru ecuatiile Euler-Lagrange ne asigura ca S C 1 . In
cele ce urmeaza, studiem functia S si aratam ca ea satisface o ecuatie cu
derivate partiale de ordinul nt
ai. Fie t = t(s), t(0) = t, q = q(s), q(0) = q
curbe netede. Atunci:
S
S
d
S(t(s), q(s))|s=0 =
(t, q)t (0) +
(t, q) q  (0).
ds
t
q
Pe de alt
a parte, folosind (2.11), obtinem
d
J(t(s),q(s) )|s=0 = p(t) q  (0) H(
q , p(t))t (0)
ds
35

Cum (t, q) este arbitrar n vecin


atatea lui (t0 , q0 ), din cele dou
a relatii
obtinem ca:
p=

S
S
(t, q), H(t, q, p) = (t, q),
q
t

deci
(2.14)

S
S
(t, q) + H(t, q,
)(t, q) = 0.
t
q

Aceasta este ecuatia Hamilton-Jacobi, o ecuatie cu derivate partiale de ordinul I. Sistemul hamiltonian (2.4) reprezinta sistemul caracteristic pentru aceast
a ecuatie cu derivate partiale. Curbele integrale ale sistemului
hamiltonian sunt caracteristicile ecuatiei Hamilton-Jacobi (vezi [4],[35]).
Metoda caracteristicilor se aplica pentru integrarea ecuatiei cu derivate
partiale folosind sistemul caracteristicilor. Metoda lui Jacobi, care va
prezentat
a n continuare, se foloseste pentru a g
asi curbele integrale pentru
sistemul hamiltonian (2.4) folosind o solutie generala a ecuatiei HamiltonJacobi (2.14), solutie care trebuie sa depind
a de exact n parametri. Acest
lucru se nt
ampl
a, dup
a cum se va vedea, n cazul n care variabilele se pot
separa.
Teorema 2.3.1. (Jacobi) . Presupunem c
a S = S(t, q, C1 , . . . , Cm )
este o solutie a ecuatiei (2.14), solutie ce depinde neted de m parametri
S
, j = 1, m sunt integrale prime pentru sistemul
C1 , . . . , Cm Atunci Dj =
Cj
hamiltonian (2.4). Dac
a solutia depinde de n parametri C1 , . . . , Cn astfel
nc
at

 2
S
= n,
(2.15)
rang
q i Cj i,j=1,n
atunci o solutie general
a a sistemului hamiltonian (2.4), depinz
and de 2n
a, prin intermediul teoremei
constante de integrare Ci , Di , i = 1, n, este dat
functiilor implicite, de

(t, q, C)
D =

i Ci
(2.16)

pi =
(t, q, C)
q i

Demonstratie Deriv
am ecuatia (2.14) n raport cu Cj si obtinem:
H 2 S
2S
+
= 0.
tCj
pi q i Cj
n

i=1

36

Obtinem ca


n

2S
S
2S
d
(t, q(t), C) =
(t, q(t), C) +
(t, q(t), C)qi =
dt Cj
tCj
q i Cj
i=1



n

H
2S
i
=0
(t,
q(t),
C)
q

q i Cj
pi
i=1

si prima parte a teoremei este demonstrata.


Cnsideram acum sistemul (2.16). Teorema functiilor implicite aplicat
a n
(2.16), folosind conditia de nedegenerare (2.15), ne asigur
a existenta local
a
a functiilor q(t, C, D), p(t, C, D). Ceea ce ramane de demonstrat este ca
functiile q, p veric
a sistemul hamiltonian (2.4). Deriv
and prima ecuatie n
raport cu t, cu un calcul similar cu cel anterior si folosind ecuatia (2.14),
obtinem




n
S
H
2S
d
i
=
q
.
0=
dt Cj
q i Cj
pi
i=1

Folosind din nou conditia de nedegenerare (2.15), avem ca qi =

H
, adic
a
pi

primul grup de ecuatii din (2.4).


Deriv
am acum a doua ecuatie din (2.16) si, folosind si ecuatia (2.14), obtinem
2S
d S
2S
(t,
q,
C)
+
(t,
q,
C)
=
(t, q, C)qj =
dt q i
q i t
q i q j
n

p i =

j=1

2S
S
H

(t, q, C)) +
(t, q, C)
=
= i H(t, q,
i
j
q
q
q q
pj
n

j=1

 2
n 

H
H
S
H
i
= i (t, q, p).
q
= i (t, q, p) +
q
pj q i q j
q
j=1

Observat
ia 2.3.1. Putem privi pe S ca functie generatoare, Pi = Ci
noile impulsuri generalizate, Qi = Di noile coordonate generalizate. Schimbarea canonic
a de coordonate este dat
a de (2.10).
In noul sistem de coor
donate (Q, P ), hamiltonianul este H = 0 iar curbele integrale sunt Qi =
a exact (2.16).
cst, Pi = cst, adic
Observat
ia 2.3.2. Presupunem c
a n hamiltonianul H una din variabile
se separ
a, mai precis
q, p),
H(t, q, p) = H1 (q 1 , p1 ) + H(t,
auta solutia ecuatiei
unde q = (q 2 , . . . , q n ), p = (p2 , . . . , pn ). Atunci putem c
q) unde S1 , S2
Hamilton-Jacobi (2.14) de forma S(t, q) = S1 (q 1 ) + S(t,
37

verific
a ecuatiile de tipul (2.14):
H1 (q 1 , S1 (q1 )) = C1
q, Sq) = C1 .
St + H(t,
Prima este de fapt o ecuatie diferential
a care, dac
a poate fi adus
a la form
a
normal
a prin teorema functiilor implicite, devine o ecuatie cu variabile separabile care poate fi integrat
a. Unei ecuatii Hamilton-Jacobi i se poate g
asi
o solutie general
a depinz
and de n constante dac
a toate variabilele se separ
a.
Atractia de catre dou
a mase egale, fixe. Consider
am exemplul 1.1.5. Hamiltonianul sistemului se calculeaza (folosind de exemplu transformata Legendre) si se obtine
2
2
4k1
12 4l2
2 4l 2
+
2p
2
.
2 2
2
2
2
1 2
1 2
1 22
Caut
am o solutie generala pentru ecuatia Hmilton-Jacobi corespunz
atoare.
Pentru aceasta sa observ
am ca variabilele se separ
ad
aca scriem ecuatia sub
forma




S 2 2
S 2 2
2
(1 4l ) +
(4l 22 ) = C1 (12 22 ) + 4k1 .
1
2
Separ
am variabilele si caut
am solutii pentru urm
atoarele ecuatii HamiltonJacobi:


S 2 2
(1 4l2 ) 4k1 C1 12 = C2 ,
1

H(1 , 2 , p1 , p2 ) = 2p21


S 2 2
(4l 22 ) + C1 22 = C2 .
2
G
asim solutia generala
 
 
4k1 + C1 12 + C2
C1 22 C2
d
+
d2 .
S(1 , 2 , C1 , C2 ) =
1
12 4l2
4l2 22


deci gasim, cu ajutorul teoremei 2.3.1, forma explicit


a a taiectoriilor sistemului mecanic considerat.

38

Partea 2

Controlul sistemelor diferentiale

CAPITOLUL 3

Controlul sistemelor liniare


3.1. Controlabilitatea sistemelor liniare
Consider
am sistemul liniar controlat

y = A(t)y + B(t)u
(3.1)
y(0) = y0
unde t A(t) Mn (IR), t B(t) Mnm (IR) sunt functii continue.
Multimea controalelor admisibile este n cele ce urmeaza U = L2 (0, T ; IRm ).
Solutia sistemului (3.1) este data de formula variatiei constantelor:
 t
u
S(t, s)Bu(s)ds,
y (t) = S(t, 0)y0 +
0

a a sistemului liniar
unde S(t, s) = X(t)X(s)1 cu X(t) matrice fundamental
and va
omogen y  = A(t)y. Vom mai nota solutia y u cu y y0 ,u , atunci c
necesar sa punem n evidenta si starea initiala. Notiunile de controlabilitate nul
a, aproximativ
a, exacta si de stabilizabilitate au fost introduse n
capitolul introductiv, pag. 4. In cazul sistemelor liniare de tipul (3.1), c
and
A, B sunt matrici constante, vom mai spune despre perechea (A, B) ca are
propriet
atile mentionate, adica este controlabila, stabilizabila etc.
Fie acum sistemul adjunct:

p + A (t)p = 0
(3.2)
p(T ) =
Solutia acestui sistem este p(t) = S (T, t).
Teorema 3.1.1. i) Sistemul liniar (3.1) este aproximativ controlabil n
timp T dac
a si numai dac
a, pentru p solutie a sistemului adjunct,
(3.3)

B p(t) 0, t (0, T ) p(t) 0, t (0, T ).

ii) Sistemul (3.1) este exact nul controlabil n timp T dac


a si numai dac
a
exist
a o constant
a C astfel nc
at pentru orice IRn , solutia sistemului
adjunct (3.2) verific
a
 T
2
|B p(t)|2 dt.
(3.4)
|p(0)| C
0

Demonstratie i) Not
am cu

X(T ) =

T
0


S(T, s)Bu(s)ds|u U
41

multimea starilor nale posibile pentru sistem, cu starea initiala y0 = 0.


Sistemul este aproximativ controlabil dac
a si numai dac
a X(T ) = IRn sau,
echivalent,

  T
S(T, s)Bu(s)ds
= 0, u U = 0.
,
IRn

Are loc ns
a egalitatea
  T

,
S(T, s)Bu(s)ds
0

IRn

= (B S (T, ), u())L2 (0,T ;IRm )

si concluzia rezult
a imediat dac
a tinem seama de faptul ca solutia sistemului
adjunct (3.2) este p(t) = S (T, s).
ii) Sistemul este exact nul controlabil n timp T daca si numai dac
a, pentru
 T
at S(T, 0)y0 =
S(T, s)Bu(s)ds
orice y0 IRn , exista u U astfel nc
0

sau, echivalent, exist


a > 0 astfel nc
at
 T

S(T, 0)y0
S(T, s)Bu(s)ds : uL2 (0,T ;IRm ) .
0

Date dou
a multimi convexe si nchise A1 , A2 IRn , atunci A1 A2 daca
si numai dac
a H1 () H2 (), IRn , unde Hi sunt functiile suport ale
multimilor Ai , denite prin Hi () = supyAi (, y), i = 1, 2. Alegem A1 =
 T

S(T, s)Bu(s)ds, uL2 (0,T ;IRm ) . Functiile su{S(T, 0)y0 } si A2 =
0

port ale acestor multimi sunt


H1 () = (, S(T, 0)y0 ), H2 () = B ()S (T, )L2 (0,T ;IRm ) .

a alegem
Dac
a are loc (3.4), atunci H1 () |y0 ||S (T, 0)| H2 () dac
= C|y0 |.
Reciproc, daca sistemul (3.1) este nul controlabil, rezult
a ca, pentru orice
at pentru orice IRn
y0 IRn , exista > 0 astfel nc

(, S(T, 0)y0 ) B ()S (T, )L2 (0,T ;IRm ) .


Presupunem prin reducere la absurd c
a inegalitatea (3.4) nu are loc. Exist
a
n
at
atunci un sir n IR astfel nc
 T
 12

2
|B (t)S (T, t)n | dt
.
|S (T, 0)n | n
0

Putem presupune, dup


a o eventual
a rescalare, ca |n | = 1 si, trecand la un
subsir convergent, s
a g
asim la limita , || = 1 astfel nc
at B (t)S (T, t)
0, t (0, T ). De aici, folosind ipoteza de controlabilitate, avem ca pentru
orice y0 IRn , (, S(T, 0)y0 ) = 0, deci S (T, 0) = 0. Cum S (T, 0) este
nesingular
a, rezulta ca = 0, ceea ce contrazice faptul ca || = 1.
42

Observat
ia 3.1.1. Proprietatea (3.3) se numeste proprietate de unic
a
continuare. Inegalitatea (3.4) se numeste inegalitate de observabilitate si
aceasta implic
a unica continuare.
In cazul sistemelor diferentiale finit dimensionale pe care le studiem aici, facem observatia c
a cele dou
a propriet
at i
sunt echivalente si sunt de asemenea echivalente cu controlabilitatea exact
aa
sistemului.
Intr-adev
ar, dac
a sistemul este aproximativ controlabil, rezult
a
c
a X(T ) = IRn si, cum subspatiile spatiului euclidian IRn sunt subspatii
nchise, rezult
a c
a X(T ) = IRn , deci sistemul este controlabil
Acest lucru rezult
a si din urm
atoarea teorem
a care, n plus, ne d
a o
alt
a caracterizare a controlabilit
at ii si o form
a explicit
a a controlului care
transform
a starea initial
a a n starea final
a b.
Teorema 3.1.2. Fie operatorul (matricea de controlabilitate):
 T
S(T, s)B(s)B (s)S (T, s)ds.
QT =
0

Sistemul (3.1) este aproximativ controlabil dac


a si numai dac
a QT este matrice nesingular
a.
In acest caz sistemul este exact controlabil si controlul
u (t) = B (t)S (T, t)Q1
T (S(T, 0)a b)

In plus,
transform
a starea initial
a a n starea final
a b, adic
a y a,u (T ) = b.
 T
 T
|u (s)|2 ds
|u(s)|2 ds,

pentru orice control u U cu proprietatea c


a y a,u (T ) = b.
a presupuem c
a estee nesinDemonstratie Matricea QT este simetrica. S
gular
a. Formula variatiei constantelor ne d
a
 T
a,u
(T ) = S(T, 0)a +
S(T, s)B(s)B (s)S (T, s)Q1
y
T (S(T, 0)a b)ds =
0

= S(T, 0)a + QT Q1
T (S(T, 0)a b) = b.
Deci sistemul este exact controlabil n timp T .
Reciproc, sa presupunem c
a sistemul este aproximativ controlabil. Dac
a
(QT , ) = 0, rezulta ca B (s)S (T, s) 0 pe (0, T ) si din proprietatea de
a.
unic
a continuare rezulta ca = 0, deci matricea QT est nesingular
In cazul n care are loc controlabilitatea sistemului liniar, un calcul simplu ne arat
a ca
 T
|u |2 ds = (Q1
T (S(T, 0)a b), (S(T, 0)a b))
0

Daca u este alt control cu proprietatea ca y a,u (T ) = 0 atunci


 T
 T

(u(s), u(s) )ds =


(S(T, s)B(s)u(s), Q1
T (S(T, 0)a b))ds =
0

43

= (Q1
T (S(T, 0)a b), (S(T, 0)a b)) =
De aici rezulta imediat ca
 T

 T
2

2
|u(s)| ds =
|u(s) u (s)| ds +
0

T
0

|u (s)|2 ds.

|u (s)| ds

T
0

|u (s)|2 ds.

Consider
am operatorul KT : L2 (0, T, IRm ) IR dat de
 T
S(T, s)B(s)u(s)ds.
KT (u) =
0

am n cele ce urmeaza ca matricile


Este clar ca X(T ) = Im KT . Consider
A, B nu depind de t, deci S(t, s) = e(ts)A . Fie de asemenea kn : (IRm )n
IRn denit de
n1

kn (v0 , v1 , . . . , vn1 ) =

Aj Bvj ,

vj IRm .

j=0

Teorema 3.1.3. (Kalman) Im KT = Im kn . Sistemul liniar este controlabil dac


a si numai dac
a rangul matricei [A|B] := [B, AB, . . . , An1 B]
Mnnm este n. Matricea [A|B] se mai numeste matricea Kalman. Proprietatea de controlabilitate n timp T este echivalent
a cu proprietatea de
controlabilitate n orice timp.
atam ca
Demonstratie Pentru ca Im KT = Im kn este sucient sa ar
v Im KT v Im kn .
a si numai dac
a, pentru orice u L2 (0, T, IRm ),
v Im KT dac
 T
S(T, s)Bu(s)ds)IRm = (B S (T, )v, u)L2 (0,T,IRm ) ,
0 = (v,
0

deci daca si numai dac


a B e(T s)A v 0, s (0, T ). Facem s = T si

calculam primele n 1 derivate n s = T si obtinem ca B e(T s)A v 0


a B v =
implic
a B v = B A v = . . . = B (A )n1 v = 0. Reciproc, dac
B A v = . . . = B (A )n1 v = 0 rezulta, folosind teorema lui Hamiltonand cont de dezvoltarea n serie
Cayley, ca B (A )m v = 0, m 0. Deci, tin

de puteri a lui e(T s)A , rezulta ca B e(T s)A v 0.


a (v, Aj Bw) = 0 pentru
Pe de alt
a parte, v Im kn daca si numai dac
m
j = 0, . . . , n 1 si pentru orice w IR , ceea ce este echivalent cu B v =
B A v = . . . = B (A )n1 v = 0.
Controlabilitatea exact
a n timp T are loc deci daca si numai dac
a B v =
a v = 0. Aceasta nseamna ca
B A v = . . . = B (A )n1 v = 0 implic
rang [A|B] = n.
44

Clasificarea sistemelor liniare controlate.


Consider
am cate o schimbare de baza n spatiul st
arilor, respectiv n
spatiul controalelor: z = Sy, v = T u cu S Mnn (IR), T Mmm (IR)
matrici nesingulare. Sistemul liniar controlat (3.1) se transform
a n sistemul
a o
z  = A1 z + B1 v unde A1 = SAS 1 , B1 = SBT 1 . Avem aici denit
relatie de echivalenta n multimea sistemelor liniare controlate, mai precis,
spunem c
a sistemele (A, B) si (A1 , B1 ) sunt echivalente daca exista matricile
at A1 = SAS 1 , B1 =
nesingulare S Mnn (IR), T Mmm (IR) astfel nc
1
SBT .
Consider
am cazul m = 1 si o pereche (A, b), A Mnn (IR), b Mn1 (IR)
Teorema 3.1.4. Presupunem c
a perechea (A, b) este controlabil
a. Atunci
sistemul corespunz
ator este echivalent cu ecuatia controlat
a
y (n) + a1 y (n1) an y = u,
unde p() = n +a1 n1 + +an = det(I A) este polinomul caracteristic
al matricei A.
Demonstratie Deoarece perechea (A, b) este controlabila, rezulta ca vectorii b, Ab, . . . An1 b sunt liniar independenti. Construim vectorii e1 , . . . , en
astfel:

en = b
(3.5)
ek1 = Aek + ank+1 en , k = 2, n
Se veric
a imediat ca (e1 , . . . , en ) sunt liniar independenti si ca Ae1 =
a baza si concluzia este imediata.
an en . Scriem sistemul n aceast
Teorema 3.1.5. (Teorema de descompunere a lui Kalman) Presupunem
c
a rangul matricei lui Kalman [A|B] este l < n. Exist
a atunci o matrice
at
nesingular
a S Mn (IR) astfel nc




A11 A12
B11
1
, SB =
SAS =
0
A22
0
unde A11 Ml (IR), B11 Mlm (IR) iar perechea (A11 , B11 ) este controlabil
a.
Demonstratie S
tim ca Im KT = Im kn si ca dim Im kn = l, rangul matricei [A|B]. Pe de alt
a parte, tin
and seama de teorema lui Hamilton-Cayley,
X(T ) = Im kn este cel mai mic subspatiu al lui IRn ce contine Im B si este
invariant la A. Fie asadar o baz
a (f1 , . . . , fl ) a lui Im kn pe care o completam
n
and astfel o baz
a (f1 , . . . 
, fn ). 
Fie S matricea acesla o baz
a a lui IR , obtin

1
IRn ,1 IRl , are
tei schimb
ari de baz
a. In noua baz
a, pentru =
2
and cu z = Sy, A1 = SAS 1 si cu B1 = SB,
loc X(T ) 2 = 0. Not
sistemul devine:
z  = A1 z + B1 u.
45

A11 A12
A21 A22

si ar
atam ca A21 = 0, B21 = 0.


1
trebuie s
a aib
a
Deoarece X(T ) este invariant la A, rezulta ca A1
0
ultimele n l componente 0, deci A21 1 = 0. Cum 1 este arbitrar rezulta
a ultimele n l
ca A21 = 0. Deoarece Im B X(T ), trebuie ca B1 u sa aib
componente 0 pentru orice u IRm . Deci B21 u = 0, u si obtinem B21 = 0.
am ca:
Pentru a ar
ata ca perechea (A11 , B11 ) este controlabila observ


[A11 |B11 ]
,
l = rang [A|B] = rang S[A|B] = rang [A1 |B1 ] = rang
0
Notam A1 =

, B1 =

B11
B21

deci rang [A11 |B11 ] = l si perechea (A11 , B11 ) este controlabila.


3.2. Control optimal. Principiul de maxim al lui Pontriaghin
Consider
am problema de control optimal de tip Bolza:

(3.6)

inf J(y , u),

J(y, u) =

L(t, y(t), u(t))dt + l(y(T )),


0


(3.7)

y  (t) = f (t, y(t), u(t)))


y(t0 ) = y0

Ne propunem s
a obtinem conditii de optimalitate pe o cale aseman
atoare
celei urmate pentru a deduce ecuatiile Euler-Lagrange.
Vom considera n cele ce urmeaza ca f, L, l sunt functii de clasa C 1 n
n ansamblul variabilelor. Not
am, pentru simplitate,
raport cu y, u si L
loc
u
a exista un control optimal u . Atunci
J(u) := J(y , u). Presupunem c

a:
prima variatie a lui J n u este pozitiv
d
J(u + v)|=0+ 0
J(u )v =
d
pentru orice v U cu proprietatea c
a u + v U cand 0 < < sucient
de mic. Notam cu

d
|=0 y u +v
z=
d
si obtinem
 T
Ly (t, y , u )z + Lu (t, y , u )vdt + l(y(T )) z(T ).
(3.8)
0
0

De asemenea, z veric
a ecuatia n variatie (v. [4],[35]):

(3.9)

z  = fy (t, y , u )z + fu (t, y , u )v
z(0) = 0.

S
a denim, ca si n calculul variatiilor, hamiltonianul depinz
and de u
(3.10)

H u (t, y, p) = (p, f (t, y, u)) L(t, y, u)


46

Sistemul hamiltonian corepunz


ator este

y = f (t, y, u)
p = (p, fy (t, y, u)) + Ly (t, y, u) = fy (t, y, u)p + Ly (t, y, u)
Se observ
a ca prima ecuatie, n y, este chiar ecuatia (3.7). Consider
am p
solutia celei de a doua ecuatii cu conditia Cauchy n cap
atul nal:


p = fy (t, y, u)p + Ly (t, y, u)


.
(3.11)
p(T ) = l(y(T ))
Inmultim (3.9) cu p , (3.11) cu z, adun
am ecuatiile si integr
am pe (0, T ).
Obtinem:
 T
(p , fu (t, y , u )v) + (Ly (t, y , u ), z)dt
(l(y(T )), z) =
0

egalitate care substituita n (3.8) ne d


a
 T
(p , fu (t, y , u )v) (Lu (t, y , u ), v)dt.
0
0

H (t, y , p )v

Cum Du
= (p , fu (t, y , u )v) (Lu (t, y , u ), v), obtinem ca

a f (t, y, u) = A(t)y + B(t)u iar L este


Du H (t, y , p ) 0, t [0, T ]. Dac
convex n u (de exemplu L(t, y, u) = (Qy, y) + (Ru, u) cu R matrice pozitiv
denit
a), atunci H u este concav n u si se obtine imediat ca
(3.12)

H u (t, y (t), p (t)) = max H u (t, y (t), p (t)).


uU

Acesta este n esenta continutul principiului de maxim al lui Pontriaghin.


El este valabil n ipoteze mult mai generale asupra datelor problemei(v.
[13],[14],[6]). Forma geometrica a acestuia, demonstratia corespunzatoare
si formularea acestuia n cazul problemelor de alt tip (Lagrange,Mayer, timp
liber etc.) vor prezentate n capitolul 6.
Principiul de maxim ne permite n anumite situatii determinarea controlului optimal. Astfel, s
a not
am hamiltonianul maximizat cu
Hmax (t, y, p) = max H u (t, y, p)
uU

si sa presupunem c
a acesta este de clasa C 1 . Are loc Hmax (t, y , p )

u
H (t, y, p) 0 cu egalitate pentru y = y , p = p . Deci
u

Hmax (t, y , p ) =
H (t, y , p ),
Hmax (t, y , p ) =
H (t, y , p ).
y
y
p
p
Problema se reduce asadar la rezolvarea sistemului hamiltonian corespunz
ator
a precizate. Controlul
hamiltonianului maximizat Hmax , cu conditiile la limit
optimal se exprim
a, folosind conditia (3.12), n functie de (y , p ).

47

3.3. Ecuatia program


arii dinamice
Controlul optimal u determinat prin conditiile de optimalitate (principiul de maxim al lui Pontriaghin) este un control cu bucl
a deschisa. Ca
si n cazul problemei de calculul variatiilor, un alt mod de abordare este
de a ncadra problema ntr-o familie de probleme de control. Si n cazul
de fata se va obtine o ecuatie cu derivate partiale de ordinul I, ecuatia
Hamilton-Jacobi-Bellman, sau ecuatia program
arii dinamice. Rezolvarea
acesteia ne da o formul
a a controlului optimal n form
a feedback (control cu
bucl
a nchisa). Aceasta este problema de sintez
a a controlului optimal.
Consider
am problema de control optimal (3.6), (3.7). O functie K :
a Borel, se numeste control feedback pentru
[0, T ] IRn IRm , masurabil
sistemul (3.7), dac
a pentru orice (t0 , y0 ) [0, T ] IRn , problema Cauchy

y (t) = f (t, y(t), K(t, y(t))), a.p.t. t (t0 , T )
(3.13)
y(t0 ) = y0
are cel putin o solutie y C([0, T ]; IRn ). Sistemul (3.13) se numeste sistem
cu bucl
a nchis
a.
Reprezentarea controlului optimal n form
a feedback se numeste problema de sintez
a a controlului optimal. Functia K este numita si functia
de sinteza pentru problema corespunz
atoare de control optimal. Problema
de sintez
a este legata de o ecuatie cu derivate partiale de ordinul I, ecuatia
Hamilton-Jacobi-Bellman, sau ecuatia program
arii dinamice:
(3.14)

t (t, x) sup{(x (t, x), f (t, x, u)) L(t, x, u)} = 0, x IRn , t [0, T ]
uU

x IRn ,

(T, x) = l(x),
unde

, x =

t
x
Notand cu H : [0, T ] IRn IR hamiltonianul denit de:
t =

(3.15)

H(t, x, p) = sup{(p, f (t, x, u)) L(t, x, u)},


uU

rescriem (3.14) n forma



t (t, x) H(t, x, x (t, x)) = 0 t (0, T ), x IRn
.
(3.16)
(T, x) = l(x)
x IRn .
Introducem functia
(3.17)

(t, x) = argsupuU {(x (t, x), f (t, x, u)) L(t, x, u)}.

Fie : [0, T ] IRn IR functia valoare asociata problemei de control:


  T
L(s, y(s), u(s))ds + l(y(T )),
(t, x) = inf
u
(3.18)
t
 .

y (s) = f (s, y(s), u(s)), s (t, T ), y(t) = x
48

Teorema 3.3.1. Fie C 1 ([0, T ] IRn ) solutie a ecuatiei Hamilton


Jacobi (3.16) cu conditia Cauchy (T, ) = l(). Consider
am drept control
feedback. Atunci
(t, x) = (t, x),

(t, x) (0, T ) IRn

si este un control feedback optimal.


Demonstratie Fie (t, x) xat si e y t solutia problemei
(3.19)

(y t ) = f (s, y t , (s, y t (s))), s (t, T ), y t (t) = x.

Are loc a.p.t s (t, T ):


d
(s, y t (s)) = s (s, y t (s)) + (y (s, y t (s)), f (s, y t (s), (s, y t (s)))
(3.20)
ds
Din (3.17) vedem ca a.p.t s (t, T ):
d
(s, y t (s)) = s (s, y t (s)) H(s, y t (s), y (s, y t (s)) L(s, y t (s), (s, y t (s)).
ds
De aici, folosind (3.16) obtinem:
d
(s, y t (s)) = L(s, y t (s), (s, y t (s)),
ds
deci
 T
L(s, y t (s), (s, y t (s))ds + l(y t (T )) (t, x).
(3.21)
(t, x) =
t

Daca (y, v) este pereche admisibila n problema (3.6), (3.7), are loc:
d
(s, y(s)) = s (s, y(s)) + (x (s, y(s)), f (s, y(s), v(s)))
ds
s (s, y(s)) H(s, y(s), x (s, y(s))) L(s, y(s), v(s)),
deci:
d
(s, y(s)) L(s, y(s), v(s)) a.e. s (t, T )
ds
si astfel
 T
L(s, y(s), v(s))ds + l(y(T )).
(3.22)
(t, x)
t

Intruc
at (y, v) a fost arbitrar ales, din (3.21) si (3.22) ca = . In plus,
din (3.21) rezulta, f
acand t = 0, obtinem ca u = (t, y(t)) este un control
feedback optimal.
Observat
ia 3.3.1. Functia valoare este, n conditii de regularitate,
solutie clasic
a a ecuatiei program
arii dinamice. Dac
a este numai continu
a, atunci ea r
am
ane solutie a ecuatiei respective ns
a ntr-un sens generalizat si anume este solutie de v
ascozitate (v. [18],[19],[20],[21]).
Observat
ia 3.3.2. Ecuatia (3.16) este ecuatia Hamilton-Jacobi (v 2.3)
asociat
a sistemului hamiltonian cu hamiltonianul Hmax obtinut n studiul
principiului de maxim n 3.6.
49

3.4. Problema regulatorului liniar-p


atratic
S
a ilustr
am ideile dezvoltate n paragrafele anterioare n cazul urm
atoarei
probleme Bolza pentru o ecuatie liniar
a cu functionala de cost patratica:
(3.23)
inf J(y u , u),

J(y, u) =

(3.24)

1
2


0

1
(Q(t)y, y) + (R(t)u, u)dt + (P0 y(T ), y(T )),
2

y  (t) = A(t)y + B(t)u + f (t)


y(t0 ) = y0 ,

unde A, Q L (0, T, Mn (IR)), P0 Mn (IR), R L (0, T, Mm (IR)),


a, t (0, T ). HamiltoniB L (0, T, Mnm (IR)), R(t) pozitiv denit
anul sistemului este
1
H u (t, y, p) = (p, A(t)y + B(t)u + b(t)) [(Q(t)y, y) + (R(t)u, u)] .
2
Hamiltonianul H u se maximizeaza pentru
(3.25)

u = R1 B p

deci hamiltonianul maximizat este


(3.26)

1
1
Hmax (t, y, p) = (p, Ay) + (p, BR1 B p) + (p, f ) (Qy, y)
2
2

Pentru simplitatea scrierii am omis argumentul t; astfel, t intervine n H


prin intermediul lui A(t), B(t), R(t).
O cale de determinare a controlului optimal este principiul de maxim
stabilit n 3.2. Daca exista un control optimal u , atunci determinarea
acestuia se poate face rezolv
and problema la limit
a pentru sistemul hamiltonian corespunz
ator lui H :

(3.27)

t (0, T )
y  = Ay + BR1 B p + f

t (0, T )
p = A p + Qy

y(0) = y0 , p(T ) = P0 y(T ) ,

a p conform
iar controlul optimal u se exprima n functie de starea adjunct
formulei (3.25)
Decuplarea sistemului hamiltonian (3.27) se poate face caut
and pe p ca
functie de y:
p(t) = P (t)y(t) + r(t),
a (3.27) este
unde P : [0, T ] Mn (IR) iar r : [0, T ] IRn . Problema la limit
satisfacut
a de y si de p dat n forma de mai sus dac
a P (t), respectiv r(t)
50

satisfac urmatoarele doua probleme Cauchy



P + P A + A P P BR1 B P + Q = 0
(3.28)

P (T ) = P0

r = (A P BR1 B )r P f
(3.29)

r(T ) = 0.

Ecuatia (3.28) se numeste ecuatia diferential


a Riccati . Odat
a rezolvate
aceste doua probleme Cauchy, controlul optimal u se poate exprima n
forma feedback
(3.30)

u = R1 B p = R1 B (P (t)y + r(t)).

O alt
a abordare a problemei liniar p
atratice este folosirea principiului
program
arii dinamice al lui Bellman. Fie functia valoare a problemei,
denit
a ca n (3.18). Hamiltonianul denit n (3.15) veric
a:
H(t, y, p) = Hmax (t, y, p)
iar (t, x) denit
a n (3.17) este
(t, x) = R1 B x
unde este solutia ecuatiei Hamilton-Jacobi-Bellman (3.16), care devine

t (t, x) Hmax (t, x, x (t, x)) = 0


(3.31)

(T, x) = 12 (P0 x, x)
Teorema 3.3.1 ne spune c
a daca este solutie de clasa C 1 , atunci deneste
controlul optimal n form
a feedback u(t) = (t, y(t)). C
aut
am solutia de
forma
1
(t, x) = (P (t)x, x) + (r(t), x) + b(t).
2
Introducem n (3.31) si obtinem ca este solutie daca P, r veric
a (3.28),
respectiv (3.29) iar b veric
a
1
(3.32)
b = (B r, R1 B r) (r, f ), b(T ) = 0.
2
Observam aici ca dicultatea principal
a este rezolvarea problemei (3.28),
care contine o neliniaritate p
atratica. Problemele (3.29) si (3.32) sunt liniare
si nu prezint
a dicult
ati din punct de vedere teoretic: odat
a determinat P ,
se determin
a r si apoi b.
Teorema 3.4.1. Presupunem c
a Q(t), t [0, T ], P0 sunt matrici simetrice si pozitive, iar R(t) este uniform pozitiv definit
a, adic
a exist
a > 0
astfel nc
at:
(Rx, x) x2 , x IR.
Atunci:
51

i) Ecuatia Riccati (3.28) are solutie unic


a P pe [0, T ], pozitiv
a si simetric
a.
ii) Problema liniar p
atratic
a (3.23), (3.24) admite o unic
a solutie.
Demonstratie Fie S(t) := P (T t). Avem de demonstrat existenta
solutiei pe intervalul [0, T ] pentru problema

S = SA + A S SBR1 B S + Q, t [0, T ]
(3.33)

S(0) = P0
Teorema de existenta locala pentru problema Cauchy ne spune c
a exista o
at S este de
unic
a solutie S, denit
a pe un interval maximal [0, T1 ). Intruc
asemenea solutie, rezulta ca S = S . Inlcuim P0 cu P0 + I, Q cu Q + I
si ar
at
am ca solutia problemei r
amane pozitiv denit
a si are ca interval de
existenta [0, T ]. F
acand pe 0, obtinem existenta globala a solutiei si
pozitivitatea acesteia.
Presupunem asadar c
a P0 si Q(t) sunt pozitiv denite. Solutia S este
local pozitiv denit
a. Pentru x IRn are loc
d
(S(t)x, x) = 2(Ax, Sx) (R1 B Sx, B Sx) + (Qx, x).
dt
Daca am presupune c
a pentru un t > 0 si un x IRn are loc (S(t)x, x) = 0 si

acest t este primul pentru care S nu mai r


amane pozitiv denit
a, am obtine
ca
d
(S(t)x, x)t=t = (Qx, x) > 0.
dt
Aceasta contrazice faptul ca, pentru t < t, S(t) este pozitiv denit
a. Deci
solutia r
amane pozitiv denit
a pe ntreg intervalul de existenta.
Pentru 0 t T  , cu 0 < T  < T1 , functia (t, x) = 12 (S(T  t)x, x) este
functia valoare pentru problema de control optimal (3.23),(3.24) (v. (3.18))
pe intervalul [t, T  ], cu f = 0. Rezulta ca se poate majora cu valoarea
functionalei calculat
a pe solutia corespunzatoare lui u = 0 si care verica
y(t) = x; aceasta solutie este y(s) = e(st)A x si deci
(S(T  t)x, x)


T

(Qe(st)A x, e(st)A x)ds + (P0 e(T

 t)A

x, e(T

 t)A

x) C(T )x2 .

Obtinem asadar c
a S(t) este marginit
a n norm
a pe intervalul [0, T1 ) si deci
T1 = T . In consecinta P (t), solutia ecuatiei diferentiale Riccati (3.28) este
pozitiv
a si denit
a pe ntreg intervalul nchis [0, T ].
Existenta solutiei problemei de control liniar p
atratic rezult
a din teorema
3.3.1 deoarece exista o solutie C 1 a ecuatiei Hamilton-Jacobi-Bellman, exprimat
a cu ajutorul solutiei ecuatiei diferentiale Riccati. Unicitatea solutiei
rezulta de asemenea din reprezentarea controlului optimal n functie de
starea adjunct
a p (3.25), care la randul sau se exprima n mod unic cu
52

ajutorul solutiei ecuatiei Riccati (folosind evident si solutiile unice ale problemelor (3.29), (3.32)).
De altfel, se poate observa ca problema de control optimal considerat
a
este o problema de optimizare pentru o functionala strict convexa si coerciva
(R este uniform pozitiv denit
a si Q este pozitiv
a) pe o multime convexa si
nchisa.
3.5. Stabilizarea sistemelor diferentiale liniare
Consider
am sistemul liniar controlat
(3.34)

y  = Ay + Bu

unde A Mn (IR), B Mnm (IR). Se pune problema de a determina un


control n form
a feedback u = Ky, K Mmn (IR) astfel nc
at sistemul
liniar obtinut
(3.35)

y  = (A + BK)y

sa e asimptotic stabil . Astfel, vom spune c


a sistemul (3.34) este stabilizabil
(sau perechea(A, B) este stabilizabila) dac
a exista un feedback K astfel nc
at
toate solutiile sistemului (3.35) tind la 0 pentru t +, altfel spus, exista
K astfel nc
at (A + BK) (, 0) unde (A) reprezint
a spectrul, sau
multimea autovalorilor matricii A..
Vom spune ca sistemul (3.34) este complet stabilizabil (sau perechea(A, B)
este complet stabilizabila) dac
a pentru orice IR exista un feedback K
astfel nc
at (A + BK) (, ).
Teorema 3.5.1. Urm
atoarele afirmatii sunt echivalente:
a.
i) Perechea (A, B) este complet stabilizabil
ii) Perechea (A, B) este controlabil
a.
iii) Pentru orice polinom de grad n, p() = n + 1 n1 + . . . + n ,
exist
a un feddback K astfel nc
at polinomul caracteristic al lui A + BK s
a
fie pA+BK = p
Demonstratie i) ii). Presupunem prin reducere la absurd c
a perechea
(A, B) nu ar controlabil
a. . Din teorema de descompunere a lui Kalman
am acum
3.1.5, rezulta ca (A, B) (A1 , B1 ) cu A21 = 0, B21 = 0. Consider
un feedback K = (K1 , K2 ), K1 Mml , K2 Mm(nl) . Polinomul caracteristic al lui A1 + B1 K este pA1 +B1 K = pA11 +B11 K1 pA22 . Deci ntotdeauna,
pentru orice K, pA22 |pA1 +B1 K ceea ce contrazice i).
ii) iii). Pentru nceput consider
am cazul m = 1. Deoarece sistemul
este controlabil, el este echivalent cu ecuatia de ordinul n controlat
a
z (n) + a1 z (n1) + + an z = u
si feedbackul care realizeaza cerintele punctului iii) este u = (a1 1 )z (n1) +
+ (an n )z.
Pentru a demonstra iii) n cazul general este sucient sa ar
atam ca exista
at perechea (A + BL, Bv)
v IRm (vector coloana) si L Mmn , astfel nc
53

este controlabil
a. In acest fel se reduce demonstratia la cazul m = 1 si feedator
backul c
autat este L + vK, unde K M1n este feedbackul corespunz
cazului m = 1 si perechii (A + BL, Bv).
at Bv = 0. Construim o baz
a n IRn
Alegem asadar v IRm astfel nc
n felul urm
ator: f1 = Bv, fi+1 = Afi + Bui , pentru un ui IRm , i =
am ul IRm astfel
1, . . . , n. Presupunem c
a am construit f1 , . . . , fl si caut
nc
at fl+1 = Afl + Bul sa nu apartin
a spatiului Xl = span {f1 , . . . , fl }.
Daca aceasta nu este posibil, nseamna ca Afl + Bu Xl , u IRm , deci
Afl Xl si Bu Xl , u IRm . Rezulta imediat ca Im B Xl si Xl este
subspatiu invariant al lui A. Deci ET Xl si deci Xl = IRn si l = n (din
controlabilitate).
iii) i). Implicatia aceasta este imediata.
Stabilizarea feedback a sistemului liniar (3.34) este intim legat
a de problema de minimizare

u
(3.36)
inf J(y , u), J(y, u) =
(Qy, y) + (Ru, u)dt
0

yu

y u (0)

veric
a (3.34) cu
= x, cu Q, R matrici pozitiv denite xate.
unde
Aceasta problem
a de control cu orizont innit ne va conduce la o ecuatie
Riccati algebric
a :
(3.37)

SA + A S SBR1 B S + Q = 0

aut
am n multimea matricilor
unde necunoscuta este S Mn (IR) pe care o c
simetrice pozitive. Vom vedea n cele ce urmeaza ca stabilizabilitatea feedback a sistemului (3.34) este echivalenta cu existenta unei astfel de solutii
pentru ecuatia (3.37).
a solutii simetrice ale ecuatiei diferentiale
Lema 3.5.1. Fie S1 , S2 dou
a) atunci
Riccati 3.33) cu S1 (0) S2 (0) (i.e. S2 (0) S1 (0) este pozitiv
S1 (t) S2 (t) pentru t > 0.
Demonstratie Fie S = S1 S2 . Acesta verica ecuatia
S  = SA + A S S2 BR1 B S + S1 BR1 B S SBR1 B S
Acelasi argument din demonstratia teoremei 3.4.1 folosit pentru a arata pozitivitatea lui P functioneaza si aici. Se face mai nt
ai demonstratia nlocuind
at S(0) este pozitiv denit
a, iar pe S2 l
pe S2 (0) cu S2 (0) + I, astfel nc
consider
am solutia ecuatiei perturbate cu I (Q Q + I) . In aceasta
situatie S veric
a
S  = SA + A S S2 BR1 B S + S1 BR1 B S SBR1 B S + I
Daca t este primul punct pentru care S nu mai este pozitiv denit
a, rezulta
ca, pentru x vector propriu al lui S(t) corespunz
ator valorii proprii 0, are
loc
d
(S(t)x, x)|t=t = x2 > 0
dt
54

ceea ce conduce la o contradictie. Rezultatul nal se obtine trec


and la limit
a
pentru 0.
Legatura dintre stabilizare si existenta solutiilor pentru ecuatia Riccati
algebric
a este data de urm
atoarea teorema:
Teorema 3.5.2. i) Dac
a perechea (A, B) este stabilizabil
a, atunci ecuatia
Riccati algebric
a (3.37) are cel putin o solutie simetric
a si pozitiv
a
ii)Dac
a ecuatia Riccati algebric
a (3.37) are o solutie S simetric
a si poza (i.e.
itiv
a, atunci aceasta are si o solutie simetric
a si pozitiv
a S, minimal
In plus controlul
orice alt
a solutie simetric
a si pozitiv
a S verific
a S S).
feedback
u (t) = R1 B Sy(t)

(3.38)

este control optimal pentru problema (3.36), (3.34). Are loc

J(y u , u ) = (Sx, x)

(3.39)

Dac
a n plus Q este pozitiv definit
a, atunci matricea A BR1 B S este
stabil
a, altfel spus feedbackul construit este stabilizant.
Demonstratie Fie S(t) solutia ecuatiei diferentiale Riccati (3.33) cu conditia
initiala S(0) = 0. Deoarece S(t) 0 pentru t 0, iar pentru > 0 S( + )
a t S(t)
este solutie care n 0 ia valoarea S(), rezulta din lema 3.5.1 c
este crescatoare.
i) S
a presupunem c
a perechea (A, B) este stabilizabila. Atunci exista
un feedback K astfel nc
at A + BK este matrice stabila. Se poate observa
cu usurinta ca (S(t)x, x) este functia valoare pentru problema de control
optimal de tip Bolza pe intervalul (0, t) cu functionala de cost
 t
t
(Qy, y) + (Ru, u)ds.
J (y, u) =
0

Deci daca alegem y = exp(t(A + BK))x si u(t) = Ky(t) obtinem


(S(t)x, x) J t (y, u) J(y, u) < +.
a deci convergent
a.
(S(t)x, x) este o funtie monoton crescatoare si marginit
Limita sa deneste o forma p
atratica pe IRn a carei matrice o notam tot
cu S = limt+ S(t). De asemenea, rezulta ca exista l = limt+ S  (t) de
a o functie scalara mpreun
a cu derivata sa au limite nite
unde l = 0n (dac
la + atunci limita derivatei este 0; aplicam acest rezultat componentelor
matricii S).
ii) Fie acum S o solutie simetrica si pozitiv
a a ecuatiei (3.37). Lema
3.5.1 ne spune c
a S(t) S deci exista S = limt+ S(t) solutie pentru
a. Pe de
(3.37) care satisface S S. Rezulta ca S este solutie minimal
alt
a parte, S este solutie si a ecuatiei diferentiale Riccati, deci feedbackul
furnizat de aceasta prin (3.38) satisface
 T
(Qy , y ) + (Ru, u )ds + (Sy (T ), y (T ))
(Sx, x) =
0
55

de unde


0

(Qy , y ) + (Ru, u )ds (Sx, x)

a parte
si deci J(y , u ) (Sx, x). Pe de alt
 T
(Qy , y ) + (Ru, u )ds J(y , u ),
(S(T )x, x)
0

de unde rezult
a si inegalitatea invers
a si, n consecinta, egalitatea (3.39).
Fie ecuatia
y  = Ay BR1 B Sy
acand uz de ecuatia Riccati
pe care o nmultim scalar cu Sy. Obtinem, f
algebric
a, ca
1
1d
(Sy(t), y(t)) = (R1 B Sy(t), B Sy)(Qy(t), y(t)) (Qy(t), y(t)).
2 dt
2
a
Deoarece
a, rezulta ca S este pozitiv denit

matrice pozitiv denit

Q este
deci (Qy, y), (Sy, y) denesc norme echivalente pe IRn . Rezulta ca exista
C, > 0 astfel nc
at |y(t)| Cet |y0 |. Asadar matricea A BR1 S este
stabila.
3.6. Problema de timp optimal pentru sisteme liniare
Consider
am U un poliedru din IRm :
U = conv(a1 , . . . , ad )
iar {aj , j = 1, . . . , d} este o multime minimala ce genereaza pe U . aj sunt
v
arfurile poliedrului. Consider
am U = {u : [0, ) U : u masurabil
a},
multimea controalelor admisibile pentru problema liniar
a
(3.40)

y  = Ay + Bu, y(0) = y0 ,

unde A, B sunt matrici constante. Ne propunem n acest paragraf s


a studiem
problema de timp optimal. Dat y1 A(y) sa se determine u U care
realizeza inmul
(3.41)

inf{t : u U, y u (t) = y1 },

unde am notat, ca de obicei, cu y u solutia lui (3.40) pentru un u U dat.


ator cu u .
Timpul optimal l vom nota cu t iar controlul corespunz
Problema de timp optimal este o problema de control optimal cu lagrangean L 1 si timp nal liber. Vom da o caracterizare a controlului
optimal n problema de timp optimal. Facem apel la principiul de maxim
pentru probema de timp optimal si pe care l vom demonstra n 6.3. Astfel,
hamiltonianul sistemului este
H u (t, y, p) = (p, Ay + Bu) + .
56

cu {1, 0}. Sistemul hamiltonian este



y = Ay + Bu
p = A p
(3.42)

y(0) = y0 , y(t ) = y1 .
Ca si n cazul timpului nal xat pentru problema Bolza, se obtine ca daca
a o solutie (y , p ), cu (, p ) = (0, 0)
u este control optimal, atunci exist
astfel nc
at are loc proprietatea de maxim (3.12). In plus fata de cazul
timpului nal liber, dup
a cum se va demonstra n 6.3, are loc
Hmax 0.
Astfel, not
and cu
hu (y, p) = (p, Ay + Bu),

at are loc hu (y , p ) =
obtinem ca exista un arc dual p netrivial astfel nc
u

a p este netrivial rezulta din


maxuU h (y , p ). Faptul c

Hmax (y , p ) = hu (y , p ) + 0
si (, p ) = (0, 0).
Teorema 3.6.1. i) Problema de timp optimal (3.40),(3.41) are cel putin
o solutie.
ii) Dac
a n plus, not
and cu lij = aj ai , are loc pentru i, j
rang [A|Blij ] = n,

(3.43)

atunci solutia este unic


a.
iii)
In ipotezele de mai sus rezult
a c
a exist
a o multime finit
a de puncte
a, pentru t [0, t ] \ T , u(t) {a1 , . . . , ad } si u
T [0, t ] cu proprietatea c
este local constant
a.
Demonstratie Formula variatiei constantelor ne d
a
 t
e(ts)A Bu(s)ds.
y u (t) = etA y0 +
0

Dearece u ia valori ntr-o multime marginit


a U , rezulta ca pentru un
> 0 si 0 < s < , e(ts)A Bu(s) C(). Deci pentru 0 < t < :
y u (t) y0  etA Iy0  + C()t
Rezulta ca pentru t sucient de mic y u (t) y0  < y1 y0  deci t > 0.
a
Consider
am sirurile tn , un , tn t y un (tn ) = y1 . Deoarece U este marginit
m
2

rezulta ca un formeaza un sir marginit n L (0, t , IR ) si un  u slab.


Rezulta ca
 t
 t

(tn s)A
e
Bu(s)ds
e(t s)A Bu (s)ds,
0

deci u este control optimal.


57

Demonstr
am acum unicitatea controlului optimal. Presupunem c
a ar
exista dou
a controale optimale u , v . Din formula variatiei constantelor
deducem:
 t
 t

t A
(t s)A

t A
e
Bu (s)ds = e y0 +
e(t s)A Bv (s)ds,
y1 = e y0 +
0

de unde

sA

(3.44)

Bu (s)ds =

esA Bv (s)ds.

Fie p starea duala corespunzatoare controlului optimal u , p (t) =

tA
cu = 0. Maximul
e
max(p (t), Ay (t) + Bu)
uU

se atinge macar n unul dintre v


arfurile ai . Inmultim scalar (3.44) cu si
obtinem ca:
 t
 t
(p (s), Bu (s))ds =
(p (s), Bv (s))ds.
0

Conditia de maxim ne spune ca


(3.45)

(p (s), Bu (s)) = (p (s), Bv (s)), a.p.t.

s [0, t ].

ar nit de puncte
Ar
at
am ca, pentru t [0, t ] cu exceptia unui num
{tj : j = 1, . . . , m}, acest maxim este atins ntr-un singur element din U
care este v
arf al poliedrului (prima parte din iii)). Aceste puncte le vom
numi puncte de comutare. Presupunem c
a ar exista o innitate de puncte
arf. Cum
tk [0, t ] pentru care maximul ar atins n mai mult de un v
num
arul v
arfurilor este nit, exita dou
a v
arfuri ai , aj n care maximul se
atinge pe un subsir pe care l not
am tot cu tk . Deci
(p(tk ), Bai ) = (p(tk ), Baj ),
de unde

(p(tk ), Blij ) = (etk A , Blij ) = 0.


Cum funtia t (p(t), Blij ) este analitica si are o innitate de zerouri n
a ca (p(t), Blij ) 0. Deriv
and de n 1 ori n t = 0 obtinem
[t0 , t ], rezult
(, Blij ) = (, ABlij ) = . . . = (, An1 Blij ) = 0

de unde, tin
and cont de conditia 3.43, rezulta = 0, contradictie. Obtinem
asadar din (3.45) c
a u = v aproape peste tot.
Din punctul iii) a mai r
amas de demonstrat ca pe [0, t ] \ T , u este
local constant
a. Aceasta rezulta imediat din continuitatea functiei t

(etA , Bu).
Acest rezultat se mai nt
alneste n literatur
a sub numele de teorem
a de
bang-bang .

58

CAPITOLUL 4

Reprezentarea ecuatiilor diferentiale


pe variet
ati diferentiabile
4.1. Ecuatii diferentiale pe variet
ati diferentiabile
In cele ce urmeaza M este o varietate diferentiabil
a n-dimensional
a si
T M = qM Tq M este bratul tangent.
a f t (q) Tq M
Consider
am un c
amp vectorial neautonom f t pe M , adic
pentru orice q M, t IR.
Consider
am problema Cauchy pentru ecuatia diferentiala neautonom
a:

q = f t (q) := f (t, q)
(4.1)
q(0) = q0 .
atoarea teorema a
Fie M = IRn submultime deschisa; are loc urm
lui Caratheodory (v. [16], teorema 1.1, cap.2):
Teorema 4.1.1. Dac
a f = f (t, y) este m
asurabil
a n t pentru orice y
at ntr-o
si continu
a n y a.p.t. t si exist
a o functie m0 L1 (IR) astfel nc
vecin
atate a lui (0, y0 )
|f (t, y)| m0 (t),
atunci problema

y = f (t, y)
(4.2)
y(0) = y0
are o solutie local
a unic
a care este o functie absolut continu
a, verific
a ecuatia
a.p.t si conditia initial
a.
a o functie
Dac
a pentru t fixat , fi (t, ) este C 1 si pentru orice (t, y) exist
1
atate V a lui (t, y) astfel nc
at pentru orice (t, y) V
m1 L si o vecin



 fi


 yj (t, y) m1 (t),
atunci solutia este unic
a.
In plus solutia este C 1 n raport cu datele initiale.
In cazul n care M este varietate diferentiabil
a, pentru a rezolva ecuatia
(4.1), o reprezent
am n coordonate locale. Fie : V(q0 ) M V(y0 )
a locala. In aceste coordonate campul vectorial f t se reprezinta
IRn , o hart
ca:
n

fi (t, x)ei = f(t, y).
( f t)(x) =
i=1
59

unde ei sunt vectorii bazei canonice, iar este aplicatia liniar


a tangent
a sau
diferentiala lui . A rezolva (local) problema Cauchy (4.1) este echivalent
cu a rezolva n harta local
a urm
atoarea problem
a Cauchy:

y = f(t, y)
(4.3)
y(0) = y0 .
Existenta si unicitatea solutiei locale pentru (4.3) este asigurata dac
a f
veric
a ipotezele teoremei 4.1.1; acestea sunt ipoteze asupra lui f ntruc
at nu
depinde de alegerea h
artii locale. In aceste ipoteze teorema lui Caratheodory
ne asigur
a ca problema (4.3) are o solutie locala y(t, y0 ) care este absolut
continu
a n raport cu t, C 1 n raport cu datele initiale y0 si satisface ecuatia
a.p.t.. Solutia problemei (4.1) este q(t, q0 ) = 1 (y(t, y0 )) si aceasta nu
depinde de harta local
a aleasa.
Solutia problemei Cauchy (4.1) este denit
a pe un interval maximal.
Vom presupune n cele ce urmeaza ca intervalul maximal de denitie este IR
pentru toate datele initiale. Un camp vectorial ce determina solutii globale
pentru problema Cauchy asociat
a se numeste c
amp vectorial complet. Pe o
varietate compacta orice camp vectorial neted este complet.
Notam cu F t fluxul denit de ecuatia (4.1):
F t (q0 ) = q(t, q0 ).
Atunci F t Di (M ), multimea difeomorsmelor varietatii M , si ecuatia
(4.1) se rescrie

d t

F (q) = f t F t (q), q M
dt
(4.4)

0
F = Id.
unde Id este aplicatia identitate pe M .
Asadar, n cele ce urmeaza, presupunem satisfacute urm
atoarele ipoteze:

M este o varietate diferentiala de clasa C , iar Di (M ) desemneaza multimea C -difeomorsmelor lui M .


a locala
Campul vectorial neautonom f t este complet si n orice hart
f(t, y) este masurabil
a n raport cu t pentru x xat si C n raport
cu x pentru a.p.t. t.
at local
Exist
a functiile local integrabile mk (t) astfel nc
k
|D f (t, y)| mk (t).
x

Aceste ipoteze ne asigura ca problema Cauchy (4.1) are solutie unic


a ce
depinde C de datele initiale.

60

4.2. Reprezentarea exponential


a a fluxurilor
Calculul operatorial, introdus de A. Agrachev si R. Gamkrelidze (v.
[1],[26], [2]) si numit reprezentare exponentiala a uxurilor sau calcul cronologic, este un instrument deosebit de util care permite nlocuirea obiectelor
neliniare (varietati diferentiabile, vectori tangenti, uxuri, difeomorsme)
cu obiecte liniare si anume functionale sau operatori pe algebra C (M ) a
functiilor reale, innit diferentiabile denite pe M .
Punctele se reprezinta ca morsme de algebre de la C (M ) n IR. Dac
a
q M , atunci acesta deneste un morsm de algebre q : C (M ) IR,
q() = (q).
Se poate ar
ata ca pentru orice morsm de algebre : C (M ) IR, exista
un unic q M astfel nc
at = q (v. [2]).
Difeomorfismele variet
atii M se reprezinta ca automorsme ale algebrei
Dac
a F Di (M ), denim F : C (M ) C (M ) prin

C (M ).

F() = F.
In general, dac
a F : M N este o aplicatie neteda ntre dou
a variet
ati,
atunci ea deneste un morsm de algebre F : C (N ) C (M ) prin
a ca daca F, G Di (M ) atunci
F () = F unde C (N ). Se observ
 F .

F
G=G
Vectori tangenti. Fie f Tq M . Atunci f poate privit e ca vector
tangent n q al unei curbe ce tece prin q, e ca derivat
a directionala, sau
derivat
a Lie, a functiilor n punctul q si n directia f . Asadar, din primul
punct de vedere se considera o curb
a neteda q(t), q(0) = q, q(0)

= f . Al
d
doilea punct de vedere este de a considera derivata Lie Lf = (q(t)) |t=0 .
dt
Se deneste asadar f : C (M ) IR,
d
y (t)()] |t=0 = Lf .
f() := [
dt
f este functionala liniar
a pe C (M ) si satisface regula lui Leibniz
(4.5)

f() = (y)f() + f()(y).

Orice functionala liniar


a pe C (M ) ce satisface (4.5) corespunde unui unic
vector tangent.
Campuri vectoriale. Fie Vec (M ) multimea campurior vectoriale netede
pe M si e f Vec (M ). Atunci f deneste un operator liniar f : C (M )
C (M ),
f()(y) = f
(y)().
Acest operator satisface regula lui Leibniz:
(4.6)

f() = f() + f().


61

Orice operator liniar pe C (M ) ce satisface (4.6) se numeste derivare si


corespunde unui unic c
amp vectorial.
Comportarea vectorilor tangenti si a c
ampurilor vectoriale sub actiunea
difeomorfismelor.
d
at g = q(t) |t=0 . Atunci se deneste
Fie F Di (M ) si g Tq M astfel nc
dt
d
a C (M ), atunci
F g TF (q) M prin F g = F (q(t)) |t=0 . Astfel, dac
dt
d 
d

F
F (q(t))() |t=0 = (F (q(t))) |t=0 = g( F ) = 
g F(). Deci,
g() =
dt
dt

 F.
(4.7)
F
g = g
 = q
In acelasi mod, dac
a g Vec (M ), ntruc
at g(q)
g rezulta ca F
g(F (q)) =






a parte, F g(F (q)) = F (g(q)) = q g F.
F (q) F g = q F F g. Pe de alt

 F deci
Cum q este arbitrar, F F
g = g
(4.8)

1 

g F = Ad F1 
g
F
g = F

Observat
ia 4.2.1. Notatia Ad provine din teoria grupurilor Lie unde
desemneaz
a reprezentarea adjunct
a a grupului n spatiul operatorilor liniari
pe algebra Lie asociat
a.
In cazul de fat
a, rolul grupului Lie este jucat
de grupul difeomorfismelor variet
atii, iar algebra Lie asociat
a este algebra
c
ampurilor vectoriale. Prin reprezentarea exponential
a descris
a mai sus se
obtine grupul automofismelor lui C (M ), iar algebra Lie asociat
a este algebra deriv
arilor lui C (M ) (v. [3], [31]).
Reprezentarea exponential
a a fluxurilor.
Ecuatia (4.1) devine, prin reprezentarea exponentiala:

(4.9)

d

 ft

q(t) = q(t)
dt

q(0) = q0 ,

deci uxul denit de ecuatie satisface:

(4.10)

d t

F = F t ft
dt

0
F = Id.

a cronologic
a la dreapta si, prin analogie
Fluxul F t se numeste exponential
cu cazul liniar, se noteaz
a
 t

t
fs ds
(4.11)
F = exp
0
62

Pentru a simplica notatiile, daca nu exist


a pericolul de a face o confuzie,
vom omite semnul  care desemneaza reprezentarea obiectului respectiv.
Mention
am aici ca ecuatiile (4.9), (4.10) nu sunt deocamdat
a justicate
riguros ntruc
at nu am denit nc
a o topologie n spatiile corespunz
atoare
de functionale sau operatori n C (M ). Acest lucru l facem n cele ce
urmeaza.
Topologia.
Consider
am pe C (M ) topologia convergentei uniforme pe compacte a tuturor derivatelor. Mai precis, dac
a M = IRn , pentru C (M ),
K M si k = (k1 , . . . , kn ), ki 0, denim seminormele:
s,K = sup{|Dk (q)|; |k| = k1 + . . . + kn s, y K}
Aceasta familie de seminorme deneste o topologie pe C (M ) care devine
un spatiu Frechet (spatiu liniar topologic local convex cu o topologie metric
a

completa dat
a de o metrica invariant
a la translatii). In aceasta topologie
a si numai dac
a m s,K 0, s 0 si K M .
m dac
Pentru o varietate diferentiabil
a generala M , alegem o acoperire local
nit
a cu h
arti locale (Vi , i )iI , i : V i Oi IRn difeomorsme si e
atii subordonat
a acestei acoperiri. Denim familia
{i }iI o partitie a unit
de seminorme
s,K = sup{Dk [(i ) 1 ](q)| |k| s, 1 (q) K, i I}
Aceasta familie de seminorme depinde de alegerea atlasului de h
arti locale,
dar topologia denit
a pe C (M ) este independenta de aceasta alegere.
Odat
a denit
a topologia, consider
am pe C (M ) spatiul operatorilor
liniari continui L(C (M )). Spatiile Di (M ) si Vec (M ) devin prin intermediul reprezent
arii cronologice subspatii liniare. Intr-adev
ar, pentru
f Vec (M ) si F Di (M ) are loc
fs,K C1 s+1,K , Fs,K C2 s,K
unde constantele C1 = C1 (s, K, f ), C2 = C2 (s, K, F ). Se denesc astfel
familiile de seminorme pe Vec (M ) si respectiv pe Di (M ):
f s,K = sup{fs+1,K |s,K = 1},
F s,K = sup{Fs,K |s,K = 1},
care induc pe aceste spatii topologii local convexe.
Pe aceste spatii vom considera, de asemenea, si topologiile slabe induse
a si numai dac
a Fn F , C (M ).
de C (M ): Fn  F dac
63

Propriet
ati de diferentiabilitate si integrabilitate pentru familii de functii
sau operatori.
Int
ai vom caracteriza aceste proprietati pentru spatiul C (M ) care este un
spatiu Frechet.
In general, e X un spatiu Frechet a carui topologie este denit
a de o
familie num
arabil
a de seminorme {pk }kN . Metrica pe X este data de
1 pk (x y)
d(x, y) =
2k 1 + pk (x y)
kN

Fie h : J IR X. Functia h se numeste diferentiabil


a n t0 daca exista
n X limita
h(t) h(t0 )
.
lim
tt0
t t0
Functia h se numeste Lipschitz continu
a daca, pentru orice pk , pk h este
Lipschitz continua. Diferentiabilitatea si continuitatea Lipschitz pot denite folosind structura metric
a a lui X.
a.
Funtia h se numeste marginit
a dac
a, pentru orice pk , pk h este marginit
Pentru a deni m
asurabilitatea si integrabilitatea adapt
am calea utilizata n cazul integralei Bochner (v. [36]). O functie h se numeste functie
n scara daca se poate reprezenta sub forma

xn Jn
h=
nN

unde Jn este functia caracteristica a unei multimi masurabile Jn J. O


astfel de reprezentare se numeste -reprezentare pentru h si nu este unic
a.
Spunem c
a functia h este tare m
asurabil
a daca h este limita a.p.t. a unui
sir de functii n scara. Functia h se numeste slab m
asurabil
a daca x h

a dac
a X este
este masurabila pentru orice x X . Se poate demonstra c
separabil cele dou
a notiuni de m
asurabilitate coincid (v. teorema lui Pettis,
[36], n cazul n care X este spatiu Banach). Dac
a h este functie n scara,
atunci h se numeste integrabil
a daca

(Jn )pk (xn ) , pk .
n

Integrala lui h se deneste ca ind




h(t)dt =
(Jn )xn
J

si se poate cu usurinta observa ca denitia este independenta de ordinea de


sumare si de -reprezentarea lui h.
Daca h este o functie masurabil
a, spunem c
a ea este integrabil
a daca
at
exista un sir de de functii n scara, integrabile, {hn }nN astfel nc

pk (h(t) hn (t))dt = 0, k.
lim
n+ J

64

In acest caz se poate arata ca exista



hn (t)dt
lim
n+ J

atile enuntate.
si aceasta este independenta de sirul {hn }nN cu propriet
Limita se noteaza cu

h(t)dt
J

si se numeste integrala lui h pe J.


Dat
a o familie P t , t J IR de operatori liniari si continui sau de
functionale liniare continue pe C (M ), notiunile denite mai sus, de continuitate, diferentiabilitate, marginire, m
asurabilitate, integrabilitate, vor
considerate n sens slab. Mai precis, functia t P t are una din aceste
propriet
ati daca P t are proprietatea respectiva C (M ).
In acest moment putem da un sens ecuatiei operatoriale (4.10) si se poate cu
usurinta demonstra ca are solutie unic
a. Este de asemenea valabila regula
lui Leibniz :
d
d
d t
P Qt |t=t0 = P t |t=t0 Qt0 + P t0 Qt |t=t0 ,
dt
dt
dt
pentru dou
a functii t P t , t Qt diferentiabile n t0 .
Consider
am acum uxul F t denit de (4.1) si e Gt = (F t )1 . Daca
diferentiem identitatea F t Gt = I obtinem
d
F t f t Gt + F t Gt = 0
dt
deci

d t

G = f t Gt
dt
(4.12)

0
G = Id
Se deneste n acest fel exponentiala cronologic
a la st
anga :
 t

exp
f t dt.
Gt =
0

Extensii si alte propriet


at i.
1 g pentru F Di (M ), g Vec (M ).

Am vazut ca F
g = Ad F
d
at
Calcul
am acum derivata |t=0 Ad (F t ) pentru un ux F t pe M astfel nc
dt

d t

F |t=0 = f Vec M
dt
.

0
F = Id
Are loc

d
|t=0 (Ad F t )g = f g g f = [f, g] =: (ad f)
g.
dt
65

In cazul particular

exp
F =

f s ds
0

obtinem:

d
(Ad F t )g = (Ad F t )ad f t g
,
dt
Ad F 0 = Id

deci putem scrie, formal:

Ad (
exp

t
0

 t

fs ds) = exp ( ad fs ds).


0

Fie acum F Di (M ) si
un c
amp vectorial neautonom. Atunci
 t
 t

s
1
g ds F = exp
(Ad F gt )
(4.13)
F exp
gt

Intr-adev
ar, cele doua p
arti ale egalitatii veric
a aceeasi problema Cauchy
pentru ecuatia operatorial
a

d t

q = q t (Ad F gt )
dt

0
q = Id
deci, din unicitatea solutiei, coincid.
Consider
am din nou Gt = (F t )1 si diferentiem identitatea Gt F t = Id .
d
Obtinem ca Gt F t = Gt F t f t si deci
dt
d t
G = Gt (Ad F t )f t .
dt
Aceasta ne da legatura ntre exponentialele cronologice la stanga si la dreapta:
 t
 t

s
f ds = exp
(Ad F s )f s ds
(4.14)
exp
0

Asa cum s-a vazut, dac


a F Di (M ), atunci acesta deneste un automorsm al algebrei C (M ) : F = F = F . Aceasta sugereaza
faptul c
a!
F poate extins ca automorsm de algebre la algebra graduat
a
(M ) =
k (M ) a formelor diferentiale pe M . Daca k (M ) atunci
denim
F := F .
a cu diferentiala exterioara:
Este binecunoscut faptul c
a F comut
F d = d F
si pentru i ki (M ),
F (1 2 ) = F (1 ) F (2 ).
66

Deci F este automorsm al algebrei (M ). Consider


am acum un camp
vectorial:
d
f = F t |t=0 , F 0 = Id
dt
Actiunea pe k (M ) este derivata Lie a formelor diferentiale:
d
d t
F |t=0 = (F t ) |t=0 = Lf .
dt
dt
Putem deci ntelege actiunea unui c
amp vectorial f Vec (M ) drept derivata
Lie a formelor diferentiale:
f = Lf .
Exponentiala cronologica la dreapta se scrie
 t

t
F = exp
Lfs ds.
0

Mention
am dou
a propriet
ati fundamentale ale derivatei Lie:
t

Deoarece F d = d Ft , are loc
f d = d f ( echivalent Lf d = d Lf ).
amp
Notam cu if produsul interior al unei forme diferentiale cu un c
vectorial f : if (f1 , . . . , fk ) = (f, f1 , . . . , fk ), pentru k+1 (M ), fi
Vec M . Formula lui Cartan este :
(4.15)
f = d if + if d.
Formula variatiei constantelor.
Consider
am problema Cauchy pentru ecuatia diferentiala liniar
a n IRn :

y = Ay + b(t)
y(0) = y0
Solutia ecuatiei omogene (b 0) este y(t) = etA y0 . Pentru ecuatia neomogena se cauta solutia prin metoda variatiei constantelor . Aceasta consta
n a c
auta o solutie de forma y(t) = etA c(t) si se obtine astfel pentru c(t)
ecuatia c (t) = A(t)b(t) care se integreaza. Solutia sistemului liniar neomogen este data de formula variatiei constantelor:
 t
eA(ts) b(s)ds.
(4.16)
y(t) = eAt y0 +
0

Consider
am acum ecuatia diferentiala pe varietatea diferentiabil
aM
q = f t (q),
 t

exp
f s ds. Consider
am de asemenea ecuatia
care genereaza uxul F t =
perturbat
a

q = f t (q) + gt (q)
67


care genereaza uxul H =
exp

(f s +gs )ds, ce depinde de perturbarea gt .


0

Dorim sa punem n evidenta aceasta dependenta. In acest scop procedam


ca n cazul liniar si caut
am H t de forma
H t = Gt F t
unde uxul Gt urmeaza sa e determinat. Diferentiind aceasta egalitate
g
asim
d t
H = Gt F t (f t + gt ) =
dt
d
d
d
= Gt F t + Gt F t = Gt F t + Gt F t f t.
dt
dt
dt
Astfel,

d t

G = Gt F t f t (F t )1 = Gt Ad F t gt
dt

0
G = Id
Am obtinut deci
 t

t
Ad F s gs ds
G = exp
0

si prima form
a a formulei variatiei contantelor este

exp
Ht =

(4.17)

t
0

Ad F s gs ds F t .

Obtinem de asemenea
t 1

H = F Ad (F )
t

si din (4.13)
(4.18)

exp
Ht = F t

exp
unde Fst =

t
0

(
exp

Ad F s gs ds)
0

Ad [(F t )1 F s ]gs ds = F t
exp

t
0

(Fst ) gs ds

f d .
s

Formula variatiei constantelor se poate astfel rescrie ntr-o a doua form


a
 t
 t
 s
 t

f s + gs ds =
exp
f s ds
exp
ad f d gs ds.
exp
exp
0

In cazul n care f, g sunt c


ampuri vectoriale autonome, formula variatiei
constantelor capat
a forma (a se compara cu (4.16)):
 t
 t

exp
Ad esf gds etf = etf
exp
Ad e(st)f gds.
et(f +g) =
0

68

Elemente de geometrie simplectic


a. Formalismul hamilotonian.
Definit
ia 4.2.1. O structur
a simplectic
a pe o varietate diferentiabil
a
N (n mod necesar de dimensiune par
a) este o 2-form
a diferential
a, nedegenerat
a si nchis
a. O varietate diferentiabil
a nzestrat
a cu o structur
a
simplectic
a se numeste varietate simplectic
a.
Fie M o varietate diferentiabil
a si T M = yM Tq M bratul cotangent.
1
n
Daca (q , . . . , q ) sunt coordonate locale pe M atunci, dac
a p Tq M ,
n

pi dq i , (p1 , . . . , pn , q 1 , . . . , q n ) denesc coordonatele locale canonice
p =
i=1

pe T M . Fie
(4.19)

dpi dq i .

i=1

Pentru a vedea c
a denitia este independenta de alegerea coordonatelor
locale, e : T M M proiectia canonica si e 1-forma canonica pe T M :
pentru w T (T M )

1 (w) = (w),
Daca w T (T M ), atunci w =



asim ca
= i , g
si
i
q
q

i=1

+ v i i . Intruc
at
pi
q

1 (w) =

pi


=0

pi v i

i=1

deci
1 =

pi dq i

i=1

si
= d1 .
Se vede acum cu usurinta ca este o structura simplectic
a pe T M , care
devine n acest fel o varietate simplectica.
Fie acum (N, ) o varietate simplectic
a generala. Functiile din C (N )
se numesc hamiltonieni. Fie H un hamiltonian pe N . Atunci exista un unic

camp vectorial pe N notat H atfel nc


at

= (, H ) = dH.
i
H

H se numete c
ampul vectorial hamiltonian al lui H iar uxul corespunz
ator
este fluxul hamiltonian. Ecuatia lui Hamilton sau sistemul hamiltonian este

d
(t) = H ((t))
(4.20)
dt
69

iar uxul hamiltonian este

exp
t =

H ds.

Paranteza Poisson a hamiltonienilor , se deneste prin

= d(
) = (
, ) = {, }
{, } = L

Aceasta reprezinta derivata lui de-a lungul uxului hamiltonian denit de


.
Se poate cu usurinta demonstra ca (C (N ), {, }) este o algebra Lie si

ca aplicatia H H este morsm de algebre Lie de la C (M ) la Vec (M ).


Biliniaritatea si antisimetria sunt imediate. Identitatea lui Jacobi, ca si fap

tul c
a {, } = [
, ], se demonstreaza usor daca n coordonate locale
are forma canonic
a (4.19). Argumentul este complet ntruc
at, din teorema lui Darboux (v. [3]), exist
a un atlas simplectic pe N astfel nc
at n
coordonate locale se exprima n form
a canonica. In aceste coordonate
H
H

i
H =
i
pi q
q pi
n

i=1

si

n



i
.
{, } =
i
pi q
q pi
i=1

Sistemul hamiltonian (4.20) se scrie n forma (2.4).


Daca F Di (N ) p
astreaza structura simplectic
a, i.e. F = , atunci

Ad F H = F H. Intr-adev
ar,

(, F H) = d(F H) = d(H F ) = H F = dH F =

= (F , H ) = F (, (F )1 H ) = (, Ad F H ).
Integralele prime ale sistemelor hamiltoniene autonome sunt functiile
ce comuta cu hamiltonianul. Intr-adev
ar, e ecuatia (4.20). Atunci

a dac
a si numai dac
a et H = const ceea ce este
C (N ) este integrala prim

echivalent, prin diferentiere, cu H = 0 sau {H, } = 0.


amp
Consider
am din nou cazul variet
atii simplectice T M . Dat un c
t
am hamiltonianul pe T M :
vectorial neautonom f Vec (M ), consider
(f t )# () = (, f t ).

(4.21)

In coordonate simplectice canonice (pi , q i ), dac


a ft =
(f t )# () =

n

i=1

fi (t, q)

, atunci
q i

pi fi (t, q). Folosind exprimarea n coordonate locale se vede

i=1
70

cu usurinta ca pentru f, g Vec (M )


{f # , g# } = [f, g]# .
Pentru un c
amp vectorial neautonom f t , campul vectorial hamiltonian pe

T M denit prin (f t )# se numeste liftul hamiltonian. Acesta satisface

(f t )# = f t .
t
Stabilim n continuare leg
 attura ntre uxurile determinate de f , respectiv

de (f t )# . Fie Ft =
exp
f s ds. Aunci (Ft ) Di (T M ). Fie

d
|t= (Ft )
dt

Propozit
ia 4.2.1. gt = (f t )# si


t
(f s )# ds
(4.22)
(F ) = exp
g =

Demonstratie Intruc
at Ft+ = Ft Ftt+ , urmeaza, prin diferentiere n
raport cu n 0, c
a
d t
(F ) = gt (Ft ) ,
dt
deci
 t

t
gs ds.
(F ) = exp

Deoarece

(Ft ) = (Ft )1

rezulta ca
(4.23)

gt = f t

Pe de alt
a parte, uxul (Ft ) p
astreaza 1-forma 1 si prin urmare forma
simplectica . Din formula lui Cartan (4.15) avem ca
0 = Lgt 1 = igt + d1 (gt ),
de unde

gt = 1 (gt ).
Aceasta nseamna ca campul vectorial gt este hamiltonian iar concluzia
propozitiei urmeaza din (4.23).

71

CAPITOLUL 5

Controlabilitatea sistemelor diferentiale


5.1. Teorema orbitei si consecinte
Consider
am o varietate diferentiabil
a M , o familie de campuri vectoriale
F = {f u |u U } si sistemul controlat
(5.1)

q = f u (q).

Multimea controalelor admisibile U este n cele ce urmeaza multimea


functiilor constante pe portiuni, cu valori n U .
Orbita care trece prin q0 se deneste ca ind
Oq0 := {q0 et1 f1 etk fk |ti IR, fi F, k N}.
In acelasi mod se deneste orbita n raport cu o familie oarecare de c
ampuri
vectoriale F.
Teorema 5.1.1. (Teorema orbitei-Nagano, Sussmann) Fie F Vec M
atoarele
o familie de c
ampuri vectoriale si q0 M . Atunci orbita Oq0 are urm
propriet
at i:
a a lui M .
(1) Oq0 este subvarietate imersat
(2) Pentru q Oq0 , Tq Oq0 = span {q (Ad F )f | F P, f F} unde
P = {et1 f1 etk fk |ti IR, fi F, k N}
Demonstratie Vom construi pe M o topologie mai tare n care orbitele
reprezint
a componentele conexe. Fie (Ad P)F = {(Ad F )f | F P, f F}
si e q = span {q (Ad P)F}. q este spatiu liniar, subspatiu al spatiului
ata ca este de fapt spatiul tangent la Oq0
tangent Tq M despre care vom ar
n punctul q.
Pasul 1. Demonstr
am ca dim q0 = dim q pentru orice q Oq0 .
Deoarece q Oq0 rezulta ca q = q0 P pentru un P P. Fie acum
v = q0 (Ad F )f q0 . Atunci
P v = v P = q0 F f F 1 P = q (Ad P 1 F )f q
deci dim q0 dim q (Q este izomorsm de spatii liniare). Pentru a ar
ata
inegalitatea invers
a putem schimba rolul lui q cu q0 deoarece q0 Oq .
Pasul 2. Fie q Oq0 si m = dim q0 . Fie f1 , . . . , fm (Ad P)F astfel
nc
at f1 (q), . . . , fm (q) formeaza o baza n q . Fie V0 o vecinatate a lui 0 n
a prin:
IRm si e q : V0 M denit
q (t1 , . . . , tm ) = q et1 f1 etm fm
73

Ar
at
am ca pentru o vecin
atate V0 sucient de mic
a q este imersie si multimile de forma q (V0 ) formeaza un atlas pe Oq0 si de asemenea formeaza o
baz
a de vecinat
ati, ind astfel denite structurile topologic
a si de varietate
diferentiabil
a.
q
(0) = fi (q). Rezulta ca pentru o
i) Dq (0) are rangul m deoarece
ti
a Dq (t) are rangul m si deci q este imersie,
vecinatate V0 sucient de mic
deci q (V0 ) este subvarietate m dimensional
a a lui M .
ii) Ar
at
am ca q (V0 ) Oq si Dq Tt IRm = q (t) pentru t V0 . Intrat fi = (Ad Fi )gi ,
adev
ar, exist
a g1 , . . . , gm F, F1 , . . . , Fm P astfel nc
i = 1, . . . , m. In plus pentru s R are loc
es(Ad Fi )gi = (Ad F )esgi P
i

deci q (t) Oq .
Pentru a ar
ata egalitatea Dq Tt IRm = q (t) este sucient sa demonstr
am incluziunea   deoarece dimensiunea celor dou
a spatii liniare coincide (amintim c
a din constructia lui q , v. i), rangul lui Dq este m).
Intr-adev
ar, tin
and cont c
a (etk fk etm fm )1 P, fk F, rezulta ca:

q (t) = q et1 f1 fk etk fk etm fm =


tk
= q (t) Ad (etk fk etm fm )1 fk q (t)
iii) Structura topologic
a pe M . Fie q M si e q q (V0 ). Fie q
aplicatia corespunzatoare construita cu ajutorul c
ampurilor vectoriale fi ,
i = 1, . . . , m. Ar
at
am ca pentru t sucient de mic (de exemplu n norma
at f1 (
q ) q pentru q q (V0 ), iar din ii)
  ) q(t) q (V0 ). Intruc
avem ca q este spatiul tangent la subvarietatea q (V0 ), rezulta ca pentru

t1 sucient de mic q et1 f1 q (V0 ). Repetand rationamentul obtinem ca


a multimile
q(t) q (V0 ) pentru t sucient de mic. Am demonstrat astfel c
a de vecinatati n M .
de tipul q (V0 ) formeaza o baz
P
an
a n acest moment am denit pe M o structur
a topologica, pe care
a de vao vom numi , iar pe orice obit
a Oq0 se poate deni o structur
rietate diferentiabil
a, compatibil
a cu structura topologic
a denit
a anterior.
Structura de varietate diferentiabil
a este denita de h
artile locale de tipul
In plus, din a doua relatie din ii) rezulta ca Tq Oq = q .
).
(q (V0 ), 1
0
q
iv) Orbitele sunt componente conexe n noua topologie pe M . Intr-adev
ar,
ntruc
at aplicatiile de tipul t q etf cu q M, f F sunt continue n
topologia , rezult
a ca orbitele sunt conexe prin arce, deci conexe. O orbita
oarecare Oq0 este simultan multime deschisa si nchisa. Deschiderea rezulta
imediat din iii). Pentru a demonstra nchiderea alegem qn Oq0 , qn q n
topologia . Rezult
a, din denitia lui , c
a qn Oq pentru n sucient de
mare. Oq0 Oq = deci Oq0 = Oq si q Oq0 .
74

Propozit
ia 5.1.1. Algebra Lie generat
a de F are proprietatea c
a pentru
orice q Oq0
(5.2)

Lie q F Tq Oq0 .

at t q etf este curba


Demonstratie Pentru f F si q Oq0 , ntruc
tim de asemenea ca dac
a dou
a campuri
n Oq0 , rezulta ca f (q) Tq Oq0 . S
vectoriale pe M sunt tangente la o subvarietate n toate punctele acesteia,
atunci crosetul Lie este tangent la subvarietate n ecare punct al acesteia.
Asadar, pentru fi F, i = 1, . . . , k are loc
[f1 , [. . . [fk1 , fk ] . . .](q) Tq Oq0 ,
de unde rezult
a (5.2)
O consecinta imediat
a a teoremei orbitei este teorema lui Chow-Rashevsky:
Teorema 5.1.2. ( Chow-Rashevsky) Fie M o varietate diferentiabil
a,
neted
a si conex
a si fie F Vec M . Dac
a
(5.3)

Lieq F = Tq M, q M,

atunci
(5.4)

Oq = M, q M

Demonstratie Folosim propozitia precedenta si observatia ca subvariet


atile
lui M de aceeasi dimensiune cu varietatea sunt n mod necesar multimi deschise n M .
Observat
ia 5.1.1. Rezultatul precedent este n esent
a un rezultat de
controlabilitate. Astfel, dac
a
(5.5)

F = F

a c
a Aq0 = Oq0 si dac
a n plus sunt satisf
acute
cu F = {f u , u U } rezult
ipotezele teoremei 5.1.2, atunci sistemul (5.1) este controlabil.

75

5.2. Sisteme analitice. Integrabilitate. Teorema lui Frobenius


Am vazut n paragraful precedent c
a orbitele sunt variet
ati imersate.
Desigur, n studiul problemelor de control este importanta caracterizarea
multimilor accesibile care, n cazul simetric (5.5), coincid cu orbitele. Cunoasterea orbitei este echivalenta din punct de vedere teoretic cu cunoasterea
spatiilor tangente la aceasta. Incluziunea (5.2) ne d
a o caracterizare partiala
a acestora. Aceasta incluziune poate si strict
a, dup
a cum vom vedea in
exemplul care urmeaza. Paragraful acesta analizeaz
a cazul n care incluziunea (5.2) devine egalitate. Acesta este cazul n care modulul Lie F peste
C (M ) este local nit generat.



2
,
unde
Exemplul 5.2.1. Fie M = IR , F = (x2 )
x1 x2
a cu
a c
a Oq = IR2 , ns
a
C0 (IR). Pentru q = (x1 , x2 ) se observ
usurint


a c
a Lieq F = span
, dim Lieq F = 1, deci
dac
a (x2 ) = 0 rezult
x2
incluziunea (5.2) este strict
a.
Asadar, Vec M , pe l
ang
a structura de algebr
a Lie are si o structura de
modul peste inelul C (M ). Un submodul S Vec
 mM se numeste finit gene"

at S =
k fk : k C (M ) .
rat dac
a exista f1 , . . . , fm S astfel nc
k=1

Submodulul respectiv se numeste local finit generat daca orice punct q M


are o vecinatate V astfel nc
at S|V este modul nit generat peste C (V).
Rezultatul principal al acestui paragraf este:
Teorema 5.2.1. Fie F Vec M astfel nc
at modulul peste C (M )
generat de Lie F este local finit generat. Atunci pentru orice q0 Msi
pentru orice q Oq0
(5.6)

Tq Oq0 = Lieq F.

Pentru demonstratia teoremei avem nevoie de urmatorul rezultat


Propozit
ia 5.2.1. Fie S Vec M un submodul finit generat peste
Fie de asemenea g Vec M astfel nc
at

C (M ).
(5.7)

(ad g)S := {[g, f ], f S} S.

Atunci Ad etg S = S.
Demonstratie Fie f1 . . . , fm S un sistem de generatori si e fi (t) =
at {fi } este sistem de generatori, rezulta ca exista ij
Ad etg fi . Intruc
at
C (M ), i, j = 1, . . . , m astfel nc
(ad g)fi =

m

j=1

76

ij fj .

Campurile vectoriale fi (t) veric


a sistemul de ecuatii diferentiale
d
d
fi (t) = Ad etg fi = Ad etg [g, fi ] =
dt
dt
m
m
m



ij fj =
(etg ij )Ad etg fj =
ij (t)fj (t)
= (Ad etg )
j=1

j=1

j=1

tg

am cu X(t) = (aij (t)) ,


unde am notat cu ij (t) := e ij . Daca not
X(0) = Id matricea fundamental
a asociata sistemului liniar cu matrice
(ij (t)), rezulta ca
m

aij (t)fi (0) S
fi (t) =
j=1

deoarece fi (0) = fi formeaza un sistem de generatori pentru S.


Demonstratia teoremei 5.2.1 Trebuie sa demonstr
am incluziunea invers
a
Tq Oq0 Lieq F.

(5.8)

a ca S =
Notam cu S modulul peste C (M ) generat de LieF. Se observ
at pentru g F
{f : C (M ), f LieF} si deci Sq = Lieq F. Intruc
are loc (ad g)LieF LieF, rezulta din propozitia 5.2.1 ca (Ad etg )S = S.
Din caracterizarea spatiului tangent la orbit
a dat
a n teorema 5.1.1, punctul
(2). si consideratiile precedente, obtinem incluziunea (5.8).
Corolar 5.2.1. Dac
a M este varietate analitic
a si F Vec M este o
familie de c
ampuri vectoriale analitice, atunci are loc (5.6).
Demonstratie Facem pentru nceput observatia ca propozitia 5.2.1 si teorema 5.2.1 r
aman valabile dac
a consider
am M varietate analitic
a si nlocuim
pe C (M ) cu C (M ), spatiul functiilor analitice pe M .
Ramane numai de ar
atat ca modulul S peste C (M ), generat de Lie F,
este local nit generat. De altfel este sucient sa ar
atam n loc c
a, pentru
g F, f S, are loc Ad etg f S. Are loc egalitatea Ad etg f = et[g,f ] si,
cum solutiilor ecuatiilor diferentiale cu membrul drept analitic sunt analitice,
putem scrie ca, pentru un q M
t[g,f ]

qe

k

t
k=1

k!

q (ad g)k f,

iar convergenta seriei are loc uniform pe compacte din IR. Cum q(ad g)k f
Lieq F, rezulta ca q et[g,f ] Lieq F si deci Ad etg f S.
O alt
a consecinta remarcabila a teoremei orbitei este teorema lui Frobenius. Pentru a descrie acest rezultat introducem notiunea de distributie .
Se numeste distributie de dimensiune m < n pe M o familie de subspatii
tangente n ecare punct q al variet
atii, = {q Tq M : q M }, de
a distributia este integrabil
a daca
dimensiune dim q = m. Vom spune c
77

n vecin
atatea ecarui punct q0 exista o subvarietate Nq0 de dimensiune m
astfel nc
at pentru orice q Nq0 are loc Tq Nq0 = q .
Notam cu Sec = {f Vec M : f (q) q , q M }.
Teorema 5.2.2. Distributia T M este integrabil
a dac
a si numai
dac
a are loc conditia lui Frobenius:
(5.9)

f1 , f2 Sec = [f1 , f2 ] Sec

Demonstratie Presupunem c
a distributia este integrabila. Deoarece
atatea
orice camp vectorial din Sec este tangent la Nq0 , rezulta ca, n vecin
at cu F = Sec are loc (5.2), rezult
a ca dim Oq0
lui q0 , Oq0 Nq0 . Intruc
atatea lui q0 , Nq0 = Oq0 . Includim Lieq0 Sec dim Nq0 si deci, n vecin
ziunea (5.2) devine astfel egalitate si deci are loc (5.9).
Reciproc, presupunem c
a are loc (5.9). Atunci, n vecin
atatea lui q0
putem g
asi f1 , . . . , fm , baz
a pentru . Deoarece are loc (5.9), rezulta ca
atatea lui q0 , astfel nc
at
exista kij C , i, j, l = 1, . . . , m, denite n vecin
[fi , fj ] =

kij fk .

k=1

Aceasta ne spune ca Lie Sec = Sec deci Lie Sec este modul nit
generat peste C . Asadar (5.2) are loc cu egalitate si deci Tq Oq0 = q .
Rezulta ca varietatea integral
a cautat
a este Nq0 = Oq0 .

78

CAPITOLUL 6

Principiul de maxim al lui Pontriaghin


6.1. Multimi accesibile si probleme de control optimal
In ceea ce urmeaza consider
am ecuatia controlat
a, pe varietatea n dimensional
a M , cu dat
a initiala xat
a:

q(t)
= f (q(t), u(t)) =: f u(t) (q(t))
(6.1)
q(0) = q0
Ipotezele asupra lui f si asupra controalelor (strategiilor) admisibile U sunt
astfel nc
at pentru orice u U, campul vectorial neautonom f u(t) satisface
ipotezele din teorema lui Caratheodory 4.1.1. De exemplu, vom presupune
ca:
U IRm este multime nchisa iar multimea strategiilor admisibile
U = {u : [0, T ] U : u L (0, T )}
f, fq sunt functii continue n ansamblul variabilelor (q, u)
Multimea accesibil
a la momentul t se deneste dupa cum urmeaza:
 t

f u( ) d |u U }
Aq0 (t) = {q0 exp

exp
Notam cu q u (t) = y0

f u( ) d iar uxul corespunz


ator ecuatiei:

Fst

=
exp

f u( ) d.

In cele ce urmeaza vom vedea cum problemele de control optimal se


reduc la studiul multimilor accesibile.

Teorema 6.1.1. Dac


a q u (T ) Aq0 (T ) (frontiera multimii Aq0 (T )),

atunci pentru orice 0 < s < T , q u (s) Aq0 (s).


at FsT este
Demonstratie Observam ca FsT (Aq0 (s)) Aq0 (T ) si, ntruc
T
a.
difeomorsm, Fs (int Aq0 (s)) int Aq0 (T ) iar concluzia este imediat
Vom numi de asemenea optimale aceste traiectorii care n ecare moment t se aa pe frontiera multimii acessibile corespunzatoare, iar controlul
corespunz
ator l numim control optimal .
Consider
am ecuatia controlat
a (6.1). Fie un lagrangean L pe T M si l
o functie reala denit
a pe M . Problema de control optimal este de a gasi
79

controlul admisibil u U astfel nc


at (u, q u ) minimizeaza o functionala de
cost J. Dup
a forma functionalei de cost J distingem trei tipuri de probleme:

J(q, u) =

0 T

L(q(t), u(t))dt

Problema Lagrange

L(q(t), u(t))dt + l(q(T )) Problema Bolza

J(q, u) =
0

J(q, u) = l(q(T ))

Problema Mayer .

Vom vedea ca cele trei probleme sunt formal echivalente, diferentele


ap
ar
and la conditiile de regularitate care trebuiesc impuse asupra functiilor
ce intervin.
O problem
a Lagrange cu L 1 si T liber devine o problem
a de timp
optimal.
Un control optimal u se numeste control bang-bang daca u U a.p.t.
t (0, T ).
Consider
am pentru nceput cazul problemei Lagrange cu cap
atul nal
xat:
q(T ) = q1 .
Pentru a reduce problema la o problema de multimi accesibile, introducem
o nou
a variabil
a j si consider
am un nou sistem:

j = L(q, u)
q = f (q, u)
(6.2)

q(0) = q0 , j(0) = 0
cu datele initiale Consideram multimea controalelor u U astfel nc
at
q u (T ) = q1 . Daca (u , q ) este pereche optimala atunci
(j(T ), q (T )) A(0,q0 ) (T )
a multimea accesibila pentru sistemul (6.2). Aceasta
unde A(0,q0 ) reprezint
transformare are inconvenientul c
a nu distinge ntre traiectoriile ce realizeaza
minimul lui J si cele care realizeaza maximul. Pentru a corecta acest lucru,
consider
am o multime extinsa de controale U = {(u, v)|u U, v [0, +)}
si problema modicata

j = L(q, u) + v
q = f u (q)
(6.3)

q(0) = q0 , j(0) = 0
Daca u este control optimal pentru problema Lagrange atunci (u , 0) este
control optimal pentru (6.3).
Deoarece problema Mayer este un caz particular al problemei Bolza, descriem n cele ce urmeaza reducerea la o problem
a de multimi accesibile n
cazul celei din urm
a, cu cap
atul nal liber.

Introducem noua variabil
a de stare j, multimea extinsa de controale U
si consider
am noul sistem de stare:
80

(6.4)


j = L(q, u) + Lf u l(q) + v

q = f (q, u)
.

q(0) = q0 , j(0) = 0

unde, Lf u l este derivata Lie a lui l, care se exprima n coordonate locale


n

l
(q)fi (q, u). Ca si n cazul problemei Lagrange, dac
a
prin Lf u l(q) =
qi
i=1
u este control optimal pentru problema Bolza, atunci (u , 0) este control
optimal n problema (6.4).
Am vazut asadar c
a studiul problemelor de control optimal se reduce la
studiul multimior accesibile, mai precis la studiul acelor traiectorii care au
cap
atul nal pe frontiera multimii accesibile la acel moment.
6.2. Forma geometric
a a principiului de maxim al lui Pontriaghin
In cele ce urmeaza consider
am ecuatia controlat
a (6.1):

u
q = f (q, u) =: f (q)
(6.5)
q(0) =0
unde f veric
a, n coordonate locale, ipotezele din paragraful precedent.
Pentru u U consider
am hamiltonianul H u := (f u )# denit de (4.21).
Teorema 6.2.1. Presupunem c
a pentru controlul admisibil u (t), t

a o curb
a Lipschitz, netrivial
a, n fi[0, T ], q u (T ) Aq0 (T ). Atunci exist
bratul cotangent, (t) Tqu (t) M , solutie a ecuatiei lui Hamilton (v. (4.20)):

d
(t) = H u (t) ((t)).
dt

In plus, urm
atoarea conditie de maximalitate este satisf
acut
a:
u

u (t)

((t)) = max H ((t)).


H
uU

Demonstratie Ideea de demonstratie este de a considera drept curb


a (t) o
curb
a de covectori ortogonali n ecare punct la frontiera multimii accesibile
Aq0 (t).
a n 0 cu
Pasul 1 Fie T : IRN IRn Lipschitz continua si diferentiabil
T(0) = 0. Not
am cu T0 = DT(0) si cu
N
IRN
+ = {(x1 , . . . , xN ) IR |xi 0}.
n
atate V a lui
Demonstr
am ca dac
a T0 (IRN
+ ) = IR , atunci pentru orice vecin
N
N
0 n IR , 0 int T(V IR+ ).

a ca T0 |int IRN este surjectiv si e un


Din convexitatea lui IRN
+ rezult
+
N
at y + B int IRN
y int IR+ cu T0 (y) = 0 si > 0 astfel nc
+.
81

Se observ
a cu usurinta ca se poate gasi un subspatiu liniar ndimensional
at T0 (X) = IRn deci T0 |X este inversabil. Fie D = B X
X IRN astfel nc
si pentru > 0 e functiile continue T : D IRn :
T (v) =

1
T((y + v))

at 0 int T0 (D)
Se veric
a cu usurinta ca T T0 uniform pe D si ntruc
rezulta ca 0 int T (D) pentru > 0 sucient de mic sau, echivalent,
0 int T((y + B )) ceea ce ncheie demonstratia pasului 1.
Pasul 2 Consider
am un control admisibil u(t) si expim
am punctul nal al
traiectoriei folosind a doua form
a a formulei variatiei constantelor (4.18):
 T

u
f u (t) + (f u(t) f u (t) )dt =
q (T ) = q0 exp
0

(6.6)

= q (T )
exp
u

(FtT ) (f u(t) f u

(t)

)dt

Notam cu
gt,u = (FtT ) (f u f u

(t)

si e L multimea punctelor Lebesgue ale lui u . Amintim ca punctele


 t+h

u (s) u (t)/h = 0.
Lebesgue ale lui u sunt punctele t n care lim
h0 t

Teorema lui Lebesgue ne spune ca pentru o functie integrabil


a aproape toate
punctele sunt puncte Lebesgue.

Presupunem c
a conul convex nchis W generat de {gt,u (y u (T ))|t
L, u U } coincide cu ntregul spatiu tangent Tyu (T ) M . Demonstram

ca daca se nt
ampl
a acest lucru atunci n mod necesar q1 := q u (T )
ar, se poate atunci g
asi o multime nita de puncte
int Aq0 (T ). Intr-adev
at W este generat de
0 < t1 < . . . < tN < T si u1 , . . . , uN U astfel nc
multimea nita {gti ,ui |i = 1, . . . , N }. Pentru x = (x1 . . . xN ) IRN
+ consider
am controlul:

t [ti , ti + xi ]
ui ,
ux (t) =

u (t), t [0, T ] \ N
i=1 [ti , ti + xi ]
Formula variatiei constantelor (6.6) ne d
a:
 T
x
x

exp
f u (t) dt =
q u (T ) = q0
0 

(6.7)
t1 +x1

u
t,u1
g dt exp
= q (T ) exp
t1

tN +xN

tN

Consider
am acum aplicatia:
x

T(x1 , . . . , xN ) = q u (T ),
82

x1 , . . . , xN IR.

gt,un dt

Se veric
a cu usurinta ca T este Lipschitz continua, T(0) = q1 si
T
|
= gti ,ui (y1 ).
xi (0,...,0)
Ipotezele pasului 1 din demonstratie sunt vericate si, n consecinta,
q1 int T(V IRN
+)
at ux este control admisibil
pentru orice vecin
atate V a lui 0 n IRN . Intruc
deducem ca
q1 int Aq0 (T )

Pasul 3 Presupunem c
a q u (T ) Aq0 (T ). Deoarece 0 W, exista un
at
hiperplan suport denit de (T ) Tqu (T ) M ,(T ) = 0 astfel nc

((T ), gT,u (q u (T ))) 0 a.e. t [0, T ], u U


Aceasta nseamna exact ca

[(FtT ) (T )](f u (q u (t))) [(FtT ) (T )](f u (q u (t)))


Fie

(t) = (FtT ) (T ).
Conditia de maximalitate este satisfacut
a si, din (4.22),

d
(t) = H u (t) ((t)),
dt
ceea ce ncheie demonstratia.
6.3. Probleme de control optimal cu timp final liber
Din punctul de vedere geometric, n cazul problemelor Lagrange sau
Bolza considerate n 6.1, dac
a timpul nal T este liber, concluzia este
ca pentru problemele echivalente (6.2), respectiv (6.4), perechea optimal
a

((u , 0), (j , y u ) satisface, pentru > 0 sucient de mic


(6.8)

(j (T ), q u (T )) (|T t|< A(0,q0 ) (t)).

Are loc urm


atorul principiu de maxim,n forma geometric
a, pentru problemele de control cu timp liber:
Teorema 6.3.1. Presupunem c
a pentru controlul admisibil u (t), t
[0, T ],

q u (T ) (|T t|< Aq0 (t))


Atunci exist
a o curb
a Lipschitz, nenul
a, n fibratul cotangent (t) Tqu (t) M
solutie a ecuatiei lui Hamilton

d
(t) = H u (t) ((t))
dt
si urm
atoarea conditie de maximalitate este satisf
acut
a:
(6.9)

Hu

(t)

((t)) = max H u(t) ((t)).


uU

83


In plus fat
a de cazul timpului fixat are loc:
Hu

(6.10)

(t)

((t)) = 0

a.p.t. t [0, T ]

Demonstratie Problema de control optimal cu timp liber se poate reduce la o problem


a cu timp xat consider
and o reparametrizare a traiectoriilor sistemului initial si introduc
and un control suplimentar legat de
reparametrizarea timpului in felul urm
ator:
Fie reparametrizarea timpului:
t = (s),  > 0.
Atunci solutia q u (s) = q u ((s)) satisface
d u
q (s) =  (s)f u((s)) (q)
ds
Sistemul modicat este

q  = f u (q) u U, | 1| < < 1


T

q(0) = q0
Controalele admisibile sunt functiile masurabile, marginite, de forma v(t) =

iar solutia corespunzatoare se noteaza cu q v (t).


((t), u(t)), | 1|
T

at q u (T ) (|T t|< Aq0 (t)),


Notand cu v (t) = (1, u (t)) atunci , ntruc

rezulta ca q v (T ) Aq0 (T ) si, n acest punct, principiul de maxim stabilit


n cazul timpului xat poate aplicat. Hamiltonianul este
H v () = H u (), v = (, u)

Sistemul hamiltonian pentru H v este acelasi ca si pentru H u . Conditia de


maximalitate devine

H v ((t)) = H u

(t)

((t)) =

de unde rezult
a relatiile (6.9), (6.10).

84

max

|1|<T,uU

H u ((t))

6.4. Principiul de maxim pentru problemele de control optimal


In aceast paragraf vom explicita principiul de maxim prezentat n 6.2
pentru diferitele probleme de control ce apar n practic
a, utilizand transformarea descrisa n 6.1. Consider
am din nou sistemul controlat (6.1), pentru
am starea sistemului cu y iar derivata cu y  :
simplitate n M = IRn si not

y (t) = f (y(t), u(t)) =: f u(t) (y(t))
(6.11)
y(0) = y0
Problema Lagrange. Ne propunem s
a minimiz
am functionala de cost
 T
L(y(t), u(t))dt
J(y, u) =
0

pentru y veric
and (6.11) si
y(T ) = y1 .
Lagrangeanul L veric
a ipoteza:
L, Ly sunt functii continue n ansamblul variabilelor (y, u).
Consider
am sistemul (6.3). Starea adjunct
a este (, p), IR, p IRn ,
hamiltonianul
H u,v (j, y, , p) = (L(y, u) + v) + p f (y, u).
Presupunem c
a u este control optimal iar y este solutia corespunzatoare
controlului optimal (u , 0) n problema de multimi accesibile asociata. Notam
cu H u (y, p) := H u,0 (j, y, , p) pentru un xat. Sistemul adjunct este
(6.12)

 = 0
H u
H u,v
(j, y, , p) =
(y, p) = (fy (y , u)) p Ly (y , u)
p =
y
y
Principiul de maxim ne spune c
a exista (, p) solutie netrivial
a a sistemului
adjunct astfel nc
at
Hu

,0

(j , y , , p) = max H u,v (j , y , , p).


uU,v0

Cum = cst rezulta ca maximul se poate atinge dac


a si numai dac
a 0.
Distingem dou
a situatii: = 0 si < 0. Daca = 0 vom spune c
a problema
este singulara. Daca < 0 problema se numeste normal
a si putem considera
= 1. Deci

H u = max H u (y , u ).
uU

Facem aici observatia ca principiul de maxim este util pentru determinarea


controlului optimal n cazul normal, ntruc
at hamiltonianul depinde efectiv
de L, care identic
a de fapt problema de control.
Daca presupunem c
a cap
atul nal se misca liber pe o subvarietate M1 ,
apar n plus conditiile de transversalitate :
p(T ) M1 n y (T ).
85

Vom discuta conditiile de transversalitate n 6.5.


Problema Bolza. Ne propunem s
a minimiz
am functionala de cost
 T
L(y(t), u(t))dt + l(y(T )),
J(y, u) =
0

pentru y veric
and (6.11) si y(T ) liber. l este o functie de clasa C 2 . Aceast
grad de regularitate sporit este util numai pentru a obtine principiul de
maxim reducand problema la o problem
a Lagrange nsa forma principiului
de maxim r
amane valabil
a si daca l este numai de clasa C 1 .
Am vazut n 6.1 cum o problem
a Bolza se reduce formal la o problema
Lagrange cu cap
atul nal liber. Aplic
am principiul de maxim pentru sistemul extins (6.4). Presupun
and c
a u este control optimal, exista perechea
u,v denit
(, ) = (0, 0) care verica sistemul adjunct, cu hamiltonianul H
n mod uzual:

=0

u ,0

 = H
(j, y, , ) =
y
n

, u )) L (y , u) (

(y
(q)fi (q, u))
=
(f

y
y

y
qi
i=1

si conditia de transversalitate
(T ) = 0.
In plus, este vericata conditia de maximalitate
u,v (y (t), (t)).
u ,0 (y (t), (t)) = max H
H
uU,v0

Daca not
am cu

p(t) = (t) + l(y (t))

si cu
H u (t, y, p) = (p, f (y, u)) + L(y, u)
obtinem ca exista perechea (, p) netrivial
a astfel nc
at este vericat sistemul
adjunct obisnuit

=0

(6.13)
H u

p =
(y , p) = fy (y , u )p Ly (y , u)
y
mpreun
a cu conditia de transversalitate
p(T ) = l(y (T )).
Daca presupunem c
a y(T ) este liber s
a se miste pe o subvarietate diferentiabil
a
M1 conditia de transversalitate devine
p(T ) l(y (T )) M1 n y (T ).

86

Probleme cu timpul final liber. Consider


am una din problemele de control anterioare pentru ecuatia autonom
a (6.11) dar cu timpul nal liber.
Apare deci o necunoscut
a n plus, T , pentru care supliment
am sistemul
hamiltonian determinat anterior ((6.11),(6.12), respectiv (6.11),(6.13))cu
conditia (6.10) determinat
a n 6.3:

H u (y (t), p(t)) 0.
Probleme neautonome. Consider
am acum cazul n care functiile ce intervin n problem
a, f, L, depind explicit de timpul t. Pentru nceput consider
am timpul nal T xat. Ad
aug
am urm
atoarea ipotez
a de regularitate:
f, ft , L, Lt continue n raport cu ansamblul variabilelor (t, y, u).
Ca de obicei, se transform
a sistemul ntr-un sistem autonom prin introducerea unei variabile suplimentare yn+1 = t. Sistemul de stare (6.11) se
completeaza cu ecuatia

yn+1
= 1, yn+1 (0) = 0.

In sistemul de stare apare o variabil


a suplimetar
a, pn+1 . Hamiltonianul
sistemului este
u (yn+1 , y, p, pn+1 ) = pn+1 + H u (yn+1 , y, p).
H
Sistemul hamiltonian se suplimenteaz
a asadar cu ecuatia

pn+1 = H u (t, y, p).


t
Conditia de maximizare ramane aceeasi ca n cazul autonom

H u (t, y , p) = max H u (t, y , p)


uU

iar perechea (, p) este netrivial


a. Facem observatia ca din principiul de
maxim pentru sistemul autonom se obtine de fapt c
a tripletul (, y, yn+1 )
a
este netrivial, ns
a, ntruc
at yn+1 este liber (are o valoare bine determinat
obtinut
a n urma integr
arii ecuatiei, dar nu precizat
a a priori) vom lua
pn+1 (T ) = 0
si se vede ca daca (, p) (0, 0) atunci n mod necesar pn+1 0.
Daca timpul nal T este liber, atunci variabila adjunct
a pn+1 intervine

explicit si are loc conditia de anulare a hamiltonianului H:


u (t, y , p, pn+1 ) = pn+1 + H u (t, y , p) 0.
H
Daca, n plus, cap
atul nal y(T ) este liber s
a se miste pe o subvarietate
a sistemul cu conditiile de transversalitate coreM1 , atunci se suplimenteaz
spunz
atoare.

87

6.5. Leg
atura dintre principiul de maxim si principiul
program
arii dinamice
In cele ce urmeaza vom pune n evidenta legatura dintre principiul de
maxim al lui Pontriaghin si ecuatia program
arii dinamice a lui Bellman.
Consider
am problema de control optimal de tip Bolza care a fost studiat
a
n 6.4. Principiul de maxim pentru aceast
a problem
a ne spune c
a, dac
a u
este un control optimal, atunci exist
a {0, 1} si p(t), (, p) = (0, 0) ,
astfel nc
at (y, p) veric
a sistemul hamiltonian

H (t, y , p)
y  = f (t, y , u ) =

(6.14)
p = (p, fy (t, y , u )) + Ly (t, y , u ) = H u (t, y , p)

p(T ) = l(y (T ))
unde H u (t, y, p) = (p, f (t, y, u)) + L si
Hu

(t)

(t, y (t), p(t)) = max H u (t, y (t), p(t)).


uU

In 3.3, teorema 3.3.1 s-a aratat ca functia valoare , n cazul n care este
a ecuatia programarii dinamice (3.14):
de clasa C 1 , veric

t H(t, x, x ) = 0
(6.15)
(T, x) = l(x)
unde H(t, x, p) = max H u (t, x, p). Notand cu S = , obtinem
u

St + H u (t, x, Sx ) = 0
iar aceasta este exact ecuatia Hamilton-Jacobi (v.2.3) ce corespunde sistemului hamiltonian (6.14) ce apare n principiul de maxim al lui Pontriaghin.
Urm
atoarea teorema stabileste principiul de maxim pentru problema de
control considerat
a, f
acand apel la ecuatia lui Bellman. Ipotezele considerate
sunt, desigur, restrictive ns
a rezultatul pune n lumin
a legatura dintre cele
dou
a ramuri ale teoriei controlului optimal, ind un analog al teoremei lui
Jacobi din Calculul variatiilor. Aceasta problem
a, n ipoteze generale, a fost
studiat
a n [15].
Teorema 6.5.1. Presupunem c
a u este control optimal iar functia va2
a
loare este de clas
a C . Atunci problema de control optimal considerat

este normal
a. In plus, dac
a not
am cu
(6.16)

p = x (t, y (t))

atunci (y , p) satisface (6.14) cu = 1.


Demonstratie Cum C 1 , din teorema 3.3.1, aceasta este solutie pentru
(6.15). Deci
d
p(t) = tx (t, y (t)) xx (t, y (t))f (t, y , u ).
(6.17)
dt
88

Pe de alt
a parte, din principiul program
arii dinamice,
d
(t, y (t)) = L(t, y (t), u (t)) =
dt
= t (t, y (t)) + (x (t, y (t)), f (t, y (t), u (t))).
Aceasta, mpreun
a cu ecuatia lui Bellman satisf
acut
a de , ne spune c
a

perechea (y (t), u (t)) realizeaza minimul pentru functia (x, u) t (t, x) +


(x (t, x), f (t, x, u)) + L(t, x, u). Rezulta ca derivata n raport cu x calculata
n (t, y (t), u (t)) este 0 adica
xt (t, y (t)) + xx (t, y (t))f (t, y (t), u (t))+
+(x (t, y (t)), fy (t, y (t), u (t)) + Ly (t, y (t), u (t)) = 0,
ceea ce, mpreun
a cu (6.17) ncheie demonstratia.
Conditii de transversalitate.
Daca n problema de control optimal de tip Bolza considerat
a anterior
avem o restrictie suplimentar
a asupra cap
atului nal:
y(T ) M1
unde M1 este o subvarietate diferentiabil
a a spatiului st
arilor sistemului,
atunci, n principiul de maxim al lui Pontriaghin, conditia
p(T ) = l(y (t))
este nlocuit
a cu conditia de transversalitate
p(T ) + l(y (T )) ortogonal pe M1 .
Nu vom demonstra acest lucru n cazul general ns
a facem observatia ca
functia valoare veric
a
(T, x) = l(x), x M1
de unde, presupun
and c
a functia valoare este de clasa C 2 , rezulta ca
(T, x) l(y (T )) M1 n y (T )
deci, din (6.16), obtinem imediat conditia de transversalitate.
Cazul unei probleme Lagrange cu timpul nal y(T ) M1 este caz particular al problemei Bolza cu l 1 iar conditia de transversalitate devine
p(T ) M1 n y (T ).
89

6.6. Probleme de control optimal - exemple


Exemplul 6.6.1. Oprirea unui tren n statie. Consider
am miscarea unui
tren. Controlul se face prin intermediul fortei aplicate, iar scopul este de a
aduce trenul n statie si de a-l opri. Sistemul este modelat de ecuatia
my  = u,
unde m reprezint
a masa, y pozitia si u forta aplicata. Scris
a ca un sistem
de ordinul I (not
and cu y1 = my) ecuatia ia forma:

y1 = y2
(6.18)
y2 = u.
a forta
Starea sistemului este y = (y1 , y2 )T IR2 , controlul u IR reprezint
care este aplicata (forta motoare sau forta de fr
anare), starea initiala este
a y(T ) = (0, 0)T .
y(0) = y0 = (y10 , y20 )T iar starea nal
Cost optimal. Se pune problema opririi trenului cu consum minim de energie. Consider
am pentru aceasta situatie functionala de cost

1 T 2
u dt
J(y, u) =
2 0
si caut
am solutia problemei corespunz
atoare de control optimal. Not
am cu
T
p = (p1 , p2 ) starea duala. Hamiltonianul sistemului este

H u (y, p) = p1 y2 + p2 u + u2
2
Sistemul dual este

p1 = 0
p2 = p1
Principiul de maxim ne spune c
a
(6.19)

H u (y , p ) = max H u (y , p )
uIR

Pentru nceput ne convingem c


a problema este normal
a. Daca ar 0,
atunci starea dual
a ar netrivial
a p2 = 0. Dar atunci max p2 u nu se atinge.
uIR

Asadar putem considera = 1 iar maximul n (6.19) se atinge n u = p2 ,


deci hamiltonianul maximizat este
1
Hmax = p1 y2 + p22 .
2
Pentru a aa traiectoriile optimale trebuie s
a rezolvam sistemul hamiltonian
corespunz
ator lui Hmax :

y = y2

1
y 2 = p2
p = p2

1
p2 = p1
cu conditiile la limit
a:
y1 (0) = y10 , y2 (0) = y20 , y1 (T ) = 0, y1 (T ) = 0 .
90

Sistemul acesta este un sistem liniar si se integreaza cu usurinta (y1IV = 0).


Cele patru constante de integrare se determin
a n mod unic din conditiile la
limit
a. Controlul optimal este apoi determinat prin formula
u (t) = p2 (t).
Timp optimal. Starea nal
a este y1 (T ) = 0, y2 (T ) = 0 si scopul este de a
o atinge n timp minim. Pentru problema de timp optimal vom considera
U = [1, 1]. Existenta solutiei rezulta din teorema 3.6.1 iar unicitatea
este consecinta aceluiasi rezultat, deoarece ipoteza (3.43) este vericata.
Hamiltonianul sistemului este:
H u (y, p) = p1 y2 + p2 u,
iar hamiltonianul maximizat devine
Hmax (y, p) = max H u (y, p) = p1 y2 + |p2 |.
|u|1

Hamiltonianul maximizat nu mai este de clas


a C 2 , ns
a putem n continuare
obtine informatii din principiul de maxim, care n acest caz spune ca

H u (y , p ) = max H u (y , p ) 0,
|u|1

unde p = (p1 , p2 ) este starea adjuncta n raport cu hamiltonianul H u :



p1 = 0
(6.20)
p2 = p1 .
Deci

u (t) = sign (p2 (t)) = sign (t + ).


unde , sunt constante de integrare pentru sistemul adjunct. Din formula
pentru u rezulta ca acesta ia numai valorile 1 si are cel mult un punct
de comutare. Traiectoriile care ajung n origine f
ar
a schimbarea controlului
sunt solutiile sistemului cu u = 1 sau u = 1. Traiectoriile respective sunt
semiparabolele de ecuatii
y22
y2
, y2 < 0; y1 = 2 , y2 > 0.
2
2
a semiparabole,
Daca un punct (y10 , y20 ) nu apartine uneia dintre cele dou
atunci numai o traiectorie, corespunz
and controlului u = 1 sau u = 1,
va trece prin acest punct si va nt
alni una dintre cele dou
a semiparabole.
Aceasta este traiectoria de timp optimal care continua p
ana n origine cu
portiunea din semiparabola corespunz
atoare.
y1 =

Exemplul 6.6.2. Problema pozition


arii sau problema aselenizarii line.
Ne propunem s
a pozition
am o nav
a, n miscare pe directie verticala n c
amp
gravitational si asupra careia action
am cu o forta u U = [F, F ]. Ecuatia
ce modeleaza miscarea este
(6.21)

M y  = u M g
91

unde M reprezint
a masa navei iar g acceleratia gravitationala. Sistemul de
stare, not
and cu y1 = M y, devine

y1 = y2
(6.22)
y2 = M g + u
Ne propunem determinarea unui control admisibil astfel nc
at la momentul
a proprietate.
T sa avem y1 (T ) = 0, y2 (T ) = 0, iar T sa e minim cu aceast
Putem sa renot
am controlul si consider
am noul control
u
= u Mg
cu u
[M g F, M g + F ]. Sistemul (6.22) este de aceeasi forma cu
sistemul (6.18), ns
a, spre deosebire de problema opririi unui tren n statie,
apare restrictia de stare
y1 0.
In plus este necesara conditia ca
F > M g,
altminteri acceleratia mobilului este ntotdeauna negativ
a si deci problema
nu are solutie.
Asadar, n problema de timp optimal avem aceleasi solutii ca si n cazul
opririi unui tren n statie (cu deosebirea ca parabolele respective ce compun
traiectoria optimal
a corespund controalelor u
= F M g, respectiv u
=
F + M g) ns
a vom retine drept acceptabilie numai solutiile care r
aman n
semiplanul y1 0. Daca solutia n semiplanul y1 < 0, aceasta semnica n
situatia de fata ca nu putem pozitiona lin mobilul: acesta va atinge solul cu
viteza nenul
a.
Pozitionarea cu optimizarea timpului si a consumului de combustibil. Presupunem c
a consumul de combustibil este proportional cu forta aplicata:
c = u si ne propunem sa optimiz
am simultan consumul si timpul de
pozitionare T . Functionala de cost pe care o consideram n acest caz este
 T
(k + |u|)dt.
J(y, u) =
0

unde k este o constanta pozitiv


a ce exprima ponderea pe care o are optimizarea timpului n raport cu optimizarea consumului de combustibil. Avem
deci de rezolvat o problem
a Lagrange cu timpul nal liber. Hamiltonianul
sistemului este:
H u (y, p) = p1 y2 + p2 (u M g) + (|u| + k)
a starea adjunct
a iar {1, 0}. Daca am
unde p = (p1 , p2 )T reprezint
considera = 0 am obtine n nal traiectoriile ce corespund problemei de
timp optimal. Vom considera asadar = 1. In cele din urm
a se poate
verica ca costul obtinut este mai mic decat de-a lungul traiectoriei din cazul
timpului optimal. Principiul de maxim al lui Pontriaghin pentru problemele
92

cu timp liber ne spune c


a exista o solutie (y , p) a sistemului cu hamiltonianul

at
H (u controlul optimal) astfel nc

H u (y , p) = max H u (y , p) 0.
|u|F

Un calcul elementar ne arat


a ca

F
0
u =

acest maxim se atinge n


pentru p2 > 1
pentru 1 < p2 < 1 .
pentru p2 < 1

Sistemul adjunct este (6.20) deci solutia are forma p1 = , p2 = t + .


Daca = 0 rezulta ca controlul va lua valorile (+F, 0, F ) sau (F, 0, F )
n aceast
a ordine (sau o parte a acesteor succesiuni ns
a n niciun caz nu va
comuta de la F la F sau invers, ca n cazul problemei de timp optimal).
De asemenea nu vom putea ajunge n (0, 0) cu controlul u = F deoarece
aceasta ar nsemna ca y2 (t) > 0 pentru t < T sucient de apropiat de T ,
deci y1 (t) < 0. Rezulta ca numai succesiunea (F, 0, F ) este posibila.
S
a presupunem pentru exemplicare c
a y1 (0) = y10 > 0, y2 (0) = 0. S
a

observ
am ca = 0. Intr-adev
ar, dac
a = 0, atunci p1 0, p2 iar
a > 0, atunci maximul hamiltoniH u (y, p) = (u M g) (|u| + k). Dac
anului este max|u|F = M g k < 0, contradictie. Daca < 0, atunci
maximul se atinge pentru u negativ, deci controlul optimal p
astreaza semn
negativ, ceea ce ar nsemna ca ajungem n (0, 0) cu acceleratie negativ
a.
Din acelasi motiv controlul initial nu poate 0, deci ntreaga succesiune
(F, 0, F ) este parcursa de controlul optimal u . Cum perechea (, ) este
determinat
a p
ana la o constant
a multiplicativ
a, putem considera = 1 si
< 1. Necunoscutele sunt deci si timpul nal T , care se determina
din conditia de anulare a hamiltonianului si datele initiala si nala pentru
asam ca exercitiu acest calcul, precum si determinarea momentelor
(y1 , y2 ). L
de comutare.
Pozitionarea cu variatia masei datorata consumului de combustibil. Daca
tinem cont de faptul c
a masa navei variaz
a ca urmare a consumului de
combustibil, trebuie sa supliment
am ecuatia (6.21) cu ecuatia
M  = |u|
#, M
# ind masa vehiculului f
si restrictia de stare M M
ar
a combustibil.
and numai controale pozitive u U = [0, F ], obtinem
Cu y1 = y si consider
sistemul de stare


y1 = y2
u
y2 = g +
(6.23)
M

M  = u
Ne propunem pozitionarea lin
a cu consum minim de combustibil deci avem
o problem
a de tip Mayer cu functionala de minimizat
J(u, (y1 , y2 , M )) = M (T )
93

si cu timp nal liber. Conditiile la capete care se impun sunt:


y1 (0) = y10 > 0, y2 (0) = 0, y1 (T ) = 0, y2 (T ) = 0.
Notam cu y = (y1 , y2 , M ), p = p1 , p2 , p3 . Hamiltonianul sistemului este
H u (y, p) = p1 y2 + p2 (M 1 u g) p3 u.
Sistemul adjunct este

p1 = 0
p2 = p1

p3 = up2
M2
Conditia de transversalitate care se adaug
a este
p3 (T ) = 1

si, ntruc
at avem o problem
a cu timpul nal liber,

H u (y , p) = max H u (y , p) 0.
uU

Conditia de maximizare a hamiltonianului ne d


a o formul
a pentru controlul
optimal n functie de starea adjunct
a:

0
daca p2 M 1 p3 < 0

u =
F dac
a p2 M 1 p3 > 0
Functia h(t) = p2 (t)M 1 (t) p3 (t) este monotona deoarece un calcul simp1 (t)
. Punctele de comutare ale controlului optimal
plu ne arat
a ca h (t) =
M (t)

u sunt zerourile functiei g. Daca p1 = 0, atunci functia h este strict monoa p1 0 si


ton
a si deci controlul u are cel mult un punct de comutare. Dac
functia h s-ar anula pe un ntreg interval deschis, atunci pe acest interval ar
rezulta, din conditia de anulare a hamiltonianului, c
a p2 = 0 deci pe [0, T ]
are loc p2 0 si p3 1. Ar rezulta ca u 0, absurd. Asadar, p1 = 0 si
and forma
controlul u are cel mult un punct de comutare, lu

0 t t
u (t) =
F t < t T.
Necunoscutele sunt n acest moment t, T pe care le determin
am integr
and
sistemul si impunand conditia ca y1 (T ) = 0, y2 (T ) = 0. Astfel, solutia are
expresia:
Pentru 0 t t:
M (t) = M0 , y2 (t) = gt, y1 (t) =

gt2
+ y10 .
2

Pentru t t T :
1 M0 F (t t)
,
M (t) = M0 F (t t), y2 (t) = gt ln

M0
gt2 M0 F (t t) M0 F (t t) t t
+
ln
+
y1 (t) = y10
2
2 F
M0

94

Rezolvarea sistemului y1 (T ) = 0, y2 (T ) = 0 folosind expresiile determinate


mai sus conduce la un sistem implicit n necunoscutele (t, T ). L
asam ca
exercitiu studiul acestui sistem si determinarea conditiilor de compatibilitate
care se impun (intuitiv, o mas
a de combustibil mic
a n raport cu n
altimea
a a mobilului).
initiala y10 nu va permite pozitionarea lin
Exemplul 6.6.3. Oscilatorul armonic controlat. Consider
am un oscilator armonic asupra caruia action
am cu o forta u. Acest sistem este modelat
de ecuatia
my  = ky + u
unde m este masa, k constanta de elasticitate, y reprezint
a pozitia iar u IR
controlul. Transform
am ecuatia ntr-un sistem de ordinul I si, rescaland
si consider
and constantele ce intervin egale cu 1, obtinem sistemul liniar
controlat:

y1 = y2
(6.24)
y2 = y1 + u
Scopul este de a aduce oscilatorul n starea de repaus n timpul T dat,
cunoscand starea initiala (y10 , y20 ).
Control optimal pentru oscilatorul armonic. Ne propunem s
a aducem sistemul n starea de repaus cu consum minim de energie dat
a prin functionala
de cost

1 T 2
u dt.
J(y, u) =
2 0
In primul r
and
sistemu se observ
 a ca sistemul este controlabil.
 Matricea

0 1
0
lui este A =
, operatorul de control B =
deci matricea
1 0
1
Kalman este nesingular
a:


0 1
[A|B] =
.
1 0
Existenta si unicitatea controlului optimal u pot obtinute printr-un argument aseman
ator celui folosit n demonstratia teoremei 3.4.1. Hamiltonianul
este
1
H u (y, p) = p1 y2 p2 y1 + p2 u + u2
2
iar starea adjunct
a p = (p1 , p2 ) veric
a sistemul

p1 = p2
p2 = p1 .
Principiul de maxim al lui Pontriaghin ne spune

H u (y , p ) = max H u (y , p )
u

iar perechea (p, ) = (0, 0). Daca = 0 atunci maximul se poate atinge
a
numai dac
a p2 = 0, caz n care si p1 ar nul. Deci problema este normal
95

si putem considera = 1. In acest caz controlul optimal se exprima n


functie de starea duala
u (t) = p2 (t) = a sin(t + b)
unde a, b sunt constante de integrare. Asadar, pentru a g
asi controlul optimal rezolvam sistemul initial cu controlul de forma dat
a:

y1 = y2
y2 = y1 + a sin(t + b)
si determin
am cele patru constante (a, b si celelalte doua constante de integrare) din conditiile la limit
a y(0) = (y10 , y20 ), y(T ) = (0, 0).
Timp optimal. Pentru problema de timp optimal vom considera o multime
marginit
a si convexa de controale U = {u IR : |u| 1}. Existenta
si unicitatea solutiei problemei de timp optimal rezult
a din teorema 3.6.1.
Hamiltonianul sistemului este
H u (y, p) = p1 y2 p2 y1 + p2 u
iar starea adjunct
a veric
a sistemul

p1 = p2
p2 = p1 .
cu solutia generala
p1 (t) = a cos(t + b), p2 (t) = a sin(t + b),
a, b constante cu a = 0 deoarece p = (0, 0). Din principiul de maxim,
hamiltonianul se maximizeaza de-a lungul traiectoriei optimale, deci
p2 (t)u (t) = max p2 (t)u.
|u|1

Rezulta asadar c
a
u (t) = sign (a sin(t + b)).
Din forma controlului optimal rezult
a ca acesta ia alternativ valorile 1
cu un num
ar nit de schimb
ari de semn la intervale de timp de unit
ati
(mai putin eventual la ultima schimbare). Solutiile sistemului cu controlul
constant u = 1 sau u = 1 veric
a respectiv sistemul

y1 = y2
y2 = y1 1
Traiectoriile sunt cercuri cu centrele n (1, 0), respectiv (1, 0). Traiectoriile optimale care ajung direct n origine f
ar
a schimbarea controlului sunt
semicercurile de ecuatii:
(y1 1)2 + y22 = 1, y2 0, u = 1;

(y1 + 1)2 + y22 = 1, y2 0, u = 1.

parcurse n sens orar. Celelalte traiectorii optimale sunt formate din succesiuni nite de arce de cerc parcurse n sens orar, cu centrele n (1, 0),
96

respectiv (1, 0) (alternativ), care, cu exceptia eventual a primului si a ultimului arc, sunt semicercuri. Punctele de comutare a controlului se a
a la
intersectia cu semicercurile de ecuatii:
(y1 (2k + 1))2 + y22 = 1, y2 0;

(y1 + (2k + 1))2 + y22 = 1, y2 0, k 1.

Exemplul 6.6.4. O problem


a de urm
arire 1-dimensional
a. O masin
a
de politie ce stationeaza este depasita de un autovehicul ce circul
a cu viteza
v = 1. Aceasta porneste n urm
arire. Scopul este de a ajunge masina si de
a continua apoi miscarea alaturi de aceasta. Sistemul de stare pentru prima
masin
a este (v. exemplul 6.6.1)

y1 = y2
y2 = u,
iar controlul u este cautat astfel nc
at la momentul atingerii tintei
y1 (T ) = T, y2 (T ) = 1.
Functionala pe care ne propunem s
a o minimiz
am tine cont atat de timpul
necesar, cat si de energia cheltuit
a si o alegem de forma
 T
1
(1 + u2 )dt.
J(y, u) =
2
0
a
Introducem o variabil
a de stare suplimentar
a y3 = t si ecuatia satisfacut
de aceasta
y3 = 0.
Hamiltonianul sistemului este
1
H u (y, p) = p1 y2 + p2 u (1 + u2 ).
2
Sistemul adjunct corespunz
ator controlului optimal u este

p1 = 0
p = p1
2
p3 = 0
iar conditiile de transversalitate n t = T :

p1 (T )
p2 (T ) = ,

p3 (T )
cu , constante. Solutia sistemului adjunct este p1 (t) = , p2 (t) = t +
T , p3 (T ) = . Conditia de maximizare a hamiltonianului de-a lungul
traiectoriei optimale ne d
a forma controlului optimal (am notat cu B =
T ):
u (t) = p2 (t) = t + B.
Integr
am acum sistemul de stare cu controlul optimal obtinut si obtinem
y1 (t) =

t3 Bt2
+
.
6
2
97

Conditiile nale mpreun


a cu anularea hamiltonianului ne dau sistemul

T 3 BT 2

+
=T

62
2

T
+ BT = 1

B 1=0
2
care rezolvat ne d
a valorile pentru , B, T .

98

Index

brahistocrona, 13, 17

Distanta dintre dou


a curbe, 34
Geodezicele unei variet
ati
riemanniene, 15, 25
Mecanica lagrangean
a, 13, 27
Miscarea n c
amp de forte central, 14,
27
O problem
a de urm
arire, 97
Oprirea unui tren n statie, 90
Oscilatorul armonic controlat, 95
Problema brahistocronei, 13, 17
Problema pozition
arii line, 91
Suprafata minim
a de rotatie, 12, 22
exponentiala cronologic
a
dreapta, 62
st
anga, 65
extrem local slab, 22
extremal
a, 1, 16, 23, 34

c
amp vectorial
complet, 60
hamiltonian, 69
neautonom, 59
catenara, 22
cicloida, 18
conditii
de transversalitate, 34, 89
necesar
a, 1
necesar
a, Jacobi, 19, 20, 24
necesar
a, Legendre, 2, 20, 24
suciente de minim local, 24
Weierstrass-Erdmann, 17, 35
control, 4
admisibil, 4, 5
bang-bang, 80
feedback, 4, 48
optimal, 4, 5, 79
controlabilitate
aproximativ
a, 4
exact
a, 4

ux, 60
hamiltonian, 69
forma Lax, 31
formula
Cartan, 67
variatiei constantelor, 67
functie
generatoare, 32
integrabil
a, 64
slab m
asurabil
a, 64
tare m
asurabil
a, 64

derivare, 62
distributie, 77
ecuatia
a doua a lui Euler, 19, 24
Euler-Lagrange, 2, 23, 29
Euler-Lagrange n IRn , 23
Hamilton, 69
Hamilton-Jacobi, 36
Hamilton-Jacobi-Bellman, 48
program
arii dinamice, 48
Riccati, 25
Riccati algebric
a, 54
Riccati diferential
a, 51
Exemple
Atractia de c
atre dou
a mase xe
egale, 14, 38

geodezic
a, 15, 25
hamiltonian, 29, 69
inegalitate de observabilitate, 43
integral
a prim
a, 31
integrala Bochner, 64
lagrangean, 1, 11, 13
regulat, 17, 23
lift hamiltonian, 71
99

matrice
de controlabilitate, 43
Kalman, 44
metoda variatiei constantelor, 67
metric
a riemannian
a, 15
modul
nit generat, 76
local nit generat, 76
multime accesibil
a, 79

de descompunere Kalman, 45
Frobenius, 77
Jacobi, 36
Kalman, 44
Nagano-Sussmann, 73
Noether, 26
orbitei, 73
transformare
canonic
a, 32
transformare canonic
a, 32
transformata Legendre, 30

orbita, 73
paranteza Poisson, 31, 70
principiul de maxim, 47
principiul minimei actiuni, 14
problema
Bolza, 80
de sintez
a, 48
Lagrange, 80
Mayer, 80
normal
a, 85
singular
a, 85
timp optimal, 80
punct conjugat, 19, 24

unic
a continuare, 43
variabile conjugate, 29
varietate
riemannian
a, 15
simplectic
a, 69

reprezentare
c
ampuri vectoriale, 61
difeomorsme, 61
puncte, 61
vectori tangenti, 61
sistem
aproximativ controlabil, 4
controlabil, 4
cu bucl
a nchis
a, 4, 48
hamiltonian, 30, 69
nul controlabil, 4
stabilizabil, 4
sistem liniar
aproximativ controlabil, 41
complet stabilizabil, 53
controlat, 41
controlat, clasicare, 45
echivalenta
, 45
nul controlabil, 41
stabilizabil, 53
spatiul controalelor, 4
stabilizare, 4
starea sistemului, 4
subdiferentiala, 30
teorema
bang-bang, 58
Chow-Rashevsky, 75
100

Bibliografie
[1] A. A. Agrachev, R. V. Gamkrelidze. Exponential representation of ows and a chronological enumeration. Mat. Sb. (N.S.), 107(149)(4):467532, 639, 1978.
[2] Andrei A. Agrachev, Yuri L. Sachkov. Control theory from the geometric viewpoint,
volume 87 of Encyclopaedia of Mathematical Sciences. Springer-Verlag, Berlin, 2004.
Control Theory and Optimization, II.
[3] V. I. Arnold. Mathematical methods of classical mechanics, vol. 60, Graduate Texts
in Mathematics. Springer-Verlag, New York, 1978.
[4] V. Barbu. Ecuatii diferentiale. Editura Junimea, 1985.
[5] V. Barbu. Mathematical methods in optimization of dierential systems, vol. 310,
Mathematics and its Applications. Kluwer Academic Publishers Group, Dordrecht,
1994. Translated and revised from the 1989 Romanian original.
[6] V. Barbu, Th. Precupanu. Convexitate si optimizare n spatii Banach. Editura
Academiei Republicii Socialiste Rom
ania, Bucuresti, 1975.
[7] Viorel Barbu. Metode matematice n optimizarea sistemelor diferentiale. Editura
Academiei, Bucuresti, 1989.
[8] Viorel Barbu. Analysis and control of nonlinear innite-dimensional systems, vol.
190, Mathematics in Science and Engineering. Academic Press Inc., Boston, MA,
1993.
[9] Viorel Barbu, C
at
alin Lefter. Optimal control of ordinary dierential equations.
Ca
nada, A.(ed.) et al., Ordinary dierential equations. Vol. II. Amsterdam: Elsevier/North Holland. Handbook of Dierential Equations, 1-75, 2005.
[10] R. Bellman. Dynamic programming. Princeton Univeristy Press, Princeton, N. J.,
1957.
[11] G. A. Bliss. Calculus of variations. 6th impression. The Carus Mathematical Monographs. No.1. Washington: The Mathematical Association of America; La Salle, Ill.:
The Open Court Publishing Company. XIII, 189 p. , 1971.
[12] F. H. Clarke. Generalized gradients and applications. Trans. Amer. Math. Soc.,
205:247262, 1975.
[13] F. H. Clarke. The maximum principle under minimal hypotheses. SIAM J. Control
Optimization, 14(6):10781091, 1976.
[14] F. H. Clarke. Optimization and nonsmooth analysis. Canadian Mathematical Society
Series of Monographs and Advanced Texts. John Wiley & Sons Inc., New York, 1983.
A Wiley-Interscience Publication.
[15] F.H. Clarke, R.B. Vinter. The relationship between the maximum principle and dynamic programming. SIAM J. Control Optim., 25(5):12911311, 1987.
[16] E. A. Coddington, N. Levinson. Theory of ordinary dierential equations. McGrawHill Book Company, Inc., New York-Toronto-London, 1955.
[17] R. Courant, D. Hilbert. Methods of mathematical physics. Vol. II: Partial dierential
equations. (Vol. II by R. Courant.). Interscience Publishers (a division of John Wiley
& Sons), New York-Lon don, 1962.
[18] M. G. Crandall, L. C. Evans, P.-L. Lions. Some properties of viscosity solutions of
Hamilton-Jacobi equations. Trans. Amer. Math. Soc., 282(2):487502, 1984.
101

[19] M.G. Crandall, H. Ishii, P.-L. Lions. Uniqueness of viscosity solutions of HamiltonJacobi equations revisited. J. Math. Soc. Japan, 39:581596, 1987.
[20] M.G. Crandall, H. Ishii, P.-L. Lions. Users guide to viscosity solutions of second order
partial dierential equations. Bull. Am. Math. Soc., New Ser., 27(1):167, 1992.
[21] M.G. Crandall, P.-L. Lions. Viscosity solutions of Hamilton-Jacobi equations. Trans.
Amer. Math. Soc., 277(1):142, 1983.
[22] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometrymethods and
applications. Part I, vol. 93, Graduate Texts in Mathematics. Springer-Verlag, New
York, second edition, 1992. The geometry of surfaces, transformation groups, and
elds.
[23] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometrymethods and
applications. Part II, vol. 104, Graduate Texts in Mathematics. Springer-Verlag, New
York, 1985. The geometry and topology of manifolds.
[24] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometrymethods and
applications. Part III, vol. 124, Graduate Texts in Mathematics. Springer-Verlag, New
York, 1990. Introduction to homology theory.
[25] W.H. Fleming, R.W. Rishel. Deterministic and stochastic optimal control. SpringerVerlag, Berlin, 1975. Applications of Mathematics, No. 1.
[26] R. Gamkrelidze. Exponential representation of solutions of ordinary dierential equations. In Equadi IV, Proceedings, Prague 1977, pages 118129. Lecture Notes in
Mathematics, vol. 703, Springer.
[27] I.M. Gelfand, S.V. Fomin. Calculus of variations. Transl. from the Russian and edited
by Richard A. Silverman. Reprint of the 1963 original. Mineola, NY: Dover Publications. vii, 232 p. $ 9.95 , 2000.
[28] Leslie M. Hocking. Optimal control. Oxford Applied Mathematics and Computing
Science Series. The Clarendon Press Oxford University Press, New York, 1991. An
introduction to the theory with applications.
[29] Alberto Isidori. Nonlinear control systems. Communications and Control Engineering
Series. Springer-Verlag, Berlin, third edition, 1995.
[30] V. Jurdjevic. Geometric control theory, volume 52 of Cambridge Studies in Advanced
Mathematics. Cambridge University Press, Cambridge, 1997.
[31] J.E. Marsden, T. S. Ratiu. Introduction to mechanics and symmetry, volume 17 of
Texts in Applied Mathematics. Springer-Verlag, New York, second edition, 1999. A
basic exposition of classical mechanical systems.
[32] L. Pontriaghin, V. Boltianski, R. Gamkrelidze, E. Michtchenko. Theorie

mathematique des processus optimaux. Editions


Mir, Moscow, 1974.
[33] L. S. Pontryagin. Ordinary dierential equations. Addison-Wesley Publishing Co.,
Inc., Reading, Mass.-Palo Alto, Calif.-London, 1962.
[34] R.T. Rockafellar. Convex analysis. Princeton Mathematical Series, No. 28. Princeton
University Press, Princeton, N.J., 1970.
[35] I.I. Vrabie. Ecuatii diferentiale. Editura MATRIXROM, Bucuresti, 2000.
[36] I.I. Vrabie. C0 -semigroups and applications, vol. 191, North-Holland Mathematics
Studies. North-Holland Publishing Co., Amsterdam, 2003.
[37] J. Zabczyk. Mathematical control theory: an introduction. Systems & Control: Foundations & Applications. Birkh
auser Boston Inc., Boston, MA, 1992.

102

S-ar putea să vă placă și