Documente Academic
Documente Profesional
Documente Cultură
CAPITOLUL 6
CONTROL OPTIMAL
Controlul optimal este ı̂n mare vogă ı̂n matematica de azi. El se bazează pe optimizarea
unor funcţionale cu restricţii ecuaţii diferenţiale sau cu derivate parţiale, toate depinzând de
funcţiile de control. În controlul optimal există trei abordări: calculul variaţional, principiul
de maxim şi programarea dinamică. Cea mai importantă se referă la principiul de maxim ce
asigură condiţii necesare de optim. În condiţii suplimentare, din acest principiu se pot obţine
ecuaţiile Euler-Lagrange sau Hamilton. Condiţiile suficiente de optim sunt mai complicate
şi se vehiculeaza deobicei doar variante simplificate.
cu restricţiile
ẋi (t) = X i (t, x(t), u(t)), i = 1, ..., n, (2)
u(t) ∈ U(t), ∀t ∈ [0, t0 ]; x(0) = x0 , x(t0 ) = xt0 . (3)
Ingrediente: t ∈ R+ este un parametru de evoluţie sau timpul; [0, t0 ] este inter-
valul de timp; x(t) = (xi (t)) este o funcţie de clasă C 2 , numită vector de stare;
123
124 Control optimal
u(t) = (ua (t)), a = 1, ..., k este un vector de control continuu; costul curent
X 0 (t, x(t), u(t)) este o funcţie de clasă C 1 numită Lagrangian neautonom.
Conform teoriei multiplicatorilor Lagrange exista funcţia (multiplicator La-
grange) p = (pi (t)), numită şi variabilă de co-stare, şi o nouă funcţie Lagrange
L(t, x(t), u(t), p(t)) = X 0 (t, x(t), u(t)) + pi (t)[X i (t, x(t), u(t)) − ẋi (t)]
cu restricţiile
u(t) ∈ U(t), ∀t ∈ [0, t0 ]
x(0) = x0 , x(t0 ) = xt0 .
Hamiltonianul de control
H(t, x(t), u(t), p(t)) = X 0 (t, x(t), u(t)) + pi (t)X i (t, x(t), u(t)),
adică
H = L + pi ẋi (dualitate Legendriană modificată),
permite să transcriem această nouă problemă ı̂n forma
Z t0
max [H(t, x(t), u(t), p(t)) − pi (t)ẋi (t)]dt
u(·),xt0 0
cu restricţiile
u(t) ∈ U(t), ∀t ∈ [0, t0 ]
x(0) = x0 , x(t0 ) = xt0 .
Sistemul diferenţial variaţional şi sistemul diferenţial adjunct
Pornim cu sistemul diferenţial (2). Fixăm controlul u(t) şi o soluţie x(t)
a acestui sistem diferenţial. Considerăm o variaţie diferenţiabilă x(t, ε) ce
satisface
Sistemul diferenţial
∂X i
ṗi (t) = −pi (t) (t, x(t), u(t))
∂xj
se numeşte sistem adjunct ı̂n raport cu sistemul diferenţial variaţional deoare-
ce produsul scalar pi (t)y i (t) este o integrala primă pentru cele două sisteme.
Intr-adevăr,
d
(pj y j ) = 0.
dt
Rezolvarea problemei de control optimal
Presupunem că există un control continuu û(t) definit pe intervalul [0, t0 ]
cu û(t) ∈ Int U(t), care este un punct de optim ı̂n problema precedentă. Acum
considerăm o variaţie u(t, ²) = û(t) + ²h(t), unde h este o funcţie vectorială
arbitrară continuă. Deoarece û(t) ∈ Int U(t) şi o funcţie continuă pe un com-
pact [0, t0 ] este marginită, există ²h > 0 astfel ı̂ncât u(t, ²) = û(t) + ²h(t) ∈
Int U(t), ∀|²| < ²h . Acest ² este utilizat ı̂n argumentele noastre variaţionale.
Definim x(t, ²) ca variabilă de stare corespunzatoare variabilei de control
u(t, ²), adică
ẋi (t, ²) = X i (t, x(t, ²), u(t, ²)), ∀t ∈ [0, t0 ]
şi x(0, ²) = x0 . Pentru |²| < ²h , definim funcţia (integrala cu un parametru)
Z t0
I(²) = X 0 (t, x(t, ²), u(t, ²))dt.
0
Deoarece controlul u(t, ²) este fezabil, rezultă că funcţia x(t, ²) este fezabilă.
Pe de alta parte, controlul û(t) trebuie sa fie optimal. In consecinţă
p = (pi ) : [0, t0 ] → Rn ,
avem Z t0
pi (t)[X i (t, x(t, ²), u(t, ²)) − ẋi (t, ²)]dt = 0.
0
În mod necesar, trebuie să utilizăm funcţia lui Lagrange care include variaţiile
L(t, x(t, ²), u(t, ²), p(t)) = X 0 (t, x(t, ²), u(t, ²))
+pi (t)[X i (t, x(t, ²), u(t, ²)) − ẋi (t, ²)]
126 Control optimal
H(t, x(t, ²), u(t, ²), p(t)) = X 0 (t, x(t, ²), u(t, ²)) + pi (t)X i (t, x(t, ²), u(t, ²))
d dpi i dxi
(pi xi ) = x + pi ,
dt dt dt
si obţinem
Z t0 Z t0
pi (t)ẋi (t, ²)dt = (pi (t)xi (t, ²))|t00 − ṗi (t)xi (t, ²)dt.
0 0
Substituind, găsim
Z t0
J(²) = [H(t, x(t, ²), u(t, ²), p(t)) + ṗj (t)xj (t, ²)]dt − (pi (t)xi (t, ²))|t00 .
0
Z t0
+ Hua (t, x(t), û(t), p(t))ha (t)dt − (pi (t)xi² (t, 0))|t00 .
0
unde x(t) este variabila de stare corespunzătoare controlului optimal û(t).
Trebuie să avem J 0 (0) = 0 pentru orice h(t) = (ha (t)). Pe de altă parte,
funcţiile xi² (t, 0) rezolvă problema Cauchy
∇t xi² (t, 0) = Xx (t, x(t, 0), u(t)) · x² (t, 0) + Xu (t, x(t, 0), u(t)) · h(t),
t ∈ [0, t0 ], x² (0, 0) = 0
şi deci aceste funcţii depind de h(t). Acest obstacol este doar aparent. Intr-
adevăr, el este depăşit declarând p(t) = (pj (t)) ca soluţia problemei adjuncte
∂H
ṗj (t) = − (t, x(t), û(t), p(t)), ∀t ∈ [0, t0 ], pj (t0 ) = 0. (4)
∂xj
Prin urmare
Hua (t, x(t), û(t), p(t)) = 0, ∀t ∈ [0, t0 ]. (5)
În plus
∂H
ẋj (t) = (t, x(t), û(t), p(t)), ∀t ∈ [0, t0 ], x(0) = x0 . (6)
∂pj
Observaţii (i) Sistemul algebric (5) descrie punctele critice ale Hamilto-
nianului ı̂n raport cu variabila de control. (ii) Ecuaţiile diferenţiale (4) şi (6)
şi condiţia (5) sunt ecuaţii Euler-Lagrange asociate noului Lagrangian.
În final obţinem principiul de maxim uni-temporal al lui Pontryaguin.
Teoremă (principiul de maxim simplificat; condiţii necesare) Pre-
supunem că problema de maximizare a funcţionalei (1), supusă la restricţiile
EDO (2) şi la condiţiile (3), cu X 0 , X i de clasă C 1 , are o soluţie interioară
û(t) ∈ U(t) care determină variabila de stare x(t). Atunci există o funcţie
co-stare p(t) = (pi (t)) de clasă C 1 definită pe [0, t0 ] astfel ı̂ncât relaţiile (2),
(4), (5) (6) sunt adevărate.
Teoremă (condiţii suficiente) Fie problema de maximizare a funcţionalei
(1) restricţionată prin ecuaţii diferenţiale ordinare (2) şi prin condiţiile (3),
cu X 0 , X i de clasă C 1 . Presupunem că o soluţie din interior û(t) ∈ U(t) şi
variabila de stare corespunzătoare x(t) satisfac relaţiile (4), (5), (6). Dacă,
pentru variabila de co-stare rezultată p(t) = (pi (t)), Hamiltonianianul de con-
trol H(t, x, u, p) este concav ı̂n punctul (x, u) pentru orice t ∈ [0, t0 ], atunci
û(t) şi x(t) corespunzător se constituie ı̂ntr-un punct unic de maxim global al
lui (1).
Demonstraţie Reamintim că am pornit cu maximizarea funcţionalei (1)
supusă la sistemul de evoluţie (2) şi la condiţiile (3). Fixăm perechea (x̂, û),
128 Control optimal
unde û este controlul optimal şi x̂ este evoluţia optimală a stărilor. Notând
cu Iˆ valoarea funcţionalei pentru (x̂, û), să arătăm că
Z t0
Iˆ − I = (X̂ − X)dt ≥ 0,
0
unde inegalitatea strictă are loc sub ipoteza concavităţii stricte. Notând Ĥ =
H(x̂, p̂, û) şi H = H(x, p̂, u), găsim
Z t0 ³ ´
i
Iˆ − I = (Ĥ − p̂i x̂˙ ) − (H − p̂i ẋi ) dt.
0
Luând ı̂n considerare faptul că orice traiectorie admisibilă ı̂ndeplineşte aceleaşi
condiţii iniţiale şi terminale ca şi traiectoria optimală, deducem
Z t0 ³ ´
Iˆ − I = (Ĥ − H) + p̂˙i (x̂i − xi ) dt.
0
Z t0 Ã !
∂ Ĥ ∂ Ĥ
≥ (x̂ − x )( i + p̂˙i ) + (ûa − ua ) a
i i
dt = 0.
0 ∂x ∂u
Această ultimă egalitate rezultă din faptul că toate variabilele indexate prin
”ˆ” satisfac condiţiile principiului de maxim. În acest mod, Iˆ − I ≥ 0.
Teoremă (condiţii suficiente) Fie problema maximizării funcţionalei
(1) supusă la restricţii de tip EDO (2) şi la condiţiile (3), cu X 0 , X i de
clasă C 1 . Presupunem că o soluţie interioară û(t) ∈ U(t) şi traiectoria core-
spunzătoare a stărilor x(t) satisfac relaţiile (4), (5), (6). Dând variabila de
co-stare p(t) = (pi (t)), definim M (t, x, p) = H(t, x, û(t), p). Dacă M (t, x, p)
este concavă ı̂n x pentru toţi t ∈ [0, t0 ], atunci û(t) si x(t) corespunzător con-
stituie punctul unic de maxim global al lui (1).
TEORII LAGRANGE-HAMILTON 129
1.1 Aplicaţii
Exemplu Să găsim maximul funcţionalei
Z 1
I(u(·)) = − (x(t) + u2 (t))dt
0
cu restricţia
ẋ(t) = u(t), x(0) = 0, x(1) = x1 .
Pentru a rezolva această problemă construim Hamiltonianul
Rezultă
∂H ∂H 2
= −2u + p = 0 → = −2 < 0;
∂u ∂u2
ṗ = 1 ⇒ p(t) = t + c
p t+c t2 ct
u= = = ẋ(t) ⇒ x(t) = + + b.
2 2 4 2
Din condiţiile x(0) = 0, x(1) = x1 se determină b = 0, c = 2(x1 − 12 ).
Aplicatie Să găsim
Z 1
min I(u(·)) = (2 − 5t)u(t)dt
−1≤u≤1 0
cu restricţiile
∂H
Ecuaţia adjunctă p0 (t) = − (x, u, t) = −2p(t) are soluţia generală p(t) =
∂x
−2t
p0 e , fără condiţie de transversalitate. Deoarece
este o funcţie liniară ı̂n controlul u, extremele se pot atinge doar la capete,
adică u ∈ {−1, 1}. Coeficientul 2 + 4p0 t − 5t este funcţia de comutare şi tebuie
să avem cel puţin o trecere de la + la −. În t = 0, avem (2 + 4p0 t − 5t)|t=0 > 0.
130 Control optimal
sau Z t
y(t) = 4su(s)ds, y(1) = 1.
0
Problema iniţială se schimbă ı̂n
Z 1 Z 1 Z 1 Z 1
5
max I(u(·)) = (2 − 5t)u(t)dt = 2 u(t)dt−5 tu(t)dt = 2 u(t)dt−
−1≤u≤1 0 0 0 0 4
Z 1
cu restricţia izoperimetrică su(s)ds = 1. Cu schimbarea de variabilă t =
0
1
s + , rescriem funcţionala
2
Z 1 µ ¶
2 1 5
I(u(·)) = 2 u s+ ds −
− 12 2 4
şi restricţia
Z 1 µ ¶
2 1
(4s + 2)u s + ds = 1.
1
−2 2
TEORII LAGRANGE-HAMILTON 131
µ ¶
1 1 1
Notând v(s) = u s + , s ∈ [− , ], acestea se transformă ı̂n
2 2 2
Z 1 Z 1 Z 1
2 5 2 2
I(v(·)) = 2 v(s)ds − , 4 sv(s)ds + 2 v(s)ds = 1.
− 12 4 − 12 − 12
Pe de altă parte v(s) = f (s) + g(s), unde f (s) este partea impară, iar g(s) este
partea pară. Prin proprietăţile funcţiilor pare, respectiv impare, rămâne să
Z 1 Z 1
2 5 2
găsim minimul funcţionalei 4 g(s)ds − , cu restricţia 1 = 8 sf (s)ds +
0 4 0
Z 1 Z 1 Z 1
2 2 2
4 g(s)ds. Deoarece f (s) ≤ 1, rezultă 1 ≤ 8sds + 4 g(s)ds sau
Z 10 0
Z 10
2 2
g(s)ds ≥ 0. Egalitatea are loc numai pentru 1 = 8 sf (s)ds sau
Z0 1 0
2 1
s(1 − f (s))ds = 0, adică f (s) = 1, s ∈ [0, ]. Dar f (s) = 1 implică
0 2
1
1 ≥ v(s) = 1 + g(s), adică g(s) ≤ 0. Rămâne g(s) = 0, s ∈ [0, ]. Prin
2
1 1
paritate şi imparitate deducem g(s) = 0, s ∈ [− , ] şi
2 2
1
−1 pentru s ∈ [− , 0)
f (s) = 2
1
1 pentru s ∈ (0, ],
2
sau
1
−1 pentru t ∈ [0, )
u(t) = 2 (ii)
1 pentru t ∈ ( 1 , 1].
2
5
Pentru acest control u se obţine valoarea minimă − . Pe de altă parte, y(t) =
Z 4
t
4su(s)ds devine
0
1
−2t2 pentru t ∈ [0, )
y(t) = 2
2t2 − 1 pentru t ∈ ( 1 , 1]
2
şi conduce la evoluţia optimă
1
−2t2 e2t pentru t ∈ [0, )
x(t) = 2
(2t2 − 1)e2t pentru t ∈ ( 1 , 1].
2
H(x, p0 , p, u) = X 0 (x, u) + pi ui
TEORII LAGRANGE-HAMILTON 133
În plus
∂H ∂X 0 ∂uj i ∂uj
= + u + p j = ui
∂pi ∂uj ∂pi ∂pi
sau
∂H
ẋi (t) = (x(t), p(t), u(t)).
∂pi
Acum, relaţia à !
∂H ∂X 0 ∂X 0 ∂uj ∂uj
− i =− + − pj
∂x ∂xi ∂uj ∂xi ∂xi
şi ecuaţia (ADJ) arată
∂H
ṗi (t) = − (x(t), p(t), u(t)).
∂xi
În acest mod găsim variabilele canonice x, p şi EDO Hamilton uni-temporal
∂H ∂H
ẋi (t) = (x(t), p(t)), ṗi (t) = − i (x(t), p(t)).
∂pi ∂x
cu restricţiile
∂xi
(t) = Xαi (t, x(t), u(t)), i = 1, ..., n; α = 1, ..., m, (8)
∂tα
u(t) ∈ U(t), ∀t ∈ Ω0,t0 ; x(0) = x0 , x(t0 ) = xt0 . (9)
Ingrediente: t = (tα ) ∈ R+ m este un multi-parametru de evoluţie sau multi-
fixat prin punctele diagonal opuse 0 = (0, ..., 0) şi t0 = (t10 , ..., tm
0 ) care este
echivalent cu intervalul ı̂nchis 0 ≤ t ≤ t0 via ordinea produs pe R+ m ; x(t) =
i 2 a
(x (t)) este vectorul de stare de clasă C ; u(t) = (u (t)), a = 1, ..., k este
vectorul de control de clasă C 1 ; costul curent X 0 (t, x(t), u(t)) este o funcţie
de clasă C 1 numită şi Lagrangian neautonom; Xαi (t, x(t), u(t)) sunt funcţii de
clasă C 1 care satisfac condiţiile de complet integrabilitate (problemă de tip
m-flow)
∂Xβi ∂Xαi ∂Xαi γ ∂Xβi γ ∂ua
− + [Xα , Xβ ] = ( a δβ − δ ) .
∂tα ∂tβ ∂u ∂ua α ∂tγ
Conform teoriei multiplicatorilor Lagrange există funcţia p = (pαi ) (multi-
plicator Lagrange), numită şi variabilă de co-stare, şi o nouă funcţie Lagrange
∂xi
L(t, x(t), u(t), p(t)) = X 0 (t, x(t), u(t)) + pαi (t)[Xαi (t, x(t), u(t)) − (t)]
∂tα
cu proprietatea că problema de optimizare constrânsă de EDP, (7)+(8)+(9),
se schimbă ı̂ntr-o problemă de optimizare liberă
Z
max L(t, x(t), u(t), p(t))dv
u(·),xt0 Ω0,t0
cu restricţiile
u(t) ∈ U(t), ∀t ∈ Ω0,t0
x(0) = x0 , x(t0 ) = xt0 .
Hamiltonianul de control
H(t, x(t), u(t), p(t)) = X 0 (t, x(t), u(t)) + pαi (t)Xαi (t, x(t), u(t)),
adică
∂xi
H = L + pαi (dualitate Legendriană modificată),
∂tα
permite să rescriem această nouă problemă ca
Z
∂xi
max [H(t, x(t), u(t), p(t)) − pαi (t) (t)]dv
u(·),xt0 Ω0,t0 ∂tα
cu restricţiile
u(t) ∈ U(t), ∀t ∈ Ω0,t0
x(0) = x0 , x(t0 ) = xt0 .
136 Control optimal
∂xi
(t, ε) = Xαi (t, x(t, ε), u(t)), i = 1, ..., n; α = 1, ..., m, x(t, 0) = x(t).
∂tα
∂xi
Prin derivare parţială ı̂n raport cu εβ , punând ε = 0 şi notând | (t)
∂εβ ε=0
=
yβi (t), producem sistemul variaţional asociat
∂yβi ∂Xαi
(t) = (t, x(t), u(t))yβj (t).
∂tα ∂xj
Sistemul de ecuaţii cu derivate parţiale (de tip divergenţă)
∂pαj α ∂Xαi
(t) = −p i (t) (t, x(t), u(t)), ∀t ∈ Ω0,t0
∂tα ∂xj
se numeşte sistem adjunct al sistemului variaţional de ecuaţii cu derivate
parţiale deoarece tensorul de tipul (1, 1) (produs scalar partial) pαi (t)yβi (t)
este o lege de conservare pentru cele două sisteme. Intr-adevăr, divergenţa
totală este nulă, adică
∂
α
(pαj yβj ) = 0.
∂t
Rezolvarea problemei de control optimal
Presupunem că există un control continuu û(t) definit pe paralelipipedul
Ω0,t0 cu û(t) ∈ Int U(t), care este un punct de optim ı̂n problema precedentă.
Acum considerăm variaţia u(t, ²) = û(t)+²h(t), unde h este o funcţie vectorială
continuă arbitrară. Deoarece û(t) ∈ Int U(t) şi o funcţie continuă pe o mulţime
compactă Ω0,t0 este marginită, există ²h > 0 astfel ı̂ncât u(t, ²) = û(t)+²h(t) ∈
Int U(t), ∀|²| < ²h . Acest ² este utilizat ı̂n argumentele noastre variaţionale.
Definim x(t, ²) ca m-foaia variabilei de stare corespunzătoare variabilei de
control u(t, ²), adică
∂xi
(t, ²) = Xαi (t, x(t, ²), u(t, ²)), ∀t ∈ Ω0,t0
∂tα
şi x(0, ²) = x0 . Pentru |²| < ²h , definim funcţia
Z
I(²) = X 0 (t, x(t, ²), u(t, ²))dv.
Ω0,t0
TEORII LAGRANGE-HAMILTON 137
Deoarece funcţia u(t, ²) este fezabilă, rezultă că funcţia x(t, ²) este fezabilă. Pe
de altă parte, controlul û(t) trebuie să fie optimal. Deci I(²) ≤ I(0), ∀|²| < ²h .
Pentru orice funcţie vectorială continuă
avem Z
∂xi
pαi (t)[Xαi (t, x(t, ²), u(t, ²)) − (t, ²)]dv = 0.
Ω0,t0 ∂tα
În mod necesar, trebuie să utilizăm funcţia Lagrange care include variaţiile
L(t, x(t, ²), u(t, ²), p(t)) = X 0 (t, x(t, ²), u(t, ²))
∂xi
+pαi (t)[Xαi (t, x(t, ²), u(t, ²)) − (t, ²)]
∂tα
şi funcţia asociată (integrala cu un parametru)
Z
J(²) = L(t, x(t, ²), u(t, ²), p(t))dv.
Ω0,t0
H(t, x(t, ²), u(t, ²), p(t)) = X 0 (t, x(t, ²), u(t, ²))
Z
∂pαi
− (t)xi (t, ²)dv.
Ω0,t0 ∂tα
Acum aplicăm formula integrală a divergenţei
Z
∂
(pα (t)xi (t, ²))dv
Ω0,t0 ∂tα i
Z
= δαβ pαi (t)xi (t, ²)nβ (t)dσ,
∂Ω0,t0
unde (nβ (t)) este vectorul normal unitar al frontierei ∂Ω0,t0 . Substituind,
găsim
Z
∂pαj
J(²) = [H(t, x(t, ²), u(t, ²), p(t)) + α (t)xj (t, ²)]dv
Ω0,t0 ∂t
Z
− δαβ pαi (t)xi (t, ²)nβ (t)dσ.
∂Ω0,t0
şi deci aceste funcţii depind de h(t). Acest obstacol este doar aparent. Intr-
adevăr, el este depăşit declarând p(t) = (pαj (t)) ca soluţia problemei adjuncte
cu valori pe frontieră
∂pαj ∂H
(t) = − j (t, x(t), û(t), p(t)), ∀t ∈ Ω0,t0 , (10)
∂tα ∂x
Deci
Hua (t, x(t), û(t), p(t)) = 0, ∀t ∈ Ω0,t0 . (11)
În plus
∂xj ∂H
(t) = α (t, x(t), û(t), p(t)), ∀t ∈ Ω0,t0 , x(0) = x0 . (12)
∂tα ∂pj
Observaţii (i) Sistemul algebric (11) descrie punctele critice ale Hamilto-
nianului ı̂n raport cu variabila de control. (ii) Ecuaţiile cu derivate parţiale
(10) şi (12) şi condiţia (11) sunt EDP Euler-Lagrange asociate noului La-
grangian. (iii) Conditiile de complet integrabilitate ale sistemului de evoluţie
sunt EDP cu necunoscuta u(t). Evident, putem schimba teoria precedentă
incluzand şi aceste ecuaţii cu derivate parţiale ı̂n restricţii.
În final, din raţionamentele precedente obţinem principiul de maxim multi-
temporal care este similar cu principiul de maxim Pontryaguin uni-temporal.
Teoremă (principiul de maxim multi-temporal simplificat; condiţii
necesare) Presupunem că problema maximizării funcţionalei (7) supusă la
restricţii EDP (8) şi la condiţiile (9), cu X 0 , Xαi de clasă C 1 , are o soluţie
interioară û(t) ∈ U(t) care determină m-foaia variabilei de stare x(t). Atunci
există o co-stare p(t) = (pαi (t)) de clasă C 1 , definită pe Ω0,t0 astfel ı̂ncât
relaţiile (8), (10), (11), (12) să aibă loc.
Teoremă (condiţii suficiente) Fie problema maximizării funcţionalei
(7) supusă la restricţii EDP (8) şi la condiţiile (9), cu X 0 , Xαi de clasă C 1 .
Presupunem că o soluţie interioară û(t) ∈ U(t) şi m-foaia corespunzătoare
variabilei de stare x(t) satisfac relaţiile (10), (11), (12). Dacă, pentru vari-
abila de co-stare rezultată p(t) = (pαi (t)), Hamiltonianul de control H(t, x, u, p)
este concav în (x, u), pentru orice t ∈ Ω0,t0 , atunci û(t) şi x(t) determină un
punct unic de maxim global al lui (7).
Demonstraţie Să avem ı̂n minte că trebuie să maximizăm funcţionala (7)
supusă la sistemul de evoluţie (8) şi la condiţiile (3). Fixăm perechea (x̂, û),
140 Control optimal
unde û este candidatul control optimal şi x̂ este candidatul optimal al stărilor.
Notând Iˆ valoarea funcţionalei pentru (x̂, û), să arătam că
Z
Iˆ − I = (X̂ − X)dv ≥ 0,
Ω0,t0
unde inegalitatea strictă are loc sub ipoteza concavitătii stricte. Notând Ĥ =
H(x̂, p̂, û) şi H = H(x, p̂, u), găsim
Z Ã !
∂ x̂i ∂xi
Iˆ − I = (Ĥ − p̂αi α ) − (H − p̂αi α ) dv.
Ω0,t0 ∂t ∂t
Luând ı̂n considerare că orice m-foaie admisibilă are aceleaşi condiţii iniţiale
şi terminale ca şi o m-foaie optimă, deducem
Z µ ¶
∂ p̂α
Iˆ − I = (Ĥ − H) + αi (x̂i − xi ) dv.
Ω0,t0 ∂t
3.1 Aplicaţii
Exemple 1) Considerăm problema
Z
max I(u(·)) = − (x(t) + u1 (t)2 + u2 (t)2 )dt1 dt2
u(·),x1 Ω0,1
cu restricţiile
∂x
(t) = uα (t), α = 1, 2,
∂tα
x(0, 0) = 0, x(1, 1) = x1 = liber.
Această problemă ı̂nseamnă să găsim controlul optimal u = (u1 , u2 ) care duce
sistemul dinamic EDP din originea x(0, 0) = 0, la 2-timpul t1 = 0, t2 = 0, la
punctul terminal x(1, 1) = x1 , care este nespecificat, la 2-timpul t1 = 1, t2 = 1,
astfel ı̂ncât să maximizăm funcţionala obiectiv. De asemenea complet integra-
∂u1 ∂u2
bilitatea impune 2 = 1 . Hamiltonianul de control este
∂t ∂t
H(x(t), u(t), p(t)) = −(x(t) + u1 (t)2 + u2 (t)2 ) + p1 (t)u1 (t) + p2 (t)u2 (t).
Deoarece
∂H ∂2H ∂2H
= −2uα + pα , = −2 < 0, = 0,
∂uα ∂u2α ∂uα ∂uβ
∂pα ∂H
punctul critic pα = 2uα este un punct de maxim. Apoi, EDP α
=− se
∂t ∂x
∂p1 ∂p2
reduce la + = 1. De asemenea, deoarece punctul x(1, 1) = x1 este ne-
∂t1 ∂t2
specificat, condiţiile de transversalitate implică p1 (t)n1 (t) + p2 (t)n2 (t)|∂Ω0,1 =
0.
Continuăm prin rezolvarea problemei cu valori pe frontieră
∂p1 ∂p2 ∂p1 ∂p2
+ = 1, =
∂t1 ∂t2 ∂t2 ∂t1
p1 (t)n1 (t) + p2 (t)n2 (t)|∂Ω0,1 = 0.
În consecinţă componentele controlului optimal u(t) = (u1 (t), u2 (t)) sunt
funcţii armonice satisfăcând condiţiile la frontieră
u1 (0, t2 ) = u1 (1, t2 ) = 0, u2 (t1 , 0) = u2 (t1 , 1) = 0.
Sistemul dinamic dx = u1 (t)dt1 + u2 (t)dt2 dă evoluţia optimă
Z
x(t) − x(0) = u1 (s)ds1 + u2 (s)ds2 .
Γ0,t
142 Control optimal
2) Considerăm problema
1
max I(u(·)) = − x(1, 1)2
u(·),x1 2
Z
1
− (u1 (t)2 + u2 (t)2 )dt1 dt2
2 Ω0,1
cu restricţiile
∂x
(t) = −uα (t), α = 1, 2, x(0, 0) = 1.
∂tα
Această problemă ı̂nseamnă găsirea unui control optimal u = (u1 , u2 ) care
duce sistemul dinamic EDP din punctul x(0, 0) = 1, la 2-timpul t1 = 0, t2 = 0,
la punctul terminal x(1, 1) = x1 , ı̂n 2-timpul t1 = 1, t2 = 1, astfel ı̂ncât să max-
imizăm funcţionala obiectiv. De asemenea condiţia de complet integrabilitate
∂u1 ∂u2
impune 2 = 1 . Hamiltonianul de control este
∂t ∂t
1
H(x(t), u(t), p(t)) = − (u1 (t)2 + u2 (t)2 ) − pα (t)uα (t).
2
Deoarece
∂H ∂2H ∂2H
= −uα − pα , = −1 < 0, = 0,
∂uα ∂u2α ∂uα ∂uβ
∂pα ∂H
punctul critic pα = −uα este un punct de maxim. Apoi EDP α
=− =0
∂t ∂x
∂p1 ∂p2
se reduce la + 2 = 0. Condiţia de transversalitate implică
∂t1 ∂t
p1 (t)n1 (t) + p2 (t)n2 (t)|∂Ω0,1 = 0.
Continuăm prin rezolvarea problemei Dirichlet
∂p1 ∂p2 ∂p1 ∂p2
+ = 0, =
∂t1 ∂t2 ∂t2 ∂t1
p1 (t)n1 (t) + p2 (t)n2 (t)|∂Ω0,1 = 0.
Prin urmare componentele controlului optimal u(t) = (u1 (t), u2 (t)) sunt funcţii
armonice satisfacând condiţii la frontieră potrivite. Sistemul dinamic
dx = −u1 (t)dt1 − u2 (t)dt2
conduce la evoluţia optimă
Z
x(t) − x(0) = − u1 (s)ds1 + u2 (s)ds2 .
Γ0,t
TEORII LAGRANGE-HAMILTON 143
cu restricţiile
∂xi
(t) = Xαi (t, x(t), u(t)), i = 1, ..., n; α = 1, ..., m, (14)
∂tα
u(t) ∈ U(t), ∀t ∈ Ω0,t0 ; x(0) = x0 , x(t0 ) = xt0 . (15)
Ingrediente: t = (tα ) ∈ R+ m este multi-parameterul de evolutie sau multi-
cu restricţiile
u(t) ∈ U(t), ∀t ∈ Ω0,t0
x(0) = x0 , x(t0 ) = xt0 .
144 Control optimal
Hα (t, x(t), u(t), p(t)) = Xα0 (t, x(t), u(t)) + pi (t)Xαi (t, x(t), u(t)),
∂xi
Hα = L α + p i (dualitate Legendriană modificată),
∂tα
putem rescrie
Z
∂xi
max [Hα (t, x(t), u(t), p(t)) − pi (t) (t)]dtα
u(·),xt0 Γ0,t0 ∂tα
cu restricţiile
u(t) ∈ U(t), ∀t ∈ Ω0,t0
x(0) = x0 , x(t0 ) = xt0 .
∂xi
(t, ε) = Xαi (t, x(t, ε), u(t)), i = 1, ..., n; α = 1, ..., m, x(t, 0) = x(t).
∂tα
Prin derivare parţială ı̂n raport cu εβ , punând ε = 0 şi notând
∂xi
|ε=0 (t) = yβi (t),
∂εβ
producem sistemul variaţional asociat
∂yβi ∂Xαi
(t) = (t, x(t), u(t))yβj (t).
∂tα ∂xj
Sistemul de ecuaţii cu derivate parţiale
∂pj ∂X i
α
(t) = −pi (t) jα (t, x(t), u(t)), ∀t ∈ Ω0,t0
∂t ∂x
se numeşte sistem adjunct al sistemului variaţional de ecuaţii cu derivate
parţiale deoarece 1-forma (produs scalar partial) pi (t)yβi (t) este ı̂nchisă (lege
de conservare pentru cele două sisteme). Intr-adevăr,
∂
(pj yβj ) = 0.
∂tα
TEORII LAGRANGE-HAMILTON 145
∂xi
(t, ²) = Xαi (t, x(t, ²), u(t, ²)), ∀t ∈ Ω0,t0 , x(0, ²) = x0 .
∂tα
Pentru |²| < ²h , definim funcţia (integrala cu un parametru)
Z
J(²) = Xα0 (t, x(t, ²), u(t, ²))dtα .
Γ0,t0
Deoarece funcţia control u(t, ²) este fezabilă, rezultă că funcţia de evoluţie
x(t, ²) este fezabilă. Pe de altă parte, controlul û(t) este presupus optimal. În
consecinţă J(²) ≤ J(0), ∀|²| < ²h .
Pentru orice funcţie continuă p = (pi ) : Ω0,t0 → Rn , avem
Z
∂xi
pi (t)[Xαi (t, x(t, ²), u(t, ²)) − (t, ²)]dtα = 0.
Γ0,t0 ∂tα
Lα (t, x(t, ²), u(t, ²), p(t)) = Xα0 (t, x(t, ²), u(t, ²))
∂xi
+pi (t)[Xαi (t, x(t, ²), u(t, ²)) − (t, ²)]
∂tα
şi funcţia (integrala cu un parametru)
Z
J(²) = Lα (t, x(t, ²), u(t, ²), p(t))dtα .
Γ0,t0
Hα (t, x(t, ²), u(t, ²), p(t)) = Xα0 (t, x(t, ²), u(t, ²))
Apoi rescriem Z
J(²) = [Hα (t, x(t, ²), u(t, ²), p(t))
Γ0,t0
∂xi
−pi (t) (t, ²)]dtα .
∂tα
Pentru a evalua integrala curbilinie
Z
∂xi
pi (t) (t, ²)dtα ,
Γ0,t0 ∂tα
∂ i ∂pi i ∂xi
(p i x ) = x + p i ,
∂tα ∂tα ∂tα
obţinând
Z
∂xi
pi (t) (t, ²)dtα = (pi (t)xi (t, ²))|t00
Γ0,t0 ∂tα
Z
∂pi
− (t)xi (t, ²)dtα .
Γ0,t0 ∂tα
Substituind, deducem
Z
J(²) = [Hα (t, x(t, ²), u(t, ²), p(t))
Γ0,t0
∂pj
+ (t)xj (t, ²)]dtα − pi (t0 )xi (t0 , ²) + pi (0)xi (0, ²).
∂tα
Rezultă Z
0
J (²) = [Hαxj (t, x(t, ²), u(t, ²), p(t))
Γ0,t0
∂pj
+ (t)]xj² (t, ²)dtα
∂tα
Z
+ Hαua (t, x(t, ²), u(t, ²), p(t))ha (t)dtα
Γ0,t0
∂pj
+ (t)]xj² (t, 0)dtα
∂tα
Z
+ Hαua (t, x(t), û(t), p(t))ha (t)dtα − pi (t0 )xi² (t0 , 0),
Γ0,t0
∂pj ∂Hα
α
(t) = − j (t, x(t), û(t), p(t)), ∀t ∈ Ω0,t0 ; pj (t0 ) = 0. (10)
∂t ∂x
În consecinţă
Hαua (t, x(t), û(t), p(t)) = 0, ∀t ∈ Ω0,t0 . (11)
În plus
∂xj ∂Hα
α
(t) = (t, x(t), û(t), p(t)), ∀t ∈ Ω0,t0 ; x(0) = x0 . (12)
∂t ∂pj
Observaţii (i) Sistemul algebric (17) descrie punctele critice comune func-
tiilor Hα ı̂n raport cu variabila de control. (ii) EDP (16) şi (18) şi relaţiile (17)
sunt EDP Euler-Lagrange asociate la noua 1-formă Lagrangian. (iii) Condiţiile
de complet integrabilitate ale integralei curbilinii (independenţa de drum), ca
şi condiţiile de complet integrabilitate ale sistemului de evoluţie, sunt EDP
de ordinul ı̂ntâi ı̂n necunoscutele x(t) si u(t). Putem reface teoria precedenta
adugându-le ı̂n Lagrangianul ajutător.
În cele din urmă, obţinem o nouă variantă a principiului de maxim multi-
temporal.
Teoremă (principiul de maxim multi-temporal simplificat; condiţii
necesare) Presupunem că problema maximizării funcţionalei (13) supusă la
restricţii EDP (8) şi la condiţiile (15), cu Xα0 , Xαi de clasă C 1 , are o soluţie
interioară û(t) ∈ U(t) care determină m-foaia variabilei de stare x(t). Atunci
există o co-stare de clasă C 1 p(t) = (pi (t)) definită pe Ω0,t0 astfel ı̂ncât relaţiile
(14), (16), (17), (18) sa fie adevărate.
Teoremă (condiţii suficiente) Fie problema maximizării funcţionalei
(13) supusă la restricţii EDP (14) şi la condiţiile (15), cu Xα0 , Xαi de clasă C 1 .
Presupunem că o soluţie interioară û(t) ∈ U(t) şi m-foaia corespunzătoare a
variabilei de stare x(t) satisfac relaţiile (16), (17) (18). Dacă, pentru variabila
de co-stare p(t) = (pi (t)), 1-forma Hamiltonian de control Hα (t, x, u, p) este
concavă ı̂n (x, u), pentru toţi t ∈ Ω0,t0 , atunci û(t) şi asociatul x(t) determină
un punct unic de maxim global al lui (13).
148 Control optimal
cu restricţiile
∂x
(t) = uα (t), α = 1, 2,
∂tα
x(0, 0) = 0, x(1, 1) = x1 = liber.
(t1 )2 + (t2 )2 t1 t2
x(t) = + − (t1 + t2 ).
4 2
Apoi obţinem
∂Xβ0
pi δβγ = − , uiγ = xiγ . (19)
∂uiγ
Presupunem că funcţiile Xβ0 sunt dependente de x (condiţie tare!). Atunci
EDP din (ADJ) arată că
Z ∂Xβ0
pi (t) = pi (0) − (x(s), u(s))dsβ , (20)
Γ0,t ∂xi
unde Γ0,t este o curbă de clasă C 1 pe portiuni, ce uneşte punctele 0 şi t din
domeniul Ω0,t0 .
∂Xβ0 Z
γ γ ∂Xλ0
− (x(t), u(t)) = δ p
β i (0) − δ β (x(s), u(s))dsλ .
∂xiγ Γ0,t ∂x
i
∂Xβ0 ∂Xβ0
− Dγ i = 0.
∂xi ∂xγ
În plus
j
∂Hβ ∂Xβ0 ∂ujγ ∂uβ
= j + uiβ + pj = uiβ
∂pi ∂uγ ∂p i ∂pi
sau
∂xi ∂Hβ
(t) = (x(t), p(t), u(t)).
∂tβ ∂pi
Acum, relaţia
à !
∂Hβ ∂Xβ0 ∂Xβ0 ∂ujγ ∂ujβ
− =− + − pj
∂xi ∂xi ∂ujγ ∂xi ∂xi
Bibliografie
1. A. E. Bryson and Y. C. Ho, Applied Optimal Control, New York: Hemi-
sphere, 1975.
2. J. T. Betts, Practical Methods for Optimal Control Using Non- linear
Programming, SIAM, 2001.
3. L. C. Evans, An Introduction to Mathematical Optimal Control Theory,
Lecture Notes, University of California, Department of Mathematics, Berkeley,
2005.
4. I. M. Gelfand and S. V. Fomin, Calculus of Variations, New York:
Dover Publications, 1991.
5. F. L. Lewis and V. L. Syrmos, Optimal Control, John Wiley & Sons,
Inc, 1997.
6. J. Liang, Robust and Optimal Control, Lecture Notes for ECE/MAE
7360, 2003.
7. V. Prepeliţa, T. Vasilache, M. Doroftei, Control Theory, University
Politehnica of Bucharest, 1997.
8. Pierre N. V. Tu, Introductory Optimization Dynamics, Springer-Verlag,
Berlin, 1991.
9. C. Udrişte, Multi-Time Maximum Principle, short communication at
International Congress of Mathematicians, Madrid, August 22-30, 2006.
152 Control optimal