Sunteți pe pagina 1din 219

Teoria Sistemelor Automate

Cristian Oară, Radu Stefan

Facultatea de Automatica si Calculatoare


Universitatea “Politehnica” Bucuresti
e-mail: {oara,stefan}@riccati.pub.ro
URL: http://www.riccati.pub.ro/

TEORIA SISTEMELOR AUTOMATE


CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR

1. Sisteme Dinamice pe Spatiul Starilor

2. Evolutia Starii, Tranzitia Intrare–Iesire

3. Echivalenta Sistemelor Liniare

4. Stabilitatea Sistemelor

5. Regimurile Permanent/Tranzitoriu/Stationar

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 1 SISTEME DINAMICE PE SPATIUL STARILOR


1. Sisteme Dinamice pe Spatiul Starilor

Clasa sistemelor considerate:

• LINIARE

• INVARIANTE IN TIMP

• FINIT DIMENSIONALE

• MULTI-INTRARE/MULTI-IESIRE (MIMO)
Definitia 1. Se numeste sistem dinamic liniar, invariant in timp, cu timp
continuu un cuadruplu de matrici constante (A, B, C, D), unde A ∈ Rn×n,

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 2 Sisteme Dinamice pe Spatiul Starilor


B ∈ Rn×m, C ∈ Rp×n, D ∈ Rp×m ce se expliciteaza prin
{
ẋ(t) = Ax(t) + Bu(t), x(to) = xo
(1)
y(t) = Cx(t) + Du(t)

unde x(t) ∈ Rn, u(t) ∈ Rm, y(t) ∈ Rp;


u(t) → intrarea sistemului, u(·) ∈ U, U → spatiul functiilor (semnalelor) de intrare;
y(t) → iesirea sistemului, y(·) ∈ Y, Y → spatiul functiilor (semnalelor) de iesire;
x(t) → starea sistemului, x(·) ∈ X , X → spatiul starilor.

Observatii:
• Sistemul dinamic astfel definit admite o scriere matriciala ce expliciteaza de fapt
un sistem de n ecuatii diferentiale cu n necunoscute (starile) iar iesirile sunt o
combinatie liniara a starilor si intrarilor (FIG);
• Sistemul este automat invariant in timp, liniar, finit dimensional si cauzal !
• Datorita invariantei in timp se poate lua intotdeauna to = 0 si deci conditia
initiala se rescrie x(0) = xo;

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 3 Sisteme Dinamice pe Spatiul Starilor


• Sistemul dinamic astfel definit se poate figura ca un sistem intrare–iesire in care
starea joaca rolul de variabila de cuplare (FIG) !
• Sistemul este complet precizat de cele patru matrici (A, B, C, D);
• Conditii uzuale: u(t) continua cel putin pe portiuni caz in care x(t) si y(t)
rezulta functii continue;

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 4 Sisteme Dinamice pe Spatiul Starilor


2. Evolutia Starii, Tranzitia Intrare–Iesire

Prima ecuatie a sistemului

ẋ(t) = Ax(t) + Bu(t), x(0) = xo

este in fapt un sistem de n ecuatii diferentiale ordinare cu n necunoscute avand


o solutie unica in cazul in care starea initiala xo si comanda u(t), t ≥ 0, sunt
precizate (u(·) este continua pe portiuni). Din teoria ecuatiilor diferentiale ordinare
solutia rezulta
At
∫ t A(t−τ )
x(t) = ϕ(t, xo, u(·)) = e xo + 0 e Bu(τ )dτ
= ϕ(t, xo, 0) + ϕ(t, 0, u(·))
= xℓ(t) + xf (t).

Functia ϕ : R × Rn × U → Rn se numeste functia de tranzitie a starii. Descom-


punerea aditiva de mai sus pune in evidenta superpozitia efectelor (datorate starii

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 5 Evolutia Starii, Tranzitia Intrare–Iesire


initiale xo – regim liber – si respectiv comenzii u(·) – regim fortat).

Matricea
Φ(t) := eAt

se numeste matricea de tranzitie a starii. Cu aceasta notatie solutia sistemului de


ecuatii diferentiale se rescrie

∫ t
x(t) = Φ(t)xo + Φ(t − τ )Bu(τ )dτ. (2)
0

Problema: Ce inseamna si cum se calculeaza eAt ?


Avem prin definitie

1 1 1
ex = 1 + x + x2 + . . . + xn + . . .
1! 2! n!
CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 6 Evolutia Starii, Tranzitia Intrare–Iesire
care in cazul matricial devine

At 1 1 1
e = In + (At) + (At) + . . . + (At)n + . . . .
2
(3)
1! 2! n!

Calculul matricii de tranzitie a starii se bazeaza pe forma Jordan a matricii A si va


fi explicitat mai tarziu.

Reversibilitatea timpului: Deoarece Φ(t) ̸= 0, ∀t finit, obtinem din (2)


∫t
xo = Φ(−t)x(t) − 0 Φ(−t)Φ(t − τ )Bu(τ )dτ
∫t (4)
= Φ(−t)x(t) − 0 Φ(−τ )Bu(τ )dτ

de unde rezulta ca in cazul sistemelor netede (cu timp continuu) starea initiala se
poate intotdeauna recupera daca se cunoaste “unde s-a ajuns” si comanda care a
generat starea respectiva. (FIG)

Iesirea sistemului se obtine imediat ca o combinatie liniara de intrari si stari sub

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 7 Evolutia Starii, Tranzitia Intrare–Iesire


forma (vezi (1) si (2))

∫t
y(t) = f (t, xo, u(·)) = Ce xo + 0 CeA(t−τ )Bu(τ )dτ
At

= f (t, xo, 0) + f (t, 0, u(·))


= yℓ(t) + yf (t).

Matricile {
0, t < 0,
T (t) := CΦ(t)B, Tc(t) :=
T (t), t ≥ 0
se numesc matricea pondere respectiv matricea de raspuns cauzal la impuls. Mai
mult
Tc(t) = T (t)1(t)
unde 1(t) := diag {1(t)} iar 1(t) este functia treapta (Heaviside). Cu aceste
notatii ∫ t
y(t) = CΦ(t)xo + Tc(t − τ )u(τ )dτ.
0

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 8 Evolutia Starii, Tranzitia Intrare–Iesire


In particular daca xo = 0 obtinem
∫ t
y(t) = Tc(t − τ )u(τ )dτ = yf (t)
0

ceea ce arata ca matricea de raspuns cauzal la impuls permite exprimarea iesirii


atunci cand conditia initiala este nula. Mai precis, in conditii initiale nule sistemul
dinamic se poate exprima ca un sistem de convolutie sub forma
∫ ∞
y(t) = Tc(t − τ )u(τ )dτ = Tc(t) ∗ u(t),
−∞

(u = 0 pentru t < 0 si Tc(t − τ ) = 0 pentru t − τ < 0). Daca m = p = 1 atunci


Tc(t) = hc(t) si are semnificatia de raspuns cauzal al sistemului atunci cand la
intrare se aplica un impuls Dirac u(t) = δ(t).

Functie (Matrice) de Transfer

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 9 Evolutia Starii, Tranzitia Intrare–Iesire


Restrangem intrarile la clasa functiilor original, i.e., U ⊂ O. Atunci automat x(t)
si y(t) vor fi functii original, i.e. X ⊂ O si Y ⊂ O. In aceste conditii aplicand
transformatele Laplace sistemului original (1) obtinem
{
sx(s) − xo = Ax(s) + Bu(s),
(5)
y(s) = Cx(s) + Du(s),

de unde tinand cont ca (sI − A) este a.p.t. nesingulara

x(s) = (sI − A)−1xo + (sI − A)−1Bu(s) = xℓ(s) + xf (s).

Avem deasemenea

Φ(s) := L(Φ(t)) = L(eAt) = (sI − A)−1

care se numeste matricea rezolventa si deci

Φ(t) = L−1((sI − A)−1).

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 10 Evolutia Starii, Tranzitia Intrare–Iesire


Mai mult,
Φ(s) = s−1I + s−2A + s−3A3 + . . .
care are loc pentru |s| > R unde R := max{|λ|, λ ∈ Λ(A)}. Deasemenea

−1 (sI − A)∗ G(s)


Φ(s) = (sI − A) = =
χ(s) ν(s)

unde χ(s) := det(sI − A) si ν(s) sunt polinomul caracteristic respectiv minimal


ale lui A. In operational iesirea devine

y(s) = Cx(s)+Du(s) = C(sI−A)−1xo+C(sI−A)−1Bu(s)+Du(s) = yℓ(s)+yf (s).

Matricea de transfer este prin definitie


[ ]
A B
T (s) := L(Tc(t)) = C(sI − A)−1B + D =:
C D

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 11 Evolutia Starii, Tranzitia Intrare–Iesire


unde ultima expresie explicita se obtine comparand expresiile iesirii in domeniul
timp si operational. Mai departe,

C(sI − A)∗B e
R(s) R(s)
T (s) = +D = = = {Tij (s)} 1≤i≤p .
χ(s) χ(s) ν(s) 1≤j≤m

Matricea de transfer a unui sistem dinamic (in acceptiunea definitiei date) este o
p × m matrice de functii rationale proprii. Ea permite explicitarea in operational a
iesirii in functie de intrare atunci cand conditiile intiale sunt nule

y(s) = T (s)u(s) (xo = 0).

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 12 Evolutia Starii, Tranzitia Intrare–Iesire


3. Echivalenta Sistemelor Liniare

Definitia 2. Doua sisteme liniare (A, B, C, D) si (A, e B,


e C,
e D)
e avand acelasi
numar de intrari si iesiri si aceeasi dimensiune a spatiului starilor (p = pe, m =
e n=n
m, e) se numesc echivalente (izomorfe) pe stare daca exista o transformare
nesingulara T astfel incat

e
A = T AT −1,
e
B = T B,
e
C = CT −1,
e
D = D.

Transformarea T este de fapt o schimbare de coordonate la nivelul marimii de

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 13 Echivalenta Sistemelor Liniare


stare. Intr–adevar, daca
{
ẋ(t) = Ax(t) + Bu(t),
(6)
y(t) = Cx(t) + Du(t),

si definim pentru un T inversabil fixat

e(t) := T x(t)
x ⇔ x(t) = T −1x
e(t)

atunci obtinem {
T −1x ˙
e(t) = AT −1x e(t) + Bu(t),
−1 ⇒ (7)
y(t) = CT x e(t) + Du(t),
{
˙
e(t)
x = T AT −1x
e(t) + T Bu(t),
−1 ⇒
y(t) = CT x e(t) + Du(t),
{
˙
e(t)
x ex(t) + Bu(t),
= Ae e
y(t) = C ex e
e(t) + Du(t),

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 14 Echivalenta Sistemelor Liniare


unde
e = T AT −1,
A e = T B,
B e = CT −1, D
C e = D.

Propozitia 3 (Exercitiu). Doua sisteme echivalente pe stare care au conditiile


initiale asemenea prin T si sunt supuse aceleiasi comenzi u(·) au traiectoriile
de stare asemenea prin T si evolutii la iesire identice.
Definitia 4. Doua sisteme dinamice (A, B, C, D) si (A, e B,
e C,e D)
e se numesc
echivalente intrare–iesire daca au aceeasi functie de transfer, i.e.,

Te(s) = C(sI
e e −1B
− A) e+D
e = C(sI − A)−1B + D = T (s).

Observatii: a) Doua sisteme echivalente intrare–iesire trebuie sa aibe acelasi numar


de intrari (m = m)e si acelasi numar de iesiri (p = pe). Este posibil insa ca
dimensiunea vectorului de stare sa difere, i.e. n ̸= n
e.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 15 Echivalenta Sistemelor Liniare


b) Pentru doua sisteme echivalente intrare–iesire avem automat

D = T (∞) = Te(∞) = D.
e

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 16 Echivalenta Sistemelor Liniare


Relatia intre Echivalenta de Stare si Echivalenta Intrare–Iesire

Propozitia 5. Doua sisteme echivalente pe stare sunt echivalente intrare–iesire.

Demonstraţie. Intr-adevar,

Te(s) = C(sI
e e −1B
− A) e+D e = CT −1(sI − T AT −1)−1T B + D
= CT −1(T (sI − A)T −1)−1T B + D = C(sI − A)−1B + D = T (s).

Observatii: a) Reciproca nu este in general valabila (este posibil ca pentru doua


sisteme echivalente intrare–iesire) sa avem n ̸= n e). (EX)
b) Diferenta in definitiile echivalentei consta in aceea ca una este centrata pe stare
pe cand cealalta este centrata pe functia de transfer (intrare–iesire).
c) Pentru orice matrice de transfer exista o infinitate de realizari de stare.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 17 Echivalenta Sistemelor Liniare


d) Problema dimensiunii realizarii de stare este esentiala: exista o dimensiune ce
este minima (realizare minimala), strict legata de anumite proprietati structurale.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 18 Echivalenta Sistemelor Liniare


4. Stabilitatea Sistemelor Dinamice

Stabilitatea este o proprietate calitativa a sistemelor asociata comportarii dinamice


a acestora.

Daca stabilitatea se refera la comportarea lui x(t) se numeste stabilitate de tip


Lyapunov iar daca se refera la y(t) se numeste stabilitate externa.

Stabilitate Interna (Libera sau Lyapunov)

Acest tip de stabilitate se refera la comportarea marimii de stare x(t) atunci cand
intrarea este identic nula. Ecuatia relevanta este

ẋ(t) = Ax(t), x(0) = xo.

Definitia 6. Un sistem dinamic se numeste intern stabil daca ∀ϵ > 0, ∃δ(ϵ) > 0

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 19 Stabilitatea Sistemelor Dinamice


a.i. ∀xo cu ∥xo∥ < δ(ϵ) avem

∥x(t)∥ ≤ ϵ, ∀t ∈ R+.

Definitia 7. Un sistem dinamic s. n. intern asimptotic stabil daca ∀xo avem

lim ∥x(t)∥ = 0.
t→∞

Observatii: a) Definitia este generala folosindu-se si in cazul sistemelor neliniare.


In cazul liniar exista anumite consecinte simple deoarece avem solutia

x(t) = eAtxo.

b) Sistemul este intern asimptotic stabil daca si numai daca limt→∞ Φ(t) = 0.

Evaluarea lui Φ(t) = eAt

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 20 Stabilitatea Sistemelor Dinamice


Consideram succesiv urmatoarele cazuri:
a) A este un bloc Jordan elementar cu valoare proprie 0;
b) A este un bloc Jordan elementar oarecare;
c) A oarecare.

a) In acest caz presupunem A ∈ Rn×n si

 
0 1 ... 0
 .. .. . . . .. 
A = J0 = 
 0 0 ...
.
1 
0 0 ... 0

Evident A este nilpotenta cu indice de nilpotenta egal cu n, i.e. An = 0 si

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 21 Stabilitatea Sistemelor Dinamice


An−1 ̸= 0. Folosind definitia exponentialei matriciale (3) obtinem in acest caz

   n−1
 
t t t tn−1
0 ... 0 0 0 ... 1 ...
 ..
1!
.. ... ..   (n−1)!   1! (n−1)!
 .. .. . . . ..   .. .. ... ..
eAt
= In+
 0 t 
+· · ·+ =
0 ... 1!  0 0 ... 0   0 0 ... t
1!
0 0 ... 0 0 0 ... 0 0 0 ... 1

b) In acest caz presupunem A ∈ Rn×n si

 
λo 0 . . . 0
 .. .. . . . .. 
A = Jo + Λo, unde Λo = 
 0 0 ...
 = λoIn.
0 
0 0 ... λo

Avem eAt = e(Jo+Λo)t = eJoteΛ0t (relatie ce are loc pentru ca Λo comuta cu Jo).

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 22 Stabilitatea Sistemelor Dinamice


Tinand cont ca eΛot = eλotIn obtinem in final

 n−1

t t
1 ...
 1! (n−1)! 
 .. .. ... .. 
eAt = eλot  .
 0 0 ... t
1!

0 0 ... 1

c) Cazul general se reduce la cazurile precedente prin aducerea matricii A la forma


canonica Jordan. Mai precis, ∀A ∈ Rn×n, ∃T ∈ Rn×n nesingulara a.i.

 
J1 0
J = T AT −1 =  ... 
0 Jk

unde J este o matrice Jordan (bloc diagonala avand pe diagonala blocuri elementare

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 23 Stabilitatea Sistemelor Dinamice


Jordan Ji la valorile proprii ale matricii A). Matricea de tranzitie a starii devine
 J1 t

−1
e 0
eAt = eT JT t
= T −1eJtT = T −1  ...  T.
0 eJk t

Recapitulare: Polinom caracteristic, minimal, forma canonica Jordan, valori proprii,


multiplicitati algebrice si geometrice;
Teorema 8. 1. Sistemul dinamic (A, B, C, D) este intern asimptotic stabil daca
si numai daca Λ(A) ⊂ C− (spectrul matricii de stare A este localizat in semi-
planul stang deschis).
2. Sistemul dinamic (A, B, C, D) este intern stabil daca si numai daca Λ(A) ⊂
C− ∪ C0 iar valorile proprii care au partea reala nula sunt radacini simple ale
polinomului minimal.
Demonstratie: 1. Suficienta conditiilor rezulta automat din forma Jordan. Pentru
necesitate pp ca sistemul este intern asimptotic stabil. Atunci rezulta ca Φ(t)xo →
0 pentru t → ∞, ∀xo ∈ Rn. Pp prin absurd ca nu este indeplinita conditia de

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 24 Stabilitatea Sistemelor Dinamice


spectru. Atunci ∃ λ0 ∈ Λ(A) cu Re λo ≥ 0. Fie xo un vector propriu asociat lui
λo. Atunci
eAtxo = eλotxo ̸→ 0
ceea ce contrazice ipoteza de stabilitate asimptotica.
2. Demonstratia este similara tinand cont ca eJit este marginita (Ji este bloc
Jordan elementar) daca si numai daca v. p. corespunzatoare are partea reala sau
strict negativa sau zero cu multiplicitatea cel mult unu.
Observatii: a) Testarea stabilitatii interne pentru un sistem dinamic se reduce
din punct de vedere procedural la calculul valorilor proprii ale matricii de stare A
(aducerea matricii la forma Schur).
b) Deoarece stabilitatea interna a unui sistem depinde exclusiv de locatia spectrului
matricii de stare A uneori se foloseste abuziv terminologia de matrice (asimptotic)
stabila.

Ecuatia Lyapunov si Stabilitatea Sistemelor Liniare

Ecuatia
AT P + P A + Q = 0, A ∈ Rn×n, Q ∈ Rn×n (8)

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 25 Stabilitatea Sistemelor Dinamice


in necunoscuta P ∈ Rn×n se numeste ecuatie Lyapunov (matriciala, algebrica, in
timp continuu).
Teorema 9. Daca matricea A este asimptotic stabila (Λ(A) ⊂ C−) atunci ecu-
atia Lyapunov are o solutie unica data explicit de expresia
∫ ∞
AT t
P := e QeAtdt. (9)
0

Demonstraţie. Sa observam intai ca deoarece A este asimptotic stabila expresia


(9) este bine definita (integrala nedefinita este convergenta). Calculand

T
∫∞ T AT t At AT t At
∫∞ d AT t At
A P + PA = 0
(A e ∞ Qe +e Qe A)dt = 0 dt (e Qe )dt
T
At
= eA t
Qe = −Q
0

concluzionam ca intr-adevar P dat de (9) este o solutie a ecuatiei Lyapunov.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 26 Stabilitatea Sistemelor Dinamice


Ramane sa aratam ca P este unica solutie. Consideram aplicatia liniara
2 2
P : Rn → Rn , P(P ) := AT P + P A.
2
Aceasta aplicatie este insa surjectiva deoarece tocmai am aratat ca ∀Q ∈ Rn ⇒
n2
∃P ∈ R (dat de (9)) a.i. P(P ) = −Q. Deoarece o aplicatie liniara si surjectiva
este automat injectiva (si deci bijectiva) rezulta ca pentru Q fixat P dat de (9)
este unica solutie a ecuatiei Lyapunov (8). In particular, P = P −1(−Q).

Observatii: a) Daca Q = QT atunci rezulta automat din (9) ca P = P T .


b) Daca Q = QT ≥ 0 atunci P = P T ≥ 0.
c) Daca Q = QT > 0 atunci P = P T > 0.
Ecuatia Lyapunov se foloseste in special in teoria sistemelor neliniare pentru testarea
stabilitatii. In cazul liniar avem urmatorul rezultat (un fel de reciproca).
Teorema 10 (Lyapunov). Presupunem ca ∃P = P T > 0 si Q = QT ≥ 0 a. i.

AT P + P A + Q = 0.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 27 Stabilitatea Sistemelor Dinamice


Atunci Λ(A) ⊂ C−
0.

Demonstraţie. Fie λ ∈ Λ(A) o valoare proprie a lui A si x un vector propriu


asociat, i.e.,
Ax = λx (λ ∈ C, x ∈ Cn, x = ̸ 0).
Hermitizand aceasta ecuatie (transpus + conjugat) obtinem

xH AT = λxH ,

iar din ecuatia Lyapunov avem succesiv

xH AT P x + xH P Ax = −xH Qx;

λxH P x + λxH P x = −xH Qx;


2 Re(λ)xH P x = −xH Qx.
Deoarece xH P x > 0 si −xH Qx ≤ 0 rezulta automat Re(λ) ≤ 0.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 28 Stabilitatea Sistemelor Dinamice


Observatii: a) Daca in teorema de mai sus intarim ipotezele a.i. P > 0, Q > 0
atunci rezulta ca A este asimptotic stabila (Λ(A) ⊂ C−).
b) Indicatii procedurale de testare a (semi)pozitivitatii si rezolvare a ecuatiilor
Lyapunov.
c) Ecuatia Lyapunov se poate folosi pentru a testa stabilitatea unui sistem prin
rezolvarea unui sistem de ecuatii liniare (o problema considerabil mai simpla dpdv
teoretic decat calculul valorilor proprii ale matricii A).

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 29 Stabilitatea Sistemelor Dinamice


5. Regimurile Permanent/Tranzitoriu/Stationar ale Sistemelor

Fie sistemul {
ẋ = Ax + Bu, x(0) = xo,
(10)
y = Cx + Du
avand matricea de transfer

T (s) = C(sI − A)−1B + D.

Pentru a pune in evidenta regimurile permanent si tranzitoriu ale unui sistem facem
ipotezele:
a) Sistemul este intern asimptotic stabil, i.e., Λ(A) ⊂ C−;
b) Comanda u este produsa de regimul liber al unui sistem antistabil
{
ẋe = Aexe, xe(0) = xeo,
(11)
u = Cexe

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 30 Regim Permanent/Tranzitoriu/Stationar


cu Λ(Ae) ⊂ C+ ∪ C0. Comanda are deci expresia

u(t) = CeeAetxeo

si cum Λ(Ae) ⊂ C+ ∪ C0 rezulta ca u este un semnal persistent (in particular,


daca Ae = 0 avem u = Cexeo = cst).

Deoarece sistemul (A, B, C, D) este asimptotic stabil putem afirma intuitiv ca


dupa un timp suficient de lung (asimptotic) starea sistemului va urma semnalul de
intrare produs de sistemul instabil (generatorul de semnal u). Prin urmare incercam
sa vedem daca se poate pune in evidenta la nivelul starii x o descompunere de
tipul
x(t) = ξ(t) + V xe(t) (12)
unde limt→∞ ξ(t) = 0 (componenta tranzitorie) si V xe(t) este proportionala cu
u(t) = Cexe(t) (componenta permanenta). Inlocuind (12) in (10) obtinem

ξ˙ + V ẋe = Aξ + AV xe + BCexe

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 31 Regim Permanent/Tranzitoriu/Stationar


sau inca
ξ˙ = Aξ + (AV − V Ae + BCe)xe. (13)
Deoarece Λ(A) ∩ Λ(Ae) = ∅ rezulta ca ecuatia Sylvester

AV − V Ae + BCe = 0

are o solutie unica V . Punand acest V in (12) si (13) regimul dinamic devine

ξ˙ = Aξ, ξ(0) = ξ0

si cum sistemul original este asimptotic stabil avem ca limt→∞ ξ(t) = 0. Prin
urmare, in ipotezele facute exista si este unic V a.i. sa avem descompunerea

x(t) = xp(t) + xt(t)

in regim permanent si respectiv regim tranzitoriu

xp(t) := V xe, xt(t) := ξ(t). (14)

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 32 Regim Permanent/Tranzitoriu/Stationar


Observatii: a) Descompunerea in regim permanent si tranzitoriu se face in raport
cu clasa de semnale exogene {u(·)|u(t) = CeeAetxeo, xeo ∈ Rne }.
b) Descompunerea in regim permanent si tranzitoriu este specifica sistemelor liniare
(apare numai in context liniar) pe cand descompunerea in regim liber si fortat are
loc si in cazul sistemelor neliniare.
c) Daca Ae = 0 atunci avem de-a face cu un regim stationar (intrari constante),
xe(t) = xeo, ∀t ≥ 0, ecuatia Sylvester are solutia V = −A−1BCe si obtinem

xp(t) = −A−1BCexeo = −A−1BCu0,

yp(t) = −CA−1BCexe0 + Du0 = −CA−1Bu0 + Du0 = T (0)u0,


unde u0 := Cexe0 si T (s) = C(sI − A)−1B + D este matricea de transfer a
sistemului.
d) Daca Ae = jωI, Ce = I, avem u = uoejωt iar ecuatia Sylvester devine

AV − jωV + B = 0

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 33 Regim Permanent/Tranzitoriu/Stationar


avand solutia unica
V = (jωI − A)−1B.
Regimul permanent este atunci

yp = C(jωI − A)−1Buoejωt = T (jω)uoejωt

unde uo = Cexeo.

Exercitiu: Puneti in evidenta regimurile liber/fortat, permanent/tranzitoriu pentru


un circuit RLC cu intrarea generata de un sistem cu matricea de stare Ae avand
doua radacini pur imaginare complex conjugate. Specificati regimul stationar
pentru acest circuit.

CAPITOLUL 2: SISTEME DINAMICE PE SPATIUL STARILOR 34 Regim Permanent/Tranzitoriu/Stationar


CAPITOLUL 3: PROPRIETATI STRUCTURALE

Exista anumite proprietati fundamentale ale sistemelor dinamice pe spatiul starilor


care influenteaza decisiv posibilitate de analiza si sinteza: controlabilitate, ob-
servabilitate, minimalitate, stabilizabilitate, detectabilitate. Aceste proprietati se
reflecta in anumite proprietati structurale ale matricilor sistemice (A, B, C, D).

1. Controlabilitatea

2. Observabilitatea

3. Descompunere Structurala

4. Realizabilitate

5. Conexiunea Sistemelor

CAPITOLUL 3: PROPRIETATI STRUCTURALE 35 PROPRIETATI STRUCTURALE


1. Controlabilitatea (“Posibilitatea de a Controla”)

Controlabilitatea este o proprietate calitativa ce caracterizeaza abilitatea unui


sistem {
ẋ(t) = Ax(t) + Bu(t), x(0) = xo
(15)
y(t) = Cx(t) + Du(t),
de a putea tranzita dintr-o stare in alta prin intermediul unei anumite comenzi
(control). Pentru controlabilitate este relevanta numai prima ecuatie din (28) si
solutia corespunzatoare
∫ t
x(t) = e A(t)
xo + eA(t−τ )Bu(τ )dτ, t ≥ 0. (16)
0

Stare/Sistem Controlabil(a)
Definitia 11. O stare x ∈ Rn se numeste controlabila la momentul t > 0 daca
exista o comanda u(·) ∈ U care transfera xo = 0 (originea) in starea x(t) = x.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 36 Controlabilitatea


Observatii: a) Aparent pentru a stabili controlabilitatea unei stari la momentul t
trebuie rezolvata ecuatia functionala (16) in necunoscuta u(·) : [0, t] → Rn (cu
xo = 0).
b) Conform definitiei, controlabilitatea unei stari x depinde de perechea de matrici
(A, B) si de momentul t > 0. Vom vedea ca de fapt controlabilitatea este o
proprietate ce depinde exclusiv de perechea (A, B) (este independenta de t).

Gramian de Controlabilitate

Pentrul studiul controlabilitatii se introduce Gramianul de Controlabilitate la mo-


mentul t > 0 definit de
∫ t
A(t−τ ) T AT (t−τ )
Lc(t) = e BB e dτ. (17)
0

Observatii:a) Lc(t) = Lc(t)T ;


b) Lc(t) ≥ 0;
c) Pentru orice matrice simetrica X = X T ∈ Rn×n avem Ker (X) ⊥ Im (X) si

CAPITOLUL 3: PROPRIETATI STRUCTURALE 37 Controlabilitatea


Rn = Ker (X) ⊕ Im (X). Cum se obtine asa ceva ?

Caracterizarea Controlabilitatii prin Gramianul de Controlabilitate


Teorema 12. Starea x este controlabila la momentul t > 0 daca si numai daca
x ∈ Im Lc(t).

Demonstraţie. Necesitatea: Presupunem ca x este controlabila la momentul t > 0


adica ∃u(·) a.i.
∫ t
x= eA(t−τ )Bu(τ )dτ.
0

Avem x = xK + xI unde xK ∈ Ker Lc(t), xI ∈ Im Lc(t). Aratam ca xK = 0.


Intr-adevar,
∫ t
xTK x = ∥xK ∥2 = xTK eA(t−τ )Bu(τ )dτ (18)
0

si pentru a arata ca xK = 0 este suficient sa aratam ca xTK eA(t−τ )B = 0,

CAPITOLUL 3: PROPRIETATI STRUCTURALE 38 Controlabilitatea


∀τ ∈ [0, t]. Aceasta identitate rezulta insa automat din sirul de egalitati

∫ t ∫ t
T
T AT (t−τ )
0= xTK Lc(t)xK = xTK eA(t−τ )BB T eA (t−τ )xK dτ = ∥B e xK ∥2dτ
0 0

T
si din analiticitatea functiei B T eA (t−τ )xK pe [0, t].
Suficienta: Presupunem ca x ∈ Im Lc(t) ceea ce este echivalent cu

∫ t
T
x = Lc(t)z = eA(t−τ )BB T eA (t−τ )
zdτ (19)
0

pentru un z ∈ Rn potrivit ales. Definim

T AT (t−τ )
u(τ ) := B e z, τ ∈ [0, ∞) (20)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 39 Controlabilitatea


care introdus in (19) arata ca
∫ t
x= eA(t−τ )u(τ )dτ
0

sau ca starea x este controlabila la momentul t.

Observatii: a) Deoarece z = Lc(t)#x comanda (20) se mai poate scrie ca


T
u(τ ) := B T eA (t−τ )
Lc(t)#x, (21)

unde Lc(t)# este pseudoinversa (Moore-Penrose) a lui Lc(t).


b) Daca x ∈ Im Lc(t) atunci comanda (21) duce starea initiala (originea) in starea
x la momentul t iar daca x ̸∈ Im Lc(t) atunci comanda (21) duce originea cat se
poate de aproape de x la momentul t (adica transfera starea pe directia data de
imaginea gramianului)!

Caracterizarea Controlabilitatii prin Matricea de Controlabilitate

CAPITOLUL 3: PROPRIETATI STRUCTURALE 40 Controlabilitatea


Din cele discutate pana acum controlabilitatea unei stari depinde de momentul de
timp t > 0. In continuare vom vedea ca de fapt proprietatea de controlabilitate
este independenta de t.

Introducem matricea de controlabilitate asociata unui sistem dinamic (sau mai


precis unei perechi matriciale (A, B), A ∈ Rn×n, B ∈ Rn×m):
[ 2 n−1
]
R := B AB A B ... A B . (22)

Matricea de controlabilitate are dimensiune n × (nm).


Teorema 13. Fie t > 0 fixat. Atunci x ∈ Im Lc(t) ⇔ x ∈ Im R, i.e.,

Im Lc(t) = Im R. (23)

Demonstraţie. Sa observam mai intai ca Lc(t) fiind simetrica conditia (34) este

CAPITOLUL 3: PROPRIETATI STRUCTURALE 41 Controlabilitatea


echivalenta cu Ker Lc(t) = Ker RT sau inca

Lc(t)x = 0 ⇔ xT R = 0, x ∈ Rn . (24)

Aratam intai implicatia directa. Avem

∫ t ∫ t
T AT (t−τ )
Lc(t)x = 0 ⇔ T A(t−τ )
x e BB e xdτ = 0 ⇔ ∥xT eA(t−τ )B∥2dτ = 0.
0 0

Rezulta succesiv ca
xT eA(t−τ )B = 0, ∀0 ≤ τ ≤ t,

xT eAτ B = 0, ∀τ ∈ R,
ultima egalitate rezultand din analiticitatea functiei xT eAτ B (daca o functie
analitica este nula pe un interval deschis atunci este nula pe toata axa reala, iar

CAPITOLUL 3: PROPRIETATI STRUCTURALE 42 Controlabilitatea


[0, t] contine automat un interval deschis). Mai departe obtinem ca

dk T AT τ
k
[B e x]τ =0 = 0, k = 0, 1, 2, . . .
dt

de unde
xT B = 0, xT AB = 0, , . . . , xT Ak B = 0, . . .
T
[ 2 n−1
]
ceea ce este echivalent cu x B AB A B . . . A B = 0 sau xT R = 0.
Aratam
[ acum implicatia inversa. ] Fie x ̸
= 0 a.i. xT
R = 0. Atunci
xT B AB A2B . . . An−1B = 0 sau inca

xT B = 0, xT AB = 0, , . . . , xT An−1B = 0.

Din teorema Hamilton–Cayley rezulta imediat ca

xT Ak B = 0, ∀k ≥ 0.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 43 Controlabilitatea


Definim functia analitica ϕ(τ ) := xT eAτ B, ϕ : [0, t] ⇒ Rm. Din relatiile de
mai sus rezulta ca toate derivatele evaluate in zero sunt nule, i.e., ϕ(0) = 0,
ϕ(1)(0) = 0, . . . ϕk (0) = 0. Din analiticitate rezulta automat ca

ϕ(τ ) = 0, ∀τ ∈ [0, t]

si mai departe ca ∫ t
xT Lc(t)x = ϕ(τ )ϕ(τ )T dτ = 0.
0
Cum Lc(t) ≥ 0 rezulta in continuare Lc(t)x = 0 q.e.d.

Observatii: a) O stare x ∈ Rn este controlabila independent de momentul t > 0.


Proprietatea este intrinseca starii x si perechii (A, B).
b) Se poate arata ca daca extindem clasa de semnale de intrare la functii
generalizate (incluzand distributii) atunci daca x este controlabila exista o comanda
care duce originea in acea stare intr-un timp infinit mic (nul) – fenomene de tip
Bushow.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 44 Controlabilitatea


c) Putem introduce definitia echivalenta: o stare x s.n. controlabila daca exista
t > 0 si o comanda u(·), u : [0, t], a.i. traiectoria satisface x(t) = x.
Corolarul 14.
R := Im R = Im Lc(t), ∀t > 0.

Introducem notiunea de sistem controlabil (sau pereche (A, B) controlabila) cu


semnificatia ca fiecare stare x ∈ Rn este controlabila. Avem atunci urmatorul
rezultat central.
Teorema 15. Fie perechea (A, B).
1. O stare x este controlabila daca si numai daca x ∈ R.
2. Perechea (A, B) (sau sistemul corespunzator) este controlabila (controlabil)
daca si numai daca R = Rn (sau, echivalent, rank R = n).

Observatie: Din punct de vedere procedural controlabilitatea unui sistem se poate


testa verificand ca rangul matricii de controlabilitate este n, i.e. rank R = n.
Pentru testarea controlabilitatii exista un algoritm dedicat foarte eficient numit
“controllability staircase”. Cu toate ca acest algoritm este numeric stabil atragem
atentia ca problema testarii controlabilitatii este o problema “ill–posed” (prost

CAPITOLUL 3: PROPRIETATI STRUCTURALE 45 Controlabilitatea


conditionata numeric).

Gramian de Controlabilitate in Timp Infinit

Daca matricea A este asimptotic stabila (Λ(A) ⊂ C−) atunci limita

lim Lc(t)
t→∞

este finita, se noteaza cu Lc ∈ Rn×n = LTc ≥ 0 si este numita gramian de


controlabilitate asimptotic. El verifica automat ecuatia Lyapunov

ALc + LcAT + BB T = 0

si are expresia explicita


∫ ∞
T
Lc := eAτ BB T eA τ dτ.
0

CAPITOLUL 3: PROPRIETATI STRUCTURALE 46 Controlabilitatea


Observatie: Ecuatia Lypunov verificata de gramianul asimptotic are solutie unica.
Aceasta ecuatie are insa solutii (unice) in conditii mult mai generale decat atunci
cand A este stabila.
Propozitia 16. Daca A este asimptotic stabila si perechea (A, B) este controla-
bila atunci Lc > 0.

Demonstraţie. Rationam prin reducere la absurd. Stim ca Lc ≥ 0 si pp ca ∃x ̸= 0


a.i. Lcx = 0. Atunci din ecuatia gramianului rezulta succesiv ca B T Ker Lc = 0,
Ker Lc este AT invariant, B T AT Ker Lc = 0, . . . B T (AT )k Ker Lc = 0, ∀k ≥ 0.
De aici rezulta ca pentru orice x ̸= 0, x ∈ Ker Lc, avem xT R = 0 ceea ce
contrazice ipoteza ca rank R = n si deci ipoteza ca (A, B) este controlabila.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 47 Controlabilitatea


Semnificatia Gramianului de Controlabilitate in Timp Infinit

Presupunem A stabila, perechea (A, B) controlabila si deci Lc > 0. Atunci avem


Λ(Lc) = {σ1, σ2, . . . , σn}, σi > 0, unde indexarea s-a facut in ordine descrescatoare
(i = 1, . . . , n). Fie xi vectori proprii ce formeaza o baza ortonormata (xi ⊥ xj ,
∥xi∥ = 1). Ne propunem sa calculam energia corespunzatoare comenzii ce duce
originea in starea xi. Avem
∫ ∞
xi = eA(t−τ )Bui(τ )dτ = Lczi
0

unde
T AT τ T AT τ T AT τ 1
ui(τ ) = B e zi = B e L−1
c xi =B e xi .
σi
Energia comenzii este
∫ ∞
1 T AT τ 1 T 1 T 1
∥ui(τ )∥2 = 2
2 T Aτ
xi e BB e xidτ = 2 xi Lcxi = 2 xi σixi = .
σi 0 σi σi σi

CAPITOLUL 3: PROPRIETATI STRUCTURALE 48 Controlabilitatea


Din aceasta expresie concluzionam ca gramianul de controlabilitate asimptotic
masoara efortul energetic al sistemului pentru a transfera originea pe sfera unitate
(cu cat Gramianul este mai mare – mai pozitiv – avem nevoie de o energie a
comenzii mai mica). Valorile proprii ale gramianului pun in evidenta nivelele
energetice ale sistemului si dau o procedura efectiva de reducere dimensionala.

Subspatii controlabile

Se introduc
[ ]
Rk := B AB ... A k−1
B , Rk := Im Rk , k ≥ 1,

numite matricea de controlabilitate respectiv subspatiul controlabil in k pasi


(semnificatia numelui va deveni clara la studiul sistemelor cu timp discret).
Rk poseda urmatoarele proprietati:
a) Rk+1 = Im B + ARk = Rk + Ak Im B, unde Ro := {0};
b) Ro ⊂ R1 ⊂ . . . Rk ⊂ . . . adica subspatiile formeaza un lant crescator. In limbaj

CAPITOLUL 3: PROPRIETATI STRUCTURALE 49 Controlabilitatea


matricial avem
rank Ro ≤ rank R1 ≤ · · · ≤ Rk ≤ · · · .
Din finitudinea dimensionala rezulta ca aceste incluziuni nu pot fi stricte decat
pentru un numar finit de subspatii (maxim n) si exista un subspatiu Rν , pentru un
ν suficient de mare, care le va contine pe toate celelalte. Sa observam ca daca ν
este cel mai mic indice pentru care Rν+1 = Rν atunci Rν+1 = Rν+2 = . . . = R.
Acest indice ν se numeste indice de controlabilitate iar Rν = R := Im R adica Rν
este exact subspatiul controlabil (al perechii (A, B));
c) R este A–invariant si contine Im B. Intr–adevar, avem ca R = Im B + AR;
d) R este cel mai mic subspatiu A–invariant care contine Im B. Intr–adevar, fie
V un spatiu A–invariant care contine Im B. Aratam prin inductie ca Rk ⊂ V de
unde concluzia ca R ⊂ V. Deoarece Im B ⊂ V rezulta ca R1 ⊂ V. Presupunem
ca Rk ⊂ V si aratam ca Rk+1 ⊂ V. Intr–adevar, Rk+1 = Im B + ARk . Dar
Im B ⊂ V si ARk ⊂ V (deoarece V este A–invariant si din ipoteza Rk ⊂ V) de
unde concluzia. Cu alte cuvinte, subspatiul controlabil R este solutia infimala in
subspatii a ecuatiei
T = Im B + AT

CAPITOLUL 3: PROPRIETATI STRUCTURALE 50 Controlabilitatea


in necunoscuta T . Mai precis,

R = inf{T |T = AT + Im B} = inf{T |AT ⊂ T si Im B ⊂ T }.

Recapitulare: Subspatii invariante, spectru restrans la un subspatiu, operatii cu


subspatii, suma directa, completari ortogonale etc.

Ce inseamna ca subspatiul V de dimensiune ρ este A–invariant ? Avem AV ⊂ V


iar daca V = Im V , unde V este o n × ρ matrice baza pentru V atunci automat

AV = V J

unde J este o matrice patrata[ ρ × ρ cu ]Λ(J) ⊂ Λ(A). Facand o completare pana


la o matrice nesingulara S = V W si notand T := S −1 obtinem
[ ]
b := T AT −1 = A1 A3
A .
O A2

CAPITOLUL 3: PROPRIETATI STRUCTURALE 51 Controlabilitatea


Ce inseamna ca subspatiul V de dimensiune ρ este A–invariant si contine Im B ?
Repetand schimbarea de coordonate si aplicand-o corespunzator si lui B avem
[ ] [ ]
b := T AT −1 = A1 A3 b = TB = B1
A , B
O A2 O

deoarece Im B ⊂ V. Cu aceasta schimbare de coordonate, matricea de controla-


b B)
bilitate corespunzatoare a perechii (A, b este

[ ]
b= B1 A1B1 A21B1 ··· A1n−1B1 }ρ
R .
O O O ··· O

Daca spatiul A–invariant (ce contine si Im B) in raport cu care s-a facut descom-
punerea este chiar R, atunci perechea (A1, B1) este automat controlabila si avem
ca rank R = rank R b = ρ = ν (indicele de controlabilitate).
Teorema 17 (Teorema de Descompunere Controlabila). Un sistem dinamic oare-
care descris de (A, B, C, D), A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n, D ∈ Rp×m este

CAPITOLUL 3: PROPRIETATI STRUCTURALE 52 Controlabilitatea


b B,
intotdeauna echivalent pe stare cu un sistem (A, b C,
b D) avand structura
[ ]
b = T AT −1 = A1 A3 }ν
A
O A2 }n − ν
, (25)
|{z} |{z}
ν n−ν
[ ]
B1 }ν [ ]
b = TB =
B , b = CT −1 =
C C1 C2 , (26)
O }n − ν
|{z} |{z}
ν n−ν

in care perechea (A1, B1) este controlabila. Mai mult, sistemele (A, B, C, D),
b B,
(A, b C,
b D) si (A1, B1, C1, D) sunt echivalente intrare–iesire, i.e.,

[ ] [ ] [ ]
A B b B
A b A1 B1
T (s) = = b D = .
C D C C1 D

CAPITOLUL 3: PROPRIETATI STRUCTURALE 53 Controlabilitatea


Observatii: a) Teorema afirma in particular ca dandu-se un sistem dinamic putem
intotdeauna gasi un alt sistem echivalent intrare–iesire care este controlabil (avand
dimensiunea spatiului starilor mai mica sau egala cu cea a sistemului initial).
b) Obtinerea descompunerii controlabile se bazeaza in mod esential pe matricea
S = T −1 care se poate obtine facand o completare pana la o inversabila a oricarei
baze V a subspatiului controlabil R = Im R (consecinte procedurale).
c) Proprietatea de controlabilitate este invarianta in raport cu relatia de echivalenta
pe stare. Mai precis, un sistem este controlabil daca si numai daca orice sistem
echivalent pe stare este controlabil.

Criteriul lui Popov–Belevitch–Hautus (PBH)

Folosind teorema de descompunere controlabila se poate obtine un criteriu extrem


de util pentru testarea controlabilitatii unei perechi (A, B).
Teorema 18 (Criteriul lui Hautus). Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m, este

CAPITOLUL 3: PROPRIETATI STRUCTURALE 54 Controlabilitatea


controlabila daca si numai daca
[ ]
rank sI − A B = n, ∀s ∈ C. (27)

Demonstraţie. Necesitatea: Pp prin absurd ca (27) nu este satisfacuta. Atunci


exista s0 ∈ C si un vector x0 ̸= 0, x0 ∈ Cn a.i.
[ ]
xT0 s0I − A B = 0.

De aici rezulta imediat ca


[ ]
xT0 R = xT0 B AB ...A n−1
B =0

si deci perechea (A, B) nu este controlabila intrucat rank R < n.


Suficienta: Pp din nou prin reducere la absurd ca (A, B) nu este controlabila

CAPITOLUL 3: PROPRIETATI STRUCTURALE 55 Controlabilitatea


(ν < n). Atunci conform teoremei de descompunere controlabila exista un sistem
echivalent pe stare avand perechea (A1, B1) controlabila. Avem succesiv
[ ]
[ ] [ ] T O−1
rank sI − A B = rank T sIn − A B
[ O I ]
sIν − A1 −A3 B
= rank .
O sIn−ν − A2 O

Rangul ultimei matrici este insa mai mic decat n pentru orice s ∈ Λ(A2) ceea ce
contrazice (27).

Observatii: a) Pentru a decide controlabilitatea unei perechi (A, B) este suficient


sa testam criteriul lui Hautus pentru s ∈ Λ(A). Intr–adevar, pentru s ∈ C − Λ(A)
avem automat rank (sI − A) = n si deci criteriul este indeplinit.
b) Observatia de mai sus justifica introducerea de valoare proprie (sau mod) con-
trolabila/necontrolabila: O valoare proprie a lui A s.n. controlabila (necontrolabila)
daca satisface (nu satisface) criteriul lui Hautus. Din teorema de descompunere

CAPITOLUL 3: PROPRIETATI STRUCTURALE 56 Controlabilitatea


controlabila rezulta imediat ca o valoare proprie λ a lui A este controlabila (necon-
trolabila) daca si numai daca λ ∈ Λ(A1) (λ ∈ Λ(A2)).
c) Din demonstratia de mai sus rezulta ca daca doua sisteme (A, B, C, D) si
e B,
(A, e C,
e D)
e sunt echivalente pe stare cu matricea de echivalenta T atunci matri-
e satisfac
cile de controlabilitate corespunzatoare R si R

e = T R.
R

“Controlabilitatea este o proprietate generica”


Teorema 19. Fie Fn,m := {(A, B)|A ∈ Rn×n, B ∈ Rn×m} familia tuturor
perechilor (A, B) cu n si m fixati. Submultimea M ⊂ F a perechilor necon-
trolabile formeaza o suprafata algebrica iar submultimea perechilor controlabile
n2 +nm
este densa in R . Cu alte cuvinte, controlabilitatea este o proprietate
generica in F (o pereche (A, B) selectata la intamplare din F este controlabila
sau, echivalent, probabilitatea de a selecta o pereche necontrolabila este nula).

Nul Controlabilitate

CAPITOLUL 3: PROPRIETATI STRUCTURALE 57 Controlabilitatea


Am vazut ca proprietatea de controlabilitate exprima esentialmente capacitatea de
a aduce un sistem din origine intr-o stare arbitrara. Introducem acum conceptul
de nul controlabilitate (cu consecinte interesante in special in cazul sistemelor cu
timp discret).
Definitia 20. O stare x ∈ Rn se numeste nul controlabila la momentul t fixat
daca exista o comanda u(·) care transfera starea x0 = x in starea x(t) = 0 (in
origine).

Exercitii: a) Aratati ca o stare este controlabila daca si numai daca este nul
controlabila.
b) Perechi cu matricea B monica. (Explicitare)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 58 Controlabilitatea


2. Observabilitatea

Observabilitatea este o proprietate calitativa a sistemului


{
ẋ(t) = Ax(t) + Bu(t), x(0) = xo
(28)
y(t) = Cx(t) + Du(t),

de a determina o stare din prelucrarea marimii masurate y. Pentru observabilitate


este relevanta evolutia sistemului in regim liber, i.e., sub comenzi externe nule,

ẋ(t) = Ax, x(0) = xo,


(29)
y = Cx,

deci observabilitatea este o proprietate in caracterizarea careia intervine numai


perechea de matrici (C, A) – observati ordinea in pereche – . Din (29) rezulta

y(τ ) = CeAτ xo, τ ≥ 0. (30)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 59 Observabilitatea


Stare/Sistem Observabil(a)

Pentru studiul observabilitatii este mai simplu sa introducem notiunea de stare


neobservabila in loc de cea de stare observabila.
Definitia 21. O stare x ∈ Rn se numeste neobservabila la momentul t > 0 daca
pentru x(0) = x regimul liber al iesirii y este identic zero pe intervalul [0, t],
i.e., y(τ ) = 0, 0 ≤ τ ≤ t, cu y(τ ) furnizat de (30).

Notiunea de stare observabila se obtine prin negarea definitiei de mai sus.

Gramian de Observabilitate

Pentrul studiul observabilitatii se introduce Gramianul de Observabilitate la mo-


mentul t > 0 definit de
∫ t
T
Lo(t) = eA τ C T CeAτ dτ. (31)
0

CAPITOLUL 3: PROPRIETATI STRUCTURALE 60 Observabilitatea


Observatii: a) Lo(t) = Lo(t)T ;
b) Lo(t) ≥ 0;
c) Se poate obtine din nou o descompunere ortogonala a lui Rn in raport cu Ker Lo
si Im Lo.

Caracterizarea Observabilitatii prin Gramianul de Observabilitate


Teorema 22. Fie t > 0 fixat (se poate si t ≥ 0). Starea x este neobservabila la
momentul t > 0 daca si numai daca x ∈ Ker Lo(t). Mai mult, daca o stare este
neobservabila la un t > 0 atunci este neobservabila la orice alt moment de timp
T > 0.

Demonstraţie. Necesitatea: Presupunem ca x este neobservabila la momentul


t > 0 adica y(τ ) = CeAτ x = 0, 0 ≤ τ ≤ t. De aici rezulta
∫ t
T AT τ
0 = y (t)y(t) = ∥y(t)∥ =
T 2
x e C T CeAτ xdτ = xT Lo(t)x, (32)
0

de unde rezulta ca Lo(t)x = 0 sau inca x ∈ Ker Lo(t), q.e.d.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 61 Observabilitatea


Suficienta: Avem x ∈ Ker Lo(t) de unde rezulta xT Lo(t)x = 0 si folosind lantul
de egalitati din (32) obtinem ∥y(τ )∥2 = 0, 0 ≤ τ ≤ t. Sa observam in plus ca
deoarece y(τ ) este analitica si nula pe un interval inchis nenul rezulta ca y(T ) = 0
pentru orice T > 0, q.e.d.

Din cele discutate mai sus am vazut ca (ne)observabilitatea unei stari nu depinde
de momentul de timp. In continuare vom obtine o caracterizare a subspatiului
starilor neobservabile pe baza matricii de observabilitate – notiune duala celei de
matrice de controlabilitate.

Caracterizarea Observabilitatii prin Matricea de Observabilitate

CAPITOLUL 3: PROPRIETATI STRUCTURALE 62 Observabilitatea


Introducem matricea de observabilitate asociata unui sistem dinamic :
 
C
 CA 
 
Q := 
 CA2 
 (33)
 .. 
CAn−1

(sau mai precis unei perechi matriciale (C, A), C ∈ Rp×n, A ∈ Rn×n). Matricea
de observabilitate are dimensiune (np) × n.
Teorema 23. Fie t > 0 fixat. Atunci x ∈ Ker Lo(t) ⇔ x ∈ Ker Q =: Q, i.e.,

Ker Lo(t) = Q. (34)

Demonstraţie. Exercitiu (demonstratie similara celei date pentru Teorema 13).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 63 Observabilitatea


Observatii: a) Avem deci ca

Ker Lo(t) = Ker Q, ∀t > 0.

b) O stare x ∈ Rn este observabila/neobservabila independent de momentul t > 0


– cu anumite precautii se poate lua t ≥ 0. Proprietatea este intrinseca starii x si
perechii (C, A).
c) Se poate introduce definitia echivalenta: o stare x s.n. neobservabila daca
exista t > 0 pentru care x este neobservabila la acest moment.
Introducem notiunea de sistem observabil (sau pereche (C, A) observabila) cu
semnificatia ca fiecare stare x ∈ Rn, x ̸= 0 este observabila. Avem atunci
urmatorul rezultat central.
Teorema 24. Fie perechea (C, A).
1. O stare x este neobservabila daca si numai daca x ∈ Q.
2. Perechea (C, A) (sau sistemul corespunzator) este observabila (observabil)
daca si numai daca singura stare neobervabila este 0, i.e. Q = {0} (sau, echiva-
lent, rank Q = n).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 64 Observabilitatea


Gramian de Observabilitate in Timp Infinit

Daca matricea A este asimptotic stabila (Λ(A) ⊂ C−) atunci limt→∞ Lo(t)
este finita, se noteaza cu Lo ∈ Rn×n = LTo ≥ 0 si este numita Gramian de
Observabilitate asimptotic. El verifica automat ecuatia Lyapunov

AT Lo + LoAT + C T C = 0

si are expresia ∫ ∞
AT τ
Lo := e C T CeAτ dτ.
0
Observatii: a) Similar ca in cazul controlabilitatii, observabilitatea unui sistem se
poate testa dpdv procedural verificand ca rank Q = n (matricea Q este monica –
rang intreg pe coloane).
b) Daca perechea (C, A) este observabila atunci automat Lo(t) > 0 si Lo > 0.
Gramianul de observabilitate asimptotic se poate calcula ca solutia unica a ecuatiei
Lyapunov respective.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 65 Observabilitatea


c) Daca x ∈ Rn arbitrara, atunci putem descompune unic x = xI + xK , unde
xI ∈ Im Lo(t) si xK ∈ Ker Lo(t) (deoarece Rn := Im Lo(t) ⊕ Ker Lo(t)). Atunci

y(t) = CeAtx = CeAtxI + CeAtxK = CeAtxI .

Deci cu exceptia sistemelor din Ker Lo(t), toate celelalte “se vad” la iesire.

Subspatii neobservabile

Se introduc
 
C
 CA 
Qk := 
 ..
,
 Nk := Ker Qk , k ≥ 1,
CAk−1

numite matricea de observabilitate respectiv subspatiul neobservabil in k pasi.


Nk poseda urmatoarele proprietati:

CAPITOLUL 3: PROPRIETATI STRUCTURALE 66 Observabilitatea


a) Nk = ∩ki=1Ker CAi−1 = ∩ki=1A−i+1Ker C (A−1 semnifica aici preimaginea si
nu inversa !);
b) Nk+1 = Ker C ∩ A−1Nk ;
c) . . . ⊂ N2 ⊂ N1 ⊂ N0 := Rn adica subspatiile neobservabile Nk formeaza un
lant descrescator. De aici rezulta ca exista un intreg µ, n ≥ µ ≥ 0, a.i.

. . . Nµ+2 = Nµ+1 = Nµ ̸= Nµ−1 ̸= . . . ̸= N1 ̸= N0

sau pe scurt
lim Nk = Nµ = Nn.
k→∞

Intregul µ se numeste indice de observabilitate iar Nµ = Nn se numeste subspatiul


neobservabil a perechii (C, A). Avem ca

N = Ker Q.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 67 Observabilitatea


In limbaj matricial obtinem

0 < rank Q1 < rank Q2 < rank Qµ = rank Qµ+1 = . . . .

d) Din cele de mai sus obtinem ca

N = Ker C ∩ A−1N

sau inca
AN ⊂ N , N ⊂ Ker C
adica N este un subspatiu A–invariant continut in Ker C. Mai mult, se poate
arata (exercitiu) ca N este cel mai mare subspatiu A–invariant continut in Ker C.
Deasemenea, considerand ecuatia

T = Ker C ∩ A−1T

in necunoscuta T rezulta ca N este solutia sa supremala.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 68 Observabilitatea


Principiul Dualitatii

Principiul dualitatii este un principiu fundamental in teoria sistemelor dinamice,


aratand in ce conditii anumite proprietati structurale sunt echivalente.
Teorema 25 (Principiul dualitatii). Subspatiul controlabil in k pasi al perechii
(A, B) este complementul ortogonal al subspatiului neobervabil in k pasi al
perechii (B T , AT ), i.e.

Rk (A, B) = Nk (B T , AT )⊥.

In particular, perechea (A, B) este controlabila daca si numai daca perechea


(B T , AT ) este observabila.

Pe baza principiului dualitatii se pot formula dualele tuturor rezultatelor obtinute


in cazul controlabilitatii.
Teorema 26 (Criteriul PBH). Perechea (C, A), C ∈ Rp×n, A ∈ Rn×n, este

CAPITOLUL 3: PROPRIETATI STRUCTURALE 69 Observabilitatea


observabila daca si numai daca
[ ]
sI − A
rank = n, ∀s ∈ C. (35)
C

Prin dualitate se introduc notiunile de valoare proprie (sau mod) observ-


abil/neobservabil. Dam in continuare teorema de descompunere observabila in
doua forme complet echivalente.
Teorema 27 (Teorema de Descompunere Observabila). Un sistem dinamic oare-
care descris de (A, B, C, D), A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n, D ∈ Rp×m este
b B,
intotdeauna echivalent pe stare cu un sistem (A, b C,
b D) avand structura

[ ]
b = T AT −1 = A1 A3 }n − µ
A
O A2 }µ
,
|{z} |{z}
n−µ µ

CAPITOLUL 3: PROPRIETATI STRUCTURALE 70 Observabilitatea


[ ]
B1 }n − µ [ ]
b = TB =
B , b = CT −1 =
C O C2 ,
B2 }µ
|{z} |{z}
n−µ µ
in care perechea (C2, A2) este observabila. Mai mult, sistemele (A, B, C, D),
b B,
(A, b C,
b D) si (A2, B2, C2, D) sunt echivalente intrare–iesire, i.e.,

[ ] [ ] [ ]
A B b B
A b A2 B2
T (s) = = b D = .
C D C C2 D

Teorema 28 (Teorema de Descompunere Observabila – varianta). Un sistem


dinamic oarecare descris de (A, B, C, D), A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n,
b B,
D ∈ Rp×m este intotdeauna echivalent pe stare cu un sistem (A, b C,
b D) avand
structura [ ]
b = T AT −1 = A1 O }µ
A
A3 A2 }n − µ
,
|{z} |{z}
µ n−µ

CAPITOLUL 3: PROPRIETATI STRUCTURALE 71 Observabilitatea


[ ]
B1 }µ [ ]
b = TB =
B , b = CT −1 =
C C1 O ,
B2 }n − µ
|{z} |{z}
µ n−µ
in care perechea (C1, A1) este observabila. Mai mult, sistemele (A, B, C, D),
b B,
(A, b C,
b D) si (A1, B1, C1, D) sunt echivalente intrare–iesire, i.e.,

[ ] [ ] [ ]
A B b B
A b A1 B1
T (s) = = b D = .
C D C C1 D

CAPITOLUL 3: PROPRIETATI STRUCTURALE 72 Observabilitatea


3. Teorema de Descompunere Structurala

Avem intai nevoie de reamintirea catorva rezultate de algebra matriciala:


• Ecuatie Sylvester;
• Subspatiu A–invariant si consecinte.

Consideram un sistem definit de (A, B, C, D). Fie R subspatiul controlabil al


perechii (A, B) si N subspatiul neobservabil al perechii (C, A).

Fie
X1 := R ∩ N (36)
si introducem subspatiile X2 si X3 ca fiind complementii lui X1 in R si respectiv
N , i.e.,
R = X 1 ⊕ X2 , (37)

N = X 1 ⊕ X3 . (38)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 73 Teorema de descompunere structurala


Fie deasemenea X4 complementul lui R ∪ N in Rn, i.e.,

Rn = (R ∪ N ) ⊕ X4 = X1 ⊕ X2 ⊕ X3 ⊕ X4 (39)

Subspatiile X2, X3 si X4 nu sunt unic definite. Deoarece

AR ⊂ R, Im B ⊂ R (40)

AN ⊂ N , N ⊂ Ker C (41)
rezulta ca
AX1 ⊂ X1, X1 ⊂ Ker C. (42)
Fie Xi matrici baza pentru subspatiile Xi (i=1...4), Xi =< Xi > si

[ ]−1
T := X1 X2 X3 X4 . (43)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 74 Teorema de descompunere structurala


Atunci sistemul echivalent pe stare fata de transformarea (42) are forma
   
A11 A12 A13 A14 B1
 O A22 O A24   B2 
b
A = T AT = 
−1 , b
B = TB =  
 O O A33 A34   O  (44)
O O O A44 O
[ ]
b = CT −1 = O C2
C O C4 ,

structura ce rezulta din (36)-(43). Din teorema de descompunere controlabila


rezulta ca perechea ([ ] [ ])
A11 A12 B1
, (45)
O A22 B2
este controlabila iar din teorema de descompunere observabila rezulta ca perechea
( [ ])
[ ] A22 A24
C2 C4 , (46)
O A44

CAPITOLUL 3: PROPRIETATI STRUCTURALE 75 Teorema de descompunere structurala


este observabila. Aplicand criteriul PBH pentru perechea (45) rezulta
[ ]
sI − A11 −A12 B1
rank = dim X1 + dim X2, ∀s ∈ C
O sI − A22 B2

de unde rezulta automat ca


[ ]
rank sI − A2 B2 = dim X2, ∀s ∈ C

deci perechea (A22, B2) este controlabila. Aplicand criteriul PBH dual perechii
(46) rezulta similar ca perechea (C2, A22) este observabila. In consecinta rezulta
ca (sub)sistemul (A22, B2, C2, D) este controlabil si observabil (se mai numeste
partea controlabila si observabila a sistemului initial) si inca

[ ] [ ] [ ]
A B b B
A b A22 B2
T (s) = = b D = .
C D C C2 D

CAPITOLUL 3: PROPRIETATI STRUCTURALE 76 Teorema de descompunere structurala


Sintetizand cele de mai sus obtinem urmatorul rezultat remarcabil.
Teorema 29 (Teorema de descompunere structurala). Orice sistem arbitrar
b B,
(A, B, C, D) este echivalent pe stare cu un sistem (A, b C,
b D) cu structura (44)
(unde unele blocuri pot avea dimensiune nula !) si echivalent intrare–iesire cu
sistemul controlabil si observabil (A22, B2, C2, D).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 77 Teorema de descompunere structurala


4. Realizabilitate

Am vazut ca orice sistem dinamic descris de ecuatii de tipul


{
ẋ(t) = Ax(t) + Bu(t), x(to) = xo
(47)
y(t) = Cx(t) + Du(t)

este automat invariant in timp, liniar, cauzal, finit dimensional. In particular,


sistemul dinamic este un sistem de convolutie avand matrice de transfer data de

T (s) = C(sI − A)−1B + D.

Matricea de transfer descrie comportarea intrare–iesire in conditii initiale nule si


este o matrice avand drept elemente functii rationale proprii.
Problema naturala: Stiind ca matricea de transfer a unui sistem MIMO este
rationala si proprie exista o descriere dinamica a sistemului de tipul (47) ? Mai

CAPITOLUL 3: PROPRIETATI STRUCTURALE 78 Realizabilitate


precis, stiind ca T (s) este o matrice rationala proprie de dimensiune p × m exista
intotdeauna patru matrici (A, B, C, D), unde A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n,
D ∈ Rp×m a.i. sistemul dinamic corespunzator (47) sa aibe matricea de transfer
T (s), i.e.,
T (s) = C(sI − A)−1B + D?
Atunci cand exista, cele patru matrici (A, B, C, D) se numesc o realizare a
rationalei T (s) (sau a sistemului avand ca matrice de transfer pe T (s)).
INTREBARI NATURALE:
• Exista intotdeauna o realizare si daca da cum se poate obtine ? DA!
• Este realizarea unica ? NU !
• Exista o realizare de dimensiune minima (maxima) ? DA (NU) !
• Cum se pot caracteriza realizarile minimale ? Controlabile + observabile!
• Cum se pot obtine realizarile minimale ? Teorema de Descompunere Structurala
!
• Sunt realizarile minimale unice ? NU !
• Ce relatie exista intre doua realizari minimale ? Sunt echivalente pe stare !

CAPITOLUL 3: PROPRIETATI STRUCTURALE 79 Realizabilitate


Problema existentei

Fie T (s) o p × m matrice rationala proprie data de

[ ]
rij (s)
T (s) = , grad(pij ) ≥ grad(rij ), ∀i, j,
pij (s) 1≤i≤p
1≤j≤m

in care rapoartele se considera ireductibile. Deoarece rationala este proprie avem


ca D := T (∞) ∈ Rp×m (finit). Problema realizabilitatii rationalei proprii T (s) se
reduce atunci la problema realizabilitatii rationalei strict proprii Te(s) = T (s) − D,
i.e., trebuie sa gasim trei matrici (A, B, C) a.i.

Te(s) = C(sI − A)−1B.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 80 Realizabilitate


Deoarece Te(s) este strict proprie avem

k−1
K + K s + . . . + K s
Te(s) =
0 1 k−1
(48)
γ0 + γ1s + . . . + γk−1sk−1 + sk

unde γ(s) := γ0 + γ1s + . . . + γk−1sk−1 + sk este cel mai mic multiplu comun
(monic) al numitorilor tuturor elementelor rationalei Te(s) iar Ki, i = 0, . . . , k − 1,
sunt p × m matrici constante.

O realizare a lui Te(s) este data de

   
Om Im Om
 ...   ..  [
A=

,B = 

 , C = K0 K1 . . . Kk−
 Om 
Im
−γ0Im −γ1Im . . . −γk−1Im Im
(49)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 81 Realizabilitate


Intr–adevar, cu  
Im
 sIm 
Θ(s) := 
 ..


sk−1Im
se verifica direct ca
(sI − A)Θ(s) = Bγ(s)
sau inca
Θ(s)
= (sI − A)−1B. (50)
γ(s)
Cum
CΘ(s) = K0 + K1s + . . . + Kk−1sk−1
inmultind (50) la stanga cu C si tinand cont de (48) obtinem Te(s) = C(sI −
A)−1B. Realizarea (A, B, C, D) astfel obtinuta este controlabila si de aceea se
mai numeste realizarea standard controlabila a lui T (s). Controlabilitatea perechii
(A, B) se poate testa imediat cu criteriul PBH. In general, realizarea obtinuta nu

CAPITOLUL 3: PROPRIETATI STRUCTURALE 82 Realizabilitate


este insa observabila (poate fi!). O realizare standard observabila este data de
   
Om −γ0Ip K0
 Ip −γ1Ip   K1  [ ]
A=
 ... .. 
,B = 
 .. 
 , C = Op Op . . . Ip .
Ip −γk−1Ip Kk−1
(51)
Aceasta realizare nu este in general controlabila.

Observatie: Pentru matrici de transfer rationale de dimensiuni arbitrare nu exista


in general posibilitatea sa scriem direct o realizare care sa fie simultan controlabila
si observabila.

Coeficienti Markov si Matrici Hankel

Studiem acum relatiile care exista intre doua realizari ale unei matrici rationale
proprii. In primul rand este clar ca cele doua matrici ”D” sunt egale. Dezvoltand
Te(s) in serie Laurent in jurul punctului s = ∞ obtinem pentru ∥s∥ > r, unde r

CAPITOLUL 3: PROPRIETATI STRUCTURALE 83 Realizabilitate


este ales suficient de mare,

Te(s) = Γ1s−1 + Γ2s−2 + . . . . (52)

Identificand coeficientii din (52) cu ajutorul lui (48) obtinem

Kk−1 = Γ1
Kk−2 = Γ2 + γk−1Γ1
... ... ...
K0 = Γk + γk−1Γk−1 + . . . + γ1Γ1
0 = Γk+i + γk−1Γk−1+i + . . . + γ0Γi, i ≥ 1.

Coeficientii matriceali Γi ∈ Rp×m, i ≥ 1, s.n. coeficientii Markov ai matricei


rationale T (s).
Daca (A, B, C, D) este o realizare a lui T (s) atunci avem

C(sI − A)−1B + D = D + CBs−1 + CABs−2 + CA2Bs−3 + . . . , (53)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 84 Realizabilitate


pentru ∥s∥ > rA, unde rA este raza spectrala a matricei A.

Coeficientii D si CAi−1B, i ≥ 1, se numesc coeficientii Markov ai sistemului


(realizarii) (A, B, C, D). Identificand coeficientii in (52) si (53) obtinem

Γo := D, Γi = CAi−1B, ∀i ≥ 1. (54)

Deci toate realizarile lui T (s) au aceeasi coeficienti Markov, identici cu cei ai lui
T (s). Introducem matricile de tip Hankel

   j−1

Γ1 Γ2 . . . Γj CB CAB ... CA B
 Γ2 Γ3 . . . Γj+1   CAB CA2B ... CAj B 
Hij = 
 ..
=
  .. 

Γi Γi+1 . . . Γj+i−1 CAi−1B CAiB . . . CAj+i−2B
(55)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 85 Realizabilitate


 
C
 CA [ ]
 
 B AB . . . A B = QiRj i ≥ 1, j ≥ 1,
i−1
= .. (56)
CAi−1B
unde Rj este matricea de controlabilitate in j pasi si Qi este matricea de
observabilitate in i pasi. Din aceasta relatie rezulta ca pentru orice doua realizari
e B,
(A, B, C, D) si (A, e C,
e D) ale aceluiasi T (s) avem

e iR
QiRj = Q ej , ∀i ≥ 1, j ≥ 1. (57)

Observatie: Matricile Hankel cu toate ca au dimensiuni arbitrar de mari au totusi


rangul marginit de n. Acest lucru rezulta din ultima egalitate din (56).

Realizari minimale
Definitia 30. O realizare (A, B, C, D) a rationalei proprii T (s) se numeste min-
imala daca orice alta realizare are dimensiunea spatiului starilor mai mare sau
egala cu aceasta.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 86 Realizabilitate


Teorema 31. O realizare este minimala daca si numai daca este controlabila si
observabila.

Demonstraţie. Conditia este necesara. P.p. prin reducere la absurd ca realizarea


minimala (A, B, C, D) de dimensiune n nu este controlabila si/sau observabila.
Atunci printr–o transformare de echivalenta aducem sistemul la forma din teo-
rema de descompunere structurala si rezulta ca realizarea (A22, B2, C2, D) are
dimensiune strict mai mica ceea ce contrazice ipoteza de minimalitate a realizarii
originale.
Conditia este suficienta. Presupunem ca realizarea (A, B, C, D) de dimensiune n
este controlabila si observabila. Atunci

rank Rn = rank Qn = n

rezultand in continuare ca

rank QnRn = rank Rn − dim(Im Rn ∩ Ker Qn) = n. (58)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 87 Realizabilitate


P.p. prin absurd ca (A, B, C, D) nu este minimala. Atunci exista o realizare
e B,
(A, e C,
e D) de dimensiune ne cu

e < n.
n

Din (57) rezulta ca


e nR
rank Q en = rank QnRn
en ≤ n
ceea ce este absurd intrucat rank Q en ≤ n
e si rank R e.
Teorema 32. Oricare doua realizari minimale ale unei matrici de transfer pro-
prii T (s) sunt echivalente pe stare.

Demonstraţie. Fie (A, B, C, D) si (A, e B,


e C,
e D) doua realizari minimale ale lui
T (s). Conform teoremei precedente, ambele realizari au aceeasi dimensiune n si
sunt controlabile si observabile. Din (56) avem

e nR
QnRn+1 = Q en+1 (59)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 88 Realizabilitate


[ ] [ ]
sau inca Qn B ARn en
=Q e
B eR
A en de unde rezulta

e nB,
QnB = Q e e nA
QnARn = Q eRen . (60)

Deoarece Q e n este nesingulara si din prima relatie din


e Tn Q
e n este monica atunci Q
(60) rezulta
Be = TB (61)
unde
e Tn Q
T := (Q e n)−1Q
e Tn Qn ∈ Rn×n.

Similar, deoarece Ren este epica rezulta ca R


en R
enT este nesingulara si din a doua
egalitate din (60) rezulta ca
e = T AS
A (62)
unde
enT (R
S = Rn R en R
enT )−1 ∈ Rn×n.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 89 Realizabilitate


Din (59) rezulta ca
   
C C e [ ]
[ ]
 CA  Rn AnB = 
 C eA 
e  R en A
enB
e
.. ..

eR
de unde CRn = C en sau inca
e = CS.
C (63)
Din (61), (62) si (63) rezulta ca cele doua realizari sunt echivalente pe stare daca
aratam ca S = T −1. Intr–adevar,

e Tn Q
T S = (Q e n)−1Q
e Tn QnRnR
enT (R
en R
enT )−1 = (Q
e Tn Q
e n)−1Q
e Tn Q
e nR
en R
enT (R
en R
enT )−1 = I.

Teorema 33. Fie µ si ν cei mai mici intregi pentru care rank Hµ,ν =
rank Hµ+i,ν+j . Atunci ν = µ = n, unde n este dimensiunea realizarii mini-
male.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 90 Realizabilitate


Demonstraţie. Rezulta automat din (56).

Observatie: Pentru orice sistem descris de matrice de transfer rationala proprie


T (s) putem calcula coeficientii Markov (unici) Γi pe baza descompunerii (52).
Mai mult, daca stim o realizare (A, B, C, D) a sistemului dinamic cu matricea de
transfer T (s), atunci coeficientii Markov se pot calcula pe baza expresiilor explicite
(54). Mai mult, coeficientii Markov determina unic sirul dublu indexat de matrici
Hankel Hij care au rang finit egal cu n, pentru i, j ≥ n, unde n este dimensiunea
unei realizari minimale.

Problema inversa (fundamentala): Presupunand acum ca avem un sir de coeficienti


Markov Γi ∈ Rp×m, i ≥ 0, se pune problema fireasca daca exista intotdeauna un
sistem dinamic care are acesti coeficienti Markov ? Mai exact, seria din membrul
drept din (52) converge intotdeauna la o rationala proprie ce este matricea de
transfer a unui sistem (A, B, C, D) ? Sau, echivalent, exista intotdeauna matricile
(A, B, C, D) de dimensiuni potrivite a.i. sa aibe loc relatiile (54) ?

Raspuns: NU (in general)! Rezultatul urmator da un raspuns complet acestei

CAPITOLUL 3: PROPRIETATI STRUCTURALE 91 Realizabilitate


probleme.
Teorema 34. Fie un sir de matrici reale Γi ∈ Rp×m, i ≥ 0, pentru care exista
j ≥ 1 a.i. Γj ̸= 0. Atunci exista o p × m matrice rationala proprie T (s) ai carei
coeficienti Markov sunt exact elementele sirului Γi daca si numai daca exista
un intreg n ≥ 1 a.i.

n = rank Hn+i,n+j , ∀i, j ≥ 0. (64)

In cazul in care (64) are loc, intregul n ≥ 1 se numeste gradul McMillan al


rationalei T (s).

Observatie (fundamentala): Gradul McMillan al unei rationale proprii T (s)


coincide cu dimensiunea unei realizari minimale.
Corolarul 35. Functia f : N → Rp×m cu f (i) = Γi, i ≥ 0, este z–transformabila
(are transformata z) si transformata z este o matrice rationala proprie daca si
numai daca este indeplinita conditia (64).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 92 Realizabilitate


Procedura de obtinere a unei realizari minimale pentru o
matrice rationala proprie

[ ]
rij (s)
T (s) = , grad(pij ) ≥ grad(rij ), ∀i, j.
pij (s) 1≤i≤p
1≤j≤m

Pasul 0: Se pune D := T (∞) si se aduce matricea rationala (strict proprie)


Te(s) := T (s) − D la forma

k−1
K + K s + . . . + K s
Te(s) =
0 1 k−1
(65)
γ0 + γ1s + . . . + γk−1sk−1 + sk

unde γ(s) := γ0 + γ1s + . . . + γk−1sk−1 + sk este cel mai mic multiplu comun
(monic) al numitorilor tuturor elementelor rationalei Te(s) iar Ki, i = 0, . . . , k − 1,
sunt p × m matrici constante.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 93 Realizabilitate


Pasul 1: Se scrie realizarea standard controlabila
   
Om Im Om
 ...   ..  [
   
A=
Im  , B =  Om  , C = K0 K1 . . . Kk−
−γ0Im −γ1Im . . . −γk−1Im Im
(66)
in care perechea (A, B) este automat controlabila.
Pasul 2: Se aplica teorema de descompunere observabila perechii (C, A) si se
obtine [ ]
b = T AT −1 = A1 A3 }n − µ
A
O A2 }µ
,
[ ] |{z} |{z}
b B1 }n − µ n − µ b µ −1 [ ]
B = TB = , C = CT = O C2 ,
B2 }µ
|{z} |{z}
n−µ µ
in care perechea (C2, A2) este observabila.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 94 Realizabilitate


Pasul 3: Deoarece perechea (A, B) este controlabila, rezulta automat ca
b B)
perechile (A, b si (A2, B2) sunt deasemenea controlabile. Prin urmare sistemul
(A2, B2, C2, D) care este echivalent intrare–iesire cu sistemul original (A, B, C, D)
este controlabil, observabil si deci minimal. Prin urmare (A2, B2, C2, D) este o
realizare minimala pentru T (s) si

T (s) = C2(sI − A2)−1B2 + D.

Observatii: a) Din punct de vedere procedural, algoritmul de calcul al realizarii


minimale urmeaza exact pasii de mai sus cu observatia ca transformarea T de la
pasul 2 se alege intotdeauna ortogonala T −1 = T T .
b) Pentru obtinerea unei realizari minimale se poate proceda dual, calculand la
Pasul 1 o realizare standard observabila (51) si facand la Pasul 2 o descompunere
controlabila (25)–(26).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 95 Realizabilitate


5. Conexiunile Sistemelor Dinamice pe Stare si Operatii cu
Sisteme

Consideram cateva posibile conexiuni standard ale sistemelor dinamice descrise prin
intermediul realizarilor de stare si ne punem problema sa gasim o realizare de stare
pentru sistemul echivalent rezultant. In particular, vom considera urmatoarele
tipuri de conexiuni: serie, paralel, bucla cu reactie inversa, transformare liniar
fractionara si produs Redheffer.

Intocmai ca in cazul sistemelor cu o intrare si o iesire (SISO) anumite conexiuni


pot sa nu fie definite (in sens general sau in sens strict) – cu semnificatia ca
sistemul rezultant nu are matrice de transfer (vectorul marimilor de iesire nu este
unic definit pentru un vector dat de marimi de intrare) sau matricea de transfer
rezultanta nu este proprie (sistemul rezultant nu are o realizare standard de stare).
Prin urmare vom spune ca o anumita conexiune a doua sisteme pe stare este
bine definita daca sistemul rezultant este deasemenea un sistem pe spatiul starilor.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 96 Conexiuni si operatii


Buna definire a conexiunii implica deci ca sistemul rezultant are o matrice de
transfer rationala care este proprie.

Ca un exemplu relevant pentru discutia de mai sus sa consideram inversul unui


sistem (A, B, C, D) – sistemul care are intrarile si iesirile inversate. Inversul exista
daca si numai daca matricea D este inversabila iar o realizare a inversului este data

ẋI (t) = (A − BD−1C)xI (t) + BD−1uI (t),


(67)
yI (t) = −D−1CxI (t) + D−1uI (t),

(uI (t) = y(t), yI (t) = u(t)) iar matricea de transfer este


[ ] [ −1 −1
]
AI BI A − BD C BD
T −1(s) = = . (68)
CI DI −D−1C D−1

Observatii: • Un sistem este inversabil daca si numai daca are acelasi numar de
intrari si iesiri (p = m).
• Ipoteza de inversabilitatea a lui D nu este necesara pentru existenta inversei

CAPITOLUL 3: PROPRIETATI STRUCTURALE 97 Conexiuni si operatii


matricii de transfer T (vazuta ca matrice rationala) si este facuta doar pentru a
asigura ca T −1(s) este proprie si deci este matricea de transfer a unui sistem pe
spatiul starilor (AI , BI , CI , DI ).
• Daca sistemul original este controlabil/observabil/minimal atunci realizarea
inversului (68) este automat controlabila/observabila/minimala. – Exercitiu!

Conexiunea paralel

Fie doua sisteme


ẋ1(t) = A1x1(t) + B1u1(t),
(69)
y1(t) = C1x1(t) + D1u1(t),
si
ẋ2(t) = A2x2(t) + B2u2(t),
(70)
y2(t) = C2x2(t) + D2u2(t),
avand matricile de transfer
[ ] [ ]
A1 B1 A2 B2
T1 = , T2 = , (71)
C1 D1 C2 D2

CAPITOLUL 3: PROPRIETATI STRUCTURALE 98 Conexiuni si operatii


respectiv. Daca cele doua sisteme au acelasi numar de intrari si iesiri (m1 = m2,
p1 = p2), atunci se defineste conexiunea paralel a lui T1 cu T2 ca fiind sistemul care
are intrarea u obtinuta punand u1 ≡ u2 = u si iesirea y := y1 + y2. Conexiunea
paralel este intotdeauna bine definita, matricea de transfer a sistemului rezultant
este
T (s) := T1(s) + T2(s), (72)
avand o realizare data de
 
A1 O B1
T (s) =  O A2 B2 . (73)
C1 C2 D1 + D2

Conexiunea serie

Fie doua sisteme (69) si (70), avand matricile de transfer date in (71). Daca
numarul de iesiri ale sistemului T1 este egal cu numarul de intrari ale sistemului

CAPITOLUL 3: PROPRIETATI STRUCTURALE 99 Conexiuni si operatii


T2 atunci se defineste conexiunea serie a lui T1 cu T2 (in aceasta ordine) ca
fiind sistemul cu intrarea u := u1 si iesirea y := y2, obtinut punand u2 ≡ y1.
Conexiunea serie este intotdeauna bine definita, matricea de transfer a sistemului
rezultant este
T (s) := T2(s)T1(s), (74)
(observati ordinea !) iar o realizare pentru sistemul rezultant este data de
 
A2 B2C1 B2D1
T (s) =  O A1 B1  . (75)
C2 D2C1 D2D1

Conexiunea in reactie inversa

Fie doua sisteme (69) si (70), avand matricile de transfer date in (71). Daca
numarul de iesiri ale sistemului T1 este egal cu numarul de intrari ale sistemului T2
si numarul de iesiri ale sistemului T2 este egal cu numarul de intrari ale sistemului

CAPITOLUL 3: PROPRIETATI STRUCTURALE 100 Conexiuni si operatii


T1 (p1 = m2, p2 = m1) atunci se defineste conexiunea in reactie inversa a lui T1
cu T2 (in aceasta ordine) ca fiind sistemul cu intrarea u si iesirea y := y1, obtinut
punand u1 ≡ u + y2 si u2 ≡ y1. Conexiunea in reactie inversa este intotdeauna
bine definita daca si numai daca matricea
[ ]
I D1
(76)
D2 I

este nesingulara. In acest caz functia de transfer a sistemului echivalent este

T (s) := T1(s)(I − T2(s)T1(s))−1, (77)

iar o realizare pentru sistemul rezultant este


 
A1 + B1D2Sb−1C1 B1S −1C2 B1S −1
 b−1C1 −1 −1 

T (s) =  B 2 S A 2 + B2 D 1 S C2 B2 D 1 S , (78)

Sb−1C1 Sb−1D1C2 D1S −1

CAPITOLUL 3: PROPRIETATI STRUCTURALE 101 Conexiuni si operatii


unde Sb := I − D1D2 si S := I − D2D1 care sunt ambele inversabile din ipoteza
de nesingularitate a matricii (76).
Exercitiu: Ce se poate spune despre controlabilitatea/observabilitatea/minimalitatea
sistemului echivalent paralel/serie/reactie inversa daca stim ca sistemele compo-
nente sunt controlabile/observabile/minimale ?

Observatie: Pentru conexiunile paralel/serie/reactie inversa nu este necesar ca


spatiul starilor sistemelor componente sa fie de dimensiune egala.

Transformare liniar fractionara (TLF)

Aceste conexiuni pot fi privite ca o extensie la clasa sistemelor (sau mai precis la
clasa functiilor matriceale rationale) a transformari liniar fractionare (sau Moebius)
din cazul scalar
a + bλ
f (λ) = ,
c + dλ
unde a, b, c, d sunt scalari.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 102 Conexiuni si operatii


Fie doua sisteme date de

ẋ = Ax + B1u1 + B2u2,
y1 = C1x + D11u1 + D12u2, (79)
y2 = C2x + D21u1 + D22u2,

si
ẋc = Acxc + Bcuc,
(80)
yc = Ccxc + Dcuc,
avand matricile de transfer
 
[ ] A B1 B2
T11(s) T12(s)
T (s) = =  C1 D11 D12  (81)
T21(s) T22(s)
C2 D21 D22

si [ ]
Ac Bc
Tc(s) = . (82)
Cc Dc

CAPITOLUL 3: PROPRIETATI STRUCTURALE 103 Conexiuni si operatii


Un sistem de tipul (81) se numeste sistem generalizat si are intrarile si iesirile
partitionate in doua clase avand anumite semnificatii in controlul automat. Daca
T22 are numarul de intrari/iesiri egal cu numarul de iesiri/intrari ale lui Tc (mc = p2,
pc = m2) atunci de defineste transformarea liniar fractionara inferioara (TLFI) a
lui T cu Tc (in aceasta ordine) ca fiind sistemul cu intrarea u := u1 si iesirea
y := y1 obtinut punand u2 ≡ yc si uc ≡ y2. Conexiunea este bine definita daca si
numai daca matricea

[ ]
I D22
(83)
Dc I

este inversabila si in acest caz matricea de transfer a sistemului rezultant echivalent


este

TR = T LF I(T, Tc) := T11 + T12Tc(I − T22Tc)−1T21, (84)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 104 Conexiuni si operatii


si are o realizare data de

 
A + B2S DcC2 e−1 e−1
B2S Cc e−1
B1 + B2S DcD21
 −1 −1 −1 
TR(s) =  B c S C2 A c + B c S D 22 Cc Bc S D 21 ,

C1 + D12DcS −1C2 D12Se−1Cc D11 + D12DcS −1D21
(85)
unde S := I − D22Dc si Se := I − DK D22 care sunt ambele inversabile din ipoteza
de inversabilitate asupra matricii (83). In particular avem DcS −1 = Se−1Dc si
S −1D22 = D22Se−1 asa cum rezulta din identitatea matriciala U (I − V U )−1 =
(I − U V )−1U care are loc pentru oricare matrici U si V de dimensiuni compatibile.

Consideram din nou doua sisteme (79) si (80) avand matricile de transfer (81)
si (82). Daca T11 are numarul de intrari/iesiri egal cu numarul de iesiri/intrari
ale lui Tc (mc = p1, pc = m1) atunci se defineste transformarea liniar fractionara
superioara (TLFS) a lui T cu Tc (in aceasta ordine) ca fiind sistemul cu intrarea
u := u2 si iesirea y := y2 obtinut punand u1 ≡ yc si uc ≡ y1. Conexiunea este

CAPITOLUL 3: PROPRIETATI STRUCTURALE 105 Conexiuni si operatii


bine definita daca si numai daca matricea
[ ]
I D11
(86)
Dc I

este inversabila si in acest caz matricea de transfer a sistemului rezultant echivalent


este
TR = T LF S(T, Tc) := T22 + T21Tc(I − T11Tc)−1T12, (87)
si are o realizare data de
 
A + B1U e DcC1
−1
B1U e Cc
−1
B2 + B1U e DcD12
−1
 −1 −1 −1 
TR =   B c U C1 A c + B c U D11 Cc Bc U D 12 ,

C2 + D21DcU −1C1 D21U e −1Cc D22 + D21DcU −1D12
(88)
unde am notat U := I − D11Dc si U e := I − DcD11 care sunt ambele inversabile
intrucat matricea (86) este inversabila. Avem deasemenea ca DcU −1 = U e −1Dc si
U −1D11 = D11U e −1.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 106 Conexiuni si operatii


Produs Redheffer

Aceasta conexiune este o extensie a transformarii liniar fractionare. Consideram


doua sisteme generalizate (79) si

ẋc = Acxc + Bc1uc1 + Bc2uc2,


yc1 = Cc1xc + Dc11uc1 + Dc12uc2, (89)
yc2 = Cc2xc + Dc21uc1 + Dc22uc2,

avand matricile de transfer date de (81) si respectiv


 
[ ] Ac Bc1 Bc2
Tc11 Tc12
Tc = =  Cc1 Dc11 Dc12  . (90)
Tc21 Tc22
Cc2 Dc21 Dc22

Daca T22 are numarul de intrari/iesiri egal cu numarul de iesiri/intrari ale lui Tc11
(mc1 = p2, pc1 = m2) atunci se defineste produsul Redheffer al lui T cu Tc (in

CAPITOLUL 3: PROPRIETATI STRUCTURALE 107 Conexiuni si operatii


[ ] [ ]
u1 y1
aceasta ordine) ca fiind sistemul cu intrarea u := si iesirea y :=
uc2 yc2
[ punand u2 ≡] yc1 si uc1
obtinut ≡ y2. Conexiunea este bine definita daca si numai
I D22
daca este inversabila. In acest caz obtinem sistemul generalizat
Dc11 I

TR = [ ]
−1 −1
T11 + T12Tc11(I − Tc22Tc11) T21 T12(I − Tc11T22) Tc12
T ⊗ Tc :=
Tc21(I − T22Tc11)−1T21 Tc22 + Tc21T22(I − Tc11T22)−1Tc12
(91)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 108 Conexiuni si operatii


avand o realizare data de

A + B2Se−1Dc11C2 B2Se−1Cc1 B1 + B2Se−1Dc11D21
 Bc1S −1C2 Ac + Bc1S −1D22Cc1 Bc1S −1D21

TR = 
 C1 + D12Dc11S −1C2 D12Se−1Cc1 D11 + D12Dc11S −1D21
Dc21S −1C2 Cc2 + Dc21S −1D22Cc1 Dc21S −1D21 
B2Se−1Dc12
Bc2 + Bc1S −1D22Dc12  


e−1
D12S Dc12 
Dc22 + Dc21S −1D22Dc12
(92)
unde s–a notat S := I −D22Dc11 si Se := I −Dc11D22 care sunt ambele inversabile.

Observatie: Daca in (81) avem T22(∞) = D22 = 0 atunci TLF si produsul


Redheffer ale lui T cu Tc sunt automat bine definite.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 109 Conexiuni si operatii


6. Elemente Structurale ale Matricilor Rationale

Anumite elemente structurale ale matricilor rationale joaca un rol aparte in teoria
controlului sistemelor dinamice pe spatiul starilor: poli, zerouri, forma Smith
McMillan, directiile de poli/zerouri, indicii singulari stanga si dreapta.
Conceptele de pol si zerou sunt considerabil mai dificile decat in cazul scalar in
principal datorita posibilitatii ca o matrice rationala sa aibe pol si zerou in acelasi
punct so ∈ C, cat si datorita posibilitatii existentei polilor si zerourilor la infinit
(un concept relativ greu de explicitat in cazul multivariabil).
In cazul sistemic avem doua notiuni de poli: poli ai matricii de transfer (vazuta
ca matrice rationala) si poli ai sistemului pe spatiul starilor definiti ca fiind valorile
proprii ale matricii A. Mai precis, so ∈ C este pol al matricii de transfer rationale
T (s) daca este pol cel putin al unui element al sau considerat ca rationala
ireductibila. Polii matricii de transfer coincid cu polii sistemului daca si numai
daca realizarea corespunzatoare este minimala.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 110 Elemente Structurale ale Rationalelor


In cazul sistemic exista si doua notiuni de zerouri: zerouri de transmisie si zerouri
invariante. Notiunea de zerou de transmisie se introduce pe baza matricii de
transfer rationale iar cea de zerou invariant pe baza unei matrici polinomiale
construite pe baza unei realizari de stare (A, B, C, D).

Pentru a intelege intuitiv notiunea de zerou sa presupunem ca so ∈ C nu este pol


al rationalei. Atunci s0 se numeste zerou al rationalei T (s) daca si numai

rank T (so) < rank nT (s)

unde prin rank nT (s) intelegem rangul normal al rationalei, i.e., rangul pentru
aproape toti s ∈ C. In termeni sistemici, cand T (s) are semnficatia de matrice
de transfer a unui sistem, zerourile ei se mai numesc zerouri de transmisie ale
sistemului.

Pentru a introduce notiunea de zerou invariant al unui sistem de tipul (A, B, C, D)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 111 Elemente Structurale ale Rationalelor


sa presupunem conditii initiale nule. Atunci avem in transformate Laplace

(sI − A)x − Bu = 0,
Cx + Du = y

sau echivalent [ ][ ] [ ]
sI − A −B x 0
= .
C D u y
Matricea polinomiala (de grad 1)
[ ]
sI − A −B
S(s) := ∈ R[s](n+p)×(n+m) (93)
C D

se numeste matricea sistem (sau de transmisie) si joaca un rol central in studiul


sistemelor dinamice liniare atat din punct de vedere teoretic cat si procedural.
s0 ∈ C se numeste zerou invariant al sistemului daca

rank S(s0) < rank nS(s) =: r.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 112 Elemente Structurale ale Rationalelor


Rangul normal este egal cu dimensiunea maxima a unui minor al lui S(s) care
nu are determinantul identic nul. Fie χ(s) cel mai mare divizor comun al
tuturor determinantilor minorilor de rang (avand dimensiunea egala cu rangul
normal). Atunci zerourile invariante ale sistemului (A, B, C, D) sunt exact zerourile
polinomului χ(s).

Din identitatea [ ]
sI − A −B
=
C D
[ ][ ][ −1
]
I O sI − A O I −(sI − A) B
C(sI − A)−1 I O T (s) O I
se observa ca daca s0 ̸∈ Λ(A) atunci so este zerou invariant daca si numai daca
este zerou de transmisie.

Problemele majore apar insa atunci cand exista zerouri comune cu poli. Pentru a
intelege riguros aceste concepte avem nevoie de o teorie mai sofisticata a formelor
canonice pentru matrici rationale si matrici polinomiale de gradul 1 (numite
fascicole matriciale).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 113 Elemente Structurale ale Rationalelor


Forma Smith–McMillan a rationalei T (s) – o forma canonica sub transformari
unimodulare –
Teorema 36 (Forma Smith–McMillan). Fie T (s) o p × m matrice rationala cu
coeficienti in R avand rangul normal r. Atunci exista o p × p matrice polino-
miala U (s) si o m × m matrice polinomiala V (s), ambele cu coeficienti in R
si determinant constant nenul (independent de s), care aduce T (s) la forma
Smith–McMillan
S(s) = U (s)T (s)V (s), (94)
unde { }
ϵ1(s) ϵ2(s) ϵr (s)
S(s) := diag , ,..., , 0, . . . , 0 , (95)
η1(s) η2(s) ηr (s)
polinoamele ϵi(s), ηi(s) sunt monice (au coeficientul termenului de grad maxim
egal cu 1), sunt doua cate doua coprime pentru i = 1, . . . , r, si satisfac propri-
etatile de divizibilitate

ϵi(s) | ϵi+1(s),
i = 1, . . . , r − 1. (96)
ηi+1(s) | ηi(s),

CAPITOLUL 3: PROPRIETATI STRUCTURALE 114 Elemente Structurale ale Rationalelor


Mai mult, polinoamele ϵi(s) si ηi(s) sunt unic definite de T (s) si se numesc
divizori elementari ai lui T (s).
Definim
z(s) := ϵ1(s) · · · ϵr (s),
(97)
p(s) := η1(s) · · · ηr (s).
Atunci cele nz (np) radacini ale lui z(s) (p(s)) sunt prin definitie zerourile (polii)
finiti ai lui T (s).
Ordinul zeroului (polului) s0 al lui T (s) este prin definitie multiplicitatea sa ca
radacina a polinomului z(s) (p(s)).
Ordinele partiale ale zeroului (polului) s0 al lui T (s) sunt prin definitie mul-
tiplicitatile nenule ale lui s0 ca radacina a polinoamelor ϵi(s) (ηi(s)), pentru
i = 1, . . . , r.
Spunem ca ∞ este zerou (pol) al lui T (s) daca s = 0 este zerou (pol) al matricii
rationale Tb(s) = T ( 1s ), si definim ordinele zeroului (polului) s = ∞ al lui T (s) ca
fiind ordinele zeroului (polului) s = 0 al lui Tb(s).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 115 Elemente Structurale ale Rationalelor


Notam cu Z(T ) si respectiv P(T ) reuniunea tuturor zerourilor si respectiv tuturor
polilor (incluzand infinitul si repetitii in acord cu ordinele elementelor).

Gradul McMillan al lui T este prin definitie suma tuturor ordinelor polilor (finiti si
infiniti). Deci gradul McMillan al unei matrici rationale este egal cu numarul de
poli (socotind ordinele inclusiv ale polilor de la infinit).

Observatie: Daca rationala este proprie atunci nu are poli la infinit si definitiile de
mai sus se simplifica corespunzator.

Cand suntem interesati de un singur punct s0 se poate folosi o forma Smith–


McMillan locala care pune in evidenta numai ordinele zeroului si polului din s0.
Teorema 37 (Forma Smith–McMillan locala). Fie T (s) o p×m matrice rationala
cu coeficienti in R, avand rangul normal r, si fie s0 ∈ C. Atunci exista o p × p
matrice rationala U (s) si o m × m matrice rationala V (s), ambele nesingulare
si fara poli sau zerouri in so, care aduc T (s) la forma Smith–McMillan locala
(in jurul lui s0),
Sℓ(s) = U (s)T (s)V (s), (98)

CAPITOLUL 3: PROPRIETATI STRUCTURALE 116 Elemente Structurale ale Rationalelor


unde
{ }
Sℓ(s) := diag (s − s0) , (s − s0) , . . . , (s − s0)
k1 k2 kr
, (99)
si
k1 ≤ k2 ≤ . . . ≤ kr
sunt numere intregi. Mai mult, intregii strict pozitivi (sau strict negativi) ki
sunt ordinele partiale ale lui s0 ca zerou (pol) al lui T .

Forma Smith–McMillan in jurul lui s = ∞ se obtine din forma Smith–McMillan a


lui T ( 1s ) in jurul lui s = 0.

Baze minimale pentru spatiile nucleu la stanga si dreapta

Fie T (s) o p × m matrice rationala avand rangul normal r.

Nucleul la dreapta (peste rationale) are dimensiune m − r iar nucleul la stanga are
dimensiune p − r. Introducem in continuare notiunile de indici minimali la dreapta
si stanga. Pentru acesta avem nevoie de cateva notiuni de subspatii rationale.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 117 Elemente Structurale ale Rationalelor


Definim gradul unui vector de polinoame ca fiind cel mai mare grad al elementelor
respectivului vector. Dandu–se un subspatiu in Rm(s) (vectori rationali de dimen-
siune m), putem intotdeauna construi o baza polinomiala pentru el. Coloanele
unei matrici polinomiale P(s) formeaza o baza minimala pentru spatiul pe care-l
genereaza daca au loc simultan:

1. P (s) este monica pentru toti s ∈ C finiti;

2. P (s) este redusa pe coloane (sau proprie pe coloane). Mai precis, fie ni gradul
coloanei i a lui P (s) si construim matricea constanta Pn a carei coloana i este
coeficientul vectorial al lui sni in coloana i a lui P(s). Atunci P(s) este de tip
coloana redusa daca Pn este monica.

Echivalent, o baza polinomiala este minimala daca suma tuturor gradelor vectorilor
polinomiali care o formeaza este cat mai mica posibila.
Multimea gradelor vectorilor din orice baza minimala a unui subspatiu este invari-
anta in raport cu operatiile unimodulare pe coloane, si aceste grade se numesc

CAPITOLUL 3: PROPRIETATI STRUCTURALE 118 Elemente Structurale ale Rationalelor


indici minimali (sau indici Kronecker ) ai subspatiului.

Se numesc indici minimali la stanga si dreapta ai unei matrici rationale multimea


indicilor minimali ai subspatiilor nule (nucleu) la stanga si respectiv la dreapta.

Pentru o matrice rationala arbitrara are loc o relatie interesanta intre indicii
structurali. Fie nr si nℓ suma indicilor minimali la dreapta si respectiv la stanga si
fie nz si np numarul total de zerouri si respectiv de poli. Atunci are loc relatia

np = nz + nr + nℓ .

CAPITOLUL 3: PROPRIETATI STRUCTURALE 119 Elemente Structurale ale Rationalelor


7. Fascicole Matriciale si Forme Canonice

Fie M si N doua m × n matrici cu elemente in R. Matricea polinomiala (de grad


1) sM − N se numeste fascicol matricial sau pe scurt fascicol.
Ne concentram intai atentia asupra fascicolelor sM − N care sunt regulate, i.e.,
care sunt patrate (n × n) si au un determinant neidentic nul det(sM − N ) ̸≡ 0.
Un fascicol care nu este regulat se numeste singular. In particular, daca M sau N
sunt inversabile atunci fascicolul sM − N este regulat. In general vom fi interesati
de fascicole arbitrare (inclusiv singulare).
Dandu-se un fascicol regulat sM − N , cu M, N ∈ Rn×n, problema de gasire a
solutiilor ecuatiei polinomiale

χ(s) := det (sM − N ) = 0 (100)

se numeste problema de valori proprii generalizate.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 120 Fascicole matriciale


Deoarece M poate fi singulara, polinomul caracteristic χ(s) are gradul nf ≤ n.

Cele nf radacini ale lui χ(s) se numesc valori proprii generalizate finite ale
fascicolului sM − N .

s = ∞ este o valoare proprie (generalizata) a lui sM − N daca s = 0 este o


valoare proprie (generalizata) a fascicolului reciproc sN − M . Multiplicitatea n∞
a valorii proprii de la infinit este prin definitie multiplicitatea valorii proprii s = 0
pentru fascicolul sN − M . Evident avem n∞ = n − nf .

Prin urmare un fascicol matricial regulat de dimensiune n × n are intotdeauna n


valori proprii (finite si infinite) care formeaza spectrul fascicolului notat Λ(M, N ).

Pentru o valoare proprie s0 exista intotdeauna un vector nenul x ∈ Cn – numit


vector propriu generalizat a.i.
{
N x = s0M x daca s0 este finita,
Mx = 0 daca s0 este infinit.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 121 Fascicole matriciale


Forma canonica Weierstrass a unui fascicol regulat

Introducem o relatie de echivalenta pentru fasciole matriciale si studiem intai


proprietatile si consecintele asupra fascicolelor regulate.

Doua fascicole sM − N si sM f−N e , cu M, N, M f, N


e ∈ Cm×n se numesc (strict)
echivalente daca exista doua matrici inversabile Q ∈ Cm×m, Z ∈ Cn×n, a.i.

f−N
Q(sM − N )Z = sM e. (101)

Relatia de echivalenta stricta (101) induce o forma canonica pe multimea fasci-


colelor regulate de dimensiune n × n numita forma canonica Weierstrass. Prin
urmare, pentru oricare fascicol regulat sM − N , cu M, N ∈ Cn×n, exista doua
matrici inversabile Q, Z ∈ Cn×n a.i.

Q(sM − N )Z = sMW − NW

CAPITOLUL 3: PROPRIETATI STRUCTURALE 122 Fascicole matriciale


unde
sMW − NW := diag (sM∞ − In∞ , sInf − Nf ), (102)
Nf este in forma canonica Jordan, M∞ este nilpotenta si este in forma canonica
Jordan
M∞ := diag (Js∞ (0), Js∞ (0), . . . , Js∞ (0)) (103)
1 2 h∞

si Jsi (0) este un bloc elementar (nilpotent) Jordan de dimensiune si × si cu valoare


proprie s = 0.

Observatii: • Valorile proprii generalizate finite ale fascicolului sM − N coincid cu


valorile proprii ale matricii Nf . Prin urmare se poate folosi matricea Nf pentru
a defini conceptele de multiplicitate partiala, algebrica si geometrica a unei valori
proprii generalizate finite a lui sM − N .
• Similar, se definesc multiplicitatea partiala, algebrica si geometrica a valorii pro-
prii generalizate de la infinit ca fiind multiplicitatea corespunzatoare a valorii proprii
s = 0 a matricii M∞. Prin urmare pentru s = ∞ multiplicitatile partiale sunt s∞
∑h∞ ∞ i
(i = 1, . . . , h∞), multiplicitatea algebrica este n∞ si satisface n∞ = i=1 si , iar
multiplicitatea geometrica este h∞.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 123 Fascicole matriciale


•Multimea valorilor proprii generalizate impreuna cu multiplicitatile partiale deter-
mina complet forma canonica Weierstrass a unui fascicol matricial regulat (pana
la o permutare a blocurilor diagonale).

Daca M este inversabila atunci fascicolul nu are are valori proprii infinite si forma
canonica Weierstarss se reduce la forma canonica Jordan a matricii M −1N .

CAPITOLUL 3: PROPRIETATI STRUCTURALE 124 Fascicole matriciale


Problema de valori proprii generalizate: cazul general

Extindem in continuare studiul asupra fascicolelor arbitrare (posibil singulare)


sM − N de dimensiune m × n cu elemente in R. Un fascicol este numit singular
daca nu este patrat sau daca este patrat dar det(sM − N ) ≡ 0. In particular,
sM − N are rang constant pentru toti s ∈ C cu exceptia unui numar finit pentru
care are rang strict mai mic.

Observatii: Rangul normal r al fascicolului sM − N este rangul lui sM − N


pentru aproape toti s ∈ C. Pentru un fascicol regulat avem m = n = r.
Daca νr := n − r > 0 atunci fasciolul are structura singulara la dreapta. Daca
νℓ := m − r > 0 atunci fascicolul are structura singulara la stanga. Un fascicol
regulat nu are structura singulara nici la stanga si nici la dreapta.

Polinomul caracteristic χ(s) al fascicolului este cel mai mare divizor comun al
polinoamelor Ri(s), unde {Ri(s)} este multimea tutoror minorilor de dimensiune
r.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 125 Fascicole matriciale


Problema rezolvarii ecuatiei polinomiale

χ(s) := χ0 + χ1s + . . . + χnf snf = 0,

cu χnf ̸= 0, se numeste problema de valori proprii generalizate pentru fascicolul


sM − N .
Cele nf radacini ale lui χ(s) se numesc valori proprii finite. Spunem ca s = ∞ este
valoare proprie lui sM − N daca s = 0 este valoare proprie a fascicolului reciproc
sN − M sau, echivalent, daca rank M < r. Multiplicitatea n∞ a v.p. de la infinit
este prin definitie multiplicitatea v.p. s = 0 a lui sN − M .
Reuniunea (nedisjuncta) a celor nf + n∞ v.p. generalizate (finite si infinite)
formeaza spectrul lui sM − N notat Λ(M, N ).

Forma canonica Kronecker a unui fascicol general

Relatia de stricta echivalenta induce o forma canonica pe multimea fascicolelor de


dimensiune m × n numita forma canonica Kronecker. Mai exact, pentru oricare

CAPITOLUL 3: PROPRIETATI STRUCTURALE 126 Fascicole matriciale


fascicol sM − N , cu M, N ∈ Cm×n, exista doua matrici inversabile Q ∈ Cm×m si
Z ∈ Cn×n a.i.

Q(sM − N )Z = sMKR − NKR,

unde

 
Lϵ1
 ... 
 
 Lϵνr 
 sM∞ − In∞ 
 
sMKR − NKR :=  sInf − Nf , (104)
 
 LTη1 
 
 ... 
LTην

Nf este o matrice in forma canonica Jordan, M∞ este o matrice nilpotenta in

CAPITOLUL 3: PROPRIETATI STRUCTURALE 127 Fascicole matriciale


forma canonica Jordan, si Lk (k ≥ 0) este un k × (k + 1) fascicol bidiagonal
 
s −1
Lk :=  ... ... .
s −1

k poate fi zero corespunzand unei linii sau coloane de zerouri in fascicolul (104).
Structura Kronecker este complet determinata de partea regulata si singulara.
Valorile proprii (finite si infinite) ale fascicolului sM − N sunt valorile proprii ale
fascicolului regulat [ ] [ ]
M∞ O In∞ O
s −
O I nf O Nf
Partea singulara a fascicolului este determinata de structura singulara Kronecker la
stanga si dreapta. Blocurile de dimensiune ϵi × (ϵi + 1) notate Lϵi , (i = 1, . . . , νr ),
sunt blocurile elementare Kronecker la dreapta si ϵi ≥ 0 sunt indicii Kronecker la
dreapta. Blocurile de dimensiune (ηj + 1) × ηj notate Lηj T , (j = 1, ..., νℓ), sunt
blocurile elementare Kronecker la stanga si ηj ≥ 0 sunt indicii Kronecker la stanga.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 128 Fascicole matriciale


Din forma canonica Kronecker avem

rank n(sM − N ) = nr + n∞ + nf + nℓ, (105)


∑νr ∑νℓ
unde nr := i=1 ϵi si nℓ := j=1 ηj . Daca sM − N este regulat atunci nu exista
indici Kronecker (i.e., blocurile Lϵi , LTηj dispar) si forma canonica Kronecker se
reduce la forma canonica Weierstrass.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 129 Fascicole matriciale


8. Elemente Structurale ale unei Matrici Rationale in
Termenii Realizarilor de Stare

Intre elementele structurale ale matricii de transfer rationale T (s) a unui sistem
dinamic si formele canonice ale fasciolelor
[ ]
sI − A −B
sI − A,
C D

asociate unei realizari arbitrare – numite fascicolul de poli si fascicolul de zerouri


(sau matricea de transmisie) – exista o legatura stransa.
Teorema 38. Fie T (s) o p×m matrice rationala proprie avand gradul McMillan
n si rangul normal r. Fie [ ]
A B
T = (106)
C D

CAPITOLUL 3: PROPRIETATI STRUCTURALE 130


o realizare de dimensiune k cu coeficienti in R si fie
[ ]
sI − A −B
sI − A, sET − AT :=
−C −D

fasciolele de poli si respectiv de zerouri asociate acestei realizari.

1. Pentru orice realizare (106) avem:


(a) Rangul normal: Rangurile normale ale lui T (s) si sET − AT satisfac

rank nT (s) = rank n(sET − AT ) − k.

(b) Poli: Reuniunea polilor P(T ) este inclusa Λ(A),

P(T ) ⊂ Λ(A).

CAPITOLUL 3: PROPRIETATI STRUCTURALE 131


(c) Zerouri: Reuniunea zerourilor de transmisie Z(T ) (finite si infinite) ale
lui T este inclusa in Λ(ET , AT ),

Z(T ) ⊂ Λ(ET , AT ).

2. Pentru o realizare minimala (106) avem in plus:


(a) Poli: Polii lui T (s) coincid cu valorile proprii ale lui A. Ordinele partiale
ale polilor lui T (s) sunt egale cu multiplicitatile partiale ale v.p. ale lui A.
(b) Zerouri finite : Zerourile finite (de transmisie) ale lui T coincid cu v. p.
finite ale lui sET − AT . Ordinele partiale ale zerourilor finite ale lui T (s)
sunt egale cu multiplicitatile partiale ale v.p. finite ale lui sET − AT .
(c) Zerouri infinite: Ordinele partiale ale zerourilor infinite (de transmisie)
ale lui T sunt egale cu multiplicitatile partiale ale v.p. infinite a lui sET −
AT minus 1.

CAPITOLUL 3: PROPRIETATI STRUCTURALE 132


(d) Indici minimali la stanga. Indicii minimali la stanga ai lui T sunt egali
cu indicii Kronecker la stanga ai lui sET − AT .
(e) Indici minimali la dreapta. Indicii minimali la dreapta ai lui T sunt egali
cu indicii Kronecker la dreapta ai lui sET − AT .

CAPITOLUL 3: PROPRIETATI STRUCTURALE 133


CAPITOLUL 4: SINTEZA ELEMENTARA

1. Compensatoare Dinamice : Problematica

2. Lege de Comanda, Stabilizabilitate, Alocabilitate

3. Estimatori de Stare

4. Estimatori de Tip 1

5. Compensatorul Kalman

6. Estimatori de Stare de Ordin Redus (Tip 2)

7. Reglarea Sistemelor Dinamice

CAPITOLUL 4: SINTEZA ELEMENTARA 134 SINTEZA ELEMENTARA


1. Compensatoare Dinamice : Problematica

Consideram un sistem liniar


{
ẋ(t) = Ax(t) + Bu(t), x(0) = xo
(107)
y(t) = Cx(t) + Du(t)

cu x(t) ∈ Rn, u(t) ∈ Rm, y(t) ∈ Rp.


Problema sintezei (naturala): Cum putem sa modificam dinamica acestui sistem
astfel incat sa satisfaca anumite cerinte ? Cerintele elementare discutate si in cazul
sistemelor SISO sunt legate de stabilitate si comporatarea sistemului la diverse
semnale de referinta/perturbatii.
Raspuns: Cerintele de proiectare se pot realiza prin cuplarea unui nou sistem
dinamic (de preferinta din aceeasi clasa de modele) astfel incat sistemul rezultant
sa se comporte in modul dorit.

CAPITOLUL 4: SINTEZA ELEMENTARA 135 Compensatoare Dinamice: Problematica


Asa cum am vazut in cazul sistemelor SISO, conexiunile serie si paralel nu pot
asigura in general nici macar cerinta minimala de stabilitate (interna) si acest fapt
este specific si sistemelor dinamice (Ex: Aratati acest lucru prin analogie cu cazul
SISO sau direct pe realizarile de stare ale conexiunilor serie/paralel). Prin urmare
ne indreptam atentia din nou asupra conexiunii in bucla de reactie negativa.

In conjunctie cu sistemul (107) consideram sistemul dinamic pe spatiul starilor


(numit compensator dinamic sau regulator)
{
ẋc(t) = Acxc(t) + Bcuc(t), xc(0) = xco
(108)
yc(t) = Ccxc(t) + Dcuc(t),

unde xc(t) ∈ Rnc , uc(t) ∈ Rp, yc(t) ∈ Rm, cuplat in reactie inversa cu (107) a. i.

u ≡ yc + u R , y R ≡ y ≡ uc

unde uR este intrarea (semnal extern) si yR este iesirea sistemului rezultant.

CAPITOLUL 4: SINTEZA ELEMENTARA 136 Compensatoare Dinamice: Problematica


Pentru simplificare presupunem S := Ip − DDc = I, Sb = Im − DcD = I (de
exemplu D = 0 sau Dc = 0). Atunci ecuatiile dinamice ale sistemului echivalent
sunt

[ ˙ ] [ ][ ] [ ]
x A + BDcC BCc x B
= + uR
xc BcC [ Ac +
] BcDCc xc BcD (109)
[ ] x
yR = C DCc + DuR.
xc

Notand
[ ] [ ] [ ]
x A + BDcC BCc B
xR := , AR := , BR := ,
xc BcC Ac + BcDCc BcD

[ ]
CR := C DCc , DR := D

CAPITOLUL 4: SINTEZA ELEMENTARA 137 Compensatoare Dinamice: Problematica


obtinem echivalent
 [ ]
 xo
ẋR(t) = ARxR(t) + BRuR(t), xR(0) =
xco (110)

yR(t) = CRxR(t) + DRuR(t).

Se formuleaza urmatoarele probleme fundamentale:

1. Problema stabilizarii: Pentru sistemul original (A, B, C, D) sa se gaseasca un


regulator (sau clasa tuturor !!!) (Ac, Bc, Cc, Dc) a. i. sistemul rezultant in bucla
inchisa sa fie intern asimptotic stabil (Λ(AR) ⊂ C−).

2. Problema alocarii: Pentru sistemul original (A, B, C, D) sa se gaseasca un


regulator (sau clasa tuturor !!!) (Ac, Bc, Cc, Dc) a. i. sistemul rezultant in bucla
inchisa sa aibe o dinamica impusa (mai precis valorile proprii ale sistemului in
bucla inchisa sa coincida cu multimea Λ0 de n + nc valori complexe date, i.e.,
Λ(AR) = Λ0.

CAPITOLUL 4: SINTEZA ELEMENTARA 138 Compensatoare Dinamice: Problematica


Observatii: a) Ambele probleme impun conditii numai asupra matricii AR.
b) In ambele probleme trebuie implicit determinat si nc (dimensiunea compen-
satorului) fiind de dorit ca aceasta sa fie cat mai mica. Problemele de stabi-
lizare/alocare in care se impune conditia suplimentara de minimalitate a lui nc sunt
probleme structurale in general foarte dificile.
c) Multimea Λ0 se ia in general simetrica, i.e. daca s ∈ Λ0 atunci si s ∈ Λ0,
regulatorul rezultand automat cu coeficienti reali. Λ0 se da in general ca cerinta de
proiectare asigurand automat o anumita viteza de raspuns, timp tranzitoriu, etc.
d) Spre deosebire de problema alocarii, problema stabilizarii nu pretinde spectru
fix ci doar locatia acestuia in C−.
In mod traditional au existat cateva abordari ale acestei probleme:

• Prin extensie dinamica: Problema se reduce simplu la o problema algebrica


de alocare de poli ce insa s-a dovedit a fi foarte dificil de rezolvat in conditii
generale.

• Principiul separatiei: S–a pus in evidenta un principiu fundamental in teoria

CAPITOLUL 4: SINTEZA ELEMENTARA 139 Compensatoare Dinamice: Problematica


sistemelor liniare numit principiul separatiei si care reduce problema originala la
doua probleme algebrice de alocare ce se rezolva independent.

• Parametrizarea lui Youla: cea mai completa solutie disponibila (foloseste implicit
principiul separatiei) necesitand insa dezvoltarea teoriei factorizarilor de matrici
rationale peste S (relativ sofisticata) – solutia este formal identica cu cazul
SISO.

Extensie dinamica

Consideram pentru simplitate D = 0. Metoda se bazeaza pe observatia ca matricea


de stare AR a sistemului rezultant se poate scrie succesiv
[ ] [ ] [ ][ ][ ]
A + BDcC BCc A O B O Dc Cc C O
AR := = +
BcC Ac O O O I nc Bc Ac O Inc

= Ae + BeKCe (111)

CAPITOLUL 4: SINTEZA ELEMENTARA 140 Compensatoare Dinamice: Problematica


unde

[ ] [ ] [ ] [ ]
A O B O C O Dc Cc
Ae := , Be := , Ce := , K := .
O O O Inc O Inc Bc Ac
(112)
Deci problema originala de stabilizare/alocare dinamica prin gasirea compensatoru-
lui (Ac, Bc, Cc, Dc) s–a redus la problema echivalenta de gasire a matricii constante
K astfel incat spectrul matricii (111) sa fie in C−. Aceasta din urma problema este
in fapt o problema de gasire a unei reactii constante dupa iesire (reactie inversa cu
compensator constant) pentru sistemul (Ae, Be, Ce).

Sistemul extins (Ae, Be, Ce) se obtine prin adaugarea la sistemul initial (A, B, C, D)
a sistemului

ẋa(t) = ua(t),
ya(t) = xa(t),

CAPITOLUL 4: SINTEZA ELEMENTARA 141 Compensatoare Dinamice: Problematica


unde xa(t), ua(t), ya(t) ∈ Rnc . Obtinem astfel ecuatiile dinamice
{
ẋe(t) = Aexe(t) + Beue(t),
ye(t) = Cexe(t),
[ ] [ ] [ ]
x(t) u(t) y(t)
xe(t) := , ue(t) := , ye(t) :=
xa(t) ua(t) ya(t)
sunt starea, intrarea si respectiv iesirea extinsa.
Daca conectam un compensator constant in reactie inversa cu sistemul extins
obtinem ca matricea de stare a sistemului in bucla inchisa este (111). Deci
problema originala de gasire a unui compensator (Ac, Bc, Cc, Dc) s-a redus la
problema de gasire a unei reactii cst. K (112) pentru sistemul extins (Ae, Be, Ce).
Cu toate ca aceasta problema pare mai simpla decat cea originala, solutionarea ei
este foarte dificila intrucat nu este cunoscuta dimensiunea nc. Chiar cu nc impus,
problema se reduce la rezolvarea unei probleme de optimizare neconvexe (dificile
!).

CAPITOLUL 4: SINTEZA ELEMENTARA 142 Compensatoare Dinamice: Problematica


Principiul separatiei

Un compensator dinamic se poate obtine rezolvand independent problemele:

• Constructia unei legi de reactie dupa stare F ∈ Rm×n care aloca sau stabilizeaza
(face ca matricea A + BF sa aibe spectrul dorit sau sa fie asimptotic stabila).

• Constructia unui estimator de stare (prelucreaza semnalele exogene – marimile


de intrare u si de iesire y – si genereaza o estimare a marimii de stare x).

In final, regulatorul (de tip Kalman) se obtine luand reactia F dupa starea estimata.

Problema de alocare (cu reactie dinamica dupa iesire) are solutie daca si numai
daca perechea (A, B) este controlabila si perechea (C, A) este observabila.

Problema de stabilizare (cu reactie dinamica dupa iesire) are solutie daca si numai
daca perechea (A, B) este stabilizabila si perechea (C, A) este detectabila.

CAPITOLUL 4: SINTEZA ELEMENTARA 143 Compensatoare Dinamice: Problematica


2. Lege de Comanda, Alocabilitate, Stabilizabilitate

Definitia 39. • Pentru un sistem (A, B, C, D) dependenta

u = F x + Gv (113)

se numeste lege de comanda prin reactie dupa stare, unde F ∈ Rm×n, G ∈


Rm×m, F se numeste matricea de reactie si v este noua marime de intrare.
(FIG)
• Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m se numeste stabilizabila daca exista
o matrice de reactie dupa stare F ∈ Rm×n a.i.

Λ(A + BF ) ⊂ C−.

• Perechea (C, A), C ∈ Rp×n, A ∈ Rn×n se numeste detectabila daca exista o


matrice de reactie dupa stare K ∈ Rn×p a.i.

Λ(A + KC) ⊂ C−.

CAPITOLUL 4: SINTEZA ELEMENTARA 144 Lege de Comanda, Alocabilitate, Stabilizabilitate


• Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m, se numeste alocabila daca oricare
ar fi multimea simetrica Λ0 de n numere complexe (orice s ∈ Λ0 ⇒ s ∈ Λ0),
exista o matrice de reactie dupa stare F ∈ Rm×n a.i.

Λ(A + BF ) = Λ0.

Proprietatile de stabilizabilitate si detectabilitate sunt duale.

Considerand sistemul dinamic


{
ẋ(t) = Ax(t) + Bu(t), x(0) = xo
(114)
y(t) = Cx(t) + Du(t)

legea de comanda dupa stare implica accesul (din punct de vedere tehnic) la stare,
i.e., cunoasterea marimii de stare ! Dupa implementarea comenzii (113) sistemul

CAPITOLUL 4: SINTEZA ELEMENTARA 145 Lege de Comanda, Alocabilitate, Stabilizabilitate


in bucla inchisa devine
{
ẋ(t) = (A + BF )x(t) + BGv(t), x(0) = xo
(115)
y(t) = (C + DF )x(t) + DGv(t)

avand noua intrare v si iesirea y.

Exercitiu: Explicitati in domeniul timp si al transformatelor Laplace traiectoria,


iesirea si legea de comanda pentru sistemul (115). Scrieti o realizare de stare pentru
acest sistem si precizati cum sunt influentate controlabilitatea/ observabilitatea/
minimalitatea/ stabilizabilitatea/ detectabilitatea/ polii/ zerourile printr–o lege de
comanda cu reactie dupa stare.
Teorema 40. Fie A ∈ Rn×n, B ∈ Rn×m, F ∈ Rm×n, G ∈ Rm×m nesingulara si
fie AF := A + BF .
a) Perechea (A, B) este controlabila daca si numai daca perechea (AF , BG) este
controlabila.
b) Subspatiile controlabile in k pasi ale perechii (A, B) si perechii (AF , BG)

CAPITOLUL 4: SINTEZA ELEMENTARA 146 Lege de Comanda, Alocabilitate, Stabilizabilitate


coincid, i.e.,
Rk (A, B) = Rk (AF , BG). (116)

Demonstratie. a) Avem succesiv


[ ]
[ ] [ ] I O [
rank sI − A − BF BG = rank sI − A B = rank sI − A
−F G

si concluzia rezulta folosind criteriul PBH de controlabilitate.


b) Demonstram prin inductie. Pentru k = 0 avem prin definitie

R0(A, B) = R0(AF , BG) = {0}

iar pentru k = 1 avem

R1(A, B) = Im B = Im BG = R1(AF , BG).

CAPITOLUL 4: SINTEZA ELEMENTARA 147 Lege de Comanda, Alocabilitate, Stabilizabilitate


Presupunem acum (116) adevarata. Atunci pentru k + 1 avem

Rk+1(AF , BG) = Im BG + AF Rk (AF , BG)

= Im B + AF Rk (A, B) = Im B + ARk (A, B) = Rk+1(A, B).

Solutia problemei alocarii


Teorema 41. Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m este alocabila daca si
numai daca este controlabila.
Demonstratia acestui rezultat este relativ complicata si o vom face in cateva etape
formulate ca rezultate separate:
• Demonstram suficienta pentru m = 1 (o intrare);
• Aratam ca problema cu m > 1 se poate reduce printr-o (pre)reactie dupa stare
F la problema cu m = 1;
• Demonstram teorema pentru m general.

CAPITOLUL 4: SINTEZA ELEMENTARA 148 Lege de Comanda, Alocabilitate, Stabilizabilitate


Teorema 42 (Cazul m=1). Perechea (A, b), A ∈ Rn×n, b ∈ Rn×1 este alocabila
daca este controlabila.

Demonstraţie. Fie Λ0 un set simetric de n numere si ∈ C, i = 1, 2, . . . , n. Aratam


ca exista f ∈ Rn×1 a.i.
Λ(A + bf T ) = Λ0.
Demonstratia este constructiva (furnizeaza reactia care aloca). Deoarece (A, b)
este controlabila, matricea de controlabilitate
[ 2 n−1
]
R= b Ab A b . . . A b

are dimensiune n × n si rang n si deci este inversabila. Atunci ecuatia

q T R = eTn (117)
[ ]
are solutie unica q = T
eTn R−1
∈ R 1×n
, unde eTn
= 0 . . . 0 1 (q T este
ultima linie a lui R−1). Fie Λ0 un set simetric fixat de n numere complexe si,

CAPITOLUL 4: SINTEZA ELEMENTARA 149 Lege de Comanda, Alocabilitate, Stabilizabilitate


i = 1, 2, . . . , n si fie

χ(s) = Πni=1(s − si) = sn + αn−1sn−1 + . . . + α0 (118)

polinomul avand radacinile date de Λ0. Aratam ca exista un f a.i. polinomul


caracteristic a lui A + bf T sa coincida cu χ(s) ceea ce este echivalent cu a spune
ca matricea A + bf T are spectrul Λ0. Pentru aceasta este suficient sa aratam ca

χ(A + bf T ) = 0

pentru un f potrivit ales. Scriind (117) explicit obtinem

qT b = 0
q T Ab = 0
..
q T An−2b = 0
q T An−1b = 1

CAPITOLUL 4: SINTEZA ELEMENTARA 150 Lege de Comanda, Alocabilitate, Stabilizabilitate


care se pot rescrie pentru orice f ∈ Rn sub forma

qT = qT
q T (A + bf T ) = q T A
q T (A + bf T )2 = q T A2
.. (119)
q T (A + bf T )n−1 = q T An−1
q T Anb = q T An + q T An−1bf T = q T An + f T .

Inmultind succesiv ecuatiile cu α0, α1, . . . αn−1 si 1, adunandu-le membru cu


membru si folosind (118) rezulta

q T χ(A + bf T ) = q T χ(A) + f T . (120)

Alegand
f T := −q T χ(A) (121)
rezulta automat ca
q T χ(A + bf T ) = 0. (122)

CAPITOLUL 4: SINTEZA ELEMENTARA 151 Lege de Comanda, Alocabilitate, Stabilizabilitate


Folosind (119), obtinem prin inmultire succesiva cu A, A2, . . ., An−1 ca

 
0 0 ... 0 1  T

  q
 0 0 ... 1 0   qT A 
T χ(A + bf T ) = 0, TR = 

.. .. .. .. .. ,


T :=  . .

  .
0 1 ... 0 0
q T An−1
1 0 ... 0 0

Deci T este inversabila si prin urmare χ(A + bf T ) = 0 pentru f dat de (121),


q.e.d.

Dam in continuare un rezultat care permite reducerea problemei generale de alocare


cu m > 1 la cazul m = 1.
Teorema 43. Daca perechea (A, B) este controlabila atunci pentru orice b ∈
Rn, b ̸= 0, exista o matrice de reactie F astfel incat perechea (A + BF, b) este
controlabila.

CAPITOLUL 4: SINTEZA ELEMENTARA 152 Lege de Comanda, Alocabilitate, Stabilizabilitate


Demonstraţie. Fie b ̸= 0 fixat. Definim recurent n vectori

xk+1 = Axk + Buk , k = 1, 2, . . . , n − 1, x1 = b (123)

unde uk ∈ Rm.

Aratam ca putem intotdeauna alege vectorii uk (in numar de n − 1) a. i. vectorii


x1, . . . , xn sa fie liniar independenti. Presupunem prin reducere la absurd ca am
construit vectorii liniar independenti x1, . . . , xk (k < n) si oricare ar fi uk ∈ Rm
avem ca xk+1 este liniar dependent de precedentii, i.e.,

[ ]
xk+1 = Axk + Buk ∈ Sk := Im x1 x2 . . . , xk , ∀uk ∈ Rm. (124)

Din (124) rezulta automat ca

Axk ∈ Sk , Im B ∈ Sk .

CAPITOLUL 4: SINTEZA ELEMENTARA 153 Lege de Comanda, Alocabilitate, Stabilizabilitate


Avem deasemenea
[ ]
ASk = Im Ax1 Ax2 . . . Axk

[ ]
= Im x2 − Bu1 x3 − Bu2 . . . xk+1 − Buk ⊂ Sk
ceea ce inseamna ca Sk este A–invariant si contine Im B. Deoarece perechea
(A, B) este controlabila avem ca R = Rn si deci

Rn = R ⊂ S k

ceea ce implica automat k = n obtinand astfel o contradictie.

Consideram acum ecuatia


[ ] [ ]
F x1 x2 . . . xn = u1 u2 . . . , un−1 0 (125)

CAPITOLUL 4: SINTEZA ELEMENTARA 154 Lege de Comanda, Alocabilitate, Stabilizabilitate


care are o solutie unica F . Daca premultiplicam ecuatia de mai sus cu B obtinem

Bui = BF xi, i = 1, 2, . . . , n − 1

care inlocuite in (123) genereaza

xk+1 = (A + BF )xk , k = 1, 2, . . . , n − 1, x1 = b

sau inca
k−1
xk = AF b, k = 1, 2, . . . , n.
Deoarece xk sunt liniar independenti rezulta ca matricea
[ n−1
]
b AF b . . . AF b

este inversabila si deci perechea (AF , b) cu F dat de (125) este controlabila.


Teorema 44. Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m este alocabila daca si
numai daca este controlabila.

CAPITOLUL 4: SINTEZA ELEMENTARA 155 Lege de Comanda, Alocabilitate, Stabilizabilitate


Demonstraţie. Suficienta: Deoarece perechea (A, B) este controlabila inseamna
ca B ̸= 0 si deci exista g ∈ Rm a.i. b = Bg ̸= 0. Din Teorema 42 rezulta atunci
ca exista Fe a.i. perechea (AFe , b) sa fie controlabila, unde AFe := A + B Fe. Din
teorema 42 rezulta ca pentru orice Λ0 set simetric de n numere exista f ∈ Rm a.i.

Λ(AFe + bf T ) = Λ0.

Prin urmare punand


F := Fe + gf T (126)
rezulta ca

Λ(A + BF ) = Λ(A + B(Fe + gf T )) = Λ(AFe + bf T ) = Λ0

de unde concluzia ca perechea (A, B) este alocabila si reactia care aloca este data
de (126).
Necesitatea: Pp prin absurd ca perechea (A, B) este alocabila dar nu este

CAPITOLUL 4: SINTEZA ELEMENTARA 156 Lege de Comanda, Alocabilitate, Stabilizabilitate


controlabila. Atunci aplicand teorema de descompunere controlabila obtinem in
noul sistem de coordonate
[ ] [ ]
−1 b b b A1 A3 B1 [ ]
T (A + BF )T = A + B F = + F1 F2
O A2 O
[ ]
A1 + B1F1 A3 + B1F2
= (127)
O A2
unde am notat Fb := F T −1. De aici rezulta ca

b+B
Λ(A + BF ) = Λ(A b Fb) = Λ(A1 + B1F1) ∪ Λ(A2)

si deci Λ(A2) ⊂ Λ(A + BF ) oricare ar fi reactia F ceea ce contrazice ipoteza de


alocabilitate a perechii (A, B).

Observatii: a) Relatia (127) evidentiaza ca orice pereche (A, B) are o subpereche


care poate fi alocata (parte din spectru poate fi alocat) – aceasta coincide cu

CAPITOLUL 4: SINTEZA ELEMENTARA 157 Lege de Comanda, Alocabilitate, Stabilizabilitate


partea controlabila – si o parte nealocabila, i.e. anumiti poli ficsi dati de Λ(A2).
Acesti poli sunt invarianti in raport cu orice reactie dupa stare.
b) Teorema de mai sus arata ca proprietatea ”benefica” fundamentala a unei
perechi controlabile (A, B) este ca dinamica sistemului (determinata de v.p. ale
matricii de stare) poate fi modificata in mod arbitrar printr–o reactie dupa stare.
c) Alocarea se poate extinde si asupra vectorilor proprii (simultan cu valorile proprii)
cu anumite precautii privitoare la alegerea acestora.
d) Demonstratia teoremelor de mai sus este constructiva rezultand proceduri de
obtinere a reactiei care aloca. Aceaste metode au insa numeroase dezavantaje dpdv
numeric si de aceea s-au dezvoltat alte proceduri numeric stabile de constructie a
reactiei F (algoritm de tip Schur, alocare cu norma minima, etc).
e) Alocabilitatea nu implica in general faptul ca matricea A + BF are orice
elemente prescrise ci doar orice spectru prescris !

Procedura de Alocare: Cazul m = 1

Pasul 0: Dandu–se perechea controlabila (A, b), A ∈ Rn×n, b ∈ Rn, si un set

CAPITOLUL 4: SINTEZA ELEMENTARA 158 Lege de Comanda, Alocabilitate, Stabilizabilitate


simetric de n valori proprii s1, s2, . . . , sn se construieste polinomul

χ(s) = Πni=1(s − si) = α0 + α1s + α2s2 + . . . + αn−1sn−1 + sn

cu α0, α1, . . . , αn−1 ∈ R.

Pasul 1: Se construieste matricea de controlabilitate

[ n−1
]
R= b Ab . . . A b

care este automat patrata si nesingulara.

CAPITOLUL 4: SINTEZA ELEMENTARA 159 Lege de Comanda, Alocabilitate, Stabilizabilitate


Pasul 2: Se rezolva ecuatia
 
0
 0 
 
R q = en = 
T

.. 

 0 
1

in necunoscuta q ∈ Rn.

Pasul 3: Se calculeaza
f T = −q T χ(A).

Pentru a explicita procedura pentru cazul multivariabil avem nevoie de un rezultat


auxiliar.

CAPITOLUL 4: SINTEZA ELEMENTARA 160 Lege de Comanda, Alocabilitate, Stabilizabilitate


Propozitia 45. Fie (A, B) controlabila, A ∈ Rn×n, B ∈ Rn×m. Controlabili-
tatea perechii (A + BF, b) este generica in raport cu F ∈ Rm×n si b := Bg,
0 ̸= g ∈ Rm. Mai exact, alegand aleator perechea (F, g) perechea (AF , b) este
(generic) controlabila.

Demonstraţie. Demonstratia este lasata ca exercitiu fiind asemanatoare cu demon-


strarea genericitatii controlabilitatii unei perechi de matrici alese arbitrar.

Procedura de Alocare: Cazul General

Pasul 0: Dandu–se perechea controlabila (A, B), A ∈ Rn×n, B ∈ Rn×m, si un


set simetric de n valori proprii s1, s2, . . . , sn se construieste polinomul

χ(s) = Πni=1(s − si) = α0 + α1s + α2s2 + . . . + αn−1sn−1 + sn

cu α0, α1, . . . , αn−1 ∈ R.

CAPITOLUL 4: SINTEZA ELEMENTARA 161 Lege de Comanda, Alocabilitate, Stabilizabilitate


Pasul 1: Se aleg Fe ∈ Rm×n si g ∈ Rm aleator si se construiesc matricile

AFe := A + B Fe, b = Bg.

Pasul 2: Se aplica procedura de alocare (cu m = 1) perechii (AFe , b) si


polinomului χ(s) obtinandu-se reactia f ∈ Rm.

Pasul 3: Calculam reactia finala sub forma

F = Fe + gf T .

Propozitia 46 (Criteriul Hautus de Stabilizabilitate/Detectabilitate). •


Perechea (A, B), A ∈ Rn×n, B ∈ Rn×m este stabilizabila daca si numai daca
[ ]
rank sI − A B = n, ∀s ∈ C+ ∪ C0. (128)

CAPITOLUL 4: SINTEZA ELEMENTARA 162 Lege de Comanda, Alocabilitate, Stabilizabilitate


• Perechea (C, A), C ∈ Rp×n, A ∈ Rn×n este detectabila daca si numai daca
[ ]
sI − A
rank = n, ∀s ∈ C+ ∪ C0. (129)
C

Demonstraţie. Exercitiu ! Indicatie: Se foloseste teorema de descompunere


controlabila punandu-se in evidenta polii ficsi.

CAPITOLUL 4: SINTEZA ELEMENTARA 163 Lege de Comanda, Alocabilitate, Stabilizabilitate


3. Estimatori de Stare

Asa cum am vazut, legea de comanda cu reactie dupa stare poate asigura in
mod satisfacator cerintele fundamentale ale sintezei sistemelor de stabilizare si
alocare cu conditia ca starea sa fie disponibila pentru masura (sa fie accesibila
dpdv tehnic). Din pacate acest lucru nu este in general posibil si atunci ne punem
problema estimarii cat mai exacte a starii unui sistem dinamic prin constructia
unui nou sistem care sa citeasca marimile accesibile sau masurabile (intrarea u si
b. Un astfel de sistem se
iesirea y) si care sa genereaze la iesire o estimare a starii x
numeste estimator de stare (FIG).
Problema: Dandu–se un sistem

{
ẋ(t) = Ax(t) + Bu(t), x(0) = xo
(130)
y(t) = Cx(t) + Du(t),

CAPITOLUL 4: SINTEZA ELEMENTARA 164 Estimatori de Stare


dorim sa construim un nou sistem
{
ẇ(t) = Jw(t) + Hy(t) + M u(t),
(131)
b(t) = Kw(t) + N y(t) + P u(t)
x

b, si
(care are deci ca intrari intrarea u si iesirea y, are ca iesiri starea estimata x
marimea de stare w) care sa indeplineasca simultan urmatoarele doua conditii:

1. Sa fie intern asimptotic stabil, i.e., matricea de stare J sa satisfaca

Λ(J) ⊂ C−.

2. limt→∞(b b(t) (numita estimatia starii) sa aproximeze


x(t)−x(t)) = 0, i.e., iesirea x
asimptotic starea sistemului original x(t).

CAPITOLUL 4: SINTEZA ELEMENTARA 165 Estimatori de Stare


Observatii: a) Ideal ar fi x(t) = xb(t), ∀t. Acest lucru nu este insa in general posibil
(explicati de ce !) si atunci aceasta cerinta se relaxeaza la cea asimptotica.
b) Cerinta de stabilitate interna este esentiala pentru constructia estimatorului
(explicati de ce!).

Pentru a solutiona problema punem in evidenta ”fidelitatea” cu care starea esti-


matorului (131) urmareste starea sistemului original, i.e. evaluam

w−Vx

unde V este o matrice ce ”adapteaza” dimensiunile eventual diferite ale lui x si w.


Folosind (130) si (131) avem succesiv

ẇ − V ẋ = Jw + Hy + M u − V Ax − V Bu,


(w − V x) = J(w − V x) + JV x + HCx + HDu − V Ax + (M − V B)u,

CAPITOLUL 4: SINTEZA ELEMENTARA 166 Estimatori de Stare



(w − V x) = J(w − V x) + (JV + HC − V A)x + (M − V B + HD)u. (132)
Calculam succesiv

b − x = Kw + N y + P u − x = K(w − V x) + KV x + N Cx + N Du − x + P u
x

b − x = K(w − V x) + (KV + N C − I)x + (P + N D)u


x (133)
Combinand (132) cu (133) obtinem
{ ′
(w − V x) = J(w − V x) + (JV + HC − V A)x + (M − V B + HD)u,
b−x
x = K(w − V x) + (KV + N C − I)x + (P + N D)u.

Pentru ca starea estimatorului sa urmareasca asimptotic starea sistemului original


(conditia 2) trebuie ca iesirea sistemului dinamic de mai sus sa tinda asimptotic la
zero (indiferent de initializari si de semnalele de intrare x si u). Acest lucru este
posibil daca satisfacem simultan urmatoarele conditii:

CAPITOLUL 4: SINTEZA ELEMENTARA 167 Estimatori de Stare


a) J asimptotic stabila;
b) JV + HC − V A = 0;
c) M − V B + HD = 0;
d) KV + N C − I = 0;
e) P + N D = 0.
Daca aceste conditii sunt simultan satisfacute obtinem comportarea dinamica
{ ′
(w − V x) = J(w − V x),
b−x
x = K(w − V x).

Obtinem deci

lim (w(t) − V x(t)) = 0, x(t) − x(t)) = 0


lim (b
t→∞ t→∞

indiferent de initializarea sistemului sau estimatorului !

Problema de constructie a estimatorului asimptotic stabil s–a redus la problema

CAPITOLUL 4: SINTEZA ELEMENTARA 168 Estimatori de Stare


algebrica de satisfacere simultana a conditiilor a) – e): avem 5 conditii (4 ecuatii
algebrice si o locatie de spectru) si 7 necunoscute.

Evident c) si e) se pot satisface automat alegand M := V B − HD si P := −N D.


Raman in continuare mai multe grade de libertate in satisfacerea restului de conditii

Λ(J) ⊂ C− ,
JV + HC − V A = 0,
KV + N C − I = 0,

functie de care se deosebesc mai multe tipuri de estimatori.

CAPITOLUL 4: SINTEZA ELEMENTARA 169 Estimatori de Stare


4. Estimatori de Tip 1: N = 0

Conditia este echivalenta cu a a spune ca estimatorul nu are transfer direct I/O,


i.e., matricea sa “D” este zero. In acest caz obtinem

JV + HC − V A = 0,
KV = I

si putem alege K = I, V = I, ramand de satisfacut doar conditia

J = A − HC, Λ(J) ⊂ C−.

Aceasta conditie se poate satisface automat daca perechea (C, A) este detectabila,
caz in care alegem −H egal cu reactia care stabilizeaza (problema de stabilizare
pentru perechea (AT , C T )). Mai mult, daca perechea (C, A) este observabila,
atunci spectrul matricii de stare J a estimatorului poate fi alocat arbitrar.

CAPITOLUL 4: SINTEZA ELEMENTARA 170 Estimatori de Tip 1


In concluzie am obtinut pentru un estimator de tipul 1 urmatoarea constructie:

CAPITOLUL 4: SINTEZA ELEMENTARA 171 Estimatori de Tip 1


Pasul 1: Se foloseste procedura de alocare pentru perechea (AT , C T ) si se
determina o matrice Fe a.i. (AT ) + (C T )Fe sa aibe spectrul dorit (un anumit
spectru impus sau doar localizat in C− in functie de cerinta de proiectare).
Pasul 2: Se calculeaza estimatorul cu parametrii

H = −FeT , J = A − HC, K = V = I, M = B − HD, P = 0,

rezultand
{
ẇ(t) = (A − HC)w(t) + Bu(t) − HDu(t) + Hy(t),
(134)
b(t) = w(t),
x

sau, sub forma echivalenta,

ḃ = Ab
x b + Du − y)
x + Bu + L(C x (135)

in care este cunoscut sub numele de estimator Luenberger (am notat L := −H).

CAPITOLUL 4: SINTEZA ELEMENTARA 172 Estimatori de Tip 1


Observatii: a) Pentru a construi un estimator Luenberger avem nevoie doar sa
specificam spectrul estimatorului Λ0 si sa construim reactia L care aloca respectivii
poli pentru estimator Λ(A + LC) = Λ0. Pentru ca estimatorul sa rezulte cu
coeficienti reali, spectrul se alege intotdeauna simetric.
b) Daca perechea (C, A) este observabila atunci spectrul matricii de stare a
estimatorului poate fi alocat arbitrar si deci este posibil ca estimatorul sa furnizeze
o estimatie cat de precisa a starii intr-un timp oricat de scurt !
c) Din (135) observam ca estimatorul “copiaza” dinamica sistemului original +
termen proportional cu “inovatia” C x b + Du − y care de fapt masoara “calitatea”
estimarii ! Pentru o estimare perfecta avem x b(t) = x(t) si deci inovatia este zero
deoarece
Cxb + Du − y = C x b − Cx = 0.
d) Daca facem o transformare de similaritate asupra sistemului original estimatorul
Luenberger se modifica corespunzator (Ex: aratati cum ! )
e) Pentru a construi estimatorul Luenberger singura conditie pe care am impus-o
sistemului intitial este cea de detectabilitate (sau respectiv de observabilitate)
asupra perechii (C, A). Conditia este nu numai suficienta pentru constructia unui

CAPITOLUL 4: SINTEZA ELEMENTARA 173 Estimatori de Tip 1


estimator Luenberger ci si necesara asa cum vom vedea in continuare. Mai mult,
conditia este necesara pentru existenta unui estimator general de tipul (131).
f) Estimatorul de tipul 1 (Luenberger) are dimensiunea n si de aceea se mai
numeste de ordin integ. Asa cum vom vedea, in anumite situatii se pot construi
estimatori de ordin mai mic.
Teorema 47. Fie sistemul (A, B, C, D) descris de (130). Atunci exista un esti-
mator (131) daca si numai daca perechea (C, A) este detectabila. Daca (C, A)
este detectabila atunci un estimator (de tip 1 sau Luenberger) este dat de ecu-
atille {
ẇ = (A + LC)w + Bu + LDu − Ly,
(136)
xb(t) = w(t)
unde L este orice matrice a.i. Λ(A + LC) ⊂ C−.

Demonstraţie. Partea de suficienta am aratat-o deja. Demonstram necesitatea


prin reducere la absurd. Presupunem ca perechea (C, A) nu este detectabila si
fara a restrange generalitatea presupunem deasemenea ca perechea (C, A) este in

CAPITOLUL 4: SINTEZA ELEMENTARA 174 Estimatori de Tip 1


forma de descompunere observabila
[ ]
A1 A3 [ ]
A= , C= O C2
O A2

unde Λ(A1) ̸⊂ C− (aceasta rezulta automat din testul PBH aplicat perechii
nedetectabile (C, A)). Fie s+ ̸∈ C− o valoare proprie si x+ un vector propriu
corespunzator ale lui A1. Luam starea initiala x0 a sistemului (A, B, C, D) de
forma [ ]
x+
xo = .
O
Evident xo apartine subspatiului neobservabil al perechii (C, A), i.e., x0 ∈ N (C, A).
Deasemenea luam w(0) = 0 si u(t) ≡ 0. Atunci ecuatiile pentru x si estimatorul
(131) sunt
ẋ = Ax,
ẇ = Jw + HCx,
b = Kw + N Cx.
x

CAPITOLUL 4: SINTEZA ELEMENTARA 175 Estimatori de Tip 1


Deoarece x0 ∈ N (C, A) rezulta ca iesirea sistemului (A, B, C, D) este identic nula

y(t) = Cx(t) = CeAtx0 = 0, ∀t ≥ 0,

si deasemenea
w(t) = 0, b(t) = 0,
x ∀t.
Pe de–alta parte, avem

x(t) = eAtx0 = es+tx0 ̸→ 0

b(t) − x(t) ̸→ 0 pentru comanda u ≡ 0, starea initiala a estimatorului


si deci x
w(0) = 0 si x0 aleasa ca mai sus ceea ce contrazice ipoteza ca (131) este un
estimator pentru sistemul (A, B, C, D).

Observatii: a) Dimensiunea unui estimator de tip Luenberger (de tip 1) este egala
cu n (dimensiunea spatiului starilor sistemului orginal (A, B, C, D)). Asa cum vom
vedea mai tarziu, in anumite situatii se pot construi estimatoare de dimensiune mai

CAPITOLUL 4: SINTEZA ELEMENTARA 176 Estimatori de Tip 1


mica si se poate formula problema de constructie a unui estimator de dimensiune
minimala (legata de teoria estimatoarelor de tipul 2).
b) Am vazut ca un sistem poate fi stabilizat/alocat cu o reactie constanta dupa
stare. Deoarece starea nu este in general cunoscuta am construit mai sus un sistem
(numit estimator) care estimeaza asimptotic starea sistemului pe baza informatiilor
furnizate de semnalele de intrare u si de iesire y. Intrebarea naturala este daca
putem stabiliza/aloca sistemul original prin implementarea reactiei constante dupa
b (in locul starii reale x care nu este accesibila) ? Raspunsul este
starea estimata x
pozitiv obtinandu-se compensatorul Kalman.

CAPITOLUL 4: SINTEZA ELEMENTARA 177 Estimatori de Tip 1


5. Compensatorul Kalman

Fie (A, B, C, D) un sistem dinamic si presupunem pentru problema de stabilizare


cu reactie dinamica dupa iesire ca (A, B) este stabilizabila si (C, A) este detectabila
iar pentru problema cu alocare dinamica dupa iesire ca (A, B) este controlabila si
(C, A) este observabila.
Consideram un compensator cu reactie constanta F dupa starea estimata de catre
un estimator Luenberger descris de ecuatiile (136). Obtinem atunci ecuatiile
dinamice ale compensatorului – numit compensator Kalman –
{
ḃ = (A + LC)b
x x + Bu + LDu − Ly,
(137)
u = Fx b,

sau inca {
ḃ = (A + LC + BF + LDF )b
x x − Ly,
(138)
u = Fx b,

CAPITOLUL 4: SINTEZA ELEMENTARA 178 Compensatorul Kalman


avand matricea de transfer
[ ] [ ]
AK BK A + LC + BF + LDF −L
K(s) := = , u = Ky.
CK DK F O

Matricile F si L se aleg a.i. A + BF si A + LC sa fie asimptotic stabile (si


eventual cu spectru impus).

Conectand compensatorul Kalman in reactie inversa cu sistemul original obtinem


pentru matricea de stare a sistemului rezultant in bucla inchisa
[ ]
A BF
AR = .
−LC A + BF + LC

Aplicand transformarea de similaritate


[ ]
I O
T :=
−I I

CAPITOLUL 4: SINTEZA ELEMENTARA 179 Compensatorul Kalman


asupra lui AR obtinem
[ ]
A + BF BF
T ART −1 =
O A + LC

ceea ce arata ca dinamica (polii) sistemului in bucla inchisa satisfac

Λ(AR) = Λ(A + BF ) ∪ Λ(A + LC)

si deci sistemul in bucla inchisa este intern asimptotic stabil (si eventual are
dinamica prescrisa).

Observatii: a) Polii sistemului in bucla inchisa sunt dati de reuniunea polilor alocati
ai lui A + BF prin reactia dupa stare F cu polii alocati de estimator Λ(A + LC)
prin reactia L. Cele doua alocari se pot face independent, punandu-se astfel in
evidenta celebrul principiu al separatiei.
b) Un sistem este stabilizabil/alocabil prin reactie (dinamica) dupa iesire daca

CAPITOLUL 4: SINTEZA ELEMENTARA 180 Compensatorul Kalman


perechea (A, B) este stabilizabila/controlabila si perechea (C, A) este de-
tectabila/observabila. Aceste conditii sunt nu numai suficiente ci si necesare
asa cum reiese din urmatoarea teorema.
Teorema 48. Un sistem (A, B, C, D) este stabilizabil/alocabil prin reac-
tie dinamica dupa iesire daca si numai daca perechea (A, B) este stabiliz-
abila/controlabila si perechea (C, A) este detectabila/observabila.

Demonstraţie. Suficienta a fost demonstrata constructiv mai sus. Ramane sa


aratam necesitatea (Exercitiu !). Indicatie: Pp prin reducere la absurd ca nu
este adevarat si puneti in evidenta printr-o descompunere controlabila/observabila
anumiti poli ficsi ai sistemului rezultant (ce nu pot fi modificati indiferent de
reactia dupa stare.

CAPITOLUL 4: SINTEZA ELEMENTARA 181 Compensatorul Kalman


6. Estimatori de Stare de Ordin Redus (Tip 2)

Fie un sistem (A, B, C, D) cu m intrari, p iesiri si ordinul n (dimensiunea spatiului


starilor). Daca dorim estimarea starii acestui sistem nu este nevoie sa construim un
estimator care sa estimeze direct toate cele n stari intrucat o parte dintre acestea
rezulta automat pe baza iesirilor. Intr–adevar, sa presupunem ca C are rangul egal
cu numarul de iesiri p. Atunci cunoscand iesirea y(t) si estimand numai n − p stari
rezulta ca celelate p stari se pot calcula din ecuatiile corespunzatoare ale iesirii.
Un astfel de estimator de ordin redus se numeste estimator de tipul 2.

Pentru constructia estimatorului de tipul 2 facem ipotezele:


i) Matricea C este epica, i.e., rank C = p;
ii) Matricea C are forma [ ]
C = O Ip . (139)
Observatii: a) Ipoteza i) nu constituie o restrictie majora intrucat o putem asigura
in etapa de modelare printr-o alegere judicioasa a iesirilor sistemului. In cazul in

CAPITOLUL 4: SINTEZA ELEMENTARA 182 Estimatori de Ordin Redus


care prin modelare nu s-a asigurat indeplinirea ei se poate face o schimbare de
variabile in spatiul marimilor de iesire punandu–se in evidenta anumite iesiri identic
zero sau redundante ce pot fi eliminate ramanand o matrice C ce satisface ipoteza.
b) Ipoteza ii) se poate asigura printr–o simpla transformare de coordonate in
spatiul starilor (presupunand evident ipoteza i) adevarata) !
c) Rationand prin dualitate, in anumite
[ ] circumstante matricea intrarilor B se poate
Im
presupune monica si de forma .
O
d) Ipotezele i) si ii) implica ca

[ ]
[ ] x1
y = Cx + Du = O Ip + Du = x2 + Du
x2

deci starile x2 – in numar de p – sunt automat cunoscute (prin cunoasterea


intrarilor si iesirilor) si raman de estimat starile x1 – in numar de n − p.

Asa cum am vazut, pentru constructia unui estimator general (131) trebuie sa

CAPITOLUL 4: SINTEZA ELEMENTARA 183 Estimatori de Ordin Redus


satisfacem relatiile
Λ(J) ⊂ C− ,
JV + HC − V A = 0,
KV + N C − I = 0,
(celelalte relatii fiind automat satisfacute prin alegerea lui P si M ). Pentru a
explicita aceste relatii, partitionam matricile A, B, V , K, N conform cu C in
(139),
[ ] [ ] [ ] [ ]
A1 A3 B1 [ ] K1 N1
A= ,B = ,V = V 1 V2 ,K = ,N =
A2 A4 B2 K2 N2

si obtinem
V1A1 + V2A2 = JV1, V1A3 + V2A4 = JV2 + H,
{
K1V1 = I, K1V2 + N1 = 0,
K2V1 = 0, K2V2 + N2 = I.
Alegem K1 := V1 := I si rezulta automat K2 = 0, N2 = I, N1 = −V2 ceea ce

CAPITOLUL 4: SINTEZA ELEMENTARA 184 Estimatori de Ordin Redus


determina complet matricile K si N , ramanand de satisfacut doar conditiile

A1 + V2A2 = J, Λ(J) ⊂ C−, H = A3 + V2A4 − (A1 + V2A2)V2. (140)

Daca perechea (A1, A2) este detectabila (observabila) atunci putem alege automat
V2 := L unde L este reactia care aloca Λ(A1 + LA2) ⊂ C− iar H se defineste pe
baza ultimei ecuatii din (140).
Ramane sa aratam ca perechea (A1, A2) este detectabila daca sunt indeplinite
conditiile de existenta ale unui estimator general, i.e. perechea (C, A) este
detectabila. Formulam acest rezultat sub forma unei propozitii de sine statatoare.
Teorema 49. Fie un sistem (A, B, C, D) avand matricea C epica.
i) Exista o transformare de coordonate a.i.
[ ]
A1 A3 }n − p
T AT −1 =
A2 A4 }p
,
|{z} |{z}
n−p p

CAPITOLUL 4: SINTEZA ELEMENTARA 185 Estimatori de Ordin Redus


[ ]
B1 }n − p −1
[ ]
TB = , CT = O Ip , (141)
B2 }p
|{z} |{z}
n−p p
ii) Perechea (A2, A1) este detectabila (observabila) daca si numai daca perechea
(C, A) este detectabila (observabila).

Demonstraţie. i) Intrucat C este epica de dimensiune p × n, exista o matrice C


de dimensiune (n − p) × n a. i. matricea
[ ]
C
T :=
C

sa fie inversabila. Avem evident


[ ] [ ]
C In−p O
T −1 =
C O Ip

CAPITOLUL 4: SINTEZA ELEMENTARA 186 Estimatori de Ordin Redus


de unde concluzionam ca CT −1 are forma din (141).
ii) Avem succesiv

 
[ ] [ ] sI − A1 −A3
sI − A T (sI − A)T −1
rank = rank = rank  −A2 sI − A4 
C CT −1
O Ip

[ ]
sI − A1
= p + rank , ∀s ∈ C
A2
de unde concluzia rezulta direct din criteriul Hautus de detectabilitate (observabil-
itate).

In concluzie am obtinut pentru un estimator de tipul 2 urmatoarea constructie:


Pasul 0: Dandu-se sistemul (A, B, C, D) cu perechea (C, A) detectabila (observ-
abila) si matricea C epica, se gaseste cf. Teoremei 49 o transformare de similaritate

CAPITOLUL 4: SINTEZA ELEMENTARA 187 Estimatori de Ordin Redus


T a.i. in noul sistem de coordonate sa avem (refolosind notatiile)
[ ]
A1 A3 }n − p
A=
A2 A4 }p
, (142)
|{z} |{z}
n−p p
[ ]
B1 }n − p [ ]
B= , C= O Ip ,
B2 }p
|{z} |{z}
n−p p
in care perechea (A2, A1) este detectabila (observabila).
Pasul 1: Se foloseste procedura de alocare pentru perechea (A2, A1) si se determina
o matrice V2 a.i. A1 + V2A2 sa aibe spectrul dorit (un anumit spectru impus sau
doar localizat in C− in functie de cerinta de proiectare).
Pasul 2: Se calculeaza estimatorul cu parametrii

J = A1 + V 2 A2 , H = A3 + V2A4 − A1V2 − V2A2V2, M = B1 + V2B2 − HD,

CAPITOLUL 4: SINTEZA ELEMENTARA 188 Estimatori de Ordin Redus


[ ] [ ] [ ]
In−p −V2 [ ] V2 D
K= , N= , V = In−p V2 , P =
O Ip −D
rezultand

 [ ẇ(t)
] = [ (A1 + V2]A2)w(t) [+ Hy(t)] + (B1 +[ V2B2 −] HD)u(t),
b1(t)
x In−p −V2 V2 D
 x b(t) = = w(t) + y(t) + u(t).
b2(t)
x O Ip −D
(143)
Pasul 3: Se “reverseaza” corespunzator transformarea de similaritate asupra
estimatorului, obtinandu-se in final un estimator de tip 2 pentru sistemul original.
Observatii: a) Estimatorul de tip 2 obtinut are ordinul egal cu n − p (dimensiunea
spatiului starii w(t)).
b) Ecuatia iesirii pentru estimatorul de tip 2 (143) contine o parte de dimensiune
n − p ce este estimata prin intermediul dinamicii w(t) de forma

b1(t) = w(t) − V2y(t) + V2Du(t)


x

CAPITOLUL 4: SINTEZA ELEMENTARA 189 Estimatori de Ordin Redus


si o parte ce este deja cunoscuta de dimensiune p (nu se estimeaza prin intermediul
dinamicii) de forma
b2(t) = y(t) − Du(t).
x

De obicei in ecuatiile dinamice ale estimatorului de tip 2 se pastreaza numai prima


parte (b
x1(t)).
c) Din cele de mai sus rezulta ca in ipoteza (C, A) detectabila si C epica
putem intotdeauna construi un estimator de ordin n − p (dimensiunea matricii
J). Problema naturala care se pune este daca pe baza acestui estimator putem
construi in continuare un compensator care stabilizeaza intern – exact cum am
facut in cazul estimatorului de tip 1 obtinand compensatorul Kalman.

Interpretarea Estimatorului de Tip 2 (Ordin Redus)

Estimatorul de tip 2 poate fi obtinut si prin scrierea directa a unui estimator de


tip 1 pentru partea starii ce trebuie efectiv estimata. Intr–adevar, cu notatiile deja
introduse avem ca sistemul original este descris de ecuatiile (pentru simplificarea

CAPITOLUL 4: SINTEZA ELEMENTARA 190 Estimatori de Ordin Redus


calculelor facem ipoteza D = 0)

ẋ1 = A1x1 + A3x2 + B1u,


ẋ2 = A2x1 + A4x2 + B2u, (144)
y = x2

si inlocuind ultima ecuatie in precedentele doua avem

ẋ1 = A1x1 + A3y + B1u,


ẋ2 = ẏ = A2x1 + A4y + B2u,

sau inca
ẋ1 = A1x1 + A3y + B1u,
(145)
ẏ − A4y − B2u = A2x1,
care este un sistem cu dinamica x1 ce se doreste estimata si intrarile u si y.

CAPITOLUL 4: SINTEZA ELEMENTARA 191 Estimatori de Ordin Redus


Reamintim ca un estimator de tip 1 se poate pune sub forma

ḃ = Ab
x x +Bu+L(C x b +Du−y) = Ab x +Bu+LדEROAREA DE ESTIMARE”.
(146)
Scriind un astfel de estimator pentru sistemul (145) obtinem

b˙1 = A1xb1 + A3y + B1u + L(A2x


x b1 − ẏ + A4y + B2u). (147)

b1 = w − Ly si notam V2 := L.
Eliminam ẏ facand schimbarea de variabile x
Obtinem echivalent

ẇ − V2ẏ = A1(w − V y) + A3y + B1u + V2(A2(w − V2y) − ẏ + A4y + B2u) (148)

sau inca

ẇ = (A1 + V2A2)w + (−A1V2 + A3 − V2A2V2 + V2A4)y + (B1 + V2B2)u. (149)

CAPITOLUL 4: SINTEZA ELEMENTARA 192 Estimatori de Ordin Redus


Din ultima ecuatie din (144) obtinem
[ ] [ ] [ ]
b1
x In−p −V2
= w+ y. (150)
b2
x O Ip

Comparand ecuatille (149), (150) cu ecuatille (143) observam ca acestea coincid


in ipoteza facuta D = 0. In consecinta am reobtinut expresia estimatorului de tip
2 scriind un estimator de tip 1 pentru susbsisemul cu dinamica ce trebuie efectiv
estimata x1 !
Exercitiu: Aratati acelasi lucru fara a face ipoteza D = 0 !

Stabilizarea cu Estimatoare Generale

Am vazut ca daca folosim o schema de compensare cu reactie constanta F dupa


starea estimata printr-un estimator de tip 1 se obtine un compensator Kalman
care stabilizeaza intern sistemul si eventual aloca o dinamica dorita. Aratam in
continuare ca o schema similara in care insa estimarea se face cu un estimator
general se poate deasemenea folosi pentru stabilizare/alocare.

CAPITOLUL 4: SINTEZA ELEMENTARA 193 Estimatori de Ordin Redus


In particular, in cazul in care estimarea se face cu un estimator de ordin redus (de
tipul 2) sistemul rezultant va avea dimensiunea spatiului starilor de dimensiune
redusa (< 2n).

Fie un sistem {
ẋ = Ax + Bu,
(151)
y = Cx + Du,
si un estimator general descris de ecuatiile
{
ẇ = Jw + Hy + M u,
(152)
b = Kw + N y + P u,
x

ce satisface automat conditiile:


a) J asimptotic stabila;
b) JV + HC − V A = 0;
c) M − V B + HD = 0;
d) KV + N C − I = 0;

CAPITOLUL 4: SINTEZA ELEMENTARA 194 Estimatori de Ordin Redus


e) P + N D = 0.

Consideram o schema de compensare cu reactie constanta F dupa starea estimata


b, i.e.,
x
b.
u = Fx (153)
Studiem comportarea dinamica in bucla inchisa a sistemului descris de (151), (152)
si (153). Evaluam intai

N y + P u = N Cx + N Du − N Du = N Cx, (154)

unde am folosit proprietatea e). Avem succesiv

b = Ax + BF (Kw + N y + P u)
ẋ = Ax + Bu = Ax + BF x
(155)
= Ax + BF Kw + BF N Cx = (A + BF N C)x + BF Kw

CAPITOLUL 4: SINTEZA ELEMENTARA 195 Estimatori de Ordin Redus


in care am folosit (154). Pentru dinamica w obtinem

ẇ = Jw + Hy + M u = Jw + HCx + HDu + M F (Kw + N Cx)


(156)
= (HC + M F N C)x + (J + M F K)w + HDu

in care am folosit succesiv (153) si (154). Evaluam separat

b = HDF (Kw + N Cx) = HDF N Cx + HDF Kw


HDu = HDF x

pe care il inlocuim in (156) obtinand

ẇ = (HC + M F N C + HDF N C)x + (J + M F K + HDF K)w. (157)

Din (155) si (157) avem ca dinamica sistemului rezultant este data de


[ ˙ ] [ ][ ]
x A + BF N C BF K x
=
w HC + (M + HD)F N C J + (M + HD)F K w

CAPITOLUL 4: SINTEZA ELEMENTARA 196 Estimatori de Ordin Redus


si deci matricea de stare a sistemului rezultant este
[ ]
A + BF N C BF K
AR =
HC + V BF N C J + V BF K

in care am folosit proprietatea c). Pentru a pune in evidenta spectrul acestei


matrici facem o transformare de coordonate
[ ]
I O
T =
−V I

si obtinem
[ ] [ ]
A + BF N C + BF KV BF K A + BF BF K
T ART −1 = = ,
−V A + HC + JV J O J

unde pentru ultima egalitate am folosit proprietatile d) si b). Din relatia de mai
sus concluzionam ca
Λ(AR) = Λ(A + BF ) ∪ Λ(J)

CAPITOLUL 4: SINTEZA ELEMENTARA 197 Estimatori de Ordin Redus


si deci Λ(AR) ⊂ C− daca alegem F a.i. Λ(A + BF ) ⊂ C−.
Observatii: a) Daca (A, B) controlabila atunci putem aloca orice spectru pentru
A + BF si daca (C, A) observabila atunci putem aloca orice spectru pentru
estimator Λ(J) rezultand ca putem aloca orice dinamica pentru sistemul rezultant
in bucla inchisa.
b) Ordinul sistemului rezultant este n + ne unde ne este ordinul estimatorului.

CAPITOLUL 4: SINTEZA ELEMENTARA 198 Estimatori de Ordin Redus


7. Reglarea Sistemelor Dinamice

Problematica, Ipoteze
In aceasta sectiune abordam problema reglarii sistemelor dinamice. Problema
clasica de reglare intern stabila consta in gasirea unui regulator care sa realizeze
simultan urmatoarele deziderate asupra sistemului rezultant in bucla inchisa:

(S) Sa fie intern asimptotic stabil;

(Re) Sa urmareasca (macar) asimptotic anumite semnale (sau clase de semnale)


prescrise numite referinte r;

(Rj) Sa rejecteze (macar) asimptotic anumite perturbatii d sau zgomote w; (FIG).

Solutia generala a problemei de reglare intern stabila are o serie de inconveniente


majore:

CAPITOLUL 4: SINTEZA ELEMENTARA 199 Reglarea Sistemelor Dinamice


(i) Este foarte complicata;

(ii) Este bazata pe geometria interna a sistemului original si pe o serie de descom-


puneri structurale sofisticate in spatiul starilor;

(iii) Conditiile de solvabilitate sunt in general greu de verificat dpdv procedural;

(iv) Solutia generala este complet nerobusta in raport cu perturbatiile paramet-


rice sau structurale ale modelului (A, B, C, D) limitand major aplicabilitatea
metodelor la cazul sistemelor cu dimensiuni medii sau relativ mari.

In continuare vom prezenta solutia in anumite cazuri particulare insa de mare


interes practic in care neajunsurile de mai sus sunt partial eliminate prin ipotezele
facute. Ne restrangem la prezentarea unei solutii in caz particular deoarece:

• Efortul de a prezenta/intelege solutia completa (in intreaga ei complexitate) nu


se justifica in general in raport cu clasa aplicatiilor concrete ”real–life”;

CAPITOLUL 4: SINTEZA ELEMENTARA 200 Reglarea Sistemelor Dinamice


• Solutia generala este nerobusta;

• Exista abordari alternative bazate pe teoria sistemelor robuste ce furnizeaza


solutii mult mai fezabile;

Ipotezele pe care le facem sunt:

(I1) d = 0 (nu apar perturbatii);

(I2) w = 0 (nu apar zgomote);

(I3) D = 0 (ipoteza facuta ptr. simplificarea calculelor);

(I4) r(t) = 1(t) (referintele sunt semnale de tip treapta).

Conditiile de reglare asimpotic stabila

CAPITOLUL 4: SINTEZA ELEMENTARA 201 Reglarea Sistemelor Dinamice


Incepem prin a explicita conditiile pe care trebuie sa le indeplineasca sistemul in
bucla inchisa pentru a realiza dezideratele (S) si (Re) sub ipotezele (I1)-(I3). In
final, vom introduce principiul modelului intern pentru sistemele descrise pe spatiul
starilor si vom particulariza constructia efectiva a unui regulator in ipoteza (I4) –
care realizeaza urmarirea asimptotica a unor referinte de tip treapta –.

PROBLEMA: Dandu–se sistemul dinamic

ẋ = Ax + Bu
(158)
y = Cx

avand m intrari, p iesiri si dimensiunea spatiului starilor n, si vectorul de semnale


de referinta r(t) ∈ Rp, se cere un sistem dinamic (regulator)

ẋK = AK xK + BK ϵ
(159)
u = CK xK + DK ϵ,

in care ϵ = r − y, astfel incat sa aibe loc:

CAPITOLUL 4: SINTEZA ELEMENTARA 202 Reglarea Sistemelor Dinamice


(S) Sistemul in bucla inchisa sa fie intern asimptotic stabil;

(Re) Iesirile y sa urmareasca asimptotic referintele r(t), i.e.,

lim ϵ(t) = 0.
t→∞

Clasa semnalelor referinta se considera de tip persistent generate de un generator


liniar de semnal (de tipul celor introduse la studiul regimului permanent/tranzitoriu)

ẋr = Ar xr xr (0) = xro, Λ(Ar ) ⊂ C− ∪ C0


(160)
r = Cr xr .

Referintele vor avea atunci expresia

r(t) = Cr eAr txro.

CAPITOLUL 4: SINTEZA ELEMENTARA 203 Reglarea Sistemelor Dinamice


Eliminand succesiv semnalele din bucla si tinand cont ca ϵ = r − y = r − Cx
obtinem
ẋK = AK xK + BK r − BK Cx
(161)
u = CK xK + DK r − DK Cx.
Inlocuind ultima ecuatie in ẋ = Ax + Bu obtinem succesiv

ẋ = Ax + B(CK xK + DK r − DK Cx) = (A − BDK C)x + BCK xK + BDK r

si deci pentru sistemul in bucla inchisa obtinem ecuatiile dinamice

[ ˙x ] [ ][ ] [ ]
A − BDK C BCK x BDK
= + r
xK −BK C [ A]K xK BK
[ ] x
ϵ = −C O + Ipr (162)
[ xK ]
[ ] x
y = C O
xK

CAPITOLUL 4: SINTEZA ELEMENTARA 204 Reglarea Sistemelor Dinamice


sau
ẋR = ARxR + BRr
(163)
ϵ = CRxR + DRr,

unde

[ ] [ ]
A − BDK C BCK BDK [ ]
AR = , BR = , CR = −C O , DR = Ip, xR
−BK C AK BK
(164)
Conditia (S) de stabilitate interna devine atunci

Λ(AR) ⊂ C−

si explicitam in continuare conditia de reglare (Re). Combinand ecuatiile sistemului


in bucla inchisa (163) cu cele ale generatorului de semnale de referinta (160)

CAPITOLUL 4: SINTEZA ELEMENTARA 205 Reglarea Sistemelor Dinamice


obtinem
[ ˙ ] [ ][ ]
xR AR BRCr xR
= , xR(0) = xRo, xr (0) = xro,
xr O Ar [ x
]r (165)
[ ] xR
ϵ = CR Cr
xr

sau
ẋRr = ARr xRr , xRr (0) = xRro,
(166)
ϵ = CRr xRr
unde am folosit notatiile
[ ] [ ] [ ]
AR BRCr [ ] xR xRo
ARr = , CRr = CR Cr , xRr = , xRro =
O Ar xr xro
(167)
Conditia de reglare (Re)

lim ϵ(t) = 0, ∀ xRro


t→∞

CAPITOLUL 4: SINTEZA ELEMENTARA 206 Reglarea Sistemelor Dinamice


devine atunci

lim CRr eARr txRro = 0, ∀ xRro. (168)


t→∞

Observatie fundamentala: Aceasta cerinta nu poate fi realizata prin impunerea


conditiei ca matricea de stare ARr sa fie intern asimptotic stabila deoarece ARr
contine valori proprii care sunt sigur in C+ ∪ C0 (semnalul r a fost presupus
persistent)! Singura posibilitate pentru a satisface conditia de (Re) ramane
sa impunem ca dinamica care nu este stabila sa fie neobservabila in raport cu
perechea (CRr , ARr ) si acest lucru sa-l satisfacem prin alegerea judicioasa a
parametrilor regulatorului ce se regasesc implicit in parametrii sistemului rezultant
(AR, BR, CR, DR) ! In consecinta conditia de reglare implica satisfacerea anumitor
proprietati structurale relativ sofisticate in spatiul starilor sistemului rezultant !

Pentru a satisface conditia (Re) trebuie sa impunem deci conditia ca subspatiul


invariant asociat dinamicii Ar sa fie neobservabil in perechea (CRr , ARr ) explicitata
in (167). O baza pentru subspatiul invariant corespunzator lui Ar – notat V+ are

CAPITOLUL 4: SINTEZA ELEMENTARA 207 Reglarea Sistemelor Dinamice


evident expresia ⟨[ ]⟩
V
V+ =
Inr
unde V este o matrice ce se determina din conditia ca V+ sa fie neobservabil.
Facand o completare pana la o transformare inversabila obtinem
[ ]
InR V
S=
O Inr

de unde
[ ]
−1 AR ARV + BRCr − V Ar [ ]
S ARr S = , CRr S = CR CRV + Cr
O CRV + Cr

iar in noul sistem de coordonate avem


⟨[ ]⟩
O
V+ = .
Inr

CAPITOLUL 4: SINTEZA ELEMENTARA 208 Reglarea Sistemelor Dinamice


Din conditia ca V+ este ARr invariant si inclus in Ker CRr se obtin conditiile

ARV + BRCr − V Ar = 0, CRV + Cr = 0. (169)

Deci existenta unei matrici V care satisface relatiile (169) este echivalenta cu
satisfacerea cerintei de reglare (Re) explicitata sub forma (168).
Observatie: Prima conditie (169) este o ecuatie Sylvester ce are intotdeauna o
solutie unica deoarece Λ(AR) ⊂ C− si Λ(Ar ) ⊂ C+ ∪ C0 (Explicati acest lucru
pe baza conditiilor generale de existenta/unicitate a solutiilor ecuatiilor Sylvester –
vezi Appendix).
In concluzie am redus problema originala de reglare intern asimptotic stabila la
gasirea unui sistem (AK , BK , CK , DK ) a.i. :

(S) Λ(AR) ⊂ C−;

(Re) Solutia unica V a ecuatiei Sylvester ARV + BRCr − V Ar = 0 sa satisfaca


CRV + Cr = 0.

CAPITOLUL 4: SINTEZA ELEMENTARA 209 Reglarea Sistemelor Dinamice


Observatie: Tinand cont de expresiile explicite ale matricilor sistemului in bucla
inchisa (AR, BR, CR, DR) ca functii de parametrii regulatorului (AK , BK , CK , DK )
(vezi (164)) este clar ca aceste conditii algebrice nu sunt deloc triviale sau usor de
explicitat intr-o forma procedurala. De aceea ne vom limita la prezentarea cazului
reprezentativ al referintelor de tip treapta.

Reglarea la Referinte Treapta

Fie sistemul (A, B, C, D = 0) avand matricea de transfer T (s) si y = T u. Facem


ipotezele ca (A, B) este stabilizabila si (C, A) este detectabila, conditii ce sunt
necesare si suficiente pentru existenta unui compensator stabilizator.

Considerand o schema clasica de reglare cu regulatorul K(s) montat pe calea


directa intre eroare ϵ := r − y si comanda u, i.e., u = Kϵ.

Conform principiului modelului intern, pentru a regla la referinte de tip treapta


trebuie ca modelul referintei M (s) sa fie inclus in matricea de transfer in bucla
deschisa, in cazul nostru L(s) := T (s)K(s). Mai exact, cum T (s) este dat,

CAPITOLUL 4: SINTEZA ELEMENTARA 210 Reglarea Sistemelor Dinamice


impunem ca modelul referintei sa fie inclus in

e
K(s) = K(s)M (s) (170)

unde M (s) este matricea de transfer a modelului referintei. Aceasta conditie


asigura automat cerinta de reglare (Re). Daca consideram reglarea la referinta
treapta atunci
1
M (s) = Ip.
s
Pentru a asigura cerinta (S) trebuie ca regulatorul K(s) sa stabilizeze intern T (s)
e
sau, echivalent, ca K(s) sa stabilizeze intern Te(s) = M (s)T (s) (FIG) – K(s)
are o parte fixata R(s) pe care o includem in Te(s) –. In consecinta proiectam
e
un compensator stabilizator K(s) pentru Te(s) dupa care regulatorul dorit se
calculeaza din (170).

Explicitam in continuare aceste conditii in termenii ecuatiilor dinamice de stare.

CAPITOLUL 4: SINTEZA ELEMENTARA 211 Reglarea Sistemelor Dinamice


Fie
ẋM = AM xM + BM ϵ
(171)
ye = CM xM + DM ϵ
sau inca
ẋM = AM xM + BM (r − Cx)
(172)
ye = CM xM + DM (r − Cx)
ecuatiile ce descriu dinamica modelului referintei si

ẋ = Ax + Bu,
y = Cx,

ecuatiile ce descriu sistemul. O realizare de stare pentru sistemul Te cu ye = Teu se


obtine automat inseriind T (s) cu M (s) (semnalul exogen r = 0)

[ ]  
A e
e B A O B
Te = =  −BM C AM O . (173)
e D
C e
O CM O

CAPITOLUL 4: SINTEZA ELEMENTARA 212 Reglarea Sistemelor Dinamice


Deci problema s-a redus la constructia unui compensator pentru Te dat de (173).

In cazul particular in care dorim reglarea la referinte de tip treapta avem AM = 0,


BM = Ip, CM = Ip, DM = 0 si (173) devine

[ ]  
e B
A e A O B
Te = =  −C O O . (174)
e D
C e
O Ip O

Pentru scrierea unui compensator stabilizator pentru Te putem aplica schema


standard de scriere a unui compensator Kalman (sau orice schema de stabilizare
e este
cu estimator de stare si reactie dupa starea estimata). Intrucat matricea C
epica preferam sa scriem un estimator de ordin redus si sa luam o reactie dupa
starea estimata obtinand in final un sistem compensator de ordin mai mic decat
Te(s) (si de acelasi ordin cu T (s)).

Pentru scrierea unui estimator de ordin redus folosim direct formulele (143)

CAPITOLUL 4: SINTEZA ELEMENTARA 213 Reglarea Sistemelor Dinamice


observand in prealabil ca realizarea (174) este in forma (142) si facand identificarile

[ ] [ ] [ ] [ ]
A O A1 A3 B B1 [ ]
e=
A = e=
,B = e=
,C O Ip .
−C O A2 A4 O B2

Conditia necesara si suficienta pentru existenta unui estimator este ca perechea


(A2, A1) = (−C, A) sa fie detectabila ceea ce este automat asigurat in ipotezele de
e = −L a.i. Λ(A + LC) = Λ(A − LC)
lucru ((C, A) este detectabila). Fie L e ⊂ C− .
Obtinem pentru ecuatiile estimatorului de ordin redus


 [ ẇ
] = (A
[ + LC)w
] + [(A + ]LC)Ley + Bu,
b1
x In−p L (175)
b=
 x = w+ ye.
b2
x O Ip

Un compensator stabilizator se obtine atunci luand o reactie stabilizanta dupa

CAPITOLUL 4: SINTEZA ELEMENTARA 214 Reglarea Sistemelor Dinamice


starea estimata de forma
[ ][ ]
b1
x
u= F Fe y ) + Feye.
= F (w + Le (176)
b2
x

O astfel de reactie stabilizanta exista daca si numai daca perechea (A, e B)


e este
stabilizabila. Acest lucru nu este insa automat indeplinit decat daca facem ipoteza
ca modelul referintei (polii s = 0) nu este simplificat de modelul sistemului T (s) !
(Ex: faceti conexiunea cu sistemele SISO – trebuie ca diag { 1s } sa apara in fctia de
transfer in bucla deschisa si deci nu trebuie sa se simplifice in produsul L = T K
–. O conditie suficienta ca sa nu apara aceasta simplificare este ca sistemul T sa
nu aibe zerouri in s = 0 ceea ce este asigurat de impunerea conditiei
[ ]
−A −B
rank = n + p. (177)
C O

e B)
Intr-adevar, daca (A, B) stabilizabila si are loc (177) atunci (A, e este stabilizabila
(Ex: Demonstrati acest lucru folosind criteriul PBH).

CAPITOLUL 4: SINTEZA ELEMENTARA 215 Reglarea Sistemelor Dinamice


Deci in ipotezele (A, B) stabilizabila, (C, A) detectabila si (177) exista un com-
pensator stabilizator care se obtine luand o reactie dupa starea estimata prin
intermediul unui estimator de ordin redus pentru sistemul Te. Ecuatiile compen-
satorului sunt
ẇ = (A + LC)w + (A + LC)Le
y + Bu
b1
x = w + Ley
(178)
b2
x = ye
u = y ) + Feye
F (w + Le

sau eliminand w prin inlocuire din a doua ecuatie si inlocuind u in prima ecuatie
obtinem
x x1 + +B Fex
b˙1 = (A + LC + BF )b b2 + Lϵ
b˙2 = ϵ
x (179)
u = Fx b1 + Fex
e2

unde am tinut cont ca ye = x b˙2 = ϵ. Deci un compensator stabilizator pentru


b2 si x

CAPITOLUL 4: SINTEZA ELEMENTARA 216 Reglarea Sistemelor Dinamice


T (s) este dat de
 
[ ] A + LC + BF B Fe L
AK BK  I 
K(s) = = O O . (180)
CK DK
F Fe O

A ramas de verificat ca intr–adevar acest compensator (regulator) asigura de fapt


reglarea. Acest lucru se arata verificand conditiile de reglare (169)

ARV + BRCr − V Ar = 0, CRV + Cr = 0

in care Ar = O, Cr = I. Aceasta este echivalent cu a arata ca solutia ecuatiei

ARV = −BR

verifica CRV = −Ip. Inlocuind expresiile lui AR, BR si CR cu datele obtinute

CAPITOLUL 4: SINTEZA ELEMENTARA 217 Reglarea Sistemelor Dinamice


rezulta dupa partitionarea corespunzatoare a lui V
    
A BF BF e V1 O
 
(ARV =)  −LC A + BF + LC B Fe   V2  =  −L  (= −BR)
−C O O V3 −Ip
(181)
si  
[ V1
]
(CRV =) −C O O  V2  = −Ip. (182)
V3
Inspectand ultima relatie observam ca este identica cu ultima ecuatie din (181) si
deci daca V verifica (181) atunci automat verifica si (182). In final, V exista si
este unic intrucat AR este inversabila (Λ(AR) ⊂ C− asa cum rezulta din teoria
stabilizarii cu compensatoare de ordin redus).

Procedura de reglare la referinta treapta cu compensare asimptotic intern stabila

– Exercitiu –

CAPITOLUL 4: SINTEZA ELEMENTARA 218 Reglarea Sistemelor Dinamice