Sunteți pe pagina 1din 34

Semnale analogice

1. Analiza şi sinteza semnalelor analogice utilizând seria Fourier

Considerăm x(t ) - semnal analogic, măsurabil, definit în intervalul finit de timp


I t = (t1 , t2 ) .
Marea majoritate a semnalelor importante din tehnică prezintă următoarele
proprietăţi, reflectate practic prin funcţiile matematice care le descriu:
➢ Sunt de durată finită, astfel x(t ) este definit pe suport mărginit:
x : (t1 , t2 )   → C
➢ Sunt măsurabile, adică:
x(t )  L(1) ; unde L(1) este clasa funcţiilor de modul integrabile, exprimată prin
relația matematică::
t2

 x(t ) dt = M  
t1

sau

x(t )  L( 2) ; unde L( 2) este clasa funcţiilor de pătrat integrabil sau de energie


finită, exprimată prin relația matematică:
t2

 x(t ) dt =   
2

t1

OBS: un semnal care tinde la  e logic că nu poate fi măsurat.

Toate semnalele fizice/reale sunt măsurabile, adică x(t )  L(1) şi în plus sunt şi de
energie finită adică x(t )  L(2 ) .
Se ştie că funcţiile care satisfac relaţiile de mai sus, pot fi reprezentate exact prin
Seria Fourier generalizată :

x(t ) =  ak xk (t ) (1.1)
k
în care xk (t ) :  → C ; xk (t )  L(2 ) – este o funcţie dintr-un sistem de N funcţii M x = xk (t ),
ortogonale în intervalul de timp t  I t = [t1 , t2 ] şi totodată sistemul M x este și total.
Condiţia de ortogonabilitate a unei perechi de funcții x n (t ) x m (t ) din M x este ca următorul produs
scalar să fie:
0, dacă n  m
xn (t ), xm* (t ) =  pentru t  I t (1.2)
k n , dacă n = m
ceea ce implică faptul că xn (t ) ⊥ xm (t ) , adică semnalele sunt ortogonale.
t2

Coeficientul k n =  xn (t ) dt reprezintă pătratul normei funcţiei xn (t ) , adică


2
k n este norma lui
t1

xn (t ) .

1
Condiţia de sistem total pentru sistemul M x este îndeplinită dacă include TOATE funcţiile ce formează
perechi ortogonale între ele. Atunci când kn = 1 pentru toate funcţiile xn (t ) , M x se spune că este un
sistem ortonormal.
 x (t ) 
Orice sistem ortogonal, xk (t ) poate fi transformat într-un sistem ortonormal prin  n  .
 k n 
Astfel, de exemplu, sistemul de funcţii sinus, Ssin(k0t ) este ortogonal în I t = (t1 , t1 + T0 ) ,
2
T0 = având pătratul normei:
0
t1 +T0
T0
kn = 
t1
sin 2 (n0t )dt =
2
 2 
Sistemul S1 =  sin k 0 t  este ortonormal în t  (t1 , t1 + T0 ) . Sistemele S şi S1 nu sunt nişte
 T0 
sisteme totale, deoarece există funcţiile cos k0t ⊥ sin k0t în acelaşi interval I t .
Coeficienţii ak din relaţia (1.1) se numesc coeficienţii seriei Fourier generalizate sau
amplitudinile SFG.
Se poate demonstra că în reprezentarea cu SFG, având sistemul de funcții Mx
ortonormal, avem:
ak = x(t ) * xk* (t ) (1.3)
iar pentru un sistem cu Mx pentru care k n  1 :
x(t ) * xk* (t )
ak = ; t  t1 , t1 + T  (1.4)
xk (t ) * xk* (t )
Dacă în suma (1.1) se consideră un număr mai mic de termeni m<N , atunci se
obţine o aproximare a semnalului x(t ) , cu o anumită eroare medie pătratică minimă. Se
spune că sumele parţiale ale SFG converg „în medie” către x(t ) .
Putem ilustra această convergenţă în medie pentru M x = xk (t ) ortonormal şi
xk (t )   .
Expresia de calcul pentru ak se obţine minimizând eroarea pătratică medie care
apare, dacă în reprezentarea semnalului x(t ) cu SFG se iau în considerare numai primii m
termeni, cu m<N.
Definim eroarea între semnalul real și aproximarea acestuia, prin relaţia:
m
 = x(t ) −  a k xk (t ) (1.5)
k =1
2
 m

 e. p.m :  =
1
( )  ak xk (t ) dt
t2

t 2 − t1 t1 

x t −
k =1 
(1.6)

 2 m m

1
( )  ( ) ( )  ak2 xk2 (t )dt
t2
 =
t 2 − t1 
t1


x t − 2
k =1
a k x t x k t +
k =1 
(1.7)

În expresia (1.7) s-a ţinut cont că prin ridicarea la pătrat a celui de-al 2-lea termen
din paranteza de sub integrală din relaţia (1.6) apar produse scalare de tipul:
xk (t ) * xm (t ) = 0 pentru k  m
Pentru a obţine e.p.m. minimă se pune condiţia de minim:
2

= 0 ; k = 1, m (1.8)
ak
care aplicată relaţiei (1.7) conduce la ecuaţia:
 2a x (t ) − x(t )x (t )dt = 0
1 t2
2

t2 − t1
k k k
t1

xk2 (t )dt = 1
t2
Ţinând seama că sistemul este ortonormal, avem: 
t1

xk (t )dt −  x(t )x (t )dt = 0


2a k t 2 2 2 t2
 
t 2 − t1 t1
  t 2 − t1 t1
k

=1

x(t )xk (t )dt = 0


2 t2

t 2 − t1 t1
 ak −

 ak =  x(t )xk (t )dt = x(t ) * xk (t )


t2

t1
(1.9)
Dacă Mx nu este ortonormal  t xk2 (t )dt = kn şi relaţia (1.9) devine:
t2

 x(t )x (t )dt = x(t ) * x (t )


t2
k x(t ) * xk (t )
ak = =
t1 k
(1.10)
x (t ) * x (t )
 x (t )dt
t2
2
k k kn
k
t1

Din aceste relaţii se poate constata convergenţa în medie a reprezentării prin SFG către
x(t ) .

Din relaţia (1.7) şi tinând cont de (1.9) şi (1.10) avem:


1 t2  2 m m

=   x (t ) − 2 a x (t )x (t ) +  ak2 xk2 (t )dt
t 2 −t1 1 
k k
t
k =1 k =1 
 
1  t2 2 m m

t x (t )dt − 2 ak t x(t )xk (t ) +  ak t xk (t )dt 
t2 t
 = 2 2 2

t 2 − t1  1 k =1 
1
 k =1  1
 
 = a k =1 
1  t2 2 m m
2
 = t x (t )dt − 2 ak +  ak 
2

t 2 − t1  1 k =1 k =1 
1  t2 2 m
2
 = t x (t )dt −  ak  (1.11)
t 2 − t1  1 k =1 
m
Deci vom avea că e.p.m se poate determina prin coeficienţii SFG. Astfel  ak2 conţine o indicaţie
k =1
asupra e.p.m. Dacă m<N atunci ε>0 şi vom avea
m
x 2 (t )dt   ak2
t2
t1
k =1
(1.12)

Relaţia (1.12) reprezintă inegalitatea lui Bessel şi arată că energia semnalului este mai mare decât
suma pătratelor coeficienţilor SFG, trunchiată la m<N.
Luând m=N, se obţine egalitatea lui Parseval:
N
x 2 (t )dt =  ak2
t2
t1
k =1
(1.13)

care reprezintă energia semnalelor prin amplitudinile componentelor spectrale.


Egalitatea lui Parsseval, ca şi inegalitatea lui Bessel, se aplică şi în cazul în care xk (t ) :  → C
Considerând M x  C cu kn  1 , energia semnalului se exprimă prin relaţia:
3
 N 
E =  x 2 (t )dt =  x(t )  ak xk (t )dt
t2 t2

t1 t1
 k =1 
Inversând ordinea de integrare şi sumare în ultima integrală, se obţine:
N
x 2 (t )dt =  ak  x(t )xk (t )dt
t2 t2
t1
k =1
t1
(1.14)

Deoarece:
t x(t )xk (t )dt
t2
x(t ) * xk (t )
 x(t )x (t )dt = a k
t2
ak = = 1 
xk (t ) * xk (t )
k k n
kn t1

Astfel, relaţia (1.14) devine:


N
E =  x 2 (t )dt =  k n ak2
t2
(1.15)
t1
k =1
Dacă se ia un număr m<N de termeni, inegalitatea lui Bessel este evidentă:
m
x 2 (t )dt   k n ak
t2

2
t1
k =1

Concluzie:

➢ Analiza Fourier a semnalelor constă în determinarea coeficienţilor seriei


Fourier pentru un semnal cunoscut, adică extragerea de informație reprezentată
de coeficienții ak

➢ Sinteza Fourier a semnalelor constă în construirea unui semnal dorit, x(t ) ,


dintr-o sumă de funcţii xk (t ) ponderate cu coeficienţii ak .

Analiza Fourier este un proces de calcul ce poate fi efectuat manual sau poate fi
programat pe un sistem cu microprocesor. O altă soluţie constă în realizarea unui analizor
de semnal, care să afişeze la ieşire, coeficienţii Fourier ai semnalului aplicat la intrare, ca
în Fig.1.1, unde generatorul de funcţii debitează un sistem xk (t ) de funcţii ortogonale.
a1
 ...
a2
x(t)
 ...

an
 ...
x1(t) x2(t) xn(t)
Generator de functii
elementare Fig.1.1.

4
 x(t )x (t )dt
1 t2
Schema-bloc de mai sus implementează formula: ak = k
kn t1

Semnalele se pot obţine prin sinteză Fourier cu un aparat construit ţinând seama de
axpresia SFG. Sintetizatorul de semnal se construieşte conform Fig.1.2.
a1

a2
x(t)
...

an

x1(t) x2(t) xn(t)


Generator de funcţii
elementare Fig.1.2.

Schema-bloc de mai sus implementează formula: x(t ) =  ak xk (t )


k

Pentru realizarea analizoarelor sau sintetizoarelor de tip Fourier, este deosebit de


important ca generatoarele de funcţii să producă sistemul de funcţii xk (t ) cât mai exact
posibil. Alegerea acestor funcţii astfel încât să fie generate cât mai simplu cu tehnologia
actuală, a fost determinantă în alegerea sistemului pentru reprezentarea cu SFG. În
schemele din Fig.1.1, Fig.1.2 ca şi în procesele de calcul privind analiza sau sinteza
semnalelor, numărul de termeni este limitat la m<N. Este de dorit ca această limitare să
conducă la erori de aproximare controlabile.

Obs.:Trebuie reţinut că reprezentarea semnalelor x(t)  L(2) cu SFG este valabilă numai
în intervalul de timp t  I t - intervalul de ortogonalitate al sistemului de funcţii xk (t )
care poate fi ales convenabil încât să coincidă cu suportul semnalului.

2. Reprezentări ale semnalelor prin diferite forme ale seriei Fourier

Seria Fourier trigonometrică(SFT).


SFT utilizează penru SFG sistemul total de funcţii ortogonale:
M x = 1, cos k0t, sin k0t, k  Z
2
cu intervalul de timp de ortogonalitate It=(t1,t1+T0), T0 =
0

5
Produsele scalare corespunzătoare celor 3 tipuri de funcţii elementare sunt următoarele:
1 * cos k0t = 0
1 * sin k0t = 0
0 pentru k  m

sin k0t * sin m0t =  T0
k s = 2 pentru k = m

0 pentru k  m

cos k0t * cos m0t =  T (1.16)
 kc = 0 pentru k = m
 2
1*1 = k0 = T0

Relaţiile (1.16) ilustrează ortogonalitatea sistemului de funcţii trigonometrice care


nu este totuși ortonormal. Normele funcţiilor „1”, „cos” şi „sin” corespund valorilor:
T0 T0
K 0 = T0 , Ks = ; Kc =
2 2
Notând cu C0 , Ck , Sk coeficienţii SFG corespunzători constantei „1”, funcţia cos şi funcţia
sin, se obţine seria Fourier trigonometrică (SFT):
 
x(t ) =  ak xk (t ) = C0 +  Ck cos k0t + Sk sin k0t  (1.17)
k =1 k =1

Formulele de calcul ale coeficienţilor se obţin folosind relaţia (1.10)


t1 +T0
x(t )dt
1
C0 =
T0  t1

t1 +T0
x(t )cos k0tdt
2
Ck =
T0  t1
(1.18)
t1 +T0
x(t )sin k0tdt
2
Sk =
T0 t1

Orice semnal x(t) poate fi reprezentat cu relaţia (1.17) dacă x(t) L(2) şi considerând
intervalul de definiţie It=[0,T0].

OBS:Reprezentarea prin SFT pune în evidenţă componentele pare şi impare ale


semnalului.

Seria Fourier armonică(SFA)


SFA pune în evidenţă amplitudinea şi faza unei componente de ordinul k. În
continuare se consideră un termen de ordinul k din suma (1.17) şi se introduc notaţiile:
Ck = Ak cos  k ; Sk = -Ak sin  k
astfel încât se obţine:
Ck cos k0t + Sk sin k0t = Ak cos  k cos k0t − Ak sin k sin k0t = Ak cos(k0t +  k ) (1.19)
iar SFT devine SFA ce poate fi reprezentată astfel:

x(t ) =  Ak cos(k0t +  k ) (1.20)
k =0

6
Relaţia (1.20) reprezintă seria Fourier Armonică (SFA). Termenul de ordinul k=1
reprezintă componenta fundamentală iar cel de ordinul k, armonica k în reprezentare cu
SFA.
Legăturile dintre coeficienţii SFA şi SFT rezultă astfel:
Sk
A0 = C0 , A k = Ck2 + S k2 ;  k = −arctg (1.21)
Ck
unde Ak – este amplitudinea, iar φk – faza armonicei de ordinul k.

Seria Fourier exponenţială(SFE):


Aceasta utilizează în reprezentarea unui semnal prin SFG următorul sistemul total de
funcţii ortogonale:
M x = e jk t , k  Z 0
(1.21)
Spre deosebire de SFT, unde sistemul de funcții elementare este real M x   , în această
variantă sistemul de funcții elementare este complex, M x  C . Intervalul de timp de
2
ortogonalitate este I t = (t1 , t1 + T0 ), T0 = . Ortogonalitatea sistemului de funcţii elementare
0
(1.21) rezultă din efectuarea produsului scalar în intervalul t  I t .
0 pentru k  m
e jk0t * e − jm0t = 
kk =T 0 pentru k = m
e jk0t * e − jk0t =  e jk0t e − jk0t dt =  (cos(k0t ) + j sin(k0t ) )(cos(k0t ) − j sin(k0t ) )dt =
T0 T0

0 0
T0
(
=  cos 2 k0t + sin 2 k0t dt = t 00 = T0
0
) T

e jx = cos x + j sin x
e − jx = cos x − j sin x
Norma funcţiei exponenţiale de ordin k este k k = T0 şi prin urmare sistemul nu
este ortonormal. Notând cu ak coeficientul termenului k din SFG se obţine expresia:

x (t ) = a e k
j k 0t
(1.22)
k =−

care reprezintă semnalul x(t) aproximat prin seria Fourier exponenţială (SFE) denumită
şi serie Fourier complexă.
Coeficientul ak se exprimă utilizând relaţia (1.10) sub forma:
t1 +T0
x (t )e − jk0t dt
1
ak =
T0 
t1
(1.23)

şi este un număr complex scris sub forma:


ak = ak e jk (1.24)
Relaţiile (1.20)(expresia pentru SFA) şi (1.22) sunt echivalente:
 
x(t ) =  Ak cos(k0t +  k )  x(t ) = a e k
jk0t

k =0 k = −


x(t ) =  Ak cos(k0t +  k )
( )


 x(t ) =  k e jk0t e jk + e − jk0t e − jk
k =0 A
− jx

e +e
jx
 k =0 2
cos x = 
2 
7

Ak jk jk0t  Ak − jk j ((−k )0t )
 x(t ) =  e e + e e
k =0 2 k =0 2
În al 2-lea termen putem schimba domeniul de însumare pentru k = 0   la q = −  0 datorită
termenului „k” din e j ((− k )0t ) ; adică k=-q, după care revenim tot la variabila k.
 0 A
 x(t ) =  k e jk e jk0t +  −q e −q e jq0t
A − j

k =0 2 q = − 2

A − A− k
Făcând convenţia: − q = ; - - q =  − k
2 2
 0
 x(t ) =  k e j k e jk0 t +  − k e j −k e jk0 t
A A
k =0 2 k = − 2

 x(t ) =  k e j k e jk0 t care este chiar SFE.
A
k = − 2
Identitatea termenilor este:
Ak jk jk0t
e e = ak e jk0t
2
A−k jk − jk0t
e e = a−k e − jk0t
2
Astfel vom avea relaţia între coeficienţii SFA şi SFE:
A 
a k = a −k = k 
2 (1.25)
 −k = − k 

Relaţia (1.25) arată că armonicei k din SFA îi corespunde o pereche de termeni  k din SFE.

3. Analiza Fourier a semnalelor periodice. Diagrame spectrale.

Semnalele periodice se utilizează frecvent în aplicaţiile tehnice: în generatoarele din


aparatura electronică, în aparatura medicală, în sistemele de telecomunicaţii, etc.
Un semnal periodic x p (t ) satisface relaţia:
x p (t ) = x p (t + kT0 ) ; k  Z (1.26)
unde T0 – perioadă fundamentală este cel mai mic interval de pe axa timpului care
satisface relaţia (1.26).
Un semnal periodic x p (t ) poate fi considerat ca provenind din prelungirea unui
semnal neperiodic x(t ) astfel:

x p (t ) =  x(t + qT ) ;
0 qZ
q =−

Presupunem că x(t ) este definit pe intervalul finit I S = 0, T0  şi este nul în afara
acestui interval. Deoarece s-a presupus că x(t)  L(2 ) (este de energie finită) semnalul poate
fi reprezentat în intervalul t  I s prin oricare din formele seriei Fourier, luând Is ca interval
de ortogonalitate al SFT, SFA, SFE. În acelaşi timp T0 este şi perioadă fundamentală a
dezvoltărilor în serie Fourier corespunzătoare.
OBS:Pentru semnalul periodic, noţiunea de energie nu are sens, din cauza duratei sale
infinite.
O măsură utilă a efectelor energetice ale semnalului este puterea medie a semnalului pe o
perioadă.

8
t1 +T0
x 2p (t )dt
1
PT =
T0  t1
(1.27)

Utilizând pentru x p (t ) expresia SFE şi inversând ordinea de integrare şi sumare, obţinem:


t1 +T0  
1 t1 +T0 
x p (t )  ak e jk0t dt = x p (t )e jk0t dt 
1
PT =   a T  k
T0 t1
k = − 
k = −

0

t1

ak*

 PT = a
2
k (1.28)
k = −

Relaţia (1.28) reprezintă egalitatea lui Parsseval pentru semnale periodice.

Analiza Fourier a semnalelor periodice se mai numeşte şi analiză armonică.


Prin intermediul relaţiilor ce exprimă SFA şi SFE se stabileşte o corespondenţă între
funcţiile de timp x p (t ) şi mulţimea armonicelor de frecvenţă f=k*f0 cu k  Z + în cazul SFA,
respectiv k  Z în cazul SFE.
În studiul semnalelor este utilă reprezentarea grafică a acestora în funcţie de timpul t
şi reprezentarea imaginii lor în funcţie de frecvenţa unghiulară ω, sau de frecvenţa în Mhz.
Prima se numeşte reprezentare în domeniul timp sau formă de undă a semnalului, iar cea
de a 2-a reprezentare în domeniul frecvenţă sau diagramă spectrală a semnalului. O
componentă de frecvenţă f=k*f0 (ω=kω0) este complet definită de amplitudinea şi faza
corespunzătoare. În cazul reprezentării SFA, o componentă se exprimă prin:
Ak cos(kω0t +  k ), k  N, Ak  ,  k  
iar în cazul reprezentării SFE prin:
ak e jkω0t ; k  Z, ak  C
Rezultă astfel că pentru caracterizarea completă a semnalului în domeniul frecvenţă
sunt necesare 2 diagrame spectrale:

➢ Spectrul de
amplitudini: Ak(kf0) sau Ak(kω0) pentru SFA, şi
ak (kf0 ) sau ak (kω0 ) pentru SFE.

➢ Spectrul de faze:  k (kf0 ) sau  k (kω0 )

În cazul semnalelor cu  k = q , este suficientă reprezentarea spectrului de


amplitudini alocând fiecărei componente semnalul  corespunzător. Astfel, semnalul este
caracterizat în domeniul frecvenţă printr-o diagramă unică, numită spectru de frecvenţe.
Exemplul 1: Se dă semnalul x(t) din Fig.1.3 şi se cere să se aproximeze acest semnal cu sistemul de
funcţii sin k0t

9
x(t) x(t) x(t)
1 1 1
T t t t
T/2 T/2 T/2
-1 -1 -1

Fig.1.3.

Semnalul poate fi considerat în domeniul finit It=[0,T]. Intervalul de ortogonalitate al funcţiilor sin k0t
 2  2
este  t1 , t1 +  . Luând t1=0 şi t2 = T =  că vom avea intervalul de ortogonalitate pentru
  0  0

sin k0t chiar It.


Conform definiţiei avem:
k n =  sin 2 (k0t )dt =
T T
(2.36)
0 2
cos( +  ) = cos  cos  − sin  sin   1 − cos 2
  sin  =
2

pt.  =   cos 2 = cos  − sin   cos 2 = 1 − 2 sin  


2 2 2
2
Astfel relaţia (2.36) devine:
T 1 − cos 2
T T
T 1 1 T 1 1 T
kn =  dt =  dt −  cos 2dt =  t − sin 2 =
0 2 0 2 2 0 2 0 4 0 2
x(t )* xk (t )
x(t )sin (k0t )dt
2 T
T 0
ak = =
kn
 T T 
Înlocuind x(t)=1 pentru t  0,  ; şi x(t)=-1 pentru t   , T 
 2 2 
 ak =  sin (k0t ) −  sin (k0t )dt
2 T2 2 T
T 0 T T2
− 2 cos(k0t ) − 2 cos(k0t )
T 2 T

 ak = − 
T k0 0 T k0 T 2
 T 1  T
cos(0) + cos(k0T ) −
2 1 1
ak = − cos k0  + cos k0 
2k  2  k k k  2
cos(k ) + cos(0) + cos(k 2 ) − cos(k )
1 1 1 1
ak = −
k k k k
 4
 , pentru → k = 2q + 1 − impar
 ak =  k qZ

0, pentru → k = 2q − par

Scriind expresia SFG:


N
x(t ) =  ak xk (t ) =  ak sin (k0t ) 
k k =0
N −1
2
 x(t ) =  sin (2q + 1)0t
4
q = 0 (2q + 1)

10
m −1
unde m=2q+1; q =
2
m −1
2 sin ((2q + 1)0t )
 x(t ) =
4

 q =0 2q + 1

sau pentru q=k:


m −1
2 sin ((2k + 1)0t )
 x(t ) =
4

 k =0 2k + 1
(2.37)

x1 (t ) = sin (0t )
4
În Fig.1.3 b) şi c) sunt reprezentate semnalele: respectiv

4 sin 30t sin 50t 
x2 (t ) =  sin 0t + +  . Se poate observa din Fig.1.3 că dacă vom considera un m mai
 3 5 
mare, eroarea de aproximare se reduce.
Exemplul 2: Să se găsească reprezentarea prin SFT penru semnalul din Fig.1.3.
Aplicând relaţiile corespunzatoare se găsesc:
Ck=0,  k  Z
0 pentru k = 2q - par

Sk =  4
 pentru k = 2q + 1 - impar
 k
Trecând de la indicele k la (2q+1) pentru a pune în evidenţă absenţa componentelor pare se găseşte:
4  sin (2q + 1)0t
x(t ) = 
 q =0 2q + 1
Exemplu 3: Dându-se semnalul din Fig.1.4 să se găsească reprezentarea prin SFA şi prin SFE pe
intervalul 0, T  .

x(t)
1
Fig.1.4. T t
T/2
-1

Conform Exemplului 2 aveam:


->Pentru SFT: Ck=0;
 0 pentru k − par

Sk =  4
pentru k − impar

 k


sin (2q + 1)0t
 x(t ) =
4

 q =0 2q + 1
01-Formula implementata in aplicatie pt. taskul 3

->Pentru SFA:
Sk 
Ak = Ck2 + S k2 = S k ;  k = −arctg =−
Ck 2

11
 
cos (2q + 1)0t − 

 x(t ) = 
4  2
02-Formula implementata in aplicatie pt. taskul 3
 q =0 2q + 1
->Penru SFE:

x (t ) = a e k
jk0t

k = −

Ak 
ak = ; k = −
2 2
e j (2 q +1)0t
 
2 −j
x(t ) =  e 2  
 q = − 2q + 1

Exemplu 4: Se consideră forma de undă a semnalului din Fig.1.3. Să se exprime semnalul prin SFA şi
SFE şi să se reprezinte diagramele spectrale asociate.
xp(t)
1

T0 t

T0/2

-1
Fig.1.3.

SFA şi SFE au fost calculate în Exemplul.3 pentru un semnal x(t) cu t  0, T0 . Acum, aceleaşi serii
sunt valabile şi pentru semnalul prelungit periodic xp(t), deci t  
 π

cos (2k + 1)ω0t − 
SFA: x p (t ) =  
4 2
; t 
π k =0 2k + 1
e j (2 k +1)0t
 
−j
SFE: x p (t ) =
2

e 2

k = − 2k + 1

Diagramele spectrale asociate sunt reprezentate în Fig.1.5 şi Fig.1.6.

Ak 1 φk
k
4
ω0 3ω0 5ω0 7ω0 9ω0

ω
−
ω0 3ω0 5ω0 7ω0 9ω0 ω 2

Fig.1.5.

12
ak 1
2
1  k
k

-9ω0 -7ω0-5ω0 -3ω0 -ω0 ω0 3ω0 5ω0 7ω0 9ω0 ω

Fig.1.6. φk

2

ω0 3ω0 5ω0 7ω0 9ω0


-9ω0 -7ω0 -5ω0 -3ω0 -ω0 ω
−
2
OBS: În acest exemplu s-au arătat reprezentările în timp şi în frecvenţă care ilustrează un
fapt caracteristic tuturor semnalelor periodice:
➢ Reprezentarea în timp este continuă (sau continuă pe porţiuni)
➢ iar reprezentarea în frecvenţă prin SFE şi SFA este discretă. Astfel spectrele de
amplitudini şi spectrele de faze asociate semnalelor periodice sunt discrete.
Oricare din reprezentările în timp sau în frecvenţă caracterizează în mod univoc semnalul.
Componentele din spectrul de amplitudini descresc cu mărirea ordinului k al armonicei,
tocmai datorită convergenţei seriei. Intervalul sau semiaxa ω pozitivă, în care sunt
concentrate componentele spectrale importante se numeşte „bandă de frecvenţe ocupată
de semnal” sau „bandă a frecvenţelor utile”. În tehnică, se consideră „importante”
componentele ale căror amplitudini reprezintă un anumit procent (depinzând de fineţea
prelucrării semnalului) din amplitudinea componentei fundamentale.
Se numeşte „bandă efectivă” banda de frecvenţe ocupată de componentele
importante pentru aplicaţia considerată. De exemplu, pentru o aplicaţie în care se lucrează
cu componente având Ak  0,1  A1 , semnalul din Fig.1.3 ocupă banda efectivă: Bef = 9 f 0 (Hz)
Precizarea benzii efectiv ocupată de semnal este deosebit de utilă pentru a aprecia
domeniul de frecvenţe în care aparatura/procesul trebuie să funcţioneze corect. Teorema
lui Parseval arată că pentru a determina puterea semnalului sunt necesare perechile de
Ak2
sau, în cazul SFA echivalentă cu SFE: . Rezultă că pentru
2 2
valori ak , a−k
2
caracterizarea energetică a semnalului este foarte utilă diagrama spectrală ak (k0 )
2

numită „spectrul de putere al semnalului”.

Exemplul 5: Să se reprezinte spectrul de putere al semnalului din Fig.1.3.


Din datele obţinute în Exemplul.4, avem:
2 − j  e j (2 q+1)0t

SFE: x p (t ) = e 2 
 q = − 2q + 1

13
2
 2 
 A2 k +1 =   ; k  Z
2

 (2k + 1)π 
Cu aceste valori se obţine spectrul de putere din Fig.1.6.
2
ak
4 Fig.1.6.

1 1
k k

-9ω0 -7ω0-5ω0 -3ω0 -ω0 ω0 3ω0 5ω0 7ω0 9ω0 ω


Se poate observa că reducerea componentelor este mult mai rapidă în cazul
spectrului de putere decât în cazul spectrului de amplitudini (se pot compara spectrele).
2
a a
Este normal că datorită convergenţei k  1 şi prin urmare k  1 , astfel încât banda
a k +1 ak +1
efectiv ocupată de semnal este mult mai mare decât banda spectrului de putere a
semnalului.
Dintre reprezentările semnalului în frecvenţă, spectrele de amplitudini şi de putere
prezintă o importanţă foarte mare pentru aplicaţiile tehnice. Spectrul de faze este luat în
considerare numai atunci când se lucrează cu impulsuri de amplitudine foarte scurtă (de
exemplu transmisiuni de date cu viteză foarte mare).

Exemplul 6: Să se determine SFE a semnalului periodic reprezentat prin succesiunea de impulsuri


dreptunghiulare din Fig.1.7. şi să se reprezinte spectrul de frecvenţe luând pe abscisă frecvenţa f în KHz.
Reprezentarea spectrului să se realizeze în următoarele cazuri:
a) T0 = 1ms; = 200s
b) T0 = 2ms; = 200s
c) T0 = 4ms; = 200s
xp(t)

A
τ

T0 t
Fig.1.7.
x p (t ) poate fi descris analitic pe o perioadă T0 prin semnalul x(t ) :

14
 - 
 A, pentru 2  t  2
x(t ) = 
0, pentru   t   T0 −  
 2  2
Coeficienţii ak din SFE sunt:
1 2 A 2
ak =  Ae − jk0t dt =  (cos k0t − j sin k0t )dt =
T0 − 2 T0 − 2
 2  2
A sin k0t A cos k0t 2A 
= + j = sin k0 =
T0 k0 − 2 T0 k0 − 2 k0T0 2
 
sin k0 
A  2 = A sin  k  
=  
T0  k   T0
c 0
 2
 2 
0

 
 sin k0 
A 2
Deci ak =   03-Formula implementata in aplicatie pt. taskul 3
T0  k  
 2 
0

 sin x 
Funcţia din paranteză este de forma   şi are un rol foarte important în teoria semnalelor.
 x 

Notăm sin c (x ) = sau sin a (x ) =


sin x sin x
numit „sin cordinal” sau „sin atenuat”. Reprezentarea
x x
acestei funcţii este în Fig.1.8.

sinc(x)
1

-5π -4π -3π -2π -π π 2π 3π 4π 5π x

Fig.1.8.

Trecerile prin 0 ale funcţiei se obţin pentru x = q ; q  N * . Astfel relaţia lui ak devine:
A  k    k  
ak = sin c  0  = A sin c  0 
T0  2   2 

unde  = - coeficient (factor) de umplere.
T0
Astfel SFE a semnalului considerat este:

 k  
x p (t ) = A  sin c  0 e jk0 t
k = −  2 
Din relaţia anterioară se observă că ak este real şi deci se poate obţine reprezentarea în domeniul
frecvenţă printr-o diagramă spectrală ak (k0 ) . Deoarece sin c (x ) este o funcţie pară,  ak = a− k , iar

15
2
frecvenţa de repetiţie a pulsurilor este 0 = . Astfel, spectrul de frecvenţă este o funcţie discretă şi
T0
există numai pentru  = 0,  = 0 ,  = 20 ............ Amplitudinile corespunzătoare se obţin din
relaţia anterioară:
 k  
ak = A sin c  0  pentru k = 0,1,2, ............
 2 
 k  
şi descresc după o înfăşurătoare dată de funcţia A sin c  0  . Trecerile prin zero ale acestei funcţii
 2 
apar atunci când
k  k  2q
sin c 0 = 0  0 = q sau k0 = 
2 2 
Reprezentarea spectrului în cazul general este dată în Fig.1.9. a) şi b).

A  k    k  
ak = sin c  0  = A sin c  0 
T0  2   2 

ak
a.). Aδ 2
0 =
T0

4 2 2 4 ω
− −
    [rad/s]

ak

Aδ 1
f0 =
T0
b.).

2 1 1 2 f
− −
    [Hz]
B

Fig.1.9.
Se observă că cele 2 reprezentări din Fig.1.9 a) şi b) diferă doar printr-o raportare a axei
frecvenţelor la constanta 2π, astfel încât trecerile prin 0 ale înfăşurătoarei au loc în punctele
q
kf0 =  ; q  N * , iar componentele spectrale pentru cazul b) sunt localizate în punctele:

16
1
f = 0, f 0 ,2 f 0 ...........unde f 0 =
T0
Particularizăm acum spectrul din Fig.1.9 b) pentru cele 3 cazuri din enunţ. Se poate observa că în
1 1
toate cazurile  = 200s  = = 5KHz
 2  10− 4
Astfel, în toate cazurile trecerile prin 0 ale înfăşurătorii au loc la  q  5KHz; q  N*
1
Frecvenţa fundamentală f 0 = este:
T0
 1 
Pentru cazul a.) din enunţ: 1KHz  −3 
pentru T0 = 1ms
 1 *10 
 1 
Pentru cazul b.) din enunţ: 0,5KHz  −3 
pentru T0 = 2ms
 2 *10 
 1 
Pentru cazul c.) din enunţ: 0,25KHz  −3 
pentru T0 = 4ms
 4 *10 

 1
În banda de frecvenţe  0,  = (0,5KHz ) apar 5 componente penru cazul a); 10 componente pentru
 
cazul b) şi 20 componente pentru cazul c).
Observaţie: Se poate observa că pe măsură ce perioada creşte componentele spectrale se îndesesc.
Reprezentarea grafică este prezentată în Fig.1.10..a.);b.);c.)

17
ak
a.). A/5
1

5 10
-10 -5 f
[kHz]

ak
0.5
b.). A/10

5 10
-10 -5 f
[kHz]

ak

c.). 0.25
A/20

5 10
-10 f
-5
[kHz]
Fig.1.10.

Se mai poate observa că înălţimea lobului central A care este chiar mărimea componentei a0 , scade
pe măsură ce perioada creşte cu coeficientul  = 1 5, 1 10, 1 20 .
Observaţia finală este că componentele spectrale se îndesesc pe măsură ce
perioada creşte, dar scad în amplitudine. Aceasta este o observaţie foarte
importantă pentru înţelegerea trecerii de la reprezentarea în frecvenţă a
semnalului periodic la cel neperiodic.
Banda de frecvenţă ocupată de un astfel de semnal, denumită bandă
efectivă se poate considera Be = 1 . Se poate constata că banda nu depinde de

perioadă, ci de lăţimea impulsurilor, fiind cu atât mai mare cu cât impulsurile
sunt mai înguste.

18
4. Analiza Fourier a semnalelor neperiodice. Transformata Fourier. Funcţia de
densitate spectrală

Considerăm x(t ) o funcţie ce descrie un semnal analogic şi presupunem că x(t )  L(1) .


Def.: Transformata Fourier a lui x(t ) - prin definiţie este:

X ( ) =  x(t )e− jt dt;    (1.29)
−

Putem spune că  X( )     , deoarece, prin ipoteză am considerat  x(t )dt   ,
−

iar în interiorul integralei avem x(t )e − jt


= x(t ) .
Relaţia (1.29) se notează simbolic:
X ( ) = F x(t )
Semnificaţia funcţiei X ( ) poate fi înţeleasă dacă luăm în considerare clasa
semnalelor fizice, definite pe suport mărginit, cum este semnalul din Fig.1.11 a). Acesta
poate fi considerat ca o limită a semnalului periodic x p (t ) din Fig.1.11 b) pentru T →  .
x(t) xp(t)

t
-T/2 T/2 -T/2 T/2 t
a.). b.).
Fig.1.11.

 x(t ) = lim x p (t )
T →

Reprezentarea în frecvenţă a lui x p (t ) se obţine prin diagramele spectrale asociate


coeficienţilor ak . Prin urmare, pentru a găsi reprezentarea în frecvenţă a lui x p (t ) , trebuie
considerată expresia pentru ak în cazul limită când T →  .
Conform definiţiei coeficienţii ak din SFE, avem:
1  2
ak =  x(t )e− jk0 t dt ; 0 =
T − T
şi dacă calculăm limita din ak avem: lim ak = 0 . T →

Dacă procedăm altfel şi aplicăm limita produsului (ak * T ) şi dacă evaluăm


următoarele rezultate:
T →   0 → d 
 aşa cum se poate vedea intuitiv şi din Exemplul 6, adică
 k0 →  
crescând perioada, componentele spectrale se îndesesc:
 lim ak * T  =  x(t )e− jk0t dt =  x(t )e− jt dt = X ( )
 

T → − −
(1.30)
Relaţia (1.30) este chiar relaţia (1.29) de definiţie a transformatei Fourier (pentru un
semnal neperiodic). Această relaţie justifică denumirea de „funcţie de densitate spectrală”
pentru transformata Fourier X ( ) .
La fel, funcţia (semnalul) x(t ) = Tlim
→
x p (t ) poate fi determinată prin Transformată
Fourier inversă din X ( ) .
19

x(t ) = X ( )e jt d
1
2  −
(1.31)
şi se notează simbolic x(t ) = F −1X ( ).
Relaţia (1.31) se poate stabili pe baza aceloraşi consideraţii la limită conform SFE:

x p (t ) = a e k
jk0t

k = −

Dacă T →   ... devine  ....


 k0 → 
 0 → d
X ( )  X ( )d
 lim akT = X ( )  ak = = X ( ) 0 =
T → T 2 2
Deci pentru T →  
  X ( ) jt
x(t ) = lim x p (t ) = lim a e jk 0 t
= e d (1.32)
2
k
T → T → −
k = −

Relaţia (1.32) reprezintă chiar expresia transformatei Fourier inverse.


Deoarece majoritatea semnalelor analogice satisfac condiţiile de existenţă a transormatei
Fourier, relaţiile (1.29) şi (1.31) sunt un important instrument de studiu, stabilind legătura
între cele 2 tipuri de prelucrări: în timp şi în frecvenţă.
Observatie: Din expresia pentru X ( ) rezultă că spectrul de frecvenţă al unui semnal
neperiodic este continuu. Conform relaţiei (1.32) semnalul x(t ) este constituit dintr-o sumă
infinită de exponenţiale cu amplitudinea X ( )d .
Funcţia x(t ) se numeşte funcţie original iar X ( ) funcţie imagine. Conform
teoremei lui Placherel, dacă x(t ) L(2 ) , există atât transformata Fourier directă cât şi cea
inversă şi în plus X ()  L(2)    R . Prin urmare:
F :L(2 ) → L(2 )  x(t ) → X (ω) 

 x(t )  X (ω)
F :L → L  X (ω) → x(t )
−1 (2 ) (2 )

O consecinţă importantă a acestui fapt este că se poate determina energia unui semnal prin intermediul
reprezentării în frecvenţă.
Considerăm semnalul x(t ) şi imaginea sa în frecvenţă X ( ) . Expresia energiei semnalului este:

E =  x(t ) dt = x(t ) * x* (t )
2
−

Înlocuind x(t ) prin relaţia corespunzătoare transformării Fourier şi rearanjând termenii, obţinem:
   1  
E = x(t ) * x* (t ) =  x(t )x* (t )dt =    X ( )e jt d  x* (t )dt =
−  2 − 
−
 
 
   *  
=
1
− X ( )  x ( t ) e jt
dt d =
1
 X 2 ( )d
2 −
      2 −

 = X * ( ) 

 2
1 
 E =  x(t ) dt = ( )
2 −
 d
2
X (1.33)
−

Relaţia (1.33) este cunoscută sub denumirea de „Teorema Rayleigh a energiei”.

20
Reprezentarea grafică a funcţiei X ( ) , respectiv argX ( ), constituie diagrama
spectrală echivalentă spectrului de amplitudini, respectiv spectrului de faze. Acest
grafic permite aprecierea benzii de frecvenţă ocupată de semnal.
X ( )
2

Funcţia reprezintă funcţia de densitate spectrală a energiei semnalului.


2
Graficul acestei funcţii ne informează asupra benzii energetice a semnalului, care
este intervalul în care este concentrată cea mai mare parte din energia semnalului.

5. Convoluţia semnalelor
Fie x1 (t ) şi x2 (t ) două semnale ce aparţin clasei L(2 ) .
Definiţie: Se numeşte funcţie de convoluţie (sau produs de convoluţie în timp) a
semnalelor x1 (t ) şi x2 (t ) integrala:

x(t ) =  x1 ( )x2 (t −  )d (1.34)
−

care se mai notează simbolic:


x(t ) = x1 (t )* x2 (t )
Teorema integralei de convoluţie în timp: Transformata Fourier a produsului de
convoluţie este produsul algebric al transformatelor Fourier ale semnalelor din produs.
F x1 (t ) = X 1 ( ) şi F x2 (t ) = X 2 ( )
 Fx(t ) = Fx1 (t ) * x2 (t ) = X ( ) = X 1 ( )X 2 ( ) (1.35)
Demonstraţie: Aplicând transformata Fourier produsului de convoluţie din relaţia (1.34) vom avea:
X ( ) =  x(t )e− jt dt =    x1 ( )x2 (t −  )d e− jt dt
  

− −  − 
Inversând ordinea de integrare şi apoi notând t −  =  se obţine:
X ( ) =  x1 ( )  x2 (t −  )e − jt dt d =
 

−  − 
=  x1 ( )  x2 ( )e − j e − j d d =
 

−  − 
 
 x1 ( )e − j  d  x 2 ( )e − j d = X 1 ( )X 2 ( )
− −
Din teorema integralei de convoluţie rezultă imediat că produsul de convoluţie este comutativ, adică:
 
x(t ) =  x1 (t −  )x2 ( )d =  x1 ( )x2 (t −  )d = X 1 ( )X 2 ( ) =
− −

= X 2 ( )X 1 ( ) (1.36)
Tot din teorema integralei de convoluţie avem:
 X ( ) 
F x1 (t ) * x2 (t ) = X ( ) = X 1 ( )X 2 ( ) = ( j  X 1 ( )) 2 
 j 
ceea ce este echivalent cu:
x(t ) = x1 (t ) *  x2 ( )d  =  x1 ( )d  * x2 (t )
t t

 −   − 
Generalizând operaţiile de derivare şi integrare, rezultă că:

  
x1 (t ) * x2 (t ) = x1(− n ) (t ) * x2(n ) (t ) (1.37)

unde indicele negativ „-n” reprezintă integrarea.

21
Produsul de convoluţie în frecvenţă, în raport cu funcţia de densitate spectrală X 1 ( )
şi X 2 ( ) se defineşte prin integrala:

X ( ) =  X 1 ( )X 2 ( −  )d (1.38)
−

sau X ( ) = X 1 ( )* X 2 ( )
Teorema integralei de convoluţie în frecvenţă se enunţă analog cu cea din
domeniul timp:
F −1X 1 ( ) * X 2 ( ) = 2  x1 (t )x2 (t ) (1.39)
Demonstraţia este analogă cu cea anterioară şi evident proprietăţile de
comutativitate, integrare şi derivare acţionează la fel şi asupra produsului de convoluţie în
frecvenţă.
Dacă realizarea produsului de convoluţie se face grafic, prin reprezentarea
semnalelor corespunzătoare, se poate constata că limitele de integrare a,b ale integralei de
convoluţie x(t ) = a x1 ( )x2 (t −  )d depind de suportul semnalelor x1 (t ) şi x2 (t ) .
b

Vom numi semnale cauzale semnalele nule pentru t  0 . În ipoteza că semnalele


noncauzale sunt nenule  t  R , limitele a şi b iau următoarele valori:
x1 (t ) =cauzal x2 (t ) =noncauzal  a=0, b= 
x2 (t ) =cauzal x1 (t ) =noncauzal  a=-  , b=t
x1 (t ) =cauzal x2 (t ) =cauzal  a=0, b=t

OBS: Produsul de convoluţie este extrem de util în analiza şi sinteza circuitelor şi


sistemelor liniare, iar convoluţia cu distribuţiile  (t ) şi u (t ) conduc la rezultate
interesante şi utile pentru studiul semnalelor şi sistemelor.

6. Reprezentarea semnalelor prin transformata Laplace

Transformata Fourier poate fi privită ca o reprezentare a unui semnal x(t )  X ( )


printr-o sumă infinită de (semnale elementare) exponenţiale e jt ponderate astfel:

x(t ) = X ( )e jt d
1
2  −

iar densitatea spectrală: X ( ) = − x(t )e− jt dt - ca o funcţie de variabilă imaginară jω.
Prin generalizarea variabilei imaginare şi trecând de la j la variabila complexă
s =  + j , se obţine un model mai general de reprezentare a semnalelor prin transformata
Laplace.

Transformata Laplace bilaterală

Definiţie: Se numeşte Transformata Laplace bilaterală a unui semnal analogic x(t )


integrala:

X (s ) =  x(t )e − st dt ; s  C (1.40)
−

Funcţia X (s) există dacă este îndeplinită condiţia:



 x(t ) e
− *t
dt   (1.41)
−
22
care asigură convergenţa relaţiei (1.40).
Simbolic se notează X (s ) = LB x(t ); şi X (s) este cunoscută şi sub denumirea de
Transformata Fourier complexă.
Variabila complexă s =  + j poartă denumirea de frecvenţă complexă şi joacă
un rol foarte important în analiza şi sinteza circuitelor şi sistemelor liniare.
Funcţia x(t ) poate fi determinat prin Transformarea Laplace bilaterală inversă:
1  + j
x(t ) = X (s )e st ds
2j  − j
(1.42)

În relaţia (1.42), partea reală a frecvenței “  ” (numit și factor de convergenţă) se alege


astfel încât integrala în raport cu variabila complexă (frecvența complexă) „s” să fie
convergentă.
Transformarea (1.42) se notează simbolic astfel: x(t ) = L−B1X (s )
Transformata Laplace din relaţia (1.40) rezultă imediat prin generalizarea transformatei
Fourier, luând s = j . Pentru a obţine prin generalizarea transformării F −1  transformarea
L−B1 se consideră semnalul:
q(t ) = x(t )e −t (1.43)
şi transformata Fourier a acestuia este:

F q(t ) =  x(t )e−( + j )t dt = X ( + j ) (1.44)
−

Se poate vedea aici că x(t ) poate să nu posede transformata Fourier, în timp ce


F q(t ) poate să existe.
Deci q(t ) = F −1X ( + j )

 q(t ) = X ( + j )e jt d = x (t )e −t
1
2 −


 x (t ) = X ( + j )e ( + j )t d
1
2 −

Făcând schimbarea de variabilă s =  + j  ds = jd


1  + j
 x(t ) = X (s )e st ds  care este tocmai transformata Laplace inversă.
2j  − j
Practic, existenţa transformatei Laplace bilaterală inversă este asigurată dacă există o
constantă M reală şi finită astfel încât pentru valorile  ,   R,    să avem:
 Me t pentru t  0
x (t ) =   t (1.45)
Me pentru t  0
În acest caz, condiţia de convergenţă este îndeplinită în domeniul din planul variabilei “s”
pentru      ca în Fig.1.12.

23

t<0 t>0

α β
σ

Fig.1.12.

Conform figurii anterioare, domeniul de convergenţă este cel cu haşurare dublă.


Considerând:

X (s ) =  x(t )e − st dt +  x(t )e − st dt
0

− 0

 X (s )   Me(  − s )t dt +  Me( − s )t dt
0

− 0

 1 (  − s )t 1 ( − s )t  
 X (s )  M 
0
e + e 
 − s −  −s 0

Evident, prima integrală există pentru Res =    şi corespunzător pentru t  0 . A 2-a


integrală există pentru    pentru t  0 . Astfel, pentru t  0 rezultă o convergenţă la
stânga, iar pentru t  0 o convergenţă la dreapta. Practic corespondenţa x(t )  X (s ) este
asigurată pentru orice σ situat în domeniul dublu haşurat. Domeniul definit de relaţia
     reprezintă domeniul de convergenţă al transformatei Laplace bilaterale. Din
Fig.1.12  că numai atunci când domeniul de convergenţă include şi axa imaginară, x(t )
posedă şi transformată Fourier X ( ) . De aici se poate obţine concluzia că transformata
Laplace este o transformare mai generală decât transformata Fourier.

Transformata Laplace unilaterală

În practică, Transformarea Laplace este utilizată în analiza sistemelor/proceselor


raportate la un regim staţionar. În astfel de probleme, semnalul de excitaţie este cauzal
( x(t ) = 0 pentru t  0 ) şi se utilizează transformarea Laplace specializată pentru semnale
cauzale, numită Transformata Laplace unilaterală, definită şi notată astfel:

Lx(t ) = X (s ) =  x(t )e − st dt (1.46)
0
1  + j
L−1X (s ) =  X (s )e st ds = x(t )
2j  − j

Prima integrală reprezintă Transformata Laplace directă, numită şi funcţie imagine,


iar cea de a doua, Transformata Laplace inversă, numită funcţie original x(t ) .
Trebuie menţionat că în prima integrală, limita inferioară este 0− , adică se ţine
seama de eventualele impulsuri Dirac, corespunzătoare unor discontinuităţi ale semnalelor
ce pot să apară în t = 0 .
24
Transformata Laplace unilaterală este unică şi există dacă se îndeplineşte condiţia
următoare pentru semnale cauzale:

0 x(t )e dt  
−t
(1.47)
Această condiţie este îndeplinită dacă există constantele finite M ,  T+ astfel încât:
x(t )  Me−t , t  R
Aşa cum s-a arătat la Transformata Laplace bilaterală se asigură o convergenţă la
dreapta în domeniul    .
Transformatele integrale Laplace şi Fourier pot fi ierarhizate conform domeniilor de
aplicabilitate ca în figura de mai jos:
• Transformarea Fourier
⎯ X ( ) = F x(t ) pe axa s = j
⎯ x(t ) L(1) şi există în t  R
⎯ aplicaţii în analize spectrale
• Transformarea Laplace bilaterală
⎯ X (s ) = LB x(t ) în s =  + j
⎯ x(t ) definit în t  R
• Transformarea Laplace unilaterală
⎯ X (s ) = Lx(t ) în s =  + j
⎯ x(t ) cauzal în t  R+
⎯ aplicaţii în analiza şi sinteza sistemelor şi circuitelor liniare

Proprietăţile Transformatei Laplace:

1.Liniaritate
 
L ak xk (t ) =  ak X k (s )
k  k
2.Derivarea în funcţie de timp:
 dx(t )
L  = sX (s ) − x 0

( )
 dt 
3.Integrarea în funcţie de timp:

L  x( )d =
t

0
 X (s ) x(−1) 0−
s

s
( )
4.Derivarea în funcţie de frecvenţă:
 dX (s ) 
L−1   = −tx (t )
 ds 
5.Integrarea în funcţie de frecvenţă:

L−1  X ( )d =
s

0
 x(t )
t
6.Modificarea scărilor de reprezentare:
1 s
Lx(at ) = X 
a a

25
7.Deplasarea în timp:
Lx(t − t0 ) = X (s )e−st0
8.Deplasare în frecvenţă:
L−1X (s − s0 ) = x(t )e st0
9.Convoluţie în timp:
Lx1 (t )* x2 (t ) = X1 (s )X 2 (s )
10.Convoluţie în frecvenţă:
L−1X1 (s )* X 2 (s ) = 2jx1 (t )x2 (t )
În numeroase aplicaţii este necesar să se determine valoarea iniţială x(0+ ) şi valoarea
finală x( ) a semnalului. Aceste valori pot fi determinate din X (s) , chiar dacă expresia
semnalului în funcţie de timp, x(t ) nu este cunoscută.

Determinarea valorii iniţiale:

Fie x(t ) şi x(t ) un semnal şi derivata sa, care admit transformate Laplace. Conform
proprietăţilor de derivare în raport cu timpul avem:
Lx(t ) =  x(t )e − st dt = sX (s ) − x(0− )

0 −
(1.48)
În cazul general, în t = 0 poate să apară o discontinuitate astfel:

x(0) = x(0+ ) − x(0− ) u(t ) 
care pentru x(t ) conduce în t = 0 la:
 ( ) ( )
x(0) = x 0+ − x 0−  (t )
Relaţia (1.48) devine:

0
+
0
0+

 ( ) ( )
 − x(t )e dt =  − x 0 − x 0  (t )e dt +  + x(t )e dt =
− st − st − st

( ) ( ) 
= x 0+ − x 0− +  + x(t )e − st dt = sX (s ) − x 0−
0
( ) (1.49)
 x(0 ) +  x(t )e

+ − st
dt = sX (s )
0+

În relaţia (1.49) făcând s →  , integrala se anulează şi se obţine:


( )
x 0+ = lim sX (s )
s→
(1.50)

Relaţia (1.50) este cunoscută ca Teorema valorii iniţiale.

Determinarea valorii finale:

Se consideră x(t ) şi x(t ) semnale ce admit transformate Laplace. Conform


demonstraţiei precedente, pornin de la relaţia (1.49)
( ) 
x 0+ +  + x(t )e −st dt = sX (s )
0

şi făcând s → 0 vom avea:


( )
x 0+ + x(t ) 0 + = lim sX (s )

s →0

 x(0 ) + x( ) − x(0 ) = lim sX (s )


+ +
(1.51)
s →0

 x( ) = lim sX (s )
s →0

26
Relaţia (1.51) reprezintă Teorema valorii finale.

7.Sisteme diferenţiale liniare invariabile în timp(SLIT)

Sistemele Diferenţiale Liniare Invariabile în Timp (SLIT) sunt cele mai amănunţit
studiate sisteme în teoria sistemelor, în primul rând, datorită facilităţilor de dezvoltare şi
aplicare a aparatului matematic.
Deşi în lumea reală, majoritatea sistemelor sunt neliniare, comportarea acestora, în
anumite condiţii (de exemplu, în jurul unui punct staţionar de funcţionare, sau pentru
perturbaţii mici), poate fi descrisă suficient de bine prin sisteme liniare. În plus, sistemele
SLIT beneficiază pentru studiu de un instrument matematic puternic cum este
transformarea Laplace, care transformă operaţiile complicate de analiză şi sinteză,
descrise prin ecuaţii diferenţiale, în operaţii algebrice simple efectuate în domeniul
complex.
Totuşi, o serie de proprietăţi (controlabilitate, observabilitate, optimalitate), chiar şi
pentru sisteme SLIT, sunt mai bine reprezentate în domeniul timp prin ecuaţii de stare şi
mai uşor de exploatat în practică prin metode şi tehnici implementate pe calculatoare
numerice.

Descrierea intrare-ieşire a SLIT


Considerăm un sistem invariant în timp cu o singura intrare şi o singură
ieşire(numite şi sisteme monovariabile). Sistemul abstract(black-box) corespunzător se
poate exprima fie printr-o relaţie intrare-ieşire, fie sub forma unei ecuaţii diferenţiale, sau
prin ecuaţii de stare. Cele 2 forme depind de aspectul fizic, de cunoştiinţele noastre despre
sistemul fizic, de gradul de calificare şi de abilitatea noastră de a-i deduce modelul
matematic corespunzător.
Relaţia intrare-ieşire exprimată prin ecuaţia diferenţială liniară cu coeficienţi
constanţi de ordinul n este:
n m

 ak y (k ) (t ) =  bk u (k ) (t ), cu an  0
k =0 k =0
(1.52)
d k y (t ) d k u (t )
unde s-a notat: y (t ) =
(k )
şi u (t ) =
(k )

dt k dt k
Ordinul maxim al derivatei ieşirii y(t) va determina şi ordinul sistemului. În funcţie de
raportul dintre m şi n se deosebesc următoarele tipuri de sisteme:
1.Dacă m<n : sistemul se numeste strict propriu(cauzal)
2.Dacă m=n : sistemul se numeste propriu
3.Dacă m>n : sistemul se numeste impropriu(necauzal)- apare efectul
înaintea cauzei
Sistemele improprii sunt fizic nerealizabile şi ele pot reprezenta o comportare
matematică ideală, anticipativă, dorită, a unor obiecte fizice, însă fără a putea fi obţinută în
timp real.
Relaţia (1.52) poate fi uşor exprimată în domeniul complex, aplicând acesteia
transformata Laplace. Reamintim mai întâi o proprietate bazată pe o proprietate
transformatei Laplace:

27
k −1
L{ y ( k ) (t )} = s k Y ( s ) −  y ( k −i −1) (0+ )  s i ; k  1 (1.53)
i =0
k −1
L{u ( k ) (t )} = s kU ( s) − U ( k −i −1) (0 + )  s i ; k  1 (1.54)
i =0

unde s-a notat Y ( s) = L{ y(t )} şi U ( s) = L{u(t )} , adică transformata Laplace a mărimii de


ieşire y(t) şi a mărimii de intrare u(t), iar abscisele de convergenţă nu sunt definite, în acest
moment al prezentării.
Se face menţiunea că în relaţiile (1.53) şi (1.54) condiţiile iniţiale sunt definite ca
limite la dreapta y ( k −i −1) (0+ ) şi u ( k −i −1) (0+ ) , adică, practic, momentul de când începe
observarea este 0+.
Prin aplicarea transformatei Laplace relaţiei (1.52) se obţine următoarea formă:

 n  n
 k −1   m  m
 k −1 
  ak s k Y ( s) −  ak  y ( k −i −1) (0) s i  =   bk s k U ( s) −  bk  u ( k −i −1) (0) s i  (1.55)
 k =0  k =1  i =0   k =0  k =1  i =0 

Unde Y(s) se poate deduce sub forma:

 n   m 
  ak s k Y ( s) =   bk s k U ( s) + I ( s) (1.56)
 k =0   k =0 

Relație care poate fi scrisa sub forma:


 m 
  bk s k 
Y ( s) =  k n= 0  U ( s) + I ( s) (1.57)
   n 
  ak s k    ak s k 
 k =0   k =0 
adică:
M ( s) I ( s)
Y ( s) = U ( s) +
L( s ) L( s )
 
Y f (s) Yl ( s )

 Y ( s) = Y f ( s) + Yl ( s) (1.58)

unde s-a notat:


m
M ( s ) =  bk s k = bm s m + bm −1s m −1 + .... + b1s1 + b0 s 0
k =0
n
L( s ) =  ak s k = an s n + an −1s n −1 + .... + a1s1 + a0 s 0 (2.81)
k =0
n
 k −1  m  k −1 
I ( s ) =  ak  y ( k − i −1) (0) s i  −  bk  u ( k − i −1) (0) s i 
k =1  i =0  k =1  i = 0 

Din relaţia (1.58) se poate observa că ieşirea apare descompusă ca suma a 2 componente:
➢ Y f (s) numită componenta forţată a răspunsului, determinată numai de mărimea de
intrare;

28
➢ Yl (s) numită componenta liberă a răspunsului, determinată numai de condiţiile
iniţiale.
Dacă condiţiile iniţiale sunt nule, atunci termenul I ( s) = 0 şi răspunsul sistemului
rămâne sub forma: Y ( s) = Y f ( s) .
Dacă intrarea u(t )  0, pentru orice t  0 , atunci din relaţia (2.80) U ( s) = 0 şi
răspunsul sistemului devine Y ( s) = Yl ( s) . Aceste relaţii exprimă proprietatea de
decompoziţie (efectul final este un cumul de efecte datorate unor cauze diferite ce
acţionează asupra sistemului) şi orice sistem liniar prezintă prin definiţie proprietatea de
decompozitie.
Răspunsul forţat Y f (s) exprimă comportarea intrare-ieşire a sistemului (răspunsul
intrare-ieşire) care nu depinde de starea sistemului (deoarece se presupune că starea în care
se afla este “0”) sau de modul cum este organizată descrierea internă a sistemului.
Răspunsul liber Yl (s) exprimă comportarea stare_iniţială-ieşire a sistemului
(răspunsul stare_iniţială-ieşire) care nu depinde de intrare (deoarece se presupune că
aceasta are valoarea “0”), dar depinde de modul cum este organizată descrierea internă a
sistemului(cum este definită starea sistemului).
Putem defini acum o noţiune care este foarte importantă, şi anume noţiunea de
funcţie de transfer:
Definiţie: Funcţia de transfer a unui sistem, notată cu H(s), este raportul dintre
transformata Laplace a mărimii de ieşire şi transformata Laplace a mărimii de intrare
care a determinat acea ieşire, în condiţii iniţiale nule(c.i.n.), dacă acest raport se
păstrează pentru orice variaţie a intrării:
Ly (t ) Y ( s)
H ( s) = = ; acelaşi pentru orice U(s) (2.82)
Lu(t ) c.i.n. U ( s ) c.i .n.
Din relaţia (2.80) se poate observa că în cazul sistemelor SLIT, funcţia de transfer este
întotdeauna o funcţie raţională(raportul a 2 polinoame):
M ( s) bm s m + bm −1s m −1 + .... + b1s1 + b0
H ( s) = = (2.83)
L( s) an s n + an −1s n −1 + .... + a1s1 + a0
Dacă polinoamele M(s) şi L(s) nu au factori comuni(sunt polinoame coprime)
raportul acestora exprimă o aşa-numită funcţie de transfer nominală sau funcţia de
transfer în formă redusă.
OBSERVAŢIE: Funcţia de transfer exprimă numai comportarea intrare-ieşire a sistemului
sau răspunsul forţat, adică răspunsul sistemului în condiţii iniţiale nule.
Ordinul unui sistem se exprima prin gradul polinomului de la numitorul funcţiei de
transfer, adică n = gradL(s)

Conceptul de stare. Descrierea SLIT în spaţiul stărilor

Pentru a determina ieşirea (efectul), în mod univoc, pe lângă mărimile de intrare


(cauză) trebuie cunoscute o serie de condiţii iniţiale. Toate aceste informaţii definesc
starea sistemului în momentul din care intrarea va afecta ieşirea.

29
Prin starea unui sistem, la un moment de timp, se înţelege mulţimea informaţiilor
suplimentare necesare pentru ca, fiind cunoscută intrarea din acel moment, să se poată
determina în mod univoc ieşirea.
Starea unui sistem abstract este o colecţie de elemente care, împreună cu intrarea
u(t ) pentru orice t  t0 , determină univoc ieşirea y (t ) .
Starea sistemului, la un moment dat de timp, înglobează toată informaţia esenţială
din evoluţia anterioară a sistemului.
O variabilă de stare, notată cu x(t ) , este o funcţie de timp ale cărei valori, la orice
moment de timp precizat, reprezintă starea sistemului la acel moment. Reprezentarea de
stare nu este unică şi pot exista numeroase posibilităţi de a exprima relaţiile de legătură
dintre ieşire şi intrare. Numărul minim de elemente ale vectorului de stare pentru care
ieşirea poate fi univoc determinată, atunci când se cunoaşte intrarea, reprezintă ordinul
sistemului.
Dacă într-un sistem există stări echivalente înseamnă că sistemul, respectiv vectorul
de stare, nu este în forma redusă, adică are o dimensiune mai mare decât este necesar
pentru a determina univoc ieşirea, când se cunoaşte intrarea.
Sistemul abstract asociat unui obiect orientat poate fi direct determinat, folosind
diferite metode, sub forma ecuaţiilor de stare, cu următoarea formă matriceal-vectorială:
 x (t ) = Ax (t ) + Bu (t )
 (2.84)
 y (t ) = C x(t ) + Du(t )
T

unde dimensiunile şi numele matricelor sunt:


xn1 -este vectorul(coloană) de stare x = x1 , x2 , .... xn 
T

Ann -matricea sistemului


Bn1 -este vectorul(coloană) de comandă
Cn1 -este vectorul(coloană) de ieşire
D11 -coeficientul conexiunii directe intrare-ieşire
Prima ecuaţie din relaţia (2.84) se numeste ecuatia de stare propriu-zisă, iar a doua
ecuaţie se numeste ecuaţia ieşirii.
OBS:Descrierea prin ecuaţii de stare exprimă totul despre comportarea sistemului: atât
comportarea internă (răspunsul liber) cât şi comportarea externă (răspunsul forţat).
Unui sistem de ordin n descris prin n ecuaţii de stare ca în relaţia (2.84) i se poate
ataşa în mod univoc o singură funcţie de transfer, astfel:
 x (t ) = Ax (t ) + Bu (t )  sX (s ) = AX (s ) + BU (s )
prin transformata Laplace

  
 y (t ) = C x (t ) + Du(t ) Y (s ) = C X (s ) + DU (s )
T T

sX (s ) − AX (s ) = BU (s ) ( sI − A) X (s ) = BU (s )  X (s ) = ( sI − A) −1 BU (s )
   
Y (s ) = C X (s ) + DU (s ) Y (s ) = C X (s ) + DU (s ) Y (s ) = C X (s ) + DU (s )
T T T

 X (s ) = ( sI − A) −1 BU (s )  X (s ) = ( sI − A) −1 BU (s )
 
Y (s ) = C ( sI − A) BU (s ) + DU (s ) Y (s ) = (C ( sI − A) B + D)U (s )
T −1 T −1

 X (s ) = ( sI − A) −1 BU (s )

Y (s ) = H ( s )U (s )
unde H ( s) = C T ( sI − A) −1 B + D = C T (s )B + D (2.85)
iar (s ) = ( sI − A) −1 - se numeste matricea de tranzitie a starilor

30
Altfel, unui sistem descris prin funcţia de transfer H (s) de ordin n i se pot asocia o
infinitate de descrieri prin ecuaţii de stare de forma (2.84). Procedura de trecere de la
funcţia de transfer la ecuaţii de stare se numeste realizarea sistemului prin ecuaţii de
stare.
M ( s)
Cunoscând funcţia de transfer a unui sistem H ( s) = , pot fi obţinute mai multe
L( s )
forme pentru ecuaţiile de stare(care evident sunt echivalente), adică avem mai multe
realizări ale sistemului prin ecuaţii de stare, astfel:
 x (t ) = Ax (t ) + Bu (t ) xˆ (t ) = Axˆ (t ) + Bu(t )
ˆ ˆ
S: şi Sˆ : 
 y (t ) = C x (t ) + Du(t )  y (t ) = C x (t ) + Du(t )
 ˆT ˆ
T

Fiecare realizare poate conduce la câte o funcţie de transfer, funcţii care vor trebui să fie
identice:
H ( s) = C T ( sI − A) −1 B + D = C T (s )B + D
şi Hˆ ( s) = Cˆ T ( sI − Aˆ ) −1 Bˆ + Dˆ = Cˆ T ˆ (s )Bˆ + Dˆ
O condiţie ca cele două realizări să fie echivalente este, dacă există o matrice
T(nesingulară, adică det(T )  0 ) astfel încât Xˆ = TX , să avem
Aˆ = TAT −1 , Bˆ = TB, Cˆ T = C T T −1 , Dˆ = D . În aceste condiţii Hˆ ( s)  H ( s) , adică:
Hˆ ( s) = Cˆ T ( sI − Aˆ ) −1 Bˆ + Dˆ = C T T −1 ( sI − TAT −1 ) −1 TB + D = C T T −1T ( sI − A) −1 T −1TB + D =
= C T ( sI − A) −1 B + D = H ( s )
Practic, matricea T se comportă asemănător cu o matrice de scalare şi astfel obţinem
mai multe realizări de stare pentru aceeaşi relaţie intrare-ieşire H(s).

8.Noţiuni de stabilitate a sistemelor liniare

Evoluţia şi performanţele unui sistem de reglare automată se definesc pentru 2


regimuri de funcţionare:
-regimul staţionar caracterizat de y = f (u) Fig.2.14.,a.
-regimul dinamic caracterizat de y = y(t ), u = u(t ) , sau mai precis y = f (u(t ), t )
Fig.2.14.,b.
Practic, regimul staţionar este format din locul geometric al punctelor (ust , y st ) ,
caracterizate de valorile mărimilor de intrare şi ieşire definite sub forma:
ust = lim (u(t )) şi y st = lim ( y (t ))
t → t →

Se poate observa că pe caracteristica statică nu apare parametrul timp, şi aceasta pune în


evidenţă legătura directă a domeniului mărimii de intrare 0%...100% cu domeniul mărimii
de ieşire 0%...100% al sistemului. Punctele de pe caracteristica statică definesc punctele
staţionare de funcţionare.

31
y[%] u,y

100% ust_2
Pst_2
yst_2
yst_2

Pst_1 ust_1
yst_1 yst_1

0% ust_1 ust_2 t
100% u[%]
Regim tranzitoriu
Zona Zona Zona
de inertie la aproximativ de saturatie b.).caracteristica dinamică
limita liniara la limita
inferioara superioara
a a
domeniului domeniului
Fig.2.14.
a.).caracteristica statică
Caracteristica dinamică reprezintă evoluţiile intrărilor şi ieşirilor în funcţie de parametrul
timp. Astfel, se poate vedea regimul tranzitoriu atunci când sistemul trece dintr-un punct
staţionar Pst _1 (caracterizat de perechea (ust _1 , yst _1 )) în alt punct staţionar Pst _ 2 (caracterizat de
perechea (ust _ 2 , yst _ 2 ) ).
Astfel, un sistem de reglare trebuie proiectat să gestioneze atât regimul staţionar cât şi
regimul dinamic caracterizat în primul rând prin regimul tranzitoriu.
În acest context, conform definiţiei, funcţia de transfer a unui sistem, notată cu
H (s) , este raportul dintre transformata Laplace a mărimii de ieşire şi transformata Laplace
a mărimii de intrare care a determinat acea ieşire, în condiţii iniţiale nule(c.i.n.), dacă acest
raport se păstrează pentru orice variaţie a intrării:
Ly (t ) Y ( s)
H ( s) = = ; acelaşi pentru orice U (s)
Lu(t ) c.i.n. U ( s ) c.i .n.
Deoarece pentru semnalele din lumea reală y(t ), u(t ) NU SE POT DEFINI condiţii
iniţiale nule, ar părea că toată Teoria Sistemelor Liniare este inutilă. Totodată, toate
procesele reale sunt prin excelenţă neliniare. Totuşi, structurile de reglare proiectate pe
baza acestor dezvoltări teoretice funcţionează cu succes de ceva zeci de ani. Explicaţia este
dată de faptul că, în structurile reale de reglare şi control se lucrează în jurul unui punct
staţionar de funcţionare. Deoarece un punct staţionar de funcţionare este şi un punct de
echilibru pentru procesul respectiv, este normal ca modelul matematic liniarizat în jurul
acestui punct (folosit în proiectare) converge către acest punct şi tot către acest punct
converge şi procesul real.
Astfel, în proiectarea structurilor reale se alege un punct staţionar de funcţionare şi
presupunem că sistemul variază în jurul acestui punct, ca în Fig.2.15

32
y[%]

100%
Fig.2.15.
+Δy Yst Pst

-Δy

Ust
0% 100% u[%]
-Δu +Δu

y(t ) = Y0 + y(t ) , u(t ) = U 0 + u(t )


Ly (t ) Y ( s )
H ( s) = =
Lu(t ) c.i.n. U ( s ) c.i.n.
Concluzia finală este că proiectarea unui algoritm de reglare/conducere pe baza
principiilor dezvoltate de Teoria Sistemelor Liniare are o valabilitate relativ restrânsă în
jurul unui punct staţionar de funcţionare al procesului respectiv.
Depărtarea evoluţiei procesului de acest punct staţionar conduce la
neconcordanţa algoritmului proiectat cu procesul, cu efecte dure în nerespectarea
performanţelor dorite, mergând până la instabilitate.
Actual, se încearcă proiectarea unor algoritmi de reglare/control neliniari, ceea
ce conduce în primul rând la mărirea domeniului de funcţionare din jurul unui punct
staţionar şi creşterea performanţelor de reglare.

Legat de cele două regimuri de funcţionare (staţionar şi tranzitoriu), noţiunea de


stabilitate exprimă proprietatea sistemului de a restabili prin acţiunea sa un nou regim
staţionar atunci când a fost scos dintr-un regim staţionat anterior, din cauza variaţiei
mărimii de intrare sau a perturbaţiei.
Analiza stabilităţii trebuie făcută luând în considerare efectul mărimilor de intrare
(comenzi sau perturbaţii) sau efectul perturbaţiilor interne (condiţii iniţiale). Prin urmare
stabilitatea se poate defini separat, în raport cu mărimile de intrare (stabilitatea externă) şi
în raport cu condiţiile iniţiale (stabilitatea internă).
În raport cu mărimile de intrare, stabilitatea se defineşte ca fiind proprietatea
sistemului ca la acţiuni exterioare mărginite să le corespundă mărimi de ieşire mărginite.

Există mai multe definitii pentru stabilitatea sistemelor:

Stabilitate externă: este aşa-numita stabilitate intrare mărginită<==>ieşire


mărginită(BIBO-Bounded Input<==>Bounded Output), care se traduce prin faptul că dacă
intrarea este mărginită şi ieşirea este mărginită. În plus, un sistem este “asimptotic” stabil
dacă este cu intrare mărginită-ieşire mărginită şi ieşirea tinde către o valoare staţionară
constantă. Se poate spune astfel că sistemul este stabil dacă dispare componenta tranzitorie
a răspunsului şi în final se va instala doar regimul permanent(staţionar).

33
Pentru sistemele liniare invariabile în timp, stabilitatea externă este determinată de
polii funcţiei de transfer:
M ( s)
H (s) =
L( s )
adică de rădăcinile numitorului L( s) = 0  s = i rădăcini care trebuie să fie situate în
semiplanul stâng al planului complex, adică Re(i )  0 .

Stabilitate internă: această definiţie ia în considerare răspunsul tranzitoriu în raport cu


componentele vectorului de stare, şi astfel studiul stabilităţii interne necesită descrierea
prin ecuaţii de stare.
Stabilitatea internă a unui sistem, exprimat prin ecuaţiile de stare, este determinată
de valorile proprii ale matricii sistemului A, adică de rădăcinile polinomului caracteristic:
( s) = det(sI − A) = 0  s = i rădăcini care trebuie să fie situate în semiplanul
stâng al planului complex Re(i )  0 .

Observaţie:Un sistem intern stabil este şi extern stabil, dar un sistem extern stabil poate
să nu fie intern stabil. Dacă sistemul este complet observabil şi controlabil, cele 2 tipuri
de stabilitate internă/externă sunt echivalente.

34

S-ar putea să vă placă și