Documente Academic
Documente Profesional
Documente Cultură
x(t ) dt = M
t1
sau
x(t ) dt =
2
t1
Toate semnalele fizice/reale sunt măsurabile, adică x(t ) L(1) şi în plus sunt şi de
energie finită adică x(t ) L(2 ) .
Se ştie că funcţiile care satisfac relaţiile de mai sus, pot fi reprezentate exact prin
Seria Fourier generalizată :
x(t ) = ak xk (t ) (1.1)
k
în care xk (t ) : → C ; xk (t ) L(2 ) – este o funcţie dintr-un sistem de N funcţii M x = xk (t ),
ortogonale în intervalul de timp t I t = [t1 , t2 ] şi totodată sistemul M x este și total.
Condiţia de ortogonabilitate a unei perechi de funcții x n (t ) x m (t ) din M x este ca următorul produs
scalar să fie:
0, dacă n m
xn (t ), xm* (t ) = pentru t I t (1.2)
k n , dacă n = m
ceea ce implică faptul că xn (t ) ⊥ xm (t ) , adică semnalele sunt ortogonale.
t2
xn (t ) .
1
Condiţia de sistem total pentru sistemul M x este îndeplinită dacă include TOATE funcţiile ce formează
perechi ortogonale între ele. Atunci când kn = 1 pentru toate funcţiile xn (t ) , M x se spune că este un
sistem ortonormal.
x (t )
Orice sistem ortogonal, xk (t ) poate fi transformat într-un sistem ortonormal prin n .
k n
Astfel, de exemplu, sistemul de funcţii sinus, Ssin(k0t ) este ortogonal în I t = (t1 , t1 + T0 ) ,
2
T0 = având pătratul normei:
0
t1 +T0
T0
kn =
t1
sin 2 (n0t )dt =
2
2
Sistemul S1 = sin k 0 t este ortonormal în t (t1 , t1 + T0 ) . Sistemele S şi S1 nu sunt nişte
T0
sisteme totale, deoarece există funcţiile cos k0t ⊥ sin k0t în acelaşi interval I t .
Coeficienţii ak din relaţia (1.1) se numesc coeficienţii seriei Fourier generalizate sau
amplitudinile SFG.
Se poate demonstra că în reprezentarea cu SFG, având sistemul de funcții Mx
ortonormal, avem:
ak = x(t ) * xk* (t ) (1.3)
iar pentru un sistem cu Mx pentru care k n 1 :
x(t ) * xk* (t )
ak = ; t t1 , t1 + T (1.4)
xk (t ) * xk* (t )
Dacă în suma (1.1) se consideră un număr mai mic de termeni m<N , atunci se
obţine o aproximare a semnalului x(t ) , cu o anumită eroare medie pătratică minimă. Se
spune că sumele parţiale ale SFG converg „în medie” către x(t ) .
Putem ilustra această convergenţă în medie pentru M x = xk (t ) ortonormal şi
xk (t ) .
Expresia de calcul pentru ak se obţine minimizând eroarea pătratică medie care
apare, dacă în reprezentarea semnalului x(t ) cu SFG se iau în considerare numai primii m
termeni, cu m<N.
Definim eroarea între semnalul real și aproximarea acestuia, prin relaţia:
m
= x(t ) − a k xk (t ) (1.5)
k =1
2
m
e. p.m : =
1
( ) ak xk (t ) dt
t2
t 2 − t1 t1
x t −
k =1
(1.6)
2 m m
1
( ) ( ) ( ) ak2 xk2 (t )dt
t2
=
t 2 − t1
t1
x t − 2
k =1
a k x t x k t +
k =1
(1.7)
În expresia (1.7) s-a ţinut cont că prin ridicarea la pătrat a celui de-al 2-lea termen
din paranteza de sub integrală din relaţia (1.6) apar produse scalare de tipul:
xk (t ) * xm (t ) = 0 pentru k m
Pentru a obţine e.p.m. minimă se pune condiţia de minim:
2
= 0 ; k = 1, m (1.8)
ak
care aplicată relaţiei (1.7) conduce la ecuaţia:
2a x (t ) − x(t )x (t )dt = 0
1 t2
2
t2 − t1
k k k
t1
xk2 (t )dt = 1
t2
Ţinând seama că sistemul este ortonormal, avem:
t1
=1
t 2 − t1 t1
ak −
t1
(1.9)
Dacă Mx nu este ortonormal t xk2 (t )dt = kn şi relaţia (1.9) devine:
t2
Din aceste relaţii se poate constata convergenţa în medie a reprezentării prin SFG către
x(t ) .
t 2 − t1 1 k =1
1
k =1 1
= a k =1
1 t2 2 m m
2
= t x (t )dt − 2 ak + ak
2
t 2 − t1 1 k =1 k =1
1 t2 2 m
2
= t x (t )dt − ak (1.11)
t 2 − t1 1 k =1
m
Deci vom avea că e.p.m se poate determina prin coeficienţii SFG. Astfel ak2 conţine o indicaţie
k =1
asupra e.p.m. Dacă m<N atunci ε>0 şi vom avea
m
x 2 (t )dt ak2
t2
t1
k =1
(1.12)
Relaţia (1.12) reprezintă inegalitatea lui Bessel şi arată că energia semnalului este mai mare decât
suma pătratelor coeficienţilor SFG, trunchiată la m<N.
Luând m=N, se obţine egalitatea lui Parseval:
N
x 2 (t )dt = ak2
t2
t1
k =1
(1.13)
t1 t1
k =1
Inversând ordinea de integrare şi sumare în ultima integrală, se obţine:
N
x 2 (t )dt = ak x(t )xk (t )dt
t2 t2
t1
k =1
t1
(1.14)
Deoarece:
t x(t )xk (t )dt
t2
x(t ) * xk (t )
x(t )x (t )dt = a k
t2
ak = = 1
xk (t ) * xk (t )
k k n
kn t1
Concluzie:
Analiza Fourier este un proces de calcul ce poate fi efectuat manual sau poate fi
programat pe un sistem cu microprocesor. O altă soluţie constă în realizarea unui analizor
de semnal, care să afişeze la ieşire, coeficienţii Fourier ai semnalului aplicat la intrare, ca
în Fig.1.1, unde generatorul de funcţii debitează un sistem xk (t ) de funcţii ortogonale.
a1
...
a2
x(t)
...
an
...
x1(t) x2(t) xn(t)
Generator de functii
elementare Fig.1.1.
4
x(t )x (t )dt
1 t2
Schema-bloc de mai sus implementează formula: ak = k
kn t1
Semnalele se pot obţine prin sinteză Fourier cu un aparat construit ţinând seama de
axpresia SFG. Sintetizatorul de semnal se construieşte conform Fig.1.2.
a1
a2
x(t)
...
an
Obs.:Trebuie reţinut că reprezentarea semnalelor x(t) L(2) cu SFG este valabilă numai
în intervalul de timp t I t - intervalul de ortogonalitate al sistemului de funcţii xk (t )
care poate fi ales convenabil încât să coincidă cu suportul semnalului.
5
Produsele scalare corespunzătoare celor 3 tipuri de funcţii elementare sunt următoarele:
1 * cos k0t = 0
1 * sin k0t = 0
0 pentru k m
sin k0t * sin m0t = T0
k s = 2 pentru k = m
0 pentru k m
cos k0t * cos m0t = T (1.16)
kc = 0 pentru k = m
2
1*1 = k0 = T0
t1 +T0
x(t )cos k0tdt
2
Ck =
T0 t1
(1.18)
t1 +T0
x(t )sin k0tdt
2
Sk =
T0 t1
Orice semnal x(t) poate fi reprezentat cu relaţia (1.17) dacă x(t) L(2) şi considerând
intervalul de definiţie It=[0,T0].
6
Relaţia (1.20) reprezintă seria Fourier Armonică (SFA). Termenul de ordinul k=1
reprezintă componenta fundamentală iar cel de ordinul k, armonica k în reprezentare cu
SFA.
Legăturile dintre coeficienţii SFA şi SFT rezultă astfel:
Sk
A0 = C0 , A k = Ck2 + S k2 ; k = −arctg (1.21)
Ck
unde Ak – este amplitudinea, iar φk – faza armonicei de ordinul k.
0 0
T0
(
= cos 2 k0t + sin 2 k0t dt = t 00 = T0
0
) T
e jx = cos x + j sin x
e − jx = cos x − j sin x
Norma funcţiei exponenţiale de ordin k este k k = T0 şi prin urmare sistemul nu
este ortonormal. Notând cu ak coeficientul termenului k din SFG se obţine expresia:
x (t ) = a e k
j k 0t
(1.22)
k =−
care reprezintă semnalul x(t) aproximat prin seria Fourier exponenţială (SFE) denumită
şi serie Fourier complexă.
Coeficientul ak se exprimă utilizând relaţia (1.10) sub forma:
t1 +T0
x (t )e − jk0t dt
1
ak =
T0
t1
(1.23)
k =0 k = −
x(t ) = Ak cos(k0t + k )
( )
x(t ) = k e jk0t e jk + e − jk0t e − jk
k =0 A
− jx
e +e
jx
k =0 2
cos x =
2
7
Ak jk jk0t Ak − jk j ((−k )0t )
x(t ) = e e + e e
k =0 2 k =0 2
În al 2-lea termen putem schimba domeniul de însumare pentru k = 0 la q = − 0 datorită
termenului „k” din e j ((− k )0t ) ; adică k=-q, după care revenim tot la variabila k.
0 A
x(t ) = k e jk e jk0t + −q e −q e jq0t
A − j
k =0 2 q = − 2
A − A− k
Făcând convenţia: − q = ; - - q = − k
2 2
0
x(t ) = k e j k e jk0 t + − k e j −k e jk0 t
A A
k =0 2 k = − 2
x(t ) = k e j k e jk0 t care este chiar SFE.
A
k = − 2
Identitatea termenilor este:
Ak jk jk0t
e e = ak e jk0t
2
A−k jk − jk0t
e e = a−k e − jk0t
2
Astfel vom avea relaţia între coeficienţii SFA şi SFE:
A
a k = a −k = k
2 (1.25)
−k = − k
Relaţia (1.25) arată că armonicei k din SFA îi corespunde o pereche de termeni k din SFE.
Presupunem că x(t ) este definit pe intervalul finit I S = 0, T0 şi este nul în afara
acestui interval. Deoarece s-a presupus că x(t) L(2 ) (este de energie finită) semnalul poate
fi reprezentat în intervalul t I s prin oricare din formele seriei Fourier, luând Is ca interval
de ortogonalitate al SFT, SFA, SFE. În acelaşi timp T0 este şi perioadă fundamentală a
dezvoltărilor în serie Fourier corespunzătoare.
OBS:Pentru semnalul periodic, noţiunea de energie nu are sens, din cauza duratei sale
infinite.
O măsură utilă a efectelor energetice ale semnalului este puterea medie a semnalului pe o
perioadă.
8
t1 +T0
x 2p (t )dt
1
PT =
T0 t1
(1.27)
ak*
PT = a
2
k (1.28)
k = −
➢ Spectrul de
amplitudini: Ak(kf0) sau Ak(kω0) pentru SFA, şi
ak (kf0 ) sau ak (kω0 ) pentru SFE.
9
x(t) x(t) x(t)
1 1 1
T t t t
T/2 T/2 T/2
-1 -1 -1
Fig.1.3.
Semnalul poate fi considerat în domeniul finit It=[0,T]. Intervalul de ortogonalitate al funcţiilor sin k0t
2 2
este t1 , t1 + . Luând t1=0 şi t2 = T = că vom avea intervalul de ortogonalitate pentru
0 0
ak = −
T k0 0 T k0 T 2
T 1 T
cos(0) + cos(k0T ) −
2 1 1
ak = − cos k0 + cos k0
2k 2 k k k 2
cos(k ) + cos(0) + cos(k 2 ) − cos(k )
1 1 1 1
ak = −
k k k k
4
, pentru → k = 2q + 1 − impar
ak = k qZ
0, pentru → k = 2q − par
10
m −1
unde m=2q+1; q =
2
m −1
2 sin ((2q + 1)0t )
x(t ) =
4
q =0 2q + 1
x1 (t ) = sin (0t )
4
În Fig.1.3 b) şi c) sunt reprezentate semnalele: respectiv
4 sin 30t sin 50t
x2 (t ) = sin 0t + + . Se poate observa din Fig.1.3 că dacă vom considera un m mai
3 5
mare, eroarea de aproximare se reduce.
Exemplul 2: Să se găsească reprezentarea prin SFT penru semnalul din Fig.1.3.
Aplicând relaţiile corespunzatoare se găsesc:
Ck=0, k Z
0 pentru k = 2q - par
Sk = 4
pentru k = 2q + 1 - impar
k
Trecând de la indicele k la (2q+1) pentru a pune în evidenţă absenţa componentelor pare se găseşte:
4 sin (2q + 1)0t
x(t ) =
q =0 2q + 1
Exemplu 3: Dându-se semnalul din Fig.1.4 să se găsească reprezentarea prin SFA şi prin SFE pe
intervalul 0, T .
x(t)
1
Fig.1.4. T t
T/2
-1
sin (2q + 1)0t
x(t ) =
4
q =0 2q + 1
01-Formula implementata in aplicatie pt. taskul 3
->Pentru SFA:
Sk
Ak = Ck2 + S k2 = S k ; k = −arctg =−
Ck 2
11
cos (2q + 1)0t −
x(t ) =
4 2
02-Formula implementata in aplicatie pt. taskul 3
q =0 2q + 1
->Penru SFE:
x (t ) = a e k
jk0t
k = −
Ak
ak = ; k = −
2 2
e j (2 q +1)0t
2 −j
x(t ) = e 2
q = − 2q + 1
Exemplu 4: Se consideră forma de undă a semnalului din Fig.1.3. Să se exprime semnalul prin SFA şi
SFE şi să se reprezinte diagramele spectrale asociate.
xp(t)
1
T0 t
T0/2
-1
Fig.1.3.
SFA şi SFE au fost calculate în Exemplul.3 pentru un semnal x(t) cu t 0, T0 . Acum, aceleaşi serii
sunt valabile şi pentru semnalul prelungit periodic xp(t), deci t
π
cos (2k + 1)ω0t −
SFA: x p (t ) =
4 2
; t
π k =0 2k + 1
e j (2 k +1)0t
−j
SFE: x p (t ) =
2
e 2
k = − 2k + 1
Ak 1 φk
k
4
ω0 3ω0 5ω0 7ω0 9ω0
ω
−
ω0 3ω0 5ω0 7ω0 9ω0 ω 2
Fig.1.5.
12
ak 1
2
1 k
k
Fig.1.6. φk
2
13
2
2
A2 k +1 = ; k Z
2
(2k + 1)π
Cu aceste valori se obţine spectrul de putere din Fig.1.6.
2
ak
4 Fig.1.6.
1 1
k k
A
τ
T0 t
Fig.1.7.
x p (t ) poate fi descris analitic pe o perioadă T0 prin semnalul x(t ) :
14
-
A, pentru 2 t 2
x(t ) =
0, pentru t T0 −
2 2
Coeficienţii ak din SFE sunt:
1 2 A 2
ak = Ae − jk0t dt = (cos k0t − j sin k0t )dt =
T0 − 2 T0 − 2
2 2
A sin k0t A cos k0t 2A
= + j = sin k0 =
T0 k0 − 2 T0 k0 − 2 k0T0 2
sin k0
A 2 = A sin k
=
T0 k T0
c 0
2
2
0
sin k0
A 2
Deci ak = 03-Formula implementata in aplicatie pt. taskul 3
T0 k
2
0
sin x
Funcţia din paranteză este de forma şi are un rol foarte important în teoria semnalelor.
x
sinc(x)
1
Fig.1.8.
Trecerile prin 0 ale funcţiei se obţin pentru x = q ; q N * . Astfel relaţia lui ak devine:
A k k
ak = sin c 0 = A sin c 0
T0 2 2
unde = - coeficient (factor) de umplere.
T0
Astfel SFE a semnalului considerat este:
k
x p (t ) = A sin c 0 e jk0 t
k = − 2
Din relaţia anterioară se observă că ak este real şi deci se poate obţine reprezentarea în domeniul
frecvenţă printr-o diagramă spectrală ak (k0 ) . Deoarece sin c (x ) este o funcţie pară, ak = a− k , iar
15
2
frecvenţa de repetiţie a pulsurilor este 0 = . Astfel, spectrul de frecvenţă este o funcţie discretă şi
T0
există numai pentru = 0, = 0 , = 20 ............ Amplitudinile corespunzătoare se obţin din
relaţia anterioară:
k
ak = A sin c 0 pentru k = 0,1,2, ............
2
k
şi descresc după o înfăşurătoare dată de funcţia A sin c 0 . Trecerile prin zero ale acestei funcţii
2
apar atunci când
k k 2q
sin c 0 = 0 0 = q sau k0 =
2 2
Reprezentarea spectrului în cazul general este dată în Fig.1.9. a) şi b).
A k k
ak = sin c 0 = A sin c 0
T0 2 2
ak
a.). Aδ 2
0 =
T0
4 2 2 4 ω
− −
[rad/s]
ak
Aδ 1
f0 =
T0
b.).
2 1 1 2 f
− −
[Hz]
B
Fig.1.9.
Se observă că cele 2 reprezentări din Fig.1.9 a) şi b) diferă doar printr-o raportare a axei
frecvenţelor la constanta 2π, astfel încât trecerile prin 0 ale înfăşurătoarei au loc în punctele
q
kf0 = ; q N * , iar componentele spectrale pentru cazul b) sunt localizate în punctele:
16
1
f = 0, f 0 ,2 f 0 ...........unde f 0 =
T0
Particularizăm acum spectrul din Fig.1.9 b) pentru cele 3 cazuri din enunţ. Se poate observa că în
1 1
toate cazurile = 200s = = 5KHz
2 10− 4
Astfel, în toate cazurile trecerile prin 0 ale înfăşurătorii au loc la q 5KHz; q N*
1
Frecvenţa fundamentală f 0 = este:
T0
1
Pentru cazul a.) din enunţ: 1KHz −3
pentru T0 = 1ms
1 *10
1
Pentru cazul b.) din enunţ: 0,5KHz −3
pentru T0 = 2ms
2 *10
1
Pentru cazul c.) din enunţ: 0,25KHz −3
pentru T0 = 4ms
4 *10
1
În banda de frecvenţe 0, = (0,5KHz ) apar 5 componente penru cazul a); 10 componente pentru
cazul b) şi 20 componente pentru cazul c).
Observaţie: Se poate observa că pe măsură ce perioada creşte componentele spectrale se îndesesc.
Reprezentarea grafică este prezentată în Fig.1.10..a.);b.);c.)
17
ak
a.). A/5
1
5 10
-10 -5 f
[kHz]
ak
0.5
b.). A/10
5 10
-10 -5 f
[kHz]
ak
c.). 0.25
A/20
5 10
-10 f
-5
[kHz]
Fig.1.10.
Se mai poate observa că înălţimea lobului central A care este chiar mărimea componentei a0 , scade
pe măsură ce perioada creşte cu coeficientul = 1 5, 1 10, 1 20 .
Observaţia finală este că componentele spectrale se îndesesc pe măsură ce
perioada creşte, dar scad în amplitudine. Aceasta este o observaţie foarte
importantă pentru înţelegerea trecerii de la reprezentarea în frecvenţă a
semnalului periodic la cel neperiodic.
Banda de frecvenţă ocupată de un astfel de semnal, denumită bandă
efectivă se poate considera Be = 1 . Se poate constata că banda nu depinde de
perioadă, ci de lăţimea impulsurilor, fiind cu atât mai mare cu cât impulsurile
sunt mai înguste.
18
4. Analiza Fourier a semnalelor neperiodice. Transformata Fourier. Funcţia de
densitate spectrală
t
-T/2 T/2 -T/2 T/2 t
a.). b.).
Fig.1.11.
x(t ) = lim x p (t )
T →
T → − −
(1.30)
Relaţia (1.30) este chiar relaţia (1.29) de definiţie a transformatei Fourier (pentru un
semnal neperiodic). Această relaţie justifică denumirea de „funcţie de densitate spectrală”
pentru transformata Fourier X ( ) .
La fel, funcţia (semnalul) x(t ) = Tlim
→
x p (t ) poate fi determinată prin Transformată
Fourier inversă din X ( ) .
19
x(t ) = X ( )e jt d
1
2 −
(1.31)
şi se notează simbolic x(t ) = F −1X ( ).
Relaţia (1.31) se poate stabili pe baza aceloraşi consideraţii la limită conform SFE:
x p (t ) = a e k
jk0t
k = −
Înlocuind x(t ) prin relaţia corespunzătoare transformării Fourier şi rearanjând termenii, obţinem:
1
E = x(t ) * x* (t ) = x(t )x* (t )dt = X ( )e jt d x* (t )dt =
− 2 −
−
*
=
1
− X ( ) x ( t ) e jt
dt d =
1
X 2 ( )d
2 −
2 −
= X * ( )
2
1
E = x(t ) dt = ( )
2 −
d
2
X (1.33)
−
20
Reprezentarea grafică a funcţiei X ( ) , respectiv argX ( ), constituie diagrama
spectrală echivalentă spectrului de amplitudini, respectiv spectrului de faze. Acest
grafic permite aprecierea benzii de frecvenţă ocupată de semnal.
X ( )
2
5. Convoluţia semnalelor
Fie x1 (t ) şi x2 (t ) două semnale ce aparţin clasei L(2 ) .
Definiţie: Se numeşte funcţie de convoluţie (sau produs de convoluţie în timp) a
semnalelor x1 (t ) şi x2 (t ) integrala:
x(t ) = x1 ( )x2 (t − )d (1.34)
−
− − −
Inversând ordinea de integrare şi apoi notând t − = se obţine:
X ( ) = x1 ( ) x2 (t − )e − jt dt d =
− −
= x1 ( ) x2 ( )e − j e − j d d =
− −
x1 ( )e − j d x 2 ( )e − j d = X 1 ( )X 2 ( )
− −
Din teorema integralei de convoluţie rezultă imediat că produsul de convoluţie este comutativ, adică:
x(t ) = x1 (t − )x2 ( )d = x1 ( )x2 (t − )d = X 1 ( )X 2 ( ) =
− −
= X 2 ( )X 1 ( ) (1.36)
Tot din teorema integralei de convoluţie avem:
X ( )
F x1 (t ) * x2 (t ) = X ( ) = X 1 ( )X 2 ( ) = ( j X 1 ( )) 2
j
ceea ce este echivalent cu:
x(t ) = x1 (t ) * x2 ( )d = x1 ( )d * x2 (t )
t t
− −
Generalizând operaţiile de derivare şi integrare, rezultă că:
x1 (t ) * x2 (t ) = x1(− n ) (t ) * x2(n ) (t ) (1.37)
21
Produsul de convoluţie în frecvenţă, în raport cu funcţia de densitate spectrală X 1 ( )
şi X 2 ( ) se defineşte prin integrala:
X ( ) = X 1 ( )X 2 ( − )d (1.38)
−
sau X ( ) = X 1 ( )* X 2 ( )
Teorema integralei de convoluţie în frecvenţă se enunţă analog cu cea din
domeniul timp:
F −1X 1 ( ) * X 2 ( ) = 2 x1 (t )x2 (t ) (1.39)
Demonstraţia este analogă cu cea anterioară şi evident proprietăţile de
comutativitate, integrare şi derivare acţionează la fel şi asupra produsului de convoluţie în
frecvenţă.
Dacă realizarea produsului de convoluţie se face grafic, prin reprezentarea
semnalelor corespunzătoare, se poate constata că limitele de integrare a,b ale integralei de
convoluţie x(t ) = a x1 ( )x2 (t − )d depind de suportul semnalelor x1 (t ) şi x2 (t ) .
b
x (t ) = X ( + j )e ( + j )t d
1
2 −
23
jω
t<0 t>0
α β
σ
Fig.1.12.
− 0
X (s ) Me( − s )t dt + Me( − s )t dt
0
− 0
1 ( − s )t 1 ( − s )t
X (s ) M
0
e + e
− s − −s 0
1.Liniaritate
L ak xk (t ) = ak X k (s )
k k
2.Derivarea în funcţie de timp:
dx(t )
L = sX (s ) − x 0
−
( )
dt
3.Integrarea în funcţie de timp:
L x( )d =
t
0
X (s ) x(−1) 0−
s
−
s
( )
4.Derivarea în funcţie de frecvenţă:
dX (s )
L−1 = −tx (t )
ds
5.Integrarea în funcţie de frecvenţă:
L−1 X ( )d =
s
0
x(t )
t
6.Modificarea scărilor de reprezentare:
1 s
Lx(at ) = X
a a
25
7.Deplasarea în timp:
Lx(t − t0 ) = X (s )e−st0
8.Deplasare în frecvenţă:
L−1X (s − s0 ) = x(t )e st0
9.Convoluţie în timp:
Lx1 (t )* x2 (t ) = X1 (s )X 2 (s )
10.Convoluţie în frecvenţă:
L−1X1 (s )* X 2 (s ) = 2jx1 (t )x2 (t )
În numeroase aplicaţii este necesar să se determine valoarea iniţială x(0+ ) şi valoarea
finală x( ) a semnalului. Aceste valori pot fi determinate din X (s) , chiar dacă expresia
semnalului în funcţie de timp, x(t ) nu este cunoscută.
Fie x(t ) şi x(t ) un semnal şi derivata sa, care admit transformate Laplace. Conform
proprietăţilor de derivare în raport cu timpul avem:
Lx(t ) = x(t )e − st dt = sX (s ) − x(0− )
0 −
(1.48)
În cazul general, în t = 0 poate să apară o discontinuitate astfel:
x(0) = x(0+ ) − x(0− ) u(t )
care pentru x(t ) conduce în t = 0 la:
( ) ( )
x(0) = x 0+ − x 0− (t )
Relaţia (1.48) devine:
0
+
0
0+
−
( ) ( )
− x(t )e dt = − x 0 − x 0 (t )e dt + + x(t )e dt =
− st − st − st
( ) ( )
= x 0+ − x 0− + + x(t )e − st dt = sX (s ) − x 0−
0
( ) (1.49)
x(0 ) + x(t )e
+ − st
dt = sX (s )
0+
s →0
x( ) = lim sX (s )
s →0
26
Relaţia (1.51) reprezintă Teorema valorii finale.
Sistemele Diferenţiale Liniare Invariabile în Timp (SLIT) sunt cele mai amănunţit
studiate sisteme în teoria sistemelor, în primul rând, datorită facilităţilor de dezvoltare şi
aplicare a aparatului matematic.
Deşi în lumea reală, majoritatea sistemelor sunt neliniare, comportarea acestora, în
anumite condiţii (de exemplu, în jurul unui punct staţionar de funcţionare, sau pentru
perturbaţii mici), poate fi descrisă suficient de bine prin sisteme liniare. În plus, sistemele
SLIT beneficiază pentru studiu de un instrument matematic puternic cum este
transformarea Laplace, care transformă operaţiile complicate de analiză şi sinteză,
descrise prin ecuaţii diferenţiale, în operaţii algebrice simple efectuate în domeniul
complex.
Totuşi, o serie de proprietăţi (controlabilitate, observabilitate, optimalitate), chiar şi
pentru sisteme SLIT, sunt mai bine reprezentate în domeniul timp prin ecuaţii de stare şi
mai uşor de exploatat în practică prin metode şi tehnici implementate pe calculatoare
numerice.
ak y (k ) (t ) = bk u (k ) (t ), cu an 0
k =0 k =0
(1.52)
d k y (t ) d k u (t )
unde s-a notat: y (t ) =
(k )
şi u (t ) =
(k )
dt k dt k
Ordinul maxim al derivatei ieşirii y(t) va determina şi ordinul sistemului. În funcţie de
raportul dintre m şi n se deosebesc următoarele tipuri de sisteme:
1.Dacă m<n : sistemul se numeste strict propriu(cauzal)
2.Dacă m=n : sistemul se numeste propriu
3.Dacă m>n : sistemul se numeste impropriu(necauzal)- apare efectul
înaintea cauzei
Sistemele improprii sunt fizic nerealizabile şi ele pot reprezenta o comportare
matematică ideală, anticipativă, dorită, a unor obiecte fizice, însă fără a putea fi obţinută în
timp real.
Relaţia (1.52) poate fi uşor exprimată în domeniul complex, aplicând acesteia
transformata Laplace. Reamintim mai întâi o proprietate bazată pe o proprietate
transformatei Laplace:
27
k −1
L{ y ( k ) (t )} = s k Y ( s ) − y ( k −i −1) (0+ ) s i ; k 1 (1.53)
i =0
k −1
L{u ( k ) (t )} = s kU ( s) − U ( k −i −1) (0 + ) s i ; k 1 (1.54)
i =0
n n
k −1 m m
k −1
ak s k Y ( s) − ak y ( k −i −1) (0) s i = bk s k U ( s) − bk u ( k −i −1) (0) s i (1.55)
k =0 k =1 i =0 k =0 k =1 i =0
n m
ak s k Y ( s) = bk s k U ( s) + I ( s) (1.56)
k =0 k =0
Y ( s) = Y f ( s) + Yl ( s) (1.58)
Din relaţia (1.58) se poate observa că ieşirea apare descompusă ca suma a 2 componente:
➢ Y f (s) numită componenta forţată a răspunsului, determinată numai de mărimea de
intrare;
28
➢ Yl (s) numită componenta liberă a răspunsului, determinată numai de condiţiile
iniţiale.
Dacă condiţiile iniţiale sunt nule, atunci termenul I ( s) = 0 şi răspunsul sistemului
rămâne sub forma: Y ( s) = Y f ( s) .
Dacă intrarea u(t ) 0, pentru orice t 0 , atunci din relaţia (2.80) U ( s) = 0 şi
răspunsul sistemului devine Y ( s) = Yl ( s) . Aceste relaţii exprimă proprietatea de
decompoziţie (efectul final este un cumul de efecte datorate unor cauze diferite ce
acţionează asupra sistemului) şi orice sistem liniar prezintă prin definiţie proprietatea de
decompozitie.
Răspunsul forţat Y f (s) exprimă comportarea intrare-ieşire a sistemului (răspunsul
intrare-ieşire) care nu depinde de starea sistemului (deoarece se presupune că starea în care
se afla este “0”) sau de modul cum este organizată descrierea internă a sistemului.
Răspunsul liber Yl (s) exprimă comportarea stare_iniţială-ieşire a sistemului
(răspunsul stare_iniţială-ieşire) care nu depinde de intrare (deoarece se presupune că
aceasta are valoarea “0”), dar depinde de modul cum este organizată descrierea internă a
sistemului(cum este definită starea sistemului).
Putem defini acum o noţiune care este foarte importantă, şi anume noţiunea de
funcţie de transfer:
Definiţie: Funcţia de transfer a unui sistem, notată cu H(s), este raportul dintre
transformata Laplace a mărimii de ieşire şi transformata Laplace a mărimii de intrare
care a determinat acea ieşire, în condiţii iniţiale nule(c.i.n.), dacă acest raport se
păstrează pentru orice variaţie a intrării:
Ly (t ) Y ( s)
H ( s) = = ; acelaşi pentru orice U(s) (2.82)
Lu(t ) c.i.n. U ( s ) c.i .n.
Din relaţia (2.80) se poate observa că în cazul sistemelor SLIT, funcţia de transfer este
întotdeauna o funcţie raţională(raportul a 2 polinoame):
M ( s) bm s m + bm −1s m −1 + .... + b1s1 + b0
H ( s) = = (2.83)
L( s) an s n + an −1s n −1 + .... + a1s1 + a0
Dacă polinoamele M(s) şi L(s) nu au factori comuni(sunt polinoame coprime)
raportul acestora exprimă o aşa-numită funcţie de transfer nominală sau funcţia de
transfer în formă redusă.
OBSERVAŢIE: Funcţia de transfer exprimă numai comportarea intrare-ieşire a sistemului
sau răspunsul forţat, adică răspunsul sistemului în condiţii iniţiale nule.
Ordinul unui sistem se exprima prin gradul polinomului de la numitorul funcţiei de
transfer, adică n = gradL(s)
29
Prin starea unui sistem, la un moment de timp, se înţelege mulţimea informaţiilor
suplimentare necesare pentru ca, fiind cunoscută intrarea din acel moment, să se poată
determina în mod univoc ieşirea.
Starea unui sistem abstract este o colecţie de elemente care, împreună cu intrarea
u(t ) pentru orice t t0 , determină univoc ieşirea y (t ) .
Starea sistemului, la un moment dat de timp, înglobează toată informaţia esenţială
din evoluţia anterioară a sistemului.
O variabilă de stare, notată cu x(t ) , este o funcţie de timp ale cărei valori, la orice
moment de timp precizat, reprezintă starea sistemului la acel moment. Reprezentarea de
stare nu este unică şi pot exista numeroase posibilităţi de a exprima relaţiile de legătură
dintre ieşire şi intrare. Numărul minim de elemente ale vectorului de stare pentru care
ieşirea poate fi univoc determinată, atunci când se cunoaşte intrarea, reprezintă ordinul
sistemului.
Dacă într-un sistem există stări echivalente înseamnă că sistemul, respectiv vectorul
de stare, nu este în forma redusă, adică are o dimensiune mai mare decât este necesar
pentru a determina univoc ieşirea, când se cunoaşte intrarea.
Sistemul abstract asociat unui obiect orientat poate fi direct determinat, folosind
diferite metode, sub forma ecuaţiilor de stare, cu următoarea formă matriceal-vectorială:
x (t ) = Ax (t ) + Bu (t )
(2.84)
y (t ) = C x(t ) + Du(t )
T
y (t ) = C x (t ) + Du(t ) Y (s ) = C X (s ) + DU (s )
T T
sX (s ) − AX (s ) = BU (s ) ( sI − A) X (s ) = BU (s ) X (s ) = ( sI − A) −1 BU (s )
Y (s ) = C X (s ) + DU (s ) Y (s ) = C X (s ) + DU (s ) Y (s ) = C X (s ) + DU (s )
T T T
X (s ) = ( sI − A) −1 BU (s ) X (s ) = ( sI − A) −1 BU (s )
Y (s ) = C ( sI − A) BU (s ) + DU (s ) Y (s ) = (C ( sI − A) B + D)U (s )
T −1 T −1
X (s ) = ( sI − A) −1 BU (s )
Y (s ) = H ( s )U (s )
unde H ( s) = C T ( sI − A) −1 B + D = C T (s )B + D (2.85)
iar (s ) = ( sI − A) −1 - se numeste matricea de tranzitie a starilor
30
Altfel, unui sistem descris prin funcţia de transfer H (s) de ordin n i se pot asocia o
infinitate de descrieri prin ecuaţii de stare de forma (2.84). Procedura de trecere de la
funcţia de transfer la ecuaţii de stare se numeste realizarea sistemului prin ecuaţii de
stare.
M ( s)
Cunoscând funcţia de transfer a unui sistem H ( s) = , pot fi obţinute mai multe
L( s )
forme pentru ecuaţiile de stare(care evident sunt echivalente), adică avem mai multe
realizări ale sistemului prin ecuaţii de stare, astfel:
x (t ) = Ax (t ) + Bu (t ) xˆ (t ) = Axˆ (t ) + Bu(t )
ˆ ˆ
S: şi Sˆ :
y (t ) = C x (t ) + Du(t ) y (t ) = C x (t ) + Du(t )
ˆT ˆ
T
Fiecare realizare poate conduce la câte o funcţie de transfer, funcţii care vor trebui să fie
identice:
H ( s) = C T ( sI − A) −1 B + D = C T (s )B + D
şi Hˆ ( s) = Cˆ T ( sI − Aˆ ) −1 Bˆ + Dˆ = Cˆ T ˆ (s )Bˆ + Dˆ
O condiţie ca cele două realizări să fie echivalente este, dacă există o matrice
T(nesingulară, adică det(T ) 0 ) astfel încât Xˆ = TX , să avem
Aˆ = TAT −1 , Bˆ = TB, Cˆ T = C T T −1 , Dˆ = D . În aceste condiţii Hˆ ( s) H ( s) , adică:
Hˆ ( s) = Cˆ T ( sI − Aˆ ) −1 Bˆ + Dˆ = C T T −1 ( sI − TAT −1 ) −1 TB + D = C T T −1T ( sI − A) −1 T −1TB + D =
= C T ( sI − A) −1 B + D = H ( s )
Practic, matricea T se comportă asemănător cu o matrice de scalare şi astfel obţinem
mai multe realizări de stare pentru aceeaşi relaţie intrare-ieşire H(s).
31
y[%] u,y
100% ust_2
Pst_2
yst_2
yst_2
Pst_1 ust_1
yst_1 yst_1
0% ust_1 ust_2 t
100% u[%]
Regim tranzitoriu
Zona Zona Zona
de inertie la aproximativ de saturatie b.).caracteristica dinamică
limita liniara la limita
inferioara superioara
a a
domeniului domeniului
Fig.2.14.
a.).caracteristica statică
Caracteristica dinamică reprezintă evoluţiile intrărilor şi ieşirilor în funcţie de parametrul
timp. Astfel, se poate vedea regimul tranzitoriu atunci când sistemul trece dintr-un punct
staţionar Pst _1 (caracterizat de perechea (ust _1 , yst _1 )) în alt punct staţionar Pst _ 2 (caracterizat de
perechea (ust _ 2 , yst _ 2 ) ).
Astfel, un sistem de reglare trebuie proiectat să gestioneze atât regimul staţionar cât şi
regimul dinamic caracterizat în primul rând prin regimul tranzitoriu.
În acest context, conform definiţiei, funcţia de transfer a unui sistem, notată cu
H (s) , este raportul dintre transformata Laplace a mărimii de ieşire şi transformata Laplace
a mărimii de intrare care a determinat acea ieşire, în condiţii iniţiale nule(c.i.n.), dacă acest
raport se păstrează pentru orice variaţie a intrării:
Ly (t ) Y ( s)
H ( s) = = ; acelaşi pentru orice U (s)
Lu(t ) c.i.n. U ( s ) c.i .n.
Deoarece pentru semnalele din lumea reală y(t ), u(t ) NU SE POT DEFINI condiţii
iniţiale nule, ar părea că toată Teoria Sistemelor Liniare este inutilă. Totodată, toate
procesele reale sunt prin excelenţă neliniare. Totuşi, structurile de reglare proiectate pe
baza acestor dezvoltări teoretice funcţionează cu succes de ceva zeci de ani. Explicaţia este
dată de faptul că, în structurile reale de reglare şi control se lucrează în jurul unui punct
staţionar de funcţionare. Deoarece un punct staţionar de funcţionare este şi un punct de
echilibru pentru procesul respectiv, este normal ca modelul matematic liniarizat în jurul
acestui punct (folosit în proiectare) converge către acest punct şi tot către acest punct
converge şi procesul real.
Astfel, în proiectarea structurilor reale se alege un punct staţionar de funcţionare şi
presupunem că sistemul variază în jurul acestui punct, ca în Fig.2.15
32
y[%]
100%
Fig.2.15.
+Δy Yst Pst
-Δy
Ust
0% 100% u[%]
-Δu +Δu
33
Pentru sistemele liniare invariabile în timp, stabilitatea externă este determinată de
polii funcţiei de transfer:
M ( s)
H (s) =
L( s )
adică de rădăcinile numitorului L( s) = 0 s = i rădăcini care trebuie să fie situate în
semiplanul stâng al planului complex, adică Re(i ) 0 .
Observaţie:Un sistem intern stabil este şi extern stabil, dar un sistem extern stabil poate
să nu fie intern stabil. Dacă sistemul este complet observabil şi controlabil, cele 2 tipuri
de stabilitate internă/externă sunt echivalente.
34