Documente Academic
Documente Profesional
Documente Cultură
3.1. Definiţii Şi Proprietăţi: X (N) X (NT)
3.1. Definiţii Şi Proprietăţi: X (N) X (NT)
Definiţii şi proprietăţi
Un semnal discret este definit prin valorile acestuia în momentele
de eşantionare. Timpul este discretizat uniform adică la t = nT cu n ∈ Z .
Semnalele eşantionate sau în timp discret sunt reprezentate prin
secvenţe de numere notate astfel:
{x(nT)} N1 ≤ n ≤ N 2
{x(n)} N1 ≤ n ≤ N 2 (3.1)
x(n) N1 ≤ n ≤ N 2 .
În prima relaţie se pune în evidenţă provenienţa semnalului
discret obţinut prin eşantionarea din semnalul analogic x(t) şi
reprezentat prin alte două relaţii echivalente.
Rezultă
x(n) = x(nT) T =1 .
26
Uzual se utilizează scalarea axei timpului prin raportare la
perioada de eşantionare T. N1 şi N2 pot lua valori întregi, depinzând de
domeniul de definiţie al semnalului.
În analiza şi sinteza sistemelor discrete sunt utilizate frecvent
câteva secvenţe definite mai jos.
Semnal exponenţial
⎧Aα n ∀n ∈ Z +
x(n) = ⎨ . (3.7)
⎩0 n<0
x(n) y(n)
S{⋅
28
y(n) ≤ M y , ∀n . (3.13)
nu este stabil.
5. Sisteme fără memorie
La aceste sisteme y(n) depinde numai de x(n) (pentru acelaşi n).
∑a
k =0
k (n)y(n − k) = ∑ b k (n)x(n − k) .
k =0
(3.22)
∑a
k =0
k (n)y(n − k) = 0 . (3.24)
30
N
∑a
k =0
k z−k = 0 (3.26)
+∞
X(e jω ) = ∑ x(n)e
n =−∞
− jωn
. (3.28)
de unde
+∞
∑ X(n) < ∞ .
n =−∞
(3.30)
31
acestora sunt întotdeauna reprezentabile în frecvenţă prin transformate
Fourier.
Conform (3.16) răspunsul unui sistem este dat de (3.17). Sistemul
fiind liniar se poate aplica principiul superpoziţiei
+∞
y(n) = S{x(n)} = ∑ x(k)g k (n)
k =−∞
şi în final
y(n) = x(n) ∗ g(n) .
Se va arăta că stabilitatea este asigurată dacă şi numai dacă g(n)
este o funcţie absolut sumabilă, adică:
∞
G= ∑
n =−∞
g(n) < ∞ . (3.31)
∑ g(n) = ∞ .
n =−∞
(3.32)
de unde rezultă
+∞
y(0) = ∑
k =−∞
g(k) = ∞ (3.34)
Rezultă
32
+∞
y(n) = ∑ x(k)g(n − k)
k =−∞
∞ ∞
y(n) ≤ ∑
k =−∞
x(k) g(n − k) ≤ M ∑ g(n − k)
k =−∞
(3.36)
y(n) ≤ MG < ∞
lim X(e jω ) − X M (e jω ) = 0 .
n →∞
∑ x(n)
n =−∞
2
<∞. (3.38)
{
x(n) = F −1 X(e jω ) } (3.39)
π/T
1
2π −π∫/ T
x(n) = X(e jω )e jωn dω . (3.40)
33
X(e jω ) = X R (e jω ) + jX I (e jω )
. (3.41)
X(e jω ) = X(e jω ) e jϕ( ω)
⎧ ∞ ⎫
y(n) = e jωn ⎨ ∑ g(k)e − jωk ⎬ .
⎩ k =−∞ ⎭
Expresia din paranteză reprezintă tocmai G(e jω ) deci relaţia
(3.42). Rezultă
y(n) = e jωn G(e jω ) (3.44)
34
3.4.1. Proprietăţi de simetrie şi teoreme ale
transformatelor Fourier
În analiza secvenţelor funcţiilor de timp şi a transformatelor
Fourier respective este util să se stabilească corespondenţa părţilor şi
proprietăţile lor de simetrie. Se introduc notaţiile:
x(n) = x p (n) + x i (n) (3.45)
2. F {x * (−n)} = X * (e jω ) (3.48)
3. F {Re(x(n))} = X p (e jω ) (3.49)
4. F { jIm(x(n))} = Xi (e jω ) (3.50)
( ) (
Re X(e jω ) = Re X(e− jω ) ) (3.53)
( ) (
I X(e jω ) = − Im X(e jω ) ) (3.54)
35
X(e jω ) = X(e− jω ) (3.55)
( )
arg X(e jω ) = − arg X(e-jω )( ) (3.56)
2. Teorema întârzierii
F {x(n − n 0 )} = e − jωn 0 X(ω). (3.58)
3. Teorema modulării
{ }
F e jωn 0 X(n) = X(ω − ω0 ). (3.59)
4. Teorema reflectării
F {x(− n)} = X(−ω). (3.60)
7. Diferenţa în timp
(
x(n) − x(n − 1) = 1 − e− jω X(ω) . ) (3.63)
8. Derivarea în frecvenţă
dX(ω)
F {nx(n)} = 3j . (3.64)
dω
9. Teorema lui Parseval
⎧ ∞ 2⎫ 1
F ⎨ ∑ x(n) ⎬ = ∫ X(ω) dω.
2
(3.65)
⎩ n =−∞ ⎭ 2π 2 π
36
10. Teorema Parseval generalizată
⎧ ∞ ⎫ 1
F ⎨ ∑ x(n)z * (n) ⎬ = ∫ X(ω)Z (ω)dω.
*
(3.66)
⎩ n =−∞ ⎭ 2π 2 π
Aceste teoreme sunt asemănătoare cu cele ale transformatelor
Fourier pentru semnale continue.
37
N
H(e jω ) = ∏ H k (e jω ) (3.68)
k =1
X(ejω) Y(ejω)
H1 H2 HN
38
a sin ω
(
Im G(e − jω ) = ) 1 + a − 2a cos ω
2
(3.73)
funcţia din prima paranteză fiind inversa unei funcţii de acelaşi tip.
În analiza funcţiei trebuie ţinut cont de următoarele cazuri:
1. Dacă condiţia 4a 2 < a12 (3.80)
este îndeplinită polinomul de la numitorul funcţiei (3.79) are două
rădăcini complexe conjugate. Notând aceste rădăcini ae ± jθ funcţia din
(3.79) se poate rescrie în forma:
1
G II (e jω ) = jθ − jω
(3.81)
(1 − ae e )(1 − ae − jθ e − jω )
39
sau
1
G II (e jω ) = . (3.82)
1 − 2a cos θe− jω + a 2 e−2 jω
Coeficienţii a1 şi a2 din (3.79) sunt deci
a1 = −2a cos θ; a 2 = +a 2 . (3.83)
⎛ a sin(ω − θ) ⎞ −1 ⎛ a sin(ω + θ) ⎞
( )
arg G II (e jω ) = tan −1 ⎜ ⎟ − tan ⎜ ⎟ (3.85)
⎝ 1 − a cos(ω − θ) ⎠ ⎝ 1 − a cos(ω + θ) ⎠
Selectivitatea, atât a modulului cât şi a fazei devine cu atât mai
posibilă cu cât a devine mai apropiat de valoarea 1.
şi
x(n) + x(− n)
x p (n) (3.87)
2
x(n) − x( − n)
x i (n) = . (3.88)
2
Egalităţile de mai sus sunt adevărate şi pentru semnale ce nu
sunt cauzale. Dacă avem de a face cu semnalele cauzale, este suficient
să se cunoască doar una dintre părţi, xp(n) sau xi(n), pentru ca semnalul
x(n) să fie complet determinat. Această posibilitate este ilustrată prin
exemplul din fig. 3.3. Dacă x(n) este o secvenţă cauzală, x(n) = 0 la n < 0
şi deci x(-n) = 0 la n > 0. Prin urmare cele două secvenţe nu se suprapun
decât în n = 0.
x(n) = 2x p (n)u(n) − x p (0)δ(n) (3.89)
41
X Im (e jω ) = F {x i (n)} (3.93)
x(n)
x(-n)
xp(n)
xi(n)
43
{
X Im (e jω ) = H X Re (e jω )} (3.101)
{ }
X Re (e jω ) = H X Im (e jω ) . (3.102)
unde am notat
⎡0, k ⎤ = {0,1,..., k} . (3.105)
⎣ ⎦
Se poate face o evaluare a limitelor de însumare. Suportul lui g(n-
m), evoluat după m, pentru un n dat este
44
sup py(n) = ⎡⎣0, N + M − 2 ⎤⎦ (3.108)
şi
k2
y(n) = ∑ x(m)g(n − m) . (3.109)
k1
b) n − M + 1 ≥ 0, n ≤ N − 1 deci n ∈ ⎡⎣ M − 1, N − 1⎤⎦ ; k1 = n − M + 1, k 2 = n
c) n − M + 1 ≤ N − 1, n ≥ N − 1
deci n ∈ ⎡⎣ N − 1, N + M − 2 ⎤⎦ ; k1 = n − M + 1, k 2 = N − 1.
Se observă că limita superioară este n, pentru n ≤ N – 1 şi N – 1
pentru n ≥ N – 1, sau în general este min(n,N-1). Limita inferioară este
0 pentru n≤ M – 1 şi n – M + 1 în rest, deci în general este max(n – M +
1,0).
Putem deci scrie:
min(n,N −1)
y(n) = ∑
m = max(n − M +1,0)
x(m)g(n − m) (3.110)
45
⎡ y(0) ⎤ ⎡ g(0) 0 0 " ⎤ 0
⎢ y(1) ⎥ ⎢ " ⎥
⎢ ⎥ ⎢ g(1) g(0) 0 0
⎥ ⎡ x(0) ⎤
⎢ # ⎥ ⎢ # ⎥⎢ ⎥
⎢ ⎥ ⎢ ⎥ x(1) ⎥
⎢ y(M − 1) ⎥ = ⎢g(M − 1) g(M − 2) g(M − 3) " 0 ⎥⎢ (3.112)
⎢ # ⎥
⎢ y(M) ⎥ ⎢ 0 g(M − 1) g(M − 2) " 0 ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎣⎢ x(N − 1)⎦⎥
⎢ # ⎥ ⎢ # ⎥
⎢ y(N + M − 2) ⎥ ⎢ 0 g(M − 1)⎥⎦
⎣ ⎦ ⎣ 0 0
produsul acestora va fi
N+ M−2
Y(z) = X(z)G(z) = ∑=
n 0
y(n)z − n . (3.114)
46
transformatei de ordin N în transformări de ordine mai mică. Dacă N =
N1N2, se poate descompune transformarea de ordinul N în transformări
de ordinul N1 şi N2. Există posibilitatea ca N1 şi N2 să fie prime între ele
sau să aibă divizori comuni. Un caz important este acela în care
N = R M , R fiind numit bază. Algoritmii rezultaţi se vor numi algoritmi
de bază R.
Pentru a explica o largă categorie de algoritmi se poate porni de la
reprezentarea indicilor sub forma:
n = k1n1 + k 2 n 2 (nod N)
(3.117)
k = − k 3 k1 + k 4 k 2 (nod N).
N
(3.121)
−1 N
2 1 2n1k1 + n 2 k1 +
∑ ∑ x(2n
n2k2
1 + n 2 )WN 2
n1 = 0 n 2 = 0
47
sau
N N
−1 N −1
2 n1 k 2 2
N
X(k1 + k 2 ) = ∑ x(2n1 )WNn1k1 + WN 2 ∑ x(2n1 − 1)WNn1k1 . (3.122)
2 n1 = 0 2 2 n1 = 0 2
Ţinând cont că
N
k1 + k2
WN 2
= (−1) k 2 WNk1 (3.123)
relaţiile pot fi scrise separat pentru k2 = 0 şi k2 = 1.
N N
−1 −1
2 2
X(k1 ) = ∑ x(2n )W
n1 = 0
1
n1k1
N + WNk1 ∑ x(2n1 − 1)WNn1k1 =
n1 = 0
2 2
0
TFD #
x(2n1) 1
k1 x(k1)
N/2 #
N / 2 −1
0
TFD #
x(2n1+1) k1 x(k1+N/2)
N/2 # WNk1 -1
N / 2 −1
b a − bWNk
W k -1
WNk N
k1=0
x[0] TFD x[0]
1
x[2] x[1]
in 2
x[4] x[2]
3 x[3]
x[6] 4 pct.
k1=0 W80
x[1] TFD x[0]
1 W81 -1
x[3] x[1]
in 2 W82 -1 x[2]
x[5]
x[7] 4 pct. 3 W83 -1 x[3]
-1
49
x[0] x[0]
x[4] x[1]
-1 W80
x[2] x[2]
-1
W82
x[6] x[3]
-1 -1 W80
x[1] x[4]
W81 -1
x[5] x[5]
-1 W80 W82
-1
x[3] x[6]
W82 -1 W83 -1
x[7] x[7]
-1 -1 -1
50