Sunteți pe pagina 1din 86

1

Variabile aleatoare
Variabila aleatoare sau intamplatoare este legata de experimente
aleatoare, care desfasurate in timp conduc la procese aleatoare. In
cadrul teoriei statistice a semnalelor, procesul (semnalul) aleator este
un model mai realist decat semnalul determinist pentru o serie
intreaga de semnale atat utile (date, imagini, sunete) cat si
perturbatoare (zgomote) din sistemele de prelucrare si transmitere a
informatiei. Teoria statistica a semnalelor este strans legata de teoria
probabilitatilor si de teoria multimilor, care impreuna permit
introducerea notiunii de spatiu probabilistic.
1. Spatiu probabilistic
Baza pentru definirea variabilei aleatoare este spatiul probabilistic
= (H, $, P), numit de unii autori si model statistic. Acesta este
compus din trei elemente: multimea esantioanelor H, campul
evenimentelor $, si masura probabilistica P.
• multimea esantioanelor H: multimea tuturor rezultatelor
posibile  ale unui experiment aleator.
Exemplu: numerele corespunzatoare apelurilor sosite la o anumita
centrala de comutatie, fetele aparute la aruncarea zarului, durata de
viata a unei anumite componente a unui sistem, tensiunea retelei
masurat la bornele unei prize.
• campul evenimentelor $ multimea nevida, continand
submultimi ale multimii H, avand urmatoarele proprietati:
a) H ∈ $

b) Din A ∈ rezulta A∈ $

c) Din A1, A2, ... ∈ $ rezulta * Ai ∈ $ .
i =1
In aceasta definitie se noteaza cu A complementul mutimii A, adica
toate elementele multimii H care nu sunt in A. In consecinta, un
rezultat ηi ∈ H poate fi element al mai multor evenimente.
Exemplu: la aruncarea zarului, multimea rezultatelor este H = {1,
2,..., 6} unde i = aparitia fetei i si un camp posibil de evenimente

este $ = {∅, { 1}, { 1, 2}, { 2, 3, 4, 5, 6}, ..., H}
2
• Masura probabilistica P: o masura speciala care se
poate asocia elementelor campului evenimentelor, o
functie care se poate defini pe acest camp $. Domeniul
valorilor ei este intervalul {0, 1} al numerelor reale; se
poate spune ca functia P este o aplicatie a campului $ pe
intervalul {0, 1}. Proprietatile lui P sunt definite prin trei
axiome (Kolmogorov):
a) P(A) ≥ 0
b) P(H) = 1
n n
c) P( * Ai ) = ∑ P( Ai ) unde Ai sunt disjuncte doua
1 1
cate doua.
Definitiile probabilitatii:
nA
• ca frecventa relativa: P( A) = lim unde un experiment
n→∞ n
aleator este repetat de n ori si evenimentul A apare de nA
ori
N
• in sens clasic: P( A) = A unde N este numarul total de
N
rezultate ale experimentului (numarul elementelor din H
finit), din care evenimentul A intervine de NA ori.

Legi uzuale ale probabilitatii:


• P(∅) = 0 unde ∅ este evenimentul nul,
• P(A)  
• Daca
A ∪ A = H si A ∩ A = φ atunci P( A) = 1 − P( A)
• Daca A ⊂ B atunci P ( A) ≤ P( B )
• P( A ∪ B) = P( A) + P ( B) − P ( A ∩ B )
• P( A ∪ B) ≤ P ( A) + P( B )
Daca Ai ∩ A j = φ ∀i ≠ j si A1 ∪ A2 ∪ ... ∪ An = H atunci

P( A) = P( A ∩ H ) = P( A ∩ A1 ) + P ( A ∩ A2 ) + ... + P( A ∩ An )

adica seturile Ai sunt mutual exclusive si complete.


3
Probabilitatea conditionata:
P( A ∩ B) P( A ∩ B)
P( A | B) = sau P ( B | A) =
P( B) P( A)
P( B | A) P ( A)
sau in forma Bayes : P ( A | B ) =
P( B)
In contextul de mai sus, P(A) se numeste probabilitatea a priori iar
P(A|B) se numeste probabilitatea a posteriori a evenimentului A.
Din axiomele de mai sus rezulta:
P( A | B) ≥ 0
P( H | B) = 1
P( A1 ∪ A2 | B) = P( A1 | B) + P ( A2 | B) daca A1 si A 2 sunt disjuncte
Se spune ca doua evenimente sunt statistic independente daca:
P ( A ∩ B ) = P ( A) P ( B ) si atunci mai rezulta :
P ( A | B ) = P( A)
P ( B | A) = P( B )
P ( A | H ) = P( A) deoarece P ( H ) = 1

2. Definitia varibilei aleatoare reale X(η)


Variabila aleatoare reala X(η) este reprezentarea multimii
rezultatelor H a unui experiment aleator pe multimea IR a numerelor
reale cu urmatoarele proprietati:

a) { X (η ) ≤ x} ∈ $ pentru fiecare x ∈ IR

b) P({ X (η ) = −∞}) = P ({ X (η ) = +∞}) = 0


experiment
aleatoriu IR Valoarea unei variabile aleatoare
X(η) pentru un argument η = ηi
se numeste o realizare a
variabilei (vezi fig. alaturata).
X(ηi) Variabila aleatoare poate fi
* * ηi
continua sau discreta. Daca
*** *
axa reala multimea rezultatelor H este
multimea numarabila, atunci X(η) este o
rezultatelor H variabila aleatoare discreta
4
(aruncarea cu zarul), daca multimea rezultatelor H este
nenumarabila, atunci variabila aleatoare este continua (masurarea
valorilor unei tensiuni).

Exemplu: aruncarea zarului; H = {toate fetele posibile)

η 1 2 3 4 5 6
X(η) 0 0 5 10 10 100

3. Functia de repartite a probabilitatii si densitatea de


probabilitate

Permit caracterizarea completa a unei variabile aleatoare.

Functia de repartitie a probabilitatii este:


• Fx ( x) = P({ X (η ) ≤ x}) .

Proprietatile ei sunt:

a) Fx ( −∞) = 0
b) Fx ( +∞) = 1
c) Fx ( x ) creste monoton

• Densitatea de probabilitate este:

dFx ( x)
f x ( x) =
dx

Aceasta derivata exista numai pentru varibile cu functie de


repartitie absolut continua. In punctele in care functia de repartitie
are salturi, se introduc distributii δ ponderate cu un factor egal cu
marimea saltului lui Fx(x) in punctul respectiv.
5
Functia de repartitie se poate deduce din densitate prin
integrare:

x
Fx (x) = ∫ fx(u)du.
−∞

Exemple:

Variabile aleatoare discrete Variabile aleatoare continue


(Aruncarea cu banul ) (Masurarea timpului de viata)

Fx(x) Fx(x)

1
1,0
(x/tmax)2
0,5
x x
tmax

fx(x) fx(x)

2/tmax

0,5
x x
tmax

Daca o variabila aleatoare discreta ia valorile xi cu i = 1, ..., M


atunci densitatea de probabilitate este de forma:
6
M
f x ( x ) = ∑ a i δ ( x − xi ) unde a i este saltul lui Fx ( x ) la xi :
i =1

ai = P ({ X (η ) = xi })
Introducan d cele doua relatii in expresia lui F ( x ) se obtine :
x
x
Fx ( x ) = ∫ f x (u ) du = ∑ P ({ X (η ) = xi })
−∞ xi ≤ x

Proprietat i ale densitatii de probabilit ate a unei variabile aleatoare :


a) f x ( x ) ≥ 0 pentru tot i x
+∞
b) ∫ f x ( x)dx = 1
-∞

Se poate calcula din f x ( x ) probabilit atea ca X (η ) sa ia o


valoare intre x1 si x2 :
x2
P ({ x1 ≤ X (η ) ≤ x2 }) = ∫ f x ( x ) dx
x1

Pentru var iabile discrete datorita proprietat ii de filtrare a lui δ ,


probabilit atea devine :
P ({ x1 ≤ X (η ) ≤ x2 }) = ∑ P ({ X (η ) = xi })
x1 ≤ xi ≤ x2

4.Valori medii ale variabilelor aleatoare (valori asteptate =


expected values)
Permit caracterizarea incompleta, partiala a variabilelor aleatoare.

• Momente de ordin n
(n) +∞
X = E{[ X (η )] } = ∫ x n f x ( x )dx = mx(n)
n

−∞

Pentru n = 1 (valoare medie liniara):


+∞
X = ∫ x f x ( x )dx pentru variabile continue
−∞
n
X = ∑ Pk xk pentru variabile discrete
k =1
Pk= P({X() = xk})
7
Operatorul de mediere se poate extinde si asupra functiilor
de variabila aleatoare. Daca g(X()) este o functie bijectiva
de variabila aleatoare X(), atunci:


E{g ( X ( η))} = ∫ g ( x )dFx ( x )
−∞
Daca desitatea de probabilitate fx(x) exista, atunci:

E{g ( X ( η))} = ∫ g ( x ) f x ( x )dx
−∞
Operatorul de mediere este un operator liniar:

E{ag ( X ( η))} = aE{g ( X (η))}

E{g ( X ( η)) + h(Y ( η))} = E{g ( X ( η))} + E{h(Y ( η))}

Pentru n = 2 (valoare medie patratica):


( 2) +∞
X = ∫ x 2 f x ( x )dx pentru variabile continue
−∞
( 2) n
= ∑ Pk xk
2
X pentru variabile discrete
k =1

• Momente centrale de ordin n:

+∞
( X − X ) ( n ) = E{[ X (η ) − X ]n } = ∫ ( x − X ) n f x ( x)dx
−∞
( n)
= x

Pentru n = 2 (varianta):

(2) +∞
(X − X ) = ∫ ( x − X )2 f x ( x )dx pentru variabile continue
−∞
Var{X( ` 1x
2
; 1x este dispersia (deviatia standard) a v.a.

Se poate arata ca:


8

Var{X( `
( 2)
1x
2
=X − {( X ) }2

Statistica clasica este o statistica de ordin 2, care descrie


variabilele aleatoare numai cu valori medii de ordinul 1 si 2.
Statisticile de ordin superior folosesc pentru caracterizarea
v.a. si valorile medii de ordin n >2. Valorile medii de ordin superior
lui 2 se numesc cumulanti. Interesul crescand din ultimul timp
pentru statisticile de ordin superior este justificat de urmatoarea
teorema:
O v.a. poate fi complet caracterizata daca se cunosc
valorile medii pana la ordinul n, cand n:’

5. Ansamble de doua variabile aleatoare

Pe acelasi spatiu al esantioanelor H se pot defini mai


multe variabile aleatoare, de exemplu X() si Y(), proiectand
multimea H a rezultatelor posibile pe doua multimi IR de numere
reale.
Pentru aceste doua variabile se pot defini:

6. Functia de repartitie a ansamblului:

FXY (x,y) = P({X()  x}@^ Y()  y}) si

Densitatea de probabilitate a ansamblului:

δ2 Fxy ( x, y )
f xy ( x, y ) = .
δxδy

Evenimentele sigure in aceasta situatie sunt {X()  ’`

respectiv{Y()  ’` LD
HYHQLPHQWHO LPSRVLELO ^X()  - ’`

respectiv{Y()  - ’`
9
Rezulta astfel pentru ansamblul de doua v.a. urmatoarele
Proprietati ale functiei de repartitie de ansamblu, FXY (x,y):

FXY (x, +’  FX (x)


FXY (+’, y) = FY (y)
FXY (x, - ’ 
FXY (- ’, y) = 0
FXY (+’,+’ 

Functia de repartitie a ansamblului se poate determina prin


integrarea densitatii de probabilitate a ansamblului:
+∞ +∞
FXY ( x, y ) = ∫ ∫ f XY (u, v )dudv .
−∞ −∞

Densitatile marginale de probabilitate se pot determina cu relatiile:


+∞
f X ( x ) = ∫ f XY ( x, y )dy
−∞
+∞
fY ( y ) = ∫ f XY ( x, y )dx
−∞

Proprietatile densitatii de probabilitate de ansamblu:


• este o functie nenegativa:
f XY ( x, y ) ≥ 0
• satisface conditia de completitudine:
+∞ +∞
∫ ∫ f XY ( x, y )dxdy = 1
−∞ −∞
Observatie: Pentru v.a. discrete densitatile de probabilitate se
inlocuiesc cu probabilitati, iar integrarile prin sumari.

Independenta statistica a doua variabile aleatoare


Este una din relatiile interesante pentru studiul sistemelor de
prelucrare a informatiei, deoarece efectele variabilelor pot fi luate in
consideratie separat. Conditia de independenta statistica este:

f XY ( x, y ) = f X ( x ). fY ( y ) .
10
Rezulta pentru functiile de repartitie relatia:

FXY ( x, y ) = FX ( x ). FY ( y ) .

Valori medii (momente) ale ansamblului

• Moment de ordin k, m

+∞ +∞
= E{ X (η )Y (η )} = ∫ ∫ x k y m f XY ( x, y )dxdy
( k ,m ) k m
mxy
−∞ −∞

pentru k = 1, m = 1, se obtine functia de corelatie mutuala


= Cor{ XY } = E{ XY }
(1,1)
mxy
• Moment centrat de ordin k, m
µ xy = E{( X (η ) − m X )k (Y (η ) − mY )m } =
( k ,m ) (1) (1)

+∞ +∞
= ∫ ∫ ( x − m X )k ( y − m y )m f XY ( x, y )dxdy
(1) (1)

−∞ −∞

pentru k = 1, m = 1, se obtine functia de covariatie mutuala


µ xy (1,1) = Cov{ XY } = E{( X (η ) − m X (1) ) (Y (η ) − mY (1) )} =
+∞ +∞
= ∫ ∫ ( x − m X ) ( y − m y ) f XY ( x, y )dxdy
(1) (1)

−∞ −∞

Intre Cor si Cov exista relatia :


Cov{ XY } = Cor{ XY } − E{ X } ⋅ E{Y } = E{ XY } − E{ X } ⋅ E{Y }
Variabile necorelate :
Cov{ XY } = 0 → E{ XY } = E{ X } ⋅ E{Y }
Variabile ortogonale :
Cor{ XY } = E{ XY } = 0
Doua variabile aleatoare independente statistic sunt necorelate :
11
+∞ +∞ +∞ +∞
E{ X (η )Y (η )} = ∫ ∫ xyf XY ( x, y )dxdy = ∫ ∫ xyf X ( x ) fY ( y )dxdy =
−∞ −∞ −∞ −∞
+∞ +∞
∫ xf X ( x )dx ∫ yfY ( y )dy = E{ X (η )}E{Y (η )}
−∞ −∞

Reciproca nu este intotdeauna adevarata: conditia de independenta


statistica este mai „tare” decat cea de necorelare (decorelare).

Coeficient de corelatie
µ XY E{( X (η ) − m X )(Y (η ) − mY )}
(1,1) (1) (1)
ρ XY = =
σ X σ Y | E{( X (η ) − m X (1) )2 } ⋅ E{(Y (η ) − mY (1) )2 } |
limitele domeniului de variatie ale coeficientului sunt :
- 1 ≤ ρ XY ≤ 1

Demonstratie:
 X (η ) − m (1) Y (η ) − m (1) 2 
E  X
± Y  ≥0

 σX σY  
valoarea medie a partii din stanga a relatiei este :
1 ± 2 ρ XY + 1 ≥ 0
care este valabila pentru ambele semne numai pentru | ρ XY |≤ 1

Coeficientul de corelatie arata relatia dintre doua variabile aleatoare :


1. Sunt decorelate pentru :
ρ XY = 0
2. Daca sunt liniar dependente : Y (η ) = aX (η ), atunci se poate arata
ca ρ XY = 1 pentru a > 0 si ρ XY = −1 pentru a < 0 .
12
Functia de repartitie conditionata si densitatea de probabilitate
conditionata.

FX ( x / B ) = P({ X (η ) ≤ x} / B )
dFX ( x / B )
f X ( x / B) =
dx
Pentru B = { X (η ) ≤ a}
P({ X (η ) ≤ x} ∩ { X (η ) ≤ a})
FX ( x / B ) =
P ({ X (η ) ≤ a})
x ≥ a → P ({ X (η ) ≤ x} ∩ { X (η ) ≤ a}) = P ({ X (η ) ≤ a})
⇒ FX ( x / B ) = 1
x ≤ a → P ({ X (η ) ≤ x} ∩ { X (η ) ≤ a}) = P ({ X (η ) ≤ x})
FX ( x )
⇒ FX ( x / B ) =
FX ( a )

 f X ( x) f X ( x)
 = a pentru x ≤ a
F
 X ( a )
∫ f X (u )du
dFX ( x / B )  −∞
f X ( x / B) = =
dx  0 pentru x ≥ a



Pentru B = {Y (η ) ≤ y}
FXY ( x, y )
FX ( x / B ) =
FY ( y )
f XY ( x, y )
f X ( x / B) =
fY ( y )
13
7. Densitati de probabilitate uzuale

Distributii discrete
• Uniforma, cand rezultatele experimentului aleator sunt egal
probabile: P ( X = xi ) = 1 / n i = 1,2,3,..., n
• Binomiala, cand intereseaza probabilitatea de aparitie a unui
eveniment A de probabilitate p de k ori in sirul de n repetitii
ale experimentului:
P ( X = k ) = Cnk p k (1 − p )n − k , k = 1,2,...n unde :
n!
Cnk = si m ! = m(m − 1)( m − 2)...( 3)( 2)(1); 0 ! = 1
k! ( n − k )!
Exemplu: Probabilitatea de eronare a k simboluri intr-un
cuvant de lungime n
• Poisson, cand intereseaza numarul k al rezultatelor pozitive
ale unui experiment intr-un interval de timp de lungime T :
λk − λ
P ( X = k ) = e , k = 0, 1, 2,...
k!
λ = λ ' T unde λ ' este numarul rezultatelor pozitive
cu
care apar in unitatea de timp.
Exemplu: Numarul apelurilor primite de o centrala telefonica
sau numarul electronilor emisi de un catod fierbinte.

Distributii continue:
• Distributia uniforma
1 /(b − a ), a ≤ x ≤ b
f x ( x) =
0 in rest
Media si varianta varibilei aleatoare uniforme sunt:
b+a
mx =
2
(b − a ) 2
σx =2
12
Exemplu: Eroarea de cuantizare
• Distributia normala (gaussiana) unidimensionala
14
Este cea mai utilizata, avand o forma analitica simpla; are
multiple aplicatii ca urmare a teoremei limita centrala.

fx(x)

1  ( x − mx ) 2 
f x ( x) = exp −
2πσ x
2
 2σ x2 
Aria = 1/2
Aria = P(X > mx + y σx) = Q(y)

x 1 ( x − mx )2 
P( X > a ) = ∫ exp  −
a 2πσ x
2
 2σ x2 
x

mx mx + yσx
Pentru schimbarea de variabila :
z = (x – mx)/σx, integrala precedenta devine:
x 1
P( X > a ) = ∫ exp( − z 2 / 2)dz
(a −mx ) /σ x 2π
O medoda de calcul a acestei integrale se bazeaza pe integrala
tabulata Q(y):
1 x
Q( y ) = ∫ exp( − z / 2)dz, y > 0
2
2π y
P ( X > a ) = Q[( a − mx ) / σ x ]
Deasemenea se poate calcula:
P ( X ≤ a ) = 1 − Q ( y ) sau:
P ( X ≤ 0) = 1 / 2
[1-2Q(a)]


P(X a) =
Q(a) Q(a)
1-Q(a)

0 a -a a
0 a
15
• Distributia normala bidimensionala
  x − m  2  y − m  
2

  X
 +  Y
 − 
1  − 1  σ X   σ Y  
f xy ( x, y ) =   
exp
2πσ X σ Y 1 − ρ 2  2 (1 − ρ 2
)  2 ρ ( x − m X )( y − mY )
  
  σ Xσ Y 

8. Transformari de variabile aleatoare


Cazul unidimensional: Y = g(X)

X Y X
g(X)

Exemplu: caracteristica unui amplificator


In ce consta problema: daca este cunoscuta fX (x) trebuie determinata
fY (y)
a) Cazul cand g(x) este bijectiva: g (x)
g: R :5
P{x ≤ X ≤ x + dx} = P{ y ≤ Y ≤ y + dy}
y+dy
⇓ y
x
1
f X ( x )dx = fY ( y )dy ⇒ fY ( y ) = f X ( x )
dy x x+dx
dx x = g −1 ( y )
b) Cazul cand g este bijectiva pe
portiuni: g(x)

g: R :5
∀y ∈ R, ∃xi ∈ R ⇒ g ( xi ) = y

x
f x ( xk )
fY ( y ) = ∑
dy 1 2 3 4 5 6

dx xk = g −1 ( y )
16
Cazul bidimensional:

x2 y2

 x

x2+dx2 y2+dy2
x2 y2 y1

x1 x1+dx1 x1 y1 y1+dy1

 y1 = g1 ( x1, x2 ) 
X → Y : 
g1 g 2

 2
y = g 2 1 2 
( x , x )
ϕϕ  x1 = ϕ1 ( y1, y2 ) 
Y → X : 
1 2

 2
x = ϕ (
2 1 y , y 2 
)

P{x ∈ ∆x} = P{y ∈ ∆y}

∆y
f x1x2 ( x1 x2 ) ⋅ ∆x = f y1y2 ( y1 y2 ) ⋅ ∆y ⇒ f y1y2 ( y1 y2 ) = f x1x2 ( x1 x2 ) ⋅
∆x
∆y
→ Jacobianul transformarii
∆x

 ∂y1 ∂y2 
 ∂x1 
∆y ∆( y1 y2 )  ∂x1  ⇒ f y y ( y1 y2 ) = f x x ( x1 x2 ) ⋅ 1
lim = =
∆x − >0 ∆x ∆ ( x x
1 2 )  ∂y1 ∂y2  1 2 1 2

 ∂x ∂x2 
 2

Exemplu: schimbarea de coordonate rectangulare / polare


17

x2

!  \1


x2
  \2


x1 x1

x1 = ! FRV  \1 cos(y2) !  \1 = x12 + x 22

x2  ! VLQ   \1 sin(y2)   \2 = arctg x2


x1

 ∂y1 ∂y2 
 ∂x ∂x1  cos( y2 ) sin( y2 )
∆ y→x = 1  = = y1 = x12 + x22
 ∂y1 ∂y2  − y1 sin( y2 ) y1 cos( y2 )
 ∂x ∂x2 
 2

∆x 1
f x1x2 ( x1 x2 ) = f y1 y2 ( y1 y2 ) ⋅ = ⋅ f y1 y2 ( y1 y2 )
∆y ρ
f y1 y2 ( y1 y 2 ) = ρ ⋅ f x1x2 ( x1 x 2 )

Modificarea coordonatelor duce la schimbarea distributiilor

x1 x2

Fx1x2 ( x1 x2 ) = ∫∫f
− ∞− ∞
x1x2 (u , v ) dudv
y1 y2

Fy1 y2 ( y1 y 2 ) = ∫∫f
−∞ −∞
y1 y2 (u , v) dudv

9. Variabile aleatoare complexe


Variabila aleatoare complexa Z se defineste cu ajutorul variabilelor
aleatoare reale X si Y:
Z = X+jY
Valoarea medie of g(Z) este definita ca:
18
∞ ∞
E{g ( Z )} = ∫ ∫ g ( z ) f X ,Y ( x, y )dxdy
−∞ −∞

media lui Z, mZ , este :


mZ = E{Z } = E{ X } + jE{Y } = m X + jmY
var ianta este :
σ Z2 = E{| Z − mZ |2 }
covarianta lui Z m , Z n este :
CZ m Z n = E{( Z m − mZ m ) * ( Z n − mZn )}
unde * semnifica complex conjugat

10. Vector aleator


Variabila aleatoare scalara ia valori pe axa reala, iar vectorul aleator
ia valori intr-un spatiu m dimensional Rm. Functia de repartitie a
vectorului aleator ca si densitatea sa de probabilitate se pot defini ca
pentru ansamble de m variabile aleatoare:
FX 1 ,..., X m ( x1 ,..., x m ) = P[( X 1 ≤ x1 )...( X m ≤ x m )
∂ m FX 1 ,..., X m ( x1 ,..., x m )
f X 1 , X 2 ... X m ( x1 , x 2 ,..., x m ) =
∂x1∂x 2 ...∂x m
Parametrii importanti sunt valorile medii si covariantele:
m X i = E{ X i }
σ X i X j = E{ X i X j } − m X i m X j
Legile probabilistice pentru vectori aleatori pot fi formulate concis,
folosind notatii vectoriale. Ansamblul de m variabile aleatoare X1,
…Xm poate fi reprezentat ca un vector coloana cu m componente:
 X1 
X 
X =  2  sau X T = [ X 1 X 2 ,..., X m ]
 .. 
X 
 m

Vectorul medie si matricea de covariatie sunt:


19

 E ( X1 ) 
 E( X ) 
m X = E(X ) =  2 

 ... 
 E ( X )
 m 

 σ X1X1 σ X1X 2 ... σ X1X m 


σ σ X2X2 ... σ X2Xm 
∑ X = E{XX T } − m X mTX = 2 1 
X X

 ... ... ... ... 


σ σ X m X m 
 X m X1 σ X m X 2 σ X1X1

componentele sunt necorelate daca:

σ X i σ X j = σ ij = 0, ∀i ≠ j

si independente daca:
m
f X 1 , X 2 ,..., X m ( x1 , x2 ,..., xm ) = ∏ f X i ( xi )
i =1

11. Functia caracteristica


• Definitie
Este transformata Fourier a densitatii de probabilitate.
R → C
Φ X ( jω ) =  jωX
Φ X ( jω ) = E{e }
pentru variabile discrete :

Φ X ( jω ) = ∑ e jωxk PX ( X = xk )
k =1

pentru variabile continue :

Φ X ( jω ) = ∫ e jωx f X ( x )dx
20
• Proprietati:

Φ X ( jω ) = ) * { f X ( x)}
1 ∞
∫ Φ X ( jω )e dω
− jω x
f X ( x) =
2π −∞
• Legatura cu momentul unei variabile aleatoare
Daca se diferentiaza functia caracteristica:
dΦ X ( jω ) ∞
= j ∫ xe jωx f X ( x )dx
dω −∞
dΦ X ( jω ) ∞
= j ∫ x f X ( x )dx = jE{ X }
dω ω =0 −∞

nd
n
Φ X ( jω )
E{ X } = ( − j )
n
dω n ω =0
∞ d n Φ X ( jω ) ωn
Φ X ( jω ) = ∑
n =0 dω n ω =0
n!
∞ ( jω )n ∞ ( jω )n
Φ X ( jω ) = ∑ E{ X } n
= ∑ mn
n =0 n! n =0 n!
1

Semnale si procese aleatoare


7LQD  FRQ   G PVXU  L! ! ! FDU O VXQ " SUHYL]LELO ! L WLPS

VHPQDOHO # SR $ &% % I HUDUKL]DW # ' ( L IHOX XUPWRU

• 6HPQDO ) GHWHUPLQLVWH *,+.- / UR HYROX L 0 1 L WLP 2 V 0 SRDW 0


SUHYHGHD 3 HO 0 ILL 1&4 0 GHVFULV G 0 5 IXQF L 0 G 0 WLP 2
cunoscuta, ca de exemplu X (t ) = A cos(ωt + ϕ ) .
• 6HPQDO 687 RQGL LRQD9 – GHWHUPLQLVWH :<;87 UR= HYROX L 6 L >
WLP ? V 6 SRDW 6 SUHYHG 6@; SDU LDO : GHRDUHF 6 X A
> ? DUDPHWU B D C
semnalului este o variabila aleatoare, ca de exemplu:
 X (t ) = A(η ) cos(ωt + ϕ ) sau

 X (t ) = A cos(ω (η )t + ϕ ) sau
 X (t ) = A cos(ωt + ϕ (η ))

• SemnaO 6 DOHDWRDUH :D;E7 UR= HYROX L 6 L> WLP? HVW 6 SUDFWL 7
imprevizibila si care vor fi studiate in continuare.

1. 'HILQL L F VHPQDOXOX G DOHDWRU

8 H VHPQD I DOHDWR J UHD I HVW 8


K L IXQF L K G K GR M SDUDPHWU M X (η , t )
unde η ia valori in VSD LX N HúDQWLRDQHORU O P t, de obicei, ia valori
LD

S Q D[ R UHDODSR]LWLY R S QV DU VHPQLILFD L T U G WLPS

2ULF V VHPQD W DOHDWR X V V RE LQ V Y F V Y XUPDU Z Z HIHFWXUL XQX

H[SHULPHQ [ FDU \ FRQVW ] ^ L DOHJHUH ] ^ GL _ VSD LX ` Ha HúDQWLRDQHOR

XQX a HúDQWL bc^ HOHPHQWD ` ηi FDU\ ]


GHWHUPLQ ] a DOHJHUH IXQF LH

X (ηi , t ) GL ^ IDPLOL ] \
G ada X (η , t ) (vezi figura).
IXQF

experiment
aleatoriu
X(ηi, t)

* * ηi

*** *

egfih j kmlonqp t1 t2 t
rezultatelor H
2
)LHFUH r YDORU r η rdr s X(η ,t), notata Xv (t),
FRUHVSXQG sut IXQF L

numita realizare particulara w x y{z VD IXQF L HúDQWLR VHPQDOXOXL

'DF | HVW} ~
FXQRVFX  € 
SURFHVX | €
DOHDWR SUL PXO LPH UHDOL]ULOR

sale particulare, in orice moment de timp t } }ƒ‚E„ | V RE LQ DULDELO

aleatoare Xt(η … † , ‡ ˆ
FRQVHFLQ D ‰ ‰ ‰
GXS FX YDULD] FH GR SDUDPHWU

η si tGHRVHELˆ Œ
Š ‹
XUPWRDUHO D]XUL

• η si t variabile: X(η ,t ŠŽ† ‘ ‡ ’ HVW VHPQD DOHDWRU DGLF

Š Š
IDPLOL “ G UHDOL]U SDUWLFXODUH

• η variabil si t fix: X(η ,t) = Xt(η ) este o variabila


aleatoare;
• η fix si t variabil: X(η ,t) = X” (t) este o realizare
•
SDUWLFXODUDDGLF IXQF L – – G WLP —{•™˜ LúQXLWD

• η si t fixe, X(η ,tšœ› HSUH]LQW žŸž  PU

2. Clasificarea semnalelor aleatoare.


• Semnale aleatoare in timp continuu, sau simplu semnale
aleatoare, constituite din o familie nenumarabila de
variabile aleatoare Xt(η ) cu t∈ ℜ .
1. Daca Xt(η ) pentru un t oarecare este o variabila
aleatoare continua, semnalul este de amplitudine
continua (figura a1); un exemplu îl poate constitui
tensiunea de la bornele unei prize electrice.
2. Daca Xt(η ) pentru un t oarecare este o variabila
aleatoare discreta, semnalul este de amplitudine
discreta (figura a2); un exemplu îl poate constitui un
semnal de date intr-o transmisie asincrona, când úLUX ¡
de date poate începe la orice moment de timp.
• Semnale aleatoare in timp discret sau serii aleatoare care
UHSUH]LQW • PXO LP – QXPDUDELO ¢ G – IXQF L “ DOHDWRDU –
notate Xn(η ), unde t = nT cu n ∈ Z .

1. Daca pentru un n oarecare, Xn(η ) este o variabila


aleatoare continua, seria este de amplitudine continua
(figura b1); un exemplu îl poate constitui un semnal
G £ DPSOLWXGLQ £ FRQWLQX ¤ DQDORJLF ¥ HúDQWLRQDW

2. Daca pentru un n oarecare, Xn(η ) este o variabila


aleatoare discreta, seria este de amplitudine discreta
ILJXU ¦ E § V ¨ V © PD ¨ QXPHúW © V ¨«ª DQ DOHDWRU ®
¬ ­ ¯
3
exemplu îl poate constitui un semnal analogic
HúDQWLRQD ° ± V FXDQWL]D °

Xi(t)
X1(t)

Xi(t) t
t
t = ti
Fig. a2
XN(t)
Fig. a1

T
q

T
t t

Fig. b1 Fig. b2

3. )XQF L ² ³ G UHSDUWL L ´ µ
V GHQVLWDW µ ´ G SUREDELOLWDW ´ DO ´
semnalelor aleatoare in timp continuu
• )XQF L¶¸·º¹ UHSDUWL L »½¼ƒ¾ UREDELOLWDWLOR¿ G » RUGLQX À  se
GHILQHúW Á Â
F SHQWU ÃÅÄÇÆ DULDELO Â DOHDWRDU Á FRQWLQX Â RE LQXW Â
din semnalul aleator la un moment oarecare de timp:
FX ( x, t ) = P( X (η , t ) ≤ x )
• Densitatea de probabilitate de ordinul 1 V Á GHILQHúW Á WRÈ
ca pentru o variabila aleatoare continua si este:
∂F ( x, t )
f X ( x, t ) = X
∂x
• )XQF L¼ ɺ» UHSDUWL L » G » RUGLQX À Q se refera la n v.a.
continue, considerate la n momente de timp diferite:
FX 1 , X 2 ,...., X n ( x1, x2 ,...., xn ; t1, t2 ,...., tn ) = P ( X 1 ≤ x1,..., X n ≤ xn )
unde am notat X i = X (η , ti ).

• Densitatea de probabilitate de ordin n este:


4

∂ FX 1 ,.., X n ( x1,.. xn ; t1,..tn )


n
f X 1 ,.., X n ( x1,.., xn ; t1,.., tn ) =
∂x1,.., ∂xn
)XQF LLO Ê G Ê UHSDUWL L Ê V Ë GHQVLWDWLO Ê G Ê SUREDELOLWDW Ê Ì Ê
O

semnalului aleator depind de momentele de timp ti la care


sunt considerate variabilele aleatoare.
• )XQF LÍ ÎºÏ UHSDUWL LÐ Ñ Ñ Ò VDPOXOX Ó G Ð ÔÖՐ×ØÑ VHPQDOH
aleatoare continue in timp X(W) si Y(W) definite pe
DFHODú Ù VSD L Ú Û D HúDQWLRDQHOR Ü HVWH

FXY ( x , y ; t1 , t2 ) = P ( X (η , t1 ) ≤ x , Y (η , t2 ) ≤ y )
• Densitatea de probabilitate a ansamblului de doua
semnale aleatoare continue in timp mai sus considerat
este:
∂ 2 FXY ( x, y; t1, t2 )
f XY ( x, y; t1, t2 ) =
∂x∂y
'DF Ý GRX Ý VHPQDO Þ VXQ ß GHILQLW Þ S Þ Ý FHODú Ù VSD L Ú D Û
HúDQWLRDQHORU à DWXQF Ù V Þ SRDW Þ YHULILF Ý GDF Ý VXQ ß VWDWLVWL á
independente.
4. Semnale aleatoare statistic independente
'HILQL LH: Doua semnale aleatoare X(W) si Y(W) definite pe

DFHODú â VSD L ã D ä HúDQWLRDQHOR å V æ QXPHV ç VWDWLVWL ç LQGHSHQGHQW æ


daca pentru orice momente t11,…,t1i din intervalul de timp pe care
este definit X(W) si pentru orice momente t21,…,t2j din intervalul
de timp pe care este definit Y(W), variabilele aleatoare
X(W11),…, X(W1i) sunt statistic independente de variabilele
aleatoare Y(W21),…, Y(W2j). Atunci, cu t1∈ Tx , t 2 ∈ Ty (Tx si Ty
sunt intervalele pe care se observa semnalele aleatoare X, Y:
FXY ( x, y; t1, t2 ) = FX ( x, t1 ) ⋅ FY ( y , t2 )
f XY ( x, y; t1, t2 ) = f X ( x, t1 ) ⋅ fY ( y , t2 )
In interpretare fizica, intre doua semnale statistic independente nu
V æ SRDW æ VWDE âdädâ QLF âéè OHJWXUD ê HO æ SURYL ë ì æ UHJXO í GL ë VXUV æ
diferite si de aceea efectele lor in sistemele de prelucrare a
LQIRUPD LH â SR î âä I XDW æ ë L FRQVLGHUD L æ VHSDUDW

Pentru cazul in care variabilele aleatoare X(W1i) si Y(W2j) sunt


GLVFUHWHFRQGL L í æ G LQGHSHQGHQW í VWDWLVWLF í GHYLQH

Pkn = Pk P n unde : Pkn = P ( X (η , t1i ) = ak , Y (η , t2 j ) = bn ) ,


5
Pk = P( X (η , t1i ) = ak )
Pn = P(Y (η , t2 j ) = bn )
iar ak si bn sunt valori ale variabilelor X si YDOHV ï GL ð úLUXULO ï ï
G

valori posibile ale acestor variabile:


{a1, a2 ,..., ak , ...} respectiv {b1, b2 ,..., bn ,...}

5. Valori medii statistice ale semnalelor aleatoare


3HQWU ñ ñ ò VHPQD ó le DOHDWRU ô S õ PXO LPH ö UHDOL]ULOR ÷ VD

particulare, se pot defini doua tipuri de valori medii: valori medii


VWDWLVWLF õéö õ O UHDOL]ULOR ÷ SDUWLFXODU õ öøñò
O DQXPL ù PRPHQ ù õ G WLP ú
X(η1 t) Valoare medie statistica

Valoare medie temporala


t
X(η3 t)
t

X(η4 t)

t
X(η5 t)
t

V û YDORULO õ PHG ûdû ù HPSRUDO õŒö õ O ILHFUH û UHDOL]U û SDUWLFXODUH

Valorile medii statistice sunt de fapt valori medii ale variabilelor


aleatoare considerate la un anumit moment de timp si care devin
DVWIH ó IXQF üdü ý
G WLPS þ $FHVW ý YDORU ü PHG üdü ý
V GHILQHV ÿ F V ü SHQWU 
variabile aleatoare, ceea ce se vede in continuare:
• Valoarea medie liniara
+∞
m(x1) (t ) = E{ X (η , t )} = ∫ xf X ( x, t )dx
−∞
• Valoare PHGL ý SWUDWLFD

+∞
m(x2 ) (t ) = E{ X 2 (η , t )} = ∫ x 2 f X ( x, t )dx
−∞
• Varianta
+∞
σ X2 (t ) = E{( X (η , t ) − m X (t )) } = ∫ ( x − m x (t ))2 f X ( x, t )dx
2
−∞
6
• )XQF L   G DXWRFRUHODWLHFDU  PVRDU OHJWXU   
DU H[LVW 
intre valorile semnalului aleator la momente de timp diferite
∞ +∞
RX 1 X 2 (t1 , t2 ) = E{ X (η , t1 ) X (η , t2 )} = ∫ ∫ x1 x2 f X 1 X 2 ( x1 x2 ; t1, t2 )dx1dx2
−∞ −∞

• )XQF L   G DXWRYDULDWLHFDU  HVW  IXQF L  


G DXWRFRUHODWL 
semnalului centrat pe valoarea sa medie si are expresia:

C X1 X 2 (t1 , t2 ) = E{( X (η , t1 ) − m x (t 1))( X (η , t 2 ) − m x (t 2 ))} =


+ ∞+ ∞

∫ ∫ (x
− ∞− ∞
1 −m x (t 1))( x2 − m x (t2 )) f X1 X 2 ( x1 x 2 ; t1 , t2 )dx1dx2

Se poate arata ca se pastreaza relatia dedusa la variabile aleatoare :


C X1 X 2 (t1 , t2 ) = R X1 X 2 (t1 , t 2 ) − m x (t 1)m x (t2 )
• Functia de intercorelatie sau de corelatie mutuala intre doua
semnale aleatoare X (η , t1 ) si Y (η , t2 )
+ ∞+ ∞
R XY (t1 , t2 ) = E{ X (η , t1 )Y (η , t 2 )} = ∫ ∫ xy f
−∞−∞
XY ( xy ; t1 , t 2 )dxdy

• Functia de covariatie sau de intervariatie


C XY (t1 , t2 ) = E{( X (η , t1 ) − m x (t 1))(Y (η , t2 ) − m y (t2 ))} =
+ ∞+ ∞

∫ ∫ ( x −m (t ))( y − m
− ∞− ∞
x 1 y (t 2 )) f XY ( x, y; t1 , t2 )dxdy

• Semnale aleatoare necorelate : doua semnale aleatoare definite


pe acelasi spatiu al esantioanelor sunt necorelate daca pentru
toate valorile t1 ∈ Tx si t 2 ∈T y variabilele aleatore respective
sunt necorelate , adica daca :
E{ X (η , t1 )Y (η , t 2 )} = E{ X (η , t1 )}E{Y (η , t2 )}
• Semnale ortogonale : doua semnale aleatoare definite
pe acelasi spatiu al esantioanelor sunt ortogonale daca pentru
toate valorile t1 ∈ Tx si t 2 ∈T y variabilele aleatore respective
sunt ortogonale, adica daca :
E{ X (η , t1 )Y (η , t 2 )} = 0
• Daca doua semnale aleatoare sunt necorelate si daca cel putin
unul din ele are valoarea medie nula, atunci ele sunt si ortogonale
• Daca doua semnale sunt statistic independente, atunci ele sunt
si necorelate . Reciproca nu este intotdeauna adevarata!
7

6. Valori medii statistice ale semnalelor aleatoare


discrete
Valorile medii statistice se calculeaza pe ansamblul realizarilor
particulare considerate la momente arbritare de timp t1, t2, …, ti,
…, deci asupra variabilei aleatoare ce rezulta in aceste
momente de timp. Se mai numesc valori medii pe ansamble si
depind de alegerea momentelor de timp alese.
Acestea sunt:

• Valoare medie (moment de ordinul 1, media liniara)


mx ( n ) = E [ X ( η , n )] = ∑ ak Pk ( n )
k
unde {a1, …, ak, …, aN} reprezinta ansamblul valorilor posibile.
• Valoarea patratica medie (moment de ordinul 2)
m(x2 )( n ) = E [ X 2 ( η , n )] = ∑ ak2 Pk ( n )
k
• Varianta

σ 2 ( n ) = E [ X 2 ] − ( E [ X ])2
• Momentul de ordinul n

m(xn )( n ) = E [ X n ( η , n )] = ∑ akn Pk ( n )
k

• Functia de autocorelatie

N N
Rxx ( n1 , n2 ) = E [ X ( η , n1 ) X ( η , n2 )] = ∑ ∑ ai a j Pij ( n1 , n2 )
i =1 j =1

Pij ( n1 , n2 ) = P( X ( η , n1 ) = ai , X ( η , n2 ) = a j )

• Functia de corelatie mutuala a doua semnale


aleatoare X ( η ,t ) si Y ( η ,t )
N N
Rxy ( n1 , n2 ) = ∑ ∑ ai b j Pij ( ai ,b j ; n1 , n2 )
i =1 j =1
cu
Pij ( ai ,b j ; n1 , n2 ) = P( X ( η , n1 ) = ai ,Y ( η , n2 ) = b j )
8

unde ai, i=[1,N], sunt valorile posibile ale lui X ( η , n1 ) iar bj,
j=[0,N], sunt valorile posibile ale lui Y ( η , n2 ) .
• Functia de autovariatie
C xx ( n1 , n2 ) = Rxx ( n1 , n2 ) − m x ( n1 )mx ( n2 )
• Functia de covariatie a doua semnale X ( η ,t ) si
Y ( η ,t )

C xy ( n1 , n2 ) = Rxy ( n1 , n2 ) − m x ( n1 )m y ( n2 )

7. Valori medii pentru semnale aleatoare complexe


Z ( η ,t ) = X ( η ,t ) + jY ( η ,t )
deducem E [ Z ( η ,t )] = E [ X ( η ,t )] + jE [ Y ( η ,t )]

• Momentul de ordinul 2
M z ( t1 ,t2 ) = E [ Z ( η ,t1 )Z ( η ,t 2 )]
• Functia de autocorelatie continua

Rzz ( t1 ,t 2 ) = E [ Z ( η ,t1 )Z * ( η ,t 2 )]
• Functia de autocorelatie discreta

Rzz ( n1 , n2 ) = E [ Z ( η , n1 )Z * ( η , n2 )]
cu proprietatile:
M z ( t1 ,t 2 ) = M z ( t 2 ,t1 ), ∀t1 ,t 2
simetrie hermitica Rzz ( t1 ,t2 ) = R* zz ( t 2 ,t1 ), ∀t1 ,t 2

• Corelatia statistica de ordinul n


Rx ( t1 ,t 2 ,..., t n ) = E [ X ( η ,t1 ) X ( η ,t 2 )...X ( η ,t n )]
9

8. Medii temporale pentru semnale in timp continuu


Mediile temporale se calculeaza pe o realizare particulara
X ( η ,t ) si depind de parametrul η din spatiul esantioanelor.
Acestea sunt:

• Valoarea medie liniara


T
1 2
mxη = Xη ( t ) = lim ∫ X ( η ,t )dt = X η ( t0 + t )
T →∞ T T

2
Deci nu depinde de originea timpului t0.
Valoarea medie temporala reprezinta componenta continua a
semnalului si este ea insasi o variabila aleatoare deoarece depinde
de η . Valoarea sa medie statistica este:
T
1 2
E [ X η ( t ) ] = lim ∫ E [ X ( η , t )] dt = m x
T →∞ T T

2
Rezulta ca valoarea medie statistica a tuturor valorilor
medii liniare temporale este egala cu valoarea medie liniara
statistica a semnalului.
• Valoarea patratica medie (moment de ordinul 2)
T
1 2
[ Xη ( t )] 2 = lim ∫ [ X ( η ,t )] dt = [ X η ( t0 + t )]
2 2
T →∞ T T

2
Valoarea patratica medie, nu depinde de originea timpului si
reprezinta puterea medie a semnalului pe sarcina unitara.
10

• Momentul de ordinul n

T
1 2
[ Xη ( t )] n = lim ∫ [ X ( η ,t )] dt = [ X η ( t0 + t )]
n n
T →∞ T T

2
• Functia de autocorelatie
Depinde de diferenta dintre momentele de timp considerate.

Rxx ,η ( t1 ,t 2 ) = Xη ( t1 + t ) Xη ( t 2 + t ) =

T
2
= lim ∫ X ( η ,t1 + t ) X ( η ,t2 + t )dt = Rxx ,η ( t 2 − t1 )
T →∞ T

2
• Functia de corelatie mutuala
Rxy ,η ( t1 ,t 2 ) = Xη ( t1 + t )Yη ( t 2 + t ) =
T
2
= lim ∫ X ( η ,t1 + t )Y ( η ,t2 + t )dt = Rxy ,η ( t 2 − t1 )
T →∞ T

2
Se poate demonstra ca: Rxy ,η ( τ ) ≠ Rxy ,η ( −τ )
Rxy ,η ( τ ) = R yx ,η ( −τ ); τ = t 2 − t1
• Functia de autovariatie
C xx ,η ( t1 ,t 2 ) = [ Xη ( t1 + t ) − m x ][ Xη ( t 2 + t ) − mx ] = C xx ,η ( t 2 − t1 )
• Functia de covariatie
C xy ,η ( t1 ,t 2 ) = [ X η ( t1 + t ) − mx ][ Yη ( t 2 + t ) − m y ] = C xy ,η ( t 2 − t1 )
11

9. Medii temporale pentru semnale in timp discret

Daca semnalul aleator este definit doar in momente discrete de


timp, in formulele anterioare se inlocuieste indicele t ∈ ℜ prin
indicele n ∈ Z , stiind ca tn = nT unde T reprezinta intervalul de
timp intre doua momente de timp, iar integrarea se inlocuieste
printr-o insumare. De exemplu:

• Valoarea medie liniara


N
1 2
mx = lim ∑ X ( η0 ,i )
N →∞ N + 1

N
=− i
2
S-a notat X ( η0 ,i ) pentru X ( η0 ,iT ) sau, inca, X ( η0 ,ti ) .
Indicele η este un element arbritar al spatiului esantioanelor.
• Momentul de ordinul n

N /2
1
m (n)
Xη = lim ∑ X n (η 0 , i )
N + 1 i=− N / 2
N →∞
• Functia de autocorelatie
N
1 2
Rxx ,η0 ( m ) = lim ∑ X ( η0 ,i ) X ( η0 ,i + m )
N →∞ N + 1 N
=− i
2

Functia de corelatie mutuala


N
• 1 2
Rxy ,η0 ( m ) = lim ∑ X ( η0 ,i )Y ( η0 ,i + m )
N →∞ N + 1 N
i=−
2
12

• Functia de corelatie circulara


N
1 2
rxy ( m ) ≅ ∑ X ( η0 ,i )Y ( η0 ,i + m )
N +1 N
i=−
2
Observatii:

♦ In cazul seriilor aleatoare digitale (semnale digitale sau


semnale discrete in timp cu amplitudine discreta), variabila
aleatoare X ( η0 ,i ) (respectiv Y ( η0 ,i ) ) ia valori in alfabetul
finit { a1 , a2 ,..., ak ,..., an } (si, respectiv, { b1 ,b2 ,...,b j ,...,bm } ).
Autocorelatia ca medie temporala devine:
N
1 2
Rxx ,η0 ( h ) = lim ∑ ak ak + h
N →∞ N + 1 N
k =−
2
Corelatia mutuala temporala a doua semnale digitale este:

N
1 2
Rxy ,η0 ( h ) = lim ∑ ak bk + h
N →∞ N + 1 N
k =−
2
♦ Corelatiile temporale de ordinul n depind de realizarea
particulara aleasa prin parametrul η si de n variabile
τ 1 ,τ 2 ,...,τ n −1 reprezentand diferentele dintre momentele de
timp considerate :
τ i = ti +1 − ti , i = 1,..., n

10. Stationaritate

Definitie: Un semnal aleator este stationar daca


proprietatile sale statistice sunt invariante in raport cu
13

schimbarea originii timpului sau, echivalent, la orice translatie


de timp.
Doua semnale sunt simultan stationare daca fiecare este
stationar si daca proprietatile lor statistice simultane sunt
invariante la orice translatie de timp.
Stationaritatea poate fi in sens strict sau in sens larg.

Stationaritate in sens strict


Definitie(stationaritate in sens strict sau tare): Un semnal
este stationar tare sau in sens strict daca functia sa de repartitie
(legea temporala) de orice ordin este invarianta la orice
translatie de timp τ .

Fn ( x1 ,..., xn ; t1 ,...,t n ) = Fn ( x1 ,..., xn ; t1 + τ ,...,tn + τ )


Rezulta ca densitatile de probabilitate de orice ordin n sunt
invariante la orice translatie de timp.
Daca semnalul este o secventa digitala aleatoare X ( η , n ) cu
valori in alfabetul { a1 , a2 ,..., ak ,..., a N } , atunci stationaritatea
in sens strict presupune:
- Pi = P( X n = ai ) este independenta de n
- P( a1 ,..., a N ) = P( X 1 = a1 ,..., X n = a N ) depinde numai
de diferentele de timp.

Stationaritate in sens larg

Definitie(stationaritate in sens larg sau slaba): Un semnal este


stationar in sens larg sau slab daca functiile sale de repartitie de
ordinul 1 si 2 sunt invariante la orice translatie de timp τ .

F1( x ,t ) = F1( x ,t + τ ) = F1( x )


F2 ( x1 , x2 ; t1 ,t 2 ) = F2 ( x1 , x2 ; t1 + t ,t 2 + t ) = F2 ( x1 , x2 ;τ ), τ = t 2 − t1
Ca urmare densitatile de probabilitate de ordinul 1 si 2 sunt
invariante la orice translatie de timp si deci:
m x = E [ X ( η ,t )] - nu depinde de timp
14

m(x2 ) = E [ X 2 ( η ,t )] - nu depinde de timp


Rxx ( τ ) = E [ X ( η ,t ) X ( η ,t + τ )] - depinde de diferenta de timp
Rxy ( τ ) = E [ X ( η ,t )Y ( η ,t + τ )] - depinde de diferenta de timp

In cazul unui semnal digital, stationaritatea in sens larg se


defineste prin:
- Pi = P( X n = ai ) este independenta de n
- Pij ( n , k ) = P( X n = ai , X k = a j ) = Pij ( n − k ) depinde
numai de n-k.
Stationaritatea in sens larg se mai numeste stationaritate
pana la ordinul al doilea. Spre deosebire de aceasta,
stationaritatea simpla de ordinul al doilea se refera doar la
invarianta in timp a proprietatilor statistice de ordinul al doilea,
ceea ce nu implica si stationaritatea de ordinul intai. De
exemplu, in cazul unei secvente digitale aleatoare,
probabilitatea
N N
Pi = P( X n = ai ) = ∑ P( X n = ai , X k = a j ) = ∑ Pij ( n − k )
j =1 j =1
nu depinde de alegerea lui X k dar poate depinde de n desi
Pij ( n − k ) depinde numai de (n-k).

In concluzie: stationaritatea in sens larg este verificata


prin relatiile:
• cazul semnalelor discrete in timp
- E [ X n ] independenta de n
- E [| X n |2 ] < ∞
- Rxx ( n1 , n2 ) = Rxx ( n2 − n1 )
• cazul semnalelor continue in timp
15

- E [ X ( η ,t )] independenta de t
- E [| X ( η ,t ) |2 ] < ∞
- Rxx ( t1 ,t 2 ) = Rxx ( t 2 − t1 )
- continuitatea in origine a functiei de autocorelatie
care asigura continuitatea realizarilor particulare in
medie patratica.
15
11. Ergodicitate
Stationaritatea este o proprietate a unui semnal aleator care

 DW I GHWHUPLQDW  GHFk  GL
 PXO LPH  WXWXUR  HDOL]ULOR 
particulare. Din punct de vedere practic, interesant este cazul in
care o singura realizare particulara poate fi luata drept model
pentru întregul proces aleator.
8  DVHPHQH  
D UHSUH]LQW VHPQDOHO  DOHDWRDU  VWD LRQDU 
DO  FUR  PHGL VWDWLVWL !#" VXQ $ HJDO " !&% PHGLLO " WHPSRUDO "
FRUHVSXQ]WRDU '(' IHFWXDW ' S '*) VLQJXU + UHDOL]DU ' SDUWLFXODUD , '
G

care se dispune simplu. Aceste semnale se numesc ergodice.

'HILQL L - HUJRGLFLWDW - WDUH  8 . VHPQD / VWD LRQD 0 V 1


QXPHúW 2 ergodic tare sau in sens strict daca mediile temporale
SDQ 3 3 O RUGLQX 465 DO 2 XQH 7 UHDOL]U 8 SDUWLFXODU 9: UELWUDU 9 VXQ ; HJDOH

cu probabilitate 1, cu mediLO 9 VWDWLVWLF 9 9<: G FHODú 8 RUGLQ = SHQWU >


orice n.
'HILQL L ? HUJRGLFLWDW ? VODED  8 @ VHPQD A VWD LRQD B V C
QXPHúW C
ergodic slab sau in sens larg daca mediile statistice de
ordinul întâi si al doilea sunt egale, cu probabilitatea 1, cu mediile
temporale ale unHD UHDOL]U E SDUWLFXODU F DUELWUDU F G F DFHODú E RUGLQ
Egalitatea, cu probabilitatea 1, a unei medii statistice cu o
PHGL G WHPSRUDOD H G
G H[HPSOX H I L FD]X J RUGLQXOX K vQWkL H vQVHDPQ

convergenta in probabilitate:
m X (t ) = E [X (η , t )]
m Xη (η ) = X (η , t )

T →∞
{
lim P m Xη (η ) − m X (t ) < ε = 1 }
ceea ce implica anularea variantei variabilei aleatoare m Xη (η ) .
Deoarece demonstrarea ergodicitatii este, in general, anevoioasa,
adesea in practica este suficienta considerarea ergodicitatii in
raport cu media liniara (de ordinul întâi), care poate fi numita
erodicitate practica.
'HILQL L L HUJRGLFLWDW L SUDFWLF M V MON P L UDSRU Q N F PHGL M
liniara) R 8S VHPQDT DOHDWRU VWD LRQDU V V QXPHúWV SUDFWL WXV UJRGL W
daca varianta mediei temporale este nula:
16

[
var m Xη (η ) ] = σ m2 Xη =0

Interpretarea fenomenului de ergodicitate practica (sau in


raport cu media liniara) este imediata. Deoarece m Xη (η ) este o
variabila aleatoare obtinuta printr-un proces la limita, conditia din
definitia anterioara poate fi rescrisa sub forma:
1 T /2 
lim var  ∫ X (η , t ) dt =0
T →∞  −T / 2
T 
sau, daca se introduce o noua variabila aleatoare:
1 T /2 
m Xη (η , t ) =  ∫ X (η , t ) dt 
T −T / 2 
lim var m Xη (η , t ) = 0 sau
T →∞
lim m Xη (η , t ) = m X
T →∞
Considerând un úLY G Z PRPHQW Z Tn → ∞ , fiecare dintre
variabilele aleatoare m Xη (η ,Tn ) are media m X , varianta tinzând
la zero pentru n = ∞ (fig. 1)

m Xη (η ,Tn )

mX

T
0 T1 T2 Tn → ∞
Figure 0
Fig.1. Reprezentarea fenomenului de ergodicitate practica.
Punctele indica valori ale variabilelor aleatoare m Xη (η ,Tn )
oscilând in jurul mediei m X , varianta tinzând la zero pentru
n → ∞.

8 [ FULWHUL \^] Z HUJRGLFLWDW Z XWL _ HVW Z FRQ LQX ` [


L WHRUHP a XUPWRDUH
17

Teorema (criteriul de ergodicitate practica): Fie un semnal


stationar in sens larg X ( η ,t ) continuu in timp. Daca:
1 T  τ 
lim ∫ 1 − T C XX (τ )dτ = 0 ,
T → ∞ T −T 
 
atunci semnalul X ( η ,t ) este practic ergodic.
Demonstratie:
'L b FRQGL L c G d c QXODU d c YDULDQWH e PHGLH egf HPSRUDO d OLQLDUH

rezulta:

{[
σ m2 Xη = E m Xη (η ) − m X ]2 }= E{[m Xη (η )]2 }− (m X )2
1 T /2 T /2
= lim ∫ X (η , v) X (η , u )dvdu − (m X )
2

T → ∞ T 2 − T / 2 −T / 2
cu schimbarea de variabile
v − u =τ ⇒ v = u +τ ,
v = v,
se trece de la planul ( v ,u ) la planul ( v ,τ ) . Domeniul de integrare
in planul ( v ,u ) din fig.2a se transforma in domeniul de intregrare
din fig2b, limitele obtinandu-se din:

T T
u= ⇒ v =τ + ,
2 2
T T
u = − ⇒ v =τ − .
2 2
Cu aceasta, integrala dubla din ultima expresie a lui σ m2 Xη
se transforma in integrala simpla, deoarece elementul de VXSUDID c
( dvdu ) din planul ( v ,u ) se transforma in elementul ( T − | τ |)dτ
din planul ( v ,τ ) :
dvdu → ( T − | τ |)dτ
18

v v
T
2 T
T T 2

2 2 -T
u 2
0 0 T T
2
T T
− −
2 2
a) b)

Fig.2 transformarea domeniului de integrare prin substitutia


v −u =τ

Intr-adevar, aria paralelogramului din fig.2b se obtine prin


scaderea suprefetei hasurate in fig.3b din suprafata hasurata din
fig.3a.

v v =| τ |
T
2

2 2

-T T -T T
T

2
a) b)

Fig.3. Calculul elementului de suprafata in planul ( v ,τ )

T
T T T
Rezulta deci: 2 ∫ dτ − ∫ | τ | dτ = ∫ ( T − | τ |)dτ
−T 2 −T −T
19
T T
2 2
in loc de ∫ ∫ dvdu
T T
− −
2 2

Teorema este demonstrata deoarece expresia lui σ m2 xη devine


1 T |τ |
σ m2 xη = lim ∫ (1 − )C XX (τ )dτ = 0
T → ∞ T −T T
Un alt criteriu practic de recunoastere a ergodicitatii unui
semnal aleator este dat de urmatorul corolar al teoremei
precedente.
Corolar (alt criteriu de ergodicitate practica): Daca IXQF Lh
de autocovarianta a unui semnal aleator X ( η ,t ) VWD LRQDi WLQG j
FWU j ]HUR

lim C XX (τ) = 0 ,
τ →∞
atunci semnalul X ( η ,t ) este practic ergodic.
'HPRQVWUD LH

Pentru orice ε > 0 se poate alege un τ ' > 0 astfel incat:


| C XX (τ) |< ε, τ > τ' .
Rezulta, atunci, pentru T > τ ' :
1T |τ| ε T |τ|
| ∫ (1 − )C XX (τ)dτ |≤ ∫ (1 − )dτ = 2ε .
T −T T T −T T
1T |τ|
Deci: lim ∫ (1 − )C XX (τ)dτ = 0
T →∞ T T T

si din teorema anterioara rezulta ca semnalul X ( η ,t ) este practic
ergodic.

• Prin urmare, pentru a verifica ergodicitatea unui semnal aleator


in raport cu valoarea sa medie liniara, trebuie calculata IXQF Lh
sa de autocovarianta C XX (τ ) , deci o valoare medie de ordinul
al doilea.
In general, pentru verificarea ergodicitatii unei valori medii de
ordinul k HVW j QHFHVDi V h V j GLVSXQ G jkml DORDU j PHGL j G j RUGLQX n
2k.
20
Demonstrarea ergodicitatii unui proces aleator este dificila si, ca
DWDUH o V p p IHFWXHD] QXPD q qsr FD]XU q VSHFLDOH o DOWPLQWHU q
proprietatea de ergodicitate este doar presupusa.
• Ergodicitatea implica întotdeauna proprietatea de stationaritate
F tvu FRQGL L p QHFHVDUD o GDw LQVXILFLHnta. Ierarhizarea claselor

VHPQDOHOR w VWD LRQDU x y V HUJRGLF x HVW x UHSUH]HQWDW z { L ILJ

2EVHUYD LH

Doua semnale aleatoare sunt simultan ergodice daca ambele


VXQ | HUJRGLF } ~ V GDF  PRPHQWHO } OR € PXWXDO } FRUHOD L  PXWXDO  ~
V

FRYDULDQ D  VWDWLVWLF ‚ VXQ ƒ H gale cu cele temporale.

semnale
aleatoare

semnale
stationare
in sens
larg

semnale
stationare
in sens
strict
semnale
ergodice
in sens
semnale larg(slab)
ergodice in
sens
strict(tare)

Fig.4. Ierarhizarea semnalelor aleatoare dupa proprietatile de


stationaritate si ergodicitate.
21
Exemplu:
Fie un semnal aleator sinusoidal cu amplitudinea, frecventa
si faza aleatoare:
X ( η ,t ) = A( η ) sin[ ω ( η )t + ϕ ( η ) ,
unde A( η ),ω ( η ) si ϕ ( η ) sunt variabile aleatoare independente;
A( η ) si ω ( η ) au DFHHDú„ IXQF L … G … UHSDUWL L … V „†„ D‡‰ˆ DORULO… A ≥ 0
si, respectiv, ω ≥ 0 .
1
In schimb,ϕ ( η ) DU …<Š UHSDUWL L … XQLIRUPD ‹ f ( ϕ ) = , in

intervalul [ 0 ,2π ] .
5HDOL]ULO ΠSDUWLFXODU ΠWUDLHFWRULile) semnalului aleator dat sunt

semnale sinusoidale uzuale (fig.5).

4 A1 sin( ω 1t + ϕ 1 ) Ai sin( ω i t + ϕ i )

-2

-4
0 2 4 6 8 10 12
t
Fig.5. Realizari particulare sinusoidale ale unui semnal aleator
cu amplitudinea, frecventa si faza aleatoare.

a) $FHV  VHPQD Ž HVW  VWD LRQD  GHRDUHF  DU  UHSDUWL LLOH

respectiv densitatile de probabilitate, invariante la


WUDQVOD LLO  
G WLPS

f n { A sin( ωt1 + ωτ + ϕ ),..., A sin( ωt n + ωτ + ϕ )} =


= f n { A sin( ωt1 + ϕ ),..., A sin( ωt n + ϕ )}
Daca se noteaza:
22
ψ = ϕ + ατ ,
ψˆ = ψ + 2πk , k = int reg ,
atunci ramane de demonstrat egalitatea:
f ( A,ω ,ψˆ ) = f ( A,ω ,ϕ ) ,
unde s-au definit evenimentele simultane
A( η ) ≤ A,ω ( η ) ≤ ω ,ψˆ ( η ) ≤ ϕ .
Dar A,ω ,ϕ sunt variabile aleatoare independente, de unde rezulta
si independenta v.a. A,ω ,ψˆ . Egalitatea anterioara se reduce atunci
la:
f ( A ) f ( ω ) f (ψˆ ) = f ( A ) f ( ω ) f ( ϕ )
sau la: f (ψˆ ) = f ( ϕ )
Dar ψ̂ se obtine din ϕ prin translatia cu ατ si reducere modulo
2π . Deoarece repartitia lui ϕ este uniforma, aceasta nu se
modifica prin translatie.
Prin urmare, ultima egalitate este demonstrata.

b) Media statistica liniara este constanta, semnalul fiind


stationar; pentruτ = −t , rezulta:
m X (t ) = m (X1) (t + τ) = m (X1) (0),
(1)

1 2π
m (X1) (0) = m (X1) { A sin ϕ} = m (A1) { A}mϕ(1) {sin ϕ} = A ∫ sin ϕdϕ = 0
2π 0
c) Functia de autocovarianta, egala cu functia de
autocorelatie deoarece valoarea medie este nula, se
calculeaza dupa cum urmeaza:
C XX (t , s ) = R XX (t , s) = E[ A2 sin(ωt + ϕ) sin(ωs + ϕ)] =
1
= {E[ A2 cos ω(t − s )] − E[ A2 cos(ωt + ωs + 2ϕ)]}
2
Notand densitatea de probabilitate a lui ω prin f ( ω ) , rezulta:

E[ A2 cos ω(t − s ) = A2 E[cos ω(t − s )] = A2 ∫ f (ω) cos ω(t − s )dω
0
Similar, se deduce:
E[ A2 cos(ωt + ωs + 2ϕ) = E[ A2 ]E[cos(ωt + ωs + 2ϕ)] =
= A2 E[cos(ωt + ωs ) E[cos 2ϕ]] − A2 E[sin(ωt + ωs ) E[sin 2ϕ]] = 0
S-a tinut cont ca E [cos 2ϕ ] = E [sin 2ϕ ] = 0
Datorita faptului ca ϕ este v.a. uniform repartizata pe intervalul
[ 0 ,2π ] .
23
Rezulta, prin urmare:
1 2 2π
C XX (t , s ) = C XX (t − s) = A ∫ f (ω) cos ω(t − s)dω,
2 0
ceea ce confirma stationaritatea semnalului.
In cazul densitatii de probabilitate particulare de forma
(GLVWULEX ‘’‘ &DXFK\ 
2 1
f (ω) = u (ω) ,
π 1 + ω2
unde u( ω ) HVW “ IXQF L ” WUHDSW ” XQLWDWHV “ RE LQH
1 ∞ cos ωt 1 2 −|t|
C XX (t ) = C XX (t ,0) = R XX (t ,0) = A2 ∫ d ω = Ae
π 0 1 + ω2 2
)XQF L • —
G – • XWRFRUHODWL –—– –
VW UHSUH]HQWDW • ˜L ILJ ™ š
V HVW – WLSL ›#•
SHQWU œ œ ˜mž
 URFH Ÿ  
DOHDWR VWD LRQDU

R XX (t ) = C XX (t )
1 2
A
2

t
0

FLJ ¡ )XQF L¢ £6¤ DXWRFRUHODWL¤ DXWRFRYDULDQWD¥


¢ VHPQDOXOX ¦
X ( η ,t ) sinusoidal cu amplitudine, frecventa si faza aleatoare.
24
12. Analiza spectrala a semnalelor aleatoare stationare
in sens larg

• Densitatea spectrala de putere


X (η, t ) ⇒ X η (t ) ⇒ X Tη (t )
↓ ↓ ↓
proces realiz. particular. realizare trunchiat.
aleator a procesului a procesului, definita ca mai jos :
{
X Tη (t ) = X η (t ) , } t ≤ T /2
X Tη (t ) = 0, in rest
X Tη (t ) admite transformata Fourier :
∞ T /2
X Tη (ω) = ∫ X (t ) exp(− jωt )dt = ∫ X η (t ) exp(− jωt )dt
η

−∞ −T / 2
care este tot proces aleator. Energia normata (pe R = 1 Ω) este :

ETη

= ∫ [ η
]
2 Parseval
X T (t ) dt ⇒ ∫
[
1 ∞ X Tη (ω) dω ]
2

−∞ 2π − ∞
si este de asemenea proces aleator. Energia medie normata este :

[ ]
∞ 2 1 ∞ η 2
ET = ∫ X Tη (t ) dt = ∫ X ( ω) dω
−∞ 2π − ∞ T
Puterea medie normata este :

P = lim
1 ∞ η 2
T
∫ T
T →∞ −∞
X (t ) dt [
= lim
T →∞ 2 πT
]
1 ∞ η
∫ T
X ( ω)
2
dω =
−∞
1 ∞ 1 η 2 1 +∞
= ∫ X ( ω) dω = ∫ q XX (ω)dω unde
2π − ∞ T T 2π − ∞
1 η 2
q XX (ω) = lim X T (ω) este densitatea spectrala de putere
T →∞ T
• Teorema Wiener – Hincin
Teorema: pentru un semnal aleator stationar in sens larg, densitatea
spectrala de putere qXX(ω) este transformata Fourier a functiei de
autocorelatie RXX(τ) .
25

q XX (ω) = F{R XX (τ)} F-1


q XX (ω) → R XX (τ)
R XX (τ) = F {q XX (ω)}
-1 ←
F
1 η 2 1
q XX (ω) = lim X T (ω) = lim [ X Tη (ω)]* ⋅ X Tη (ω) =
T →∞ T T →∞ T

1 ∞ η ∞
= lim ∫ X T (t1 ) exp( jωt1 )dt1 ∫ X Tη (t 2 ) exp(− jωt 2 ) dt 2 =
T →∞ T −∞ −∞
1 ∞ ∞ η η
lim ∫ ∫ X T (t1 ) X T (t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2 =
T →∞ T −∞ − ∞

1 T /2 T /2 η
= lim ∫ ∫ X T (t1 ) X Tη (t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2 =
T → ∞ T −T / 2 −T / 2

1 T /2 T /2
= lim ∫ ∫ R XX (t1 , t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2
T
T → ∞ −T / 2 −T / 2
Daca semnalul este stationar in sens larg, R XX (t1 , t 2 ) = R XX (t 2 − t1 )
Daca se noteaza ϕ(t 2 − t1 ) = R XX (t 2 − t1 ) exp(− jω(t 2 − t1 )) rezulta
1 T /2 T /2
q XX (ω) = lim ∫ ∫ ϕ(t 2 − t1 )dt 2 dt1
T → ∞ T −T / 2 −T / 2

Cu schimbarea de variabila t 2 − t1 = τ,
1 T T  τ
q XX (ω) = lim ∫ ϕ( τ)[T − τ ]
d τ = lim ∫ XX
R ( τ) exp( − jωτ ) 
 T dτ =
1 −
T → ∞ T −T T → ∞ −T  

= ∫ R XX (τ) exp(− jωτ)dτ = F{R XX ( τ)}
−∞
Densitatea spectrala de putere de interactiune (mutuala).

X (η, t ) Y (η, t )
↓ ↓
Fie doua semnale aleatoare: X Tη (t ) YTη (t )
↓ ↓
X Tη (ω) YTη (ω)
26
1
q XY (ω) = lim { [ X Tη (ω)]* ⋅ YTη (ω)} = F{R XY (τ)}
T →∞ T
1
qYX (ω) = lim { X Tη (ω) ⋅[YTη (ω)]*} = F{RYX (τ)}
T →∞ T

• Proprietatile densitatii spectrale de putere


1 2
1. q XX (ω) = lim X T (ω) > 0, ∀ω : este o functie pozitiv definita
T →∞ T
2. q XX (ω) = q XX (−ω) : este o functie para
3. q XX (ω) = este reala pentru ∀ω
1 ∞
4. P = ∫ q XX (ω)dω este puterea medie a semnalului
2π − ∞
pXX(ω)
qXX(ω) 2
1
ω
ω

p XX (ω) este densitatea spectrala de putere pentru ω > 0


1 ∞
P= ∫ p XX (ω)dω
2π 0
p XX (ω) = 2q XX (ω) ⋅ U (ω)
1, ω ≥ 0
U (ω) = 
0, ω < 0

• Proprietatile densitatii spectrale de putere de


interactiune si ale functiilor de intercorelatie
q XY (ω) = qYX (−ω)
q XY (ω) = [q XY (−ω)]*
R XY (τ) = RYX ( −τ)
27
• Proprietatile functiei de autocorelatie

RXX(τ) RXX(τ)

σX2 mX (2) σX2


mX (2)

(mX)2 τ (mX)2 τ

R XX (t1 , t 2 ) = R XX (t 2 − t1 ) = R XX (τ) = E{X (η, t1 ) ⋅ X (η, t 2 }


1 ∞
R XX (τ) = ∫ q XX (ω) exp( jωτ)dω
2π − ∞
1. lim R XX (τ) = E{X (η, t1 )}⋅ E{X (η, t 2 )} = (m X )2
τ→∞

2. R XX (0) = m (X2) = P
{
lim R XX (τ) = E{X (η, t ) ⋅ X (η, t} = E X (η, t ) = m X
2
}
( 2)
τ→0
1 ∞
lim R XX (τ) = ∫ q XX (ω)dω = P
τ→0 2π − ∞
3. σ 2X = m (X2) − (m X )2 = R XX (0) − lim R XX (τ)
τ→∞
4. R XX (0) ≥ R XX (τ) ∀τ : fctia de autocorelatie este maxima in 0
[X (η, t ) − X (η, t + τ)]2 ≥ 0
X 2 (η, t ) + X 2 (η, t + τ) − 2 X (η, t ) X (η, t + τ) ≥ 0
⇒ 2 X 2 (η, t ) − 2 X (η, t ) X (η, t + τ) ≥ 0
⇒ R XX (0) − R XX (τ) ≥ 0
⇒ R XX (0) ≥ R XX (τ), ∀τ
28
5. R XX (τ) = R XX (− τ) fctia de autocorelatie este para
1 ∞ 1 ∞
R XX (τ) = ∫ XX
q ( ω) exp( jωτ ) dτ = ∫ q XX (ω) cos(ωτ)dτ
2π − ∞ 2π − ∞
6. functia de autocorelatie a unui semnal periodic este un semnal periodic
de aceeasi perioada T0 = 2π / ω0

X (t ) = ∑ C (nω0 ) exp( jnω0t )
n = −∞
Parseval ∞ 2
P = ∑ C ( nω 0 )
n = −∞
∞ 2
⇒ q XX (ω) = 2π ∑ C ( nω0 ) ⋅ δ(ω − nω0 ) un spectru de linii
n = −∞
∞ 2
⇒ R XX (τ) = F −1
{q XX (ω)} = ∑ C (nω0 ) ⋅ cos(nω0t )
n = −∞

• Banda de frecvente a semnalelor aleatoare

a) Semnale aleatoare trece-jos, al caror spectru se intinde intre 0 si


frecventa maxima fmax care si determina largimea de banda B a
acestor semnale: B = fmax.
qXX(ω)
Exemple: semnale in banda de baza:
o Sunet:
- de calitate telefonica, avand fmax= 3,4 kHz ω/2π
- de calitate radio, avand fmax=7 kHz -B B
- de inalta fidelitate (Hi-Fi), avand fmax=20 kHz
o Imagine:
- alb – negru, avand fmax= 5,5 MHz
- color, avand fmax= 7,5 MHz
o Date: B = 0,7 fT , unde fT este frecventa de tact
b) Semnale aleatoare trece banda qXX(ω)
care ocupa o banda de
frecvente B in jurul unei
frecvente centrale fc - fc fc ω/2π
B B
Exemple: semnale
modulate in amplitudine, semnale esantionate
29
c) Semnale aleatoare cu banda de frecvente echivalenta


2πBech ⋅ q XX (0) = ∫ q XX (ω )dω qXX(ω)
−∞

q (ω )dω
1 −∫∞ XX Bech ω /2π
Bech = ⋅
2π q XX (0)

• Timp de corelatie τc


τ c ⋅ RXX (0) = ∫ RXX (τ )dτ
−∞
∞ RXX(τ)
∫ RXX (τ )dτ
τ c = −∞
RXX (0)
τc τ
Daca RXX (τ ) = F ( q XX (ω ))
-1

atunci
q XX (0) 1
τc = ∞
=
2πBech
∫ q XX (ω )dω
−∞

• Functia de coerenta a doua semnale aleatoare X(η, t) si


Y(η,t) poate preciza gradul de dependenta intre procese:
q XY (ω )
2
ρ 2
(ω ) =
q XX (ω ) ⋅ qYY (ω )
XY

pentru ρ XY
2
(ω0 ) = 0 semnalele sunt incoerente la frecventa ω0
pentru ρ XY
2
(ω0 ) = 1 semnalele sunt coerente la frecventa ω 0
30
RXX(τ)
13. Exemple de func §’§ ¨
G DXWRFRUHOD LH

a) R XX (τ) = A cos ω0 τ A
τ
T0/2

q XX (ω) =
A
[δ(ω − ω0 ) + δ(ω + ω0 )] qXX(ω)
2 A2δ(ω-ω0)/2
ω
RXX(τ)
-2πf0 2πf0

1 − τ T , pentru τ < T
b) R XX (τ) =  τ
0, pentru rest -T qXX(ω)T
2
 sin ωτ / 2 
q XX (ω) = T ⋅   ω
 ωτ / 2 
-4π/T -2π/T 2π/T 4π/T

qXX(ω) RXX(τ)
c) R XX (τ) = A exp(−α | τ |)
ω
2 Aα τ
q XX (ω) =
α + (ω)
2 2

qXX(ω)

N0/2 ω
N0
d) q XX (ω) = ∀ω real Bech → ∞ RXX(τ)
2 δ(τ) N0/2
τ
N
R XX (τ) = 0 δ(τ) τc → 0 qXX(ω)
2
ω
ω A
e) q XX (ω) = A ∀ ω ≤ ω0 Bech = 0
2π RXX(τ)
Aω0 π τ0
R XX (τ) = sinc ω0 τ τc = τ0 = τ
π ω0 qXX(ω)

B ω B B ω
f) q XX (ω) = A ∀ B fc − ≤ ≤ B f c + ⋅ -2πf A
2 2π 2 c 2πfc
cosωcτ RXX(τ)
B Bτ τ0
R XX (τ) = ⋅ Asinc ⋅ cos 2πf c τ τ
2π 2
31

14. Aplica ©’©6ª¬« IXQF L « ­


G FRUHOD LH

a ) Detectia semnalelor slabe, acoperite de perturbatii


Fie un semnal aleator
X (η, t ) = S (η, t ) + N (η, t )
⇓ ⇓ ⇓
semnal receptionat semnal util perturbatie
S (η, t ) si N (η, t ), fiind produse de surse diferite, sunt independente
statistic, deci sunt decorelate si daca E{N (η, t )} = 0, sunt si ortogonale :
RSN (τ) = RNS (τ) = 0 de unde :
R XX (τ) = E{X (η, t ) ⋅ X (η, t + τ)} =
E{[S (η, t ) + N (η, t )]⋅ [S (η, t + τ) + N (η, t + τ)]} =
RSS ( τ) + RSN (τ) + RNS ( τ) + RNN (τ) = RSS (τ) + RNN (τ)

RXX(τ)
RSS(τ) RNN(τ)

τ τ τ

lim R XX (τ) = RSS ( τ)


τ→∞ X(η,t) RXX(τ)→RSS(τ) S(η,t)
Corelator Decorelator
τ ®
b) Masurarea vitezelor de deplasare
Exemplu: masurarea vitezei v a unui mediu mobil M fata de doua
traductoare fixe T1, T2, situate la o distanta cunoscuta l unul de altul.
X (η, t ) = S (η, t ) + N1 (η, t )
Y (η, t ) = S (η, t − t0 ) + N 2 (η, t )
T1 T2
X(η,t)
M v τ Corelator
RSS(t0 -τ)
Y(η,t)
l
32
Functionare: se regleaza τ pana cand RSS(t0 -τ) este maxim. Atunci
t0 - τ = 0 sau t0 = τ = l/v ⇒ v = l/τ. Se pot masura astfel viteze de
deplasare ale laminatelor, vehicolelor, etc.

c) Determinarea continuitatii unui semnal aleator


Semnalul aleator stationar in sens larg X (η, t ) este continuu, in
sensul mediei patratice, daca :

lim [X (η, t + τ) − X (η, t )] = 0


2
τ→0

[
⇒ lim X 2 (η, t + τ) + X 2 (η, t ) − 2 X (η, t + τ) ⋅ X (η, t )
τ→0
]
⇒ lim [2 R XX (0) − 2 R XX (τ)] = 0 ⇒ lim [R XX (0) − R XX (τ)] = 0
τ→0 τ→0
deci daca functia sa de autocorelatie este continua in origine.

Obs.: structura generala a unui corelator, pentru semnale analogice


ergodice, este data in fig. de mai jos:
X(η,t) RYX(τ) = RYX(η,τ)
τ Multiplicator Integrator
Y(η,t)

1 T /2
unde RYX(η,τ) = ∫ X (η, t + τ)Y (η, t )dt
T −T / 2
Pentru semnale digitale
1 M −1
RYX(η, l) = ∑ X (η, k + l )Y (η, k )
M k =0

valori l
X(η,k) RYX(η,l)
.... Multiplicator
+ 1/M
Y(η,k)
z-1
dupa M-1 tacte
33

15. Prelucrarea liniara a semnalelor aleatoare (filtrare)


• Notiuni fundamentale
Se considera ca semnalele aleatoare x(t) = Xη(t) = Xη(t) trec prin
sisteme liniare, invariante in timp si cauzale (SLITC), la care functia
pondere respecta relatia: h(t) = 0, t<0

Y (ω) = H (ω) ⋅ X (ω)


x(t) H(ω), h(t) y(t)
↓ ↓
∞ Y(ω)
X(ω)
y (t ) = ∫ x(t −τ)h( τ) dτ
−∞

= ∫ x(τ)h(t − τ)dτ = [x ∗ h](t )
−∞
2 2 2
Y (ω) X (ω) ⋅ H (ω) 2 X (ω)
qYY (ω) = lim T = lim T = H (ω) lim T =
T →∞ T T →∞ T T →∞ T
2
= H (ω) ⋅ q XX (ω) = H (ω) H * (ω) ⋅ q XX (ω)
∞  ∞ ∞
E{y (t )} = E  ∫ x(t − τ)h(τ)dτ = ∫ {E [x(t − τ)]}h( τ)dτ = ∫ m X (t − τ) h(τ)dτ =
− ∞  −∞ −∞

= m X ⋅ ∫ h(τ)dτ = m X ⋅ H (0)
−∞
∞ ∞ 
RYY (t1 , t2 ) = E{y (t1 ) ⋅ y (t 2 )} = E  ∫ ∫ x(t1 − τ1 )h(τ1 )dτ1 ⋅ x(t 2 − τ 2 )h(τ2 )dτ2  =
− ∞ − ∞ 
∞ ∞
= ∫ ∫ R XX (t1 − τ1 , t 2 − τ2 )h( τ1 )h( τ2 )dτ1dτ 2
−∞ −∞
∞ ∞
RYY (t1 − t 2 ) = ∫ ∫ R XX (t1 − τ1 − t 2 + τ2 )h( τ1 )h( τ2 )dτ1dτ 2
−∞ −∞
RYY (τ) = R XX (τ) ∗ h(τ) ∗ h( −τ)
 F [RYY (τ)] = qYY (ω); F-1[qYY (ω)] = RYY ( τ)
qYY (ω) = q XX (ω) ⋅ H (ω) H (ω)
*

1 ∞
RYY (τ) = F −1{qYY (ω)} =
2
∫ q XX (ω) ⋅ H (ω) exp( jωτ)dω
2π − ∞

{ }
E y (t ) = RYY (0) =
2 1 ∞ 2
∫ q XX (ω) ⋅ H (ω) dω
2π − ∞
34
q XY (ω) = q XX (ω) ⋅ H (ω) ⇒ R XY (τ) = R XY (τ) ∗ h(τ)
qYX (ω) = q XX (ω) ⋅ H * (ω) ⇒ RYX (τ) = R XX (τ) ∗ h(− τ)
qYY (ω) = qYX (ω) ⋅ H (ω) = q XY (ω) ⋅ H * (ω) ⇒ RYY (τ) = R XX (τ) ∗ h(− τ) ∗ h(τ)
q XX (ω) ⋅ H (ω) H * (ω) = qYY (ω)

• Trecerea zgomotului alb prin sisteme liniare


Pentru zgomot alb: qXX(ω)
 N0
 q XX ( ω ) = , ∀ω ∈ ℜ N0/2 ω
2
 RXX(τ)
R (τ) = N 0 δ(τ) δ(τ) N0/2
 XX 2 τ

m X = 0 Pentru zg. alb
coeficientul de autocorelatie este :

 R XX (τ)
ρ
 XX ( τ) = =0
R XX (0)


Pentru semnalul de la iesire :


qYY (ω) = N 0 ⋅ A2 (ω)
 2
 1 ∞ N0 ∞ 2
RYY (τ) = ∫ qYY (ω) exp( jωτ)dω = ∫ A (ω) exp( jωτ)dω
 2π − ∞ 4π − ∞

mY = H (0) ⋅ m X = 0
coeficientul de autocorelatie este :

 N0 ∞ 2
 ∫ A (ω) exp( jωτ)dω
RYY ( τ) 4π − ∞
ρYY (τ) = = ≠0

 R ( 0) N
∫ A (ω)dω
YY 0 2
 4π − ∞

Obs. : orice sistem liniar produce un semnal de iesire cu un grad de corelare
mai mare decat gradul de corelare al semnalului de intrare.
35
• Determinarea lui h(t) pentru SLITC, prin metoda de
autocorelatie
Y(t)
X(t) = N(t) h(t) Corela RXY(τ)
(zg. alb) tor

Pentru zgomot alb la intrare:


N
R XX (τ) = 0 δ(τ), ∀ω ∈ ℜ
2
∞ N0
R XY ( τ) = R XX (τ) ∗ h(τ) = ∫ h(u )R XX (τ − u )du = h(τ)
−∞ 2
∞ N0 N
R XY ( τ) = ∫ h(u ) δ(τ − u )du = 0 h(τ)
−∞ 2 2
2
⇒ h(τ) = ⋅ R XY (τ)
N0
unde R XY (τ) se obtine cu montajul de mai sus
1
Detectia semnalelor

Detectia semnalelor presupune determinarea prezentei sau


absentei unui semnal cu semnificatie (exemple: ecoul in radar sau
in sonar, la transmisii de date prezenta sau absenta unor simboluri
dintr-un alfabet finit si cunoscut ).
1. Modelul sistemelor de detectie a semnalelor
r(t)
Sursa Receptor
Modulator Canal
simbol Si Decizii Di
s(t)
n(t)

simboluri purtatoare perturbatie ipoteze Hi decizii

modulare perturbare verificare


ipoteze
spatiul spatiul
simbolurilor deciziilor
Si spatiul spatiul Di
semnalelor emise observatiilor
si(t) r(t) = si(t) + n(t)
Obs.:
• la receptie se verifica toate ipotezele relative la simbolurile Si si
daca ipoteza Hi este adevarata se ia decizia Di ca semnalul
receptionat r(t) corespunde simbolului Si.
• ipotezele pot fi simple (Si ⇔ si(t) ca punct in spatiul semnalelor)
sau compuse (Si ⇔ si(t) ca domeniu in spatiul semnalelor)
• observatiile pot fi discrete (esantioane ale r(t)) sau continue
(pentru intregul semnal r(t)).

2. Detectie binara (i = 0,1) cu observatii discrete (o singura


observatie pe simbol)
Si 0 1 1 0
T t
s(t)
s0(t) s1(t) observatii

r(t) t

Di 1 d. eronata1 1 0
2

In detectia binara avem doua simboluri (S0 si S1) si doua ipoteze (H0
si H1):
H0: a fost transmis 0 (S0)
H1: a fost transmis 1 (S1)
Se urmareste gasirea unui criteriu de stabilire a ipotezei corecte, pe
baza unei singure observatii asupra R. Se presupun cunoscute
densitatile de probabilitate ale R in cele doua ipoteze:
f R| H 0 ( r | H 0 ) úL f R| H1 (r | H1 ). Dac P( H i | r ) cu i = 0,1
reprezinta probabilitatea ipotezei Hi la receptia r:
se alege H 0 dac P ( H 0 | r ) > P ( H1 | r )
se alege H1 dac P ( H1 | r ) > P( H 0 | r ) sau, concis :
H1
P ( H1 | r ) >
<
1
P( H 0 | r )
H0
• Criteriul de decizie MAP (maximum a posteriori
probability). Criteriul dedecizie duce la partitia spatiului
observatiilor in doua regiuni R0 si R1 si se alege H0 daca r
este continut in R0 si H1 daca r este continut in R1. Cu regula
Bayes se poate scrie:
3
f R| H1 (r | H i ) P( H i )
P( H i | r ) = úL atunci criteriul de
f R (r )
mai sus se rescrie :
H1
f R | H 1 ( r | H 1 ) P ( H1 )
> 1 sau :
<
f R| H 0 (r | H 0 ) P ( H 0 ) H0
H1
f R | H 1 ( r | H1 ) P( H 0 )
> sau :
<
f R| H 0 (r | H 0 ) H0 P ( H1 )
H1
Λ(r ) >
< K
H0

daca se noteaz raportul de plauzibilitate Λ(r )


si pragul testului K cu :
f R | H 1 ( r | H1 ) P( H 0 )
Λ(r ) = K=
f R| H 0 (r | H 0 ) P ( H1 )

f R| H 0 (r | H 0 ) f R | H 1 ( r | H1 )

accept H0 accept H1

0 K 1 r

P(D0| H1) P(D1| H0)

Din cauza zgomotului se pot lua decizii eronate. Pot fi urmatoarele


situatii:
a) se decide D0 cand H0 este adevarat
b) se decide D1 cand H1 este adevarat
c) se decide D0 cand H1 este adevarat
d) se decide D1 cand H0 este adevarat
primele doua decizii sunt corecte iar ultimele doua sunt eronate.
Eroarea de tip c) se numeste eroare de pierdere (miss) si are
4
probabilitatea PM = P(D0| H1). Eroarea de tip d) se numeste alarma
falsa (false alarm) si are probabilitatea PF = P(D1| H0). Ca masura a
performantei sistemului se alege probabilitatea medie de eroare :
Pe = P( H 0 ) P( D1 | H 0 ) + P ( H1 ) P( D0 | H1 )

• Criteriul de decizie Bayes


Acest criteriutine cont de “costurile” deciziilor in procesul de
detectie binara. In acest proces apar perechi (Di, Hj). Fiecarei
perechi i se poate asocia un cost Cij. Criteriul de decizie Bayes
minimizeza costul mediu. Costul mediu se defineste cu relatia:
C = ∑ ∑ Cij P( Di , H j ) = ∑ ∑ Cij P( H j ) P( Di | H j )
i = 0,1 i = 0,1
j = 0,1 j = 0,1

C = C00 P ( D0 | H 0 ) P( H 0 ) + C10 P ( D1 | H 0 ) P ( H 0 ) +
+ C01P ( D0 | H1 ) P ( H1 ) + C11P ( D1 | H1 ) P ( H1 ) =
= C00 P( H 0 ) ∫R f R| H 0 ( r | H 0 )dr + C10 P( H 0 ) ∫R f R| H 0 (r | H 0 )dr +
0 1

+ C01P ( H1 ) ∫R f R| H1 (r | H1 )dr +C11P( H1 ) ∫R f R| H1 (r | H1 )dr


0 1

UH rezonabil c decizia incorect cost mai mult decât


se face prezum ia
cea corecta :
C10 > C00 si C01 > C11
si se face uz de faptul ca R1 ∪ R0 = (−∞, ∞) si R1 ∩ R0 = φ si atunci :
C = C10 P ( H 0 ) + C11P( H1 ) + ∫R {[ P ( H1 )(C01 − C11 ) f R| H1 (r | H1 )] −
[P( H 0 )(C10 − C00 ) f R|H ]
0

0
(r | H 0 ) }dr
Cea mai mica valoare a costului mediu se obtine cand integrandul
ecuatiei de mai sus este negativ pentru toate valorile lui r ∈ R0. Se
poate accepta ipoteza H0 daca:
5
P( H1 )(C01 − C11 ) f R| H1 (r | H1 ) < P( H 0 )(C10 − C00 ) f R| H 0 (r | H 0 )
sau concis :
H1
f R | H 1 ( r | H1 ) > P( H 0 )(C10 − C00 )
Λ(r ) = <
=K
f R| H 0 (r | H 0 ) P ( H1 )(C01 − C11 )
H0
Se vede ca pentru C10 - C00 = C01 - C11, criteriul Bayes devine
criteriul MAP.
Se poate arata ca daca: C00 = C11= 0 si C10 = C01 =1, atunci criteriul
Bayes minimizeaza probabilitatea deciziilor eronate.
6
3. Detectia binara (i = 0, 1) cu observatii multiple pe simbol
(daca r > 0 ⇒ 1, daca r < 0 ⇒ 0)

Si 0 1 1 0
T
s(t) t
s0(t) s1(t)

r(t)
t

Di 0 1 1 0
dispare decizia eronata

t
1 2............N
momentele
observatiilor

Daca receptorul observa N esantioane ale r(t) in intervalul (0, T),


notate r1, r2, ..., rN, se defineste vectorul
r = [r1 , r2 ,..., rN ]T ca si densitatile de probabilitate :
f (r1 , r2 ,..., rN / H 0 ) = f R|H (r / H 0 )
0

f (r1 , r2 ,..., rN / H1 ) = f R| H ( r / H1 )
1

rN Se urmareste gasirea unor decizii


D0 corecte, pe baza mai multor
observatii asupra R . Se presupun
r2 cunoscute densitatile de
r1
D1
probabilitate ale R in cele doua
ipoteze:
f R| H (r | H 0 ) úL f R| H (r | H1 ).
0 1
Criteriile de decizie deduse pentru o singura observatie se pot
rescrie pentru N observatii, dupa cum urmeaza:
7
H1
Λ(r ) ¯°
>
< K
H0

unde pentru MAP :


f R | H ( r | H1 ) P( H 0 )
Λ(r ) = 1
K=
f R| H (r | H 0 ) P ( H1 )
0

pentru plauzibilitate maxima :


f R | H ( r | H1 )
Λ(r ) = 1
K =1
f R| H (r | H 0 )
0

pentru Bayes :
f R | H ( r | H1 ) P( H 0 ) C10 − C00
Λ(r ) = 1
K= ⋅
f R| H (r | H 0 ) P( H1 ) C01 − C11
0

pentru Neyman - Pearson :


f R | H ( r | H1 )
Λ(r ) = 1
K se alege din conditia PF ≤ α
f R| H (r | H 0 )
0

Daca se noteaza cu
f Ri | H 0 (ri | H 0 ) si f Ri | H 0 (ri | H 0 ) densitatile de probabilitate
ale observatiei ri in ipotezele H 0 , H1 si daca observatiile sunt
statistic independente, avem :
N
f R| H ( r |H 0 ) = ∏ f Ri | H 0 (ri | H 0 )
0 i =1±
N
f R| H (r |H1 ) = ∏ f Ri | H1 (ri | H1 )
1 ±
i =1

Exemplu: detectia a doua semnale de forma cunoscuta


s0 (t ) = a0 s (t ) 0 ≤ t ≤ T
s1 (t ) = a1s (t ) 0 ≤ t ≤ T
8
a0 ⇐ H 0
r (t ) = as (t ) + n(t )
a=
a1 ⇐ H1
Se presupune ca zgomotul este gaussian, de valoare medie nula si de
varian  σ2.
Densitata de probabilitate pentru un esantion de semnal receptionat
este:

 1
1 
f Ri | H 0 (ri | H 0 ) = exp  − 2 (ri − a0 si ) 2  ⇐ H 0
2πσ2  2σ 
1  1 
f Ri | H1 (ri | H1 ) = exp  − 2 (ri − a1si ) 2  ⇐ H1
2πσ2  2σ 
densitatea de probabilitate pentru vectorul receptionat este :
1 N  1 
f R| H (r | H 0 ) = ( ) ∏ exp  − 2 (ri − a0 si ) 2 
N
⇐ H0
0
2πσ2 i ²=1  2σ 
1 N  1 
f R | H ( r | H1 ) = ( ) N ∏ exp  − 2 (ri − a1si ) 2  ⇐ H1
1
2πσ2 i ²=1  2σ 
sau :
1  1 N 
f R| H (r | H 0 ) = ( ) N exp  − 2 ∑ (ri − a0 si ) 2  ⇐ H 0
0
2πσ2  2σ i ²=1 
 1 N
1 
f R | H ( r | H1 ) = ( ) N exp  − 2 ∑ (ri − a1si ) 2  ⇐ H1
1
2πσ2  2σ i ²=1 
raportul de plauzibilitate este :

[ ]
f R | H ( r | H1 )  1 N 
Λ(r ) = 1
= exp− 2 ∑ (ri − a1si ) 2 − (ri − a0 si ) 2 
f R| H (r | H 0 )  2σ i ²=1 
0

²i =1[ ]
1 N
ln Λ (r ) = ∑ (ri − a1si ) − ( ri − a0 si ) =
2 2
2σ 2
9
1   N N
2 
= (a − a ) − 2 ∑ r s + (a + a ) ∑ s 
 i µ=1 i µ=1  
 0 1 i i 0 1 i
2σ 2 
Criteriul plauzibilitatii maxime se poate scrie :
H1
´>
lnΛ(r ) ³< ln K = ln 1 = 0
H0

N ´>
H1
a0 + a1 N 2
∑ ri si
µ ³< ∑ si
i =1 2 i µ=1
H0
pentru a0 = 0, a1 = 1, si = s

1 N ´>
H1
s ´>
H1
s
∑ ri ³< si daca N = 1 r ³<
N i µ=1 2 2
H0 H0
pentru a0 = −1, a1 = 1, si = s

1 N ´>
H1
´>
H1
∑ ri ³< 0 si pentru N = 1 : r ³< 0
N i µ=1
H0 H0
Probabilitatea de eroare este :
Pe = P( D0 , H1 ) + P ( D1 , H 0 ) =
P( H1 ) ∫R f R| H (r | H1 )dr + P ( H 0 ) ∫R f R| H ( r | H 0 ) dr
0 1 1 0

Observatie: Desi problema de detectie pe care ne-am propus sa o


solutionam este formulata pentru un spatiu multidimensional,
decizia se ia dupa o singura coordonata, care este, pentru cazul
N
general: ∑ ri si , iar pentru cazurile particulare mentionate
i =1µ
1 N
mR = ∑ ri
N i µ=1
Aceasta unica coordonata dupa care se poate lua decizia se numeste
“Statistica suficienta”.
10
4. Detectie binara cu observatii multiple in ipoteza compusa

In ipoteza compusa, simbolului Si ii corespunde in spatiul


semnalului nu un punct si(t) ci un domeniu Σi .

Exemplu: Semnal de amplitudine variabila

θM
s(t,θ)
θ
θm tn tn+1M t

H 0 ⇒ r (t ) = s0 (t , θ) + n(t ) = n(t )
H1 ⇒ r (t ) = s1 (t , θ) + n(t )
unde θ este un parametru care ia valori in domeniul Π = (θm , θ M )
in timp ce semnalul s1 (t , θ) este cuprins in domeniul Σ1
{ }
P s1 ∈ Σ1 = P{θ ∈ Π}
f R| H (r | H1 ) = f R|θ (r | θ)
1

f R| H (r | H1 ) = f R| H (r | s1 ∈ Σ1 ) = f R|θ ( r | θ ∈ Π ) = ∫Π f R|θ (r , θ)dθ =


1 1

= ∫Π f R|θ (r | θ) f Θ (θ)dθ
Raportul de plauzibilitate este :
f R | H ( r | H1 ) ∫Π f R|θ (r | θ) f Θ (θ)dθ
Λ(r) = 1
=
f R| H (r | H 0 ) f R| H (r | H 0 )
0 0

Pentru cazul particular al unui semnal de amplitudine variabila,


cu amplitudinile uniform distribuite:
11
1
f Θ (θ) =
θ M − θm
N
 1  N  (r − θ) 2 
f R|θ (r | θ) =   ∏ exp − i 
 i ¶=1  2 
2σ 
 2πσ
2
 
N
 1  N  ( )2 
f R| H (r | H 0 ) =   ∏ exp − ri 
 i ¶=1  2σ 2 
 2πσ
2
0
  
 N 2
 ∑ (ri − θ) 
i ¶=1
θM
1
∫ exp −  dθ
θM − θm θm  2σ 2 
 
Λ(r ) =   iar pt. N = 1 :
 N 2
 ∑ ri 

exp − i =1 2 
 2σ 
 
 
1 θM  (r − θ) 2 
∫ exp −  dθ
θM − θm θm  2σ 
2
Λ(r ) =
 (r ) 2 
exp − 2 
 2σ 

daca se noteaza :
1 x  1 2  θ−r
F ( x) = ∫ exp − u du  ; x= atunci raportul devine :
2 π º− ¹∞  2  σ
2πσ2  n 2    θM − r   θ − r 
Λ(r ) = exp 2  ⋅  F   − F m 
θM − θm  2σ    σ   σ 
iar daca pragul testului este K = 1, atunci testul Bayes este :

2πσ2  n 2    θM − r   θ − r  ¸>
H1
exp 2  ⋅  F   − F m  ·< 1
θM − θm  2σ    σ   σ  H0
12
5. Detectia secventiala
Daca este necesar sa reducem timpul de decizie, se lucreaza cu un
numar m de observatii variabil, cautandu-se reducerea acestuia.
Pentru vectorul rm = (r1 ,..., rm ) raportul de plauzibilitate este :
fR (rm |H1 )
m | H1
Λ(rm ) =
fR (rm |H 0 )
m |H 0

Algoritmul de testare este :


a) pentru prima observatie m = 1, rm = r1 , se calculeaza Λ (r1 ), care se
compara cu doua praguri A,B cu A > B :
• daca Λ(r1 ) ≥ A ⇒ D1
• daca Λ(r1 ) ≤ B ⇒ D0
• daca B < Λ(r1 ) < A ⇒ nu se ia decizie si se trece la la a doua obsevare r2
b) se calculeaza si se testeaza Λ (r2 ); daca din nou nu se ia nici o decizie se
calculeaza Λ(r3 ) s. a. m. d. pana cand Λ (rm ) ≥ A ⇒ D1 sau Λ(r1 ) ≤ B ⇒ D0
Pentru determinarea A, B se procedeaza astfel :
• daca se ia decizia D1 avem :

fR (rm | H1 )
m | H1
Λ(rm ) = ≥ A sau fR (rm | H1 ) ≥ Af R (rm | H 0 )
fR (rm | H 0 ) m | H1 m |H 0
m |H 0
13
• daca se ia decizia D0 avem:

fR ( rm | H1 )
m | H1
Λ( rm ) = ≤ B sau fR ( rm | H1 ≤ Bf R (rm | H 0 )
fR (rm | H 0 ) m | H1 m |H 0
m |H 0

daca R1 cuprinde observatiile rm carora le corespunde D1 :


∫R1 f Rm | H1 ( rm | H1 )dRm ≥ A∫R1 f Rm | H 0 (rm | H 0 )dRm sau PD ≥ APF
de unde :
P
A≤ D
PF
daca R0 cuprinde observatiile rm carora le corespunde D0 :
∫R0 f Rm | H1 ( rm | H1 )dRm ≤ B ∫R0 f Rm | H 0 (rm | H 0 )dRm sau PM ≤ B(1 − PF )
de unde :
P
B≥ M
1 − PF
in cele de mai sus reamintim ca :
PD → probabilitatea de detectie
PF → probabilitatea deciziei eronate, de alarma falsa (prob. deciziei D1 cand
sursa a emis S 0 )
PM → probabilitatea deciziei eronate, de pierderea tintei (prob. deciziei D0 cand
sursa a emis S1 )
1
Estimarea parametrilor semnalului

1. Introducere
Prin estimare se determina valoarea estimata θ̂ a unui parametru θ
(purtator de informatie) al semnalului afectat de perturbatie.
Schema bloc care modeleaza procesul de estimare a unui parametru si
graful prelucrarii semnalelor sunt date mai jos.
r(t,θ)
Sursa Receptor
mesaje
Modulator Canal
Estimare θ̂
s(t,θ)
m(θ)
n(t)
mesaj purtatoare perturbatie criterii de parametru
estimare estimat

modulare perturbare aplicare


criterii
spatiul spatiul
parametrului parametrului
θ spatiul spatiul estimat
semnalului emis observatiilor
s(t,θ) r(t) = s(t,θ) + n(t)

Exemple de aplicatii:
• in receptia semnalelor: estimarea intarzierilor, a amplitudinilor
de semnal, a deviatiilor de frecventa;
• in sisteme de comunicatii: estimarea functiilor de transfer, a
functiilor pondere, a rapoartelor semnal / zgomot in canale de
comunicatii;
• in sisteme de masura si comanda la distanta: estimarea
marimii comandate (acceleratie, viteza, pozitie, temperatura,
debit, etc)
• in prelucrari de semnale: estimarea unor parametri statistici ai
semnalului (medii, variante)
Obs.: in aceste aplicatii se estimeaza parametri continui sau discreti,
constanti sau variabili in timp; estimarea parametrilor discreti face
legatura cu domeniul detectiei semnalelor (deciziei statistice) iar
estimarea parametrilor variabili in timp face legatura cu estimarea formei
semnalelor. Estimarea se poate face prin observare discreta sau prin
observare continua.
2
2. Observarea discreta a unui parametru aleator
Semnalul receptionat este:
r (t ) = s (t , θ) + n(t )
unde θ este un parametru aleator scalar, continand informatia. In intervalul
0 ≤ t ≤ T se fac N observatii r1 ,...., rN , constituite in vectorul r . Se folosesc
G

densitatile de probabilitate f R» |Θ ( r | θ), f Θ| R» (θ | r ) si f Θ (θ); se determina


G G

valoarea estimata θˆ (r ) a lui θ.


G

Eroarea estimarii este data de ε = θ − θˆ (r ). Pentru a evalua eroarea se


G
θ
defineste o functie de cost.
C(εθ)

2.1 Functii de cost C(εθ¼ )


• patratul erorii εθ
C (ε θ ) = ε θ 2
• uniforma : C(εθ)
1
0 ε θ ≤ E / 2
C (ε θ ) =  εθ
1 ε θ ≥ E / 2 -E/2 +E/2

• modulul erorii : C(εθ)

C (ε θ ) = ε θ
εθ

Valoarea medie a functiei de cost se numeste risc.


¾∞
R = E{C (ε θ )} = ∫ dθ∫∆ C (ε θ ) ⋅ f Θ, R½ (θ, r )dR
G
¿− ¾∞
∆ ⇒ domeniul in care ia valori r
G

Valoarea estimata a parametrului se obtine minimizand riscul.


Se pune riscul sub o forma in care se poate face minimizarea acestuia
functie de observatiile efectuate:
Á∞ 3
R = E{C (εθ )} = ∫ dθ∫∆ C (ε θ ) ⋅ f Θ, RÀ (θ, r ) dR =
G
Â− Á∞
Á∞
= ∫ dθ∫∆ C (εθ ) ⋅ f Θ / RÀ (θ / r ) f RÀ ( r ) dR =
G G
Â− Á∞
Á∞
= ∫∆ f RÀ (r )dR ⋅ ∫ C (εθ ) ⋅ f Θ / RÀ (θ / r )dθ
G G
Â− Á∞
Minimizarea riscului se face minimizand in raport cu θ̂ integrala definita:
Á∞ Á∞
G Ã
I (θˆ , r ) = ∫ C (εθ ) ⋅ f Θ / R (θ / r )dθ = ∫ C (θ − θˆ ) ⋅ f Θ / RÀ (θ / r )dθ
G G
Â− Á∞ Â− Á∞
∂ ˆ G
I (θ, r ) = 0
∂θˆ
∞ Ä
• pentru patratul erorii : I (θˆ , r ) = ∫ (θ − θˆ ) 2 ⋅ f Θ / RÆ (θ / r )dθ
G G
Å− Ä∞
∂ ˆ G ∞ Ä ∞ Ä
I (θ, r ) = 2θ ∫ f Θ / R (θ / r )dθ − 2 ∫ θ f Θ / RÆ (θ / r )dθ = 0 sau
ˆ Æ G G
∂θˆ Å− Ä∞ Å− Ä∞
Ä∞ Ä∞ C(εθ)
θˆ p = ∫ θ f Θ / RÆ (θ / r )dθ deoarece ∫ f Θ / RÆ (θ / r )dθ = 1
G G 1

Å− Ä∞ Å− Ä∞ θ
• pentru functia de cost uniforma:
Èθˆ + E / 2
^ ^ ^
θ - E/2 θ θ + E/2

I (θˆ , r ) = 1 − ∫ f Θ| RÆ (θ | r )dθ = 1 − I u (θ, r ) ≈ 1 − Ef Θ| RÆ (θ | r )


G G G G
Å
θˆ − E / 2
este minima pentru I u (θ, r ) maxima. Se prefera sa se caute maximul
G

pentru ln f Θ| RÆ (θ | r ) deoarece f Θ| RÆ (θ | r ) are in general o forma


G G

exponentiala; ca urmare :

ln f Θ| RÆ (θ | r ) |θÇ= θˆ =
G
∂θ MAP

∂ ∂
ln f Θ (θ) |θÇ= θˆ + ln f RÆ |Θ (r | θ) |θ Ç= θˆ =0
G
∂θ MAP ∂θ MAP

f Θ| RÆ (θ | r ) ⋅ f RÆ (r )
= f RÆ |Θ (r | θ)
G G
daca se are in vedere
G
f Θ (θ)
unde θMAP este estimatul maximum a posteriori.
4
• Pentru functia de cost modulul erorii:
Ë+ É∞
I (θˆ , r ) = ∫ θ − θˆ M f Θ / R (θ / r )dθ si pentru minimizarea ei :
G G
Ê− É∞
∂ ˆ G
I (θ, r ) = 0, respectiv :
∂θˆ
∂ + ∞Ì
Í ∂ θM
ˆ
∫ (θ − θ M ) f Θ / R (θ / r )dθ −
ˆ ∫ (θ − θˆ M ) f Θ / R (θ / r )dθ = 0
G G
∂θˆ θˆ M ∂θˆ Ê− É∞
Rezulta pentru calculul estimatului θˆ M
Í + ∞Ì θM ˆ
∫ f Θ / R (θ / r )dθ = ∫ f Θ / R (θ / r )dθ
G G
θˆ M Ê− É∞
θˆ M se numeste estimatul de eroare minima.

Obs.: O situare a celor trei estimati, pentru densitati de probabilitate


conditionate, de forma simetrica si nesimetrica, este data in figurile de
mai jos.
Ð Ñ
f RÐ | Θ (rÏ | θ)
f R | Θ (r | θ)

θ
θ
Î
θˆ MAP = θˆ p = θˆ M Î θ̂ MAP θˆ p θˆ M
1
Estimarea formei semnalului

Ipotezele de lucru:
• estimarea este liniara;
• semnalul receptionat si zgomotul sunt stationare in sens larg;
• criteriul de optim: minimul erorii medii patratice.

1. Filtrarea optimala a semnalelor continue. Ecuatia Wiener – Hopf


Ce se urmareste: estimarea formei lui s(t) se face prin prelucrarea
liniara a semnalului receptionat r(t) = s(t) + n(t), astfel incat sa se
obtina un semnal cat mai apropiat de semnalul dorit d(t) (filtrare
optimala in sens Wiener – Kolmogorov).
s(t) r(t) ^d(t) Se urmareste
Canal Estimator
determinarea functiei
n(t)
pondere a
n (t)
unui filtru
^do(t) liniar ho(t), a
ho(t) carui iesire,
-
d(t) + εo(t) = - do(t) + d(t) daca la
intrare se
s(t) ^d(t) +- ε(t) = - d(t) + d(t)
h(t) aplica r(t),
aproximeaza
cu eroare medie patratica minima, semnalul dorit d(t). In schema de mai
sus h(t) corespunde unui filtru neoptimal, care furnizeaza un semnal care
aproximeaza semnalul dorit cu eroare medie patratica mai mare ca cea
minima. Ar trebui: [ε o (t )]2 = min [ε(t )]2

[ε(t )]2 = (d (t ) − dˆ (t ) )
2

Ò∞
dˆ (t ) = ∫ h(τ)r (t −τ)dτ = L [r (t )]
Ó− Ò∞
[εo (t )]2 = (d (t ) − dˆo (t ) )
2

Ò∞
d o (t ) = ∫ ho (τ)r (t −τ)dτ = L0 [r (t )]
ˆ
Ó− Ò∞
[εo (t )]2 = min [ε(t )]2
2
[ε (t )]2 = (d − dˆ ) [( ) ( )] = [ε (t )] + δ −
2
= d − dˆo − dˆ − dˆo
2
o
2 2

− 2[(d − dˆ )(dˆ − dˆ )] unde δ = dˆ − dˆ . Ultimul termen devine :


o o o

2[(d − dˆ )(dˆ − dˆ )] = 2[d − L {r (t )}][L{r (t )}− L {r (t )}] =


o o 0 0

= 2ε o (t )L' {r(t)} = 2L' {r(t)}ε o (t ) = 2L' {r (t ) ⋅ ε o (t )}


Pentru filtru optimal ε o (t ) si r (t ) sunt ortogonale deci au loc relatiile :
ε o (t ) ⋅ r (u ) = 0 si cε or (t , u ) = 0 ∀t , u deci : d Ô
εo

[ ]
r ⋅ ε o (t ) = d (t ) − dˆo (t ) r = 0 de unde :
do r

d (t )r (u ) = dˆo (t )r (u ) ∀t , u si deoarece dˆo = ∫ hon (τ )r (t − τ )dτ
−∞

cdr (t − u ) = ∫ hon (τ ) r (t − τ )r (u )dτ sau :
−∞

cdr (t − u ) = ∫ hon (τ )crr (t − τ − u )dτ sau, introducand variabila θ = t − u :
−∞

cdr (θ ) = ∫ hon (τ )crr (θ − τ )dτ care este ecuatia Wiener - Hopf;
−∞

aceasta permite determinarea lui hon (t ). Aplicand transformata Fourier :


qdr (ω ) = H on (ω )qrr (ω ) ⇒
qdr (ω ) qdr (ω ) qss (ω )
H on (ω ) = = =
qrr (ω ) qss (ω ) + qnn (ω ) qss (ω ) + qnn (ω )
pentru semnale s (t ) si n(t ) independente.
Se obtine astfel functia de transfer a unui filtru nerealizabil (nu s-a
impus ca h(t) = 0 pentru t < 0) care se poate aproxima insa cu filtre
realizabile.
Exemplu: Fie d(t) = s(t + α) unde s(t) este mesajul transmis. Daca:
• α = 0, avem o filtrare simpla (estimarea se face pt. toate
valorile trecute ale timpului)
• α < 0, avem o filtrare cu intarziere (netezire): estimarea se
face cu intarziere dar se utilizeaza mai multe date, deci eroarea
este mai mica.
• α > 0, avem o filtrare cu predictie (anticipare): estimarea se
face in avans dar se utilizeaza mai putine date, deci eroarea este
mai mare.
3
In domeniul frecventa, vom avea respectiv, urmatoarele functii de
transfer ale unor filtre optimale nerealizabile:

qss (ω)
H on (ω) =
qss (ω) + qnn (ω)
qss (ω)
H on (ω) = exp(− jωα )
qss (ω) + qnn (ω)
qss (ω)
H on (ω) = exp(+ jωα )
qss (ω) + qnn (ω)

Exemplu: Filtru optimal nerealizabil, continuu in timp. Sunt valabile:


qs
qss (ω) = , qnn (ω) = q0
1+ a ω
2 2

qss (ω) 2 AB
H on (ω) = exp(− jωα ) = 2 exp(− jωα ) cu
qss (ω) + qnn (ω) B + ω2
1 q s qs 1 q
A= , B= 1+ s
2a q0 qs + q0 a q0
hon (τ) = A exp(− B τ − α )

hon hon

τ τ
α
α intarziere predictie
4
Filtru optimal realizabil
Daca se fac schimbarile de variabile t – u →τ, τ → t, avem:
Õ∞ × Ö
cdr (τ) = ∫ hon (t )crr ( τ − t )dt = + cdr (τ) + − cdr (τ)
Ö− Õ∞
× Õ∞
+
cdr ( τ) = ∫ hon (t )crr (τ − t )dt =
0
c (τ), τ ≥ 0
=  dr
0 τ<0 -
cdr(τ) +
cdr(τ)
Ö− c 0
dr ( τ) = ∫ hon (t )crr (τ − t )dt =
Ö− Õ∞
c (τ), τ < 0 τ
=  dr
0 τ≥0
Ø+
Filtrul optimal realizabil (cauzal) poate fi obtinut numai din
cdr (τ) . Functia de transfer se obtine prin transformarea Fourier
inversa a acestuia:

H o (ω ) ⋅ q + rr (ω ) = ∫ + cdr (τ ) exp(− jωτ ) dτ = + qdr (ω )
−∞
+
qdr (ω )
H o (ω ) =
qrr (ω )

1.1. Filtre optimale pentru zgomot alb (FOW)

r (t ) = z (t )
N0 N
crr (τ ) = c zz (τ ) = δ (t ); daca se considera 0 = 1 :
2 2
∞ ∞
cdr (τ ) = ∫ how (t ) crr (τ − t )dt = ∫ how (t ) δ (τ − t )dt = how (τ ) = cdz (τ )
0 0

Obs : la filtrul optimal pentru zgomot alb, functia pondere este


covariatia dintre semnalul dorit si zgomot.
In domeniul frecventa, deoarece q zz = 1 :
H ow (ω ) = + qdz (ω )
5
1.2. Filtre optimale Wiener pentru un semnal oarecare

r(t) z(t) FOW ^d(t)


FA FIA FO
r(t)
w(t) w-1(t) ho(t)
W(ω) W-1(ω) Ho(ω)

q zz ( s ) = W ( s ) ⋅ W (− s )qrr ( s ) FA: filtrul de albire


1 FIA: filtrul invers de
W ( s ) ⋅ W (− s ) = albire
q ( s )qrr− ( s )
+
rr
FO: filtrul optimal
daca se iau numai partile realizabile : pentru r(t)
1 FOW: filtrul optimal
W (s) = + pentru zgomot alb
qrr ( s )
H ow ( s ) = W −1 ( s ) H or ( s )
H ow ( s )
H o (s) =
W −1 ( s )
1.3. Filtrarea optimala Wiener prin extragerea zgomotului
Ce se urmareste: estimarea formei lui s(t) se face prin estimarea lui
n(t) si extragerea acestuia din r(t). Schema de extragere se da mai jos,
unde:
s(t) s(t) + n(t) n1(t) = zgomotul
+
^s(t) captat din semnal
n(t) n(t) = zgomotul
_
h1(t) ^n(t)
filtrat
z(t)
n1(t) h1(t) = functia
w(t) how(t)
modelul
h(t) = h1(t) pondere a legaturii
semnalului dintre cele doua
componente captate
s(t) si n2(t) ale semnalului. Deoarece h1(t) este necunoscut, h(t) = h1(t)
poate fi determinat numai indirect printr-un procedeu de optimizare.
qnn1 ( s ) qrn1 ( s )
H1 ( s ) = = ≅ H (s)
qn1n1 ( s ) qn1n1 ( s )
6
O metoda de calcul rapid a lui H(s) este cea de mai jos in care se face
apel la un corelator a lui r(t) cu zgomotul alb z(t):

s(t) s(t) + n(t)


+
^s(t)
n(t) corelator _
h1(t)
z(t)
n1(t) ^
w(t) how(t)
n(t)

h(t) = h1(t)
w-1(t) h(t)

qnn1 ( s ) qrn1 ( s ) q zn1 ( s ) qrz ( s )


H1 ( s ) = = = ≈
qn1n1 ( s ) qn1n1 ( s ) qn1n1 ( s ) q zz ( s )
q zn1 ( s ) qnz ( s )
≈ = W ( s ) H ow ( s ) = H ( s )
qn1n1 ( s ) q zz ( s )
unde How(s) = W-1(s)H(s) este dat de corelator.

2. Filtrul optimal Kalman – Bucy


a) Cazul ideal: dˆ (t ) = s (t )

Este o varianta de filtru optimal Wiener in care se relizeaza FOW printr-


un sistem dinamic iar intrarea filtrului de albire este diferenta dintre
semnalul receptionat si estimatul semnalului dorit. Aici sistemele
n(t) ^d(t)
r(t) z(t)
- ∑ K sistem dinamic
FIA FO
r(t)
w-1(t)
H (s) ho(t)
W-1(ω) o Ho(ω)

dinamice sunt generatoare de semnale aleatoare, fiind excitate de zgomot


alb. Problema este de a determina functia de transfer a sistemului de asa
natura incat la iesire lui sa se obtina un semnal a carui densitate spectrala
de putere este cea a semnalului dorit:
q zz ( s ) H o ( s ) H o (− s ) = qss ( s )
7
Obs.: daca n(t) = z(t), K = const.
Exemplu: Se doreste:
K
qss ( s ) = 2 0 2 ;
α −s
1
Deoarece q zz ( s ) = N 0 = K :
2
K 1 K 1 1
H o ( s ) H o (− s ) = 0 2 2 = 0
K α −s K α −sα +s
K0 1
Pentru filtru realizabil se ia numai partea realizabila H o ( s ) =
K α+s
Daca qss ( s ) dorit se descrie cu o aproximatie Butteworth de ordin mai mare
va fi necesar un sistem dinamic de ordin superior, descris de :
• ecuatie diferentiala liniara cu coeficienti constanti :
y ( n ) (t ) + an−1 y ( n−1) (t ) + ... + a0 y (t ) = bn−1u ( n−1) (t ) + ... + b0u (t )
• functie de transfer corespunzatoare :
Y ( s) bn−1s n−1 + ... + b0
H (s) = =
U ( s ) s n + an−1s n−1 + ... + a0
• ecuatii de stare si de iesire corespunzatoare :
dx(t )
= Ax(t ) + Bu(t )
dt
y (t ) = Cx(t )
− an−1 1 0 ... 0
− an−2 0 1 ... 0 bn−1
... ... ... ... ... b
A= B = n−2 C = 10...0 (o singura iesire)
... ... ... ... ... ...
− a1 0 0 ... 1 b0
− a0 0 0 ... 0
x y
Modelul sistemului
u
dinamic generator de
B ∫ dt C
- semnal aleator este dat
A alaturat ( u(t) = z(t) si
x(t) = d(t))
8

Exemplu: fie schema din figura de mai jos, in care variabila de stare
este tensiunea la bornele condensatorului, vc(t).
Se cere:
R vc(0) = V
1. modelul matematic, respectiv
ecuatia de stare a circuitului
v(t) C 2. structura sistemului dinamic
generator al semnalului s(t) = vc(t)
3. s (t) pentru v(t) = 0 si vc(0) =V= v.a.
4. structura sistemului dinamic generator al semnalului s(t) = vc(t) in
cazul (3).
5. sa se arate ca in cazul (3) s(t) este un proces aleator nestationar
6. functia de transfer a sistemului dinamic generator pentru vc(0) = V= 0
si v(t) = z(t), adica zgomot alb
7. sa se arate ca s(t) obtinut in conditiile de la (6) este un proces aleator
stationar; care este relatia dintre D.S.P. a lui v(t) = z(t) si varianta σy2
Solutie:
1. vR (t ) + vC (t ) = v(t )
x(t ) = vC (t ) = s (t )
dx(t ) 1 1
=− x(t ) + v(t )
dt RC RC
y (t ) = s (t )
1 1
A= − ; B= ; C=1
RC RC
 1 1 1 1
2. X ( s ) = − X ( s ) + x(0) + V (s)
 RC  s RC s
dx/dt x(0) = V
v(t) y(t) = x(t) = s(t)
1/RC + -
-
Σ ∫ dt -1
(B) - + +
- -
- 1/RC
- x(0) = V

(A)
- x(t)
3 . s ( t ) = y (t ) = x (t ) = 4. ∫ dt
+
 1 
= V exp  − t
 RC  1/RC
9

5. daca v(t) = 0 si vc(0) =V= v.a. cu densitate de probabilitate fV(V), atunci


 1 
la momentul t = t1: f y ( y, t1 ) = f V (V ) exp − t1  deci rezulta ca y(t)
 RC 
este un proces aleator nestationar deoarece densitatea de probabilitate
variaza cu timpul.

k
6. H ( s ) = unde : k = 1 / RC
s+k
7.
qvv ( s ) = N 0 / 2
k 2 N0 / 2 k 2 N0 / 2
q yy ( s ) = H ( s ) H (− s ) qvv ( s ) = 2 2 q yy (ω ) = 2
k −s k +ω2
Obs. : deoarece q yy (ω ) este o fractie rationala patratica, y(t) este proces
aleator stationar.
kN 0 / 4
Daca se ia partea realizabila a lui q yy ( s ) care este : + q yy ( s ) =
k+s
σ y2 = R(0) − R (∞) = lim s ⋅+ q yy ( s ) − lim s ⋅+ q yy ( s ) = kN 0 / 4 − 0 = kN 0 / 4
s →∞ s →0

Deci pentru ca semnalul generat sa aiba varianta σ y2 trebuie ca zgomotul


alb care excita sistemul dinamic generator sa se caracterizeze prin :
N 0 / 2 = 2σ y2 / k
10
b) Cazul general ( sˆ(t ) ≠ s (t )
Sistemul dinamic (sursa) care genereaza semnalul aleator este:
dx(t )
= Ax(t ) + Bu(t )
dt
y(t ) = Cx(t ) + n(t ) = s(t ) + n(t ) = r (t )
x(t0 ) = 
Se noteaza:
 = x
0

E[u(t )] = u (t )
E[n(t )] = n (t )
Avem urmatoarele relatii pentru covariante (u(t ) si n(t ) sunt zgomote albe) :
[
 − x 0 ][ − x 0 ] = cεε 0
T

[u(t ) − u (t )][u( 2 ) − u ( 2 )]T = cuu(t − 2 = Q/ W − 2 ∀t,2 ≥ 0


[n(t ) − n (t )][n( 2 ) − n ( 2 )]T = cnn (t − τ ) = P/ W − 2 ∀t,2 ≥ 0
si urmatoarele necorelari:
[ − x 0 ][u(t ) − u (t )]T ≡ 0 ∀t ≥ 0
[ − x 0 ][n(t ) − n (t )]T ≡ 0 ∀t ≥ 0
[n(t ) − n (t )][u(t ) − u (t )]T = cnu (t ) ≡ 0 ∀t ≥ 0

Se urmareste gasirea unui observator de stare optimal de forma:


dxˆ (t )
= F (t )xˆ (t ) + K (t )y (t ) + m (t )
dt
xˆ (t0 ) = x 0
cu cerintele de optimalitate:
1. estimare fara eroare sistematica :
x(t ) − xˆ (t ) ≡ 0
2. covarianta matriciala a erorii de estimare este minimala :
c ÙÚÙ opt (t ) ≤ c ÙÚÙ (t ) = [ x(t ) − xˆ (t )][x(t ) − xˆ (t )]T

Se propune solutia:
11
= Axˆ (t ) + B u (t ) + c ÛÚÛ (t )CT P −1 [y (t ) − n (t ) − Cxˆ (t )]
dxˆ (t )
dt
xˆ (t0 ) = x 0
sau, pentru E[n(t)] = 0 = E[u(t) si sistem invariant in timp:
= Axˆ (t ) + K [y (t ) − Cxˆ (t )]
dxˆ (t )
dt
xˆ (t0 ) = x 0
unde K = c ÛÚÛ CT P −1 se numeste castigul filtrului in regim permanent iar
c ÜÚÜ se determina din ecuatia Riccati1 pentru regimul permanent:
dc ÜÚÜ
Ac ÜÚÜ + c ÜÚÜ A T + BQB T − c ÜÚÜ CT P −1Cc ÜÚÜ = =0
dt
Schema fluxului de semnal la filtrul optimal Kalman-Bucy se da mai jos:

ßξ n E[n]= 0 E[u]= 0
B
0 ^
Ý Ý
x + y x
ÞÞ
u
B ∫dt C
s
K=cεεCTP-1 ∫dt
+ _ +

A A

Modelul semnalului aleator (sursa) C


Filtrul Kalman-Bucy (estimatorul)

Pentru un sistem stochastic de ordinul 1:


dx(t )
= Ax(t ) + Bu (t )
dt
y (t ) = x(t ) + n(t )
u (t ) : {0; Q}
n(t ) : {0; P}
unde matricile A, B, P, Q au cate un singur element.

1
Pentru justificarea ecuatiei Riccati vezi NOTA
12
2
cεε
2 Acεε − + B 2Q = 0 este ecuatia Riccati, solutia pozitiva fiind :
P
cεε opt = AP + A2 P 2 + B 2QP ;
Filtrul Kalman este :
dxˆ (t ) B 2Q  B 2Q 
= A +
2

xˆ (t ) + A + A +
2
y (t )
dt P  P 
 
Exemplu: prin canalul cu zgomot aditiv n(t), avand cnn = N 0 / 2 (zgomot
alb) se transmite un semnal s (t ) = x(t ), avand:
2a
qss (ω ) = 2 si sistemul dinamic generator al s (t ) = x(t ), are functia
a +ω2
1 1
de transfer: H (ω ) = sau H ( s ) = rezulta:
a + jω a+s
q xx (ω ) = qss (ω ) = qvv (ω ) H (ω ) de unde qvv (ω ) = 2a iar modelul de
2

sistem dinamic este de forma:


dx(t )
= − ax(t ) + u (t );
dt
y (t ) = x(t ) + n(t )
deci rezulta : A = [− a ]; B = [1]; C = [1];
la care se aduga:
Q = [2a ]; P = [N 0 / 2], vom avea ecuatia Riccati de forma:
2
c
− 2acεε − εε + 2a = 0 , solutia pozitiva fiind :
N0 / 2
cεε = − aN 0 / 2 + a 2 ( N 0 / 2) 2 + 2a ;

Filtrul Kalman este de forma :


dxˆ (t ) 4a  4a 
= − a2 + xˆ (t ) +  − a + a 2 +  y (t )

dt N0  N 0 

Castigul filtrului in regim permanent are expresia:


4a c
K = −a + a 2 + = εε
N0 N0 / 2
Obs.: In regim tranzitoriu, cεε ⇒ cεε (t) si ecuatia Riccati devine:
13
2
cεε (t ) dc (t )
− 2acεε (t ) − + 2a = εε , ecuatie care se poate modela
N0 / 2 dt
computational, iesirea modelului actualizand permanent castigul filtrului.

Modelul dinamic al
castigului filtrului

âξ n E[n]= 0 E[u]= 0
B
0 ^
à à
x + y x
áá
u
B ∫dt C
s
K=cεεCTP-1 ∫dt
+ _ +

A A

Modelul semnalului aleator (sursa) C


Filtrul Kalman-Bucy (estimatorul)

S-ar putea să vă placă și