Sunteți pe pagina 1din 86

1

Variabile aleatoare
Variabila aleatoare sau intamplatoare este legata de experimente aleatoare, care desfasurate in timp conduc la procese aleatoare. In cadrul teoriei statistice a semnalelor, procesul (semnalul) aleator este un model mai realist decat semnalul determinist pentru o serie intreaga de semnale atat utile (date, imagini, sunete) cat si perturbatoare (zgomote) din sistemele de prelucrare si transmitere a informatiei. Teoria statistica a semnalelor este strans legata de teoria probabilitatilor si de teoria multimilor, care impreuna permit introducerea notiunii de spatiu probabilistic. 1. Spatiu probabilistic Baza pentru definirea variabilei aleatoare este spatiul probabilistic = (H, , P), numit de unii autori si model statistic. Acesta este compus din trei elemente: multimea esantioanelor H, campul evenimentelor , si masura probabilistica P. multimea esantioanelor H: multimea tuturor rezultatelor posibile  ale unui experiment aleator. Exemplu: numerele corespunzatoare apelurilor sosite la o anumita centrala de comutatie, fetele aparute la aruncarea zarului, durata de viata a unei anumite componente a unui sistem, tensiunea retelei masurat la bornele unei prize. campul evenimentelor  multimea nevida, continand submultimi ale multimii H, avand urmatoarele proprietati: a) H  b) Din A rezulta A  c) Din A1, A2, ...  rezulta
i =1

Ai  .

In aceasta definitie se noteaza cu A complementul mutimii A, adica toate elementele multimii H care nu sunt in A. In consecinta, un rezultat i H poate fi element al mai multor evenimente. Exemplu: la aruncarea zarului, multimea rezultatelor este H = {1, 2,..., 6} unde i = aparitia fetei i si un camp posibil de evenimente este  = {, { 1}, { 1, 2}, { 2, 3, 4, 5, 6}, ..., H}

Masura probabilistica P: o masura speciala care se poate asocia elementelor campului evenimentelor, o functie care se poate defini pe acest camp . Domeniul valorilor ei este intervalul {0, 1} al numerelor reale; se poate spune ca functia P este o aplicatie a campului  pe intervalul {0, 1}. Proprietatile lui P sunt definite prin trei axiome (Kolmogorov): a) P(A) 0 b) P(H) = 1
n

c) P(
1

Ai ) = P( Ai ) unde Ai sunt disjuncte doua


1

cate doua. Definitiile probabilitatii: nA unde un experiment n n aleator este repetat de n ori si evenimentul A apare de nA ori N in sens clasic: P( A) = A unde N este numarul total de N rezultate ale experimentului (numarul elementelor din H finit), din care evenimentul A intervine de NA ori. ca frecventa relativa: P( A) = lim Legi uzuale ale probabilitatii: P() = 0 unde este evenimentul nul, P(A)  Daca A A = H si A A = atunci P( A) = 1 P( A) Daca A B atunci P ( A) P( B ) P( A B) = P( A) + P ( B) P ( A B ) P( A B) P ( A) + P( B ) Daca Ai A j = i j si A1 A2 ... An = H atunci P( A) = P( A H ) = P( A A1 ) + P ( A A2 ) + ... + P( A An ) adica seturile Ai sunt mutual exclusive si complete.

Probabilitatea conditionata: P( A B) P( A B) sau P ( B | A) = P( A | B) = P( B) P( A) P( B | A) P ( A) sau in forma Bayes : P ( A | B ) = P( B) In contextul de mai sus, P(A) se numeste probabilitatea a priori iar P(A|B) se numeste probabilitatea a posteriori a evenimentului A. Din axiomele de mai sus rezulta: P( A | B) 0 P( H | B) = 1 P( A1 A2 | B) = P( A1 | B) + P ( A2 | B) daca A1 si A 2 sunt disjuncte Se spune ca doua evenimente sunt statistic independente daca:
P ( A B ) = P ( A) P ( B ) si atunci mai rezulta : P ( A | B ) = P( A) P ( B | A) = P( B ) P ( A | H ) = P( A) deoarece P ( H ) = 1

2. Definitia varibilei aleatoare reale X() Variabila aleatoare reala X() este reprezentarea multimii rezultatelor H a unui experiment aleator pe multimea IR a numerelor reale cu urmatoarele proprietati: a) { X ( ) x} 

pentru fiecare x IR

b) P({ X ( ) = }) = P ({ X ( ) = +}) = 0
experiment aleatoriu IR

* * i *** *

X(i) axa reala

multimea rezultatelor H

Valoarea unei variabile aleatoare X() pentru un argument = i se numeste o realizare a variabilei (vezi fig. alaturata). Variabila aleatoare poate fi continua sau discreta. Daca multimea rezultatelor H este numarabila, atunci X() este o variabila aleatoare discreta

(aruncarea cu zarul), daca multimea rezultatelor H este nenumarabila, atunci variabila aleatoare este continua (masurarea valorilor unei tensiuni). Exemplu: aruncarea zarului; H = {toate fetele posibile)

X()

1 0

2 0

3 5

4 10

5 10

6 100

3. Functia de repartite a probabilitatii si densitatea de probabilitate Permit caracterizarea completa a unei variabile aleatoare. Functia de repartitie a probabilitatii este: Fx ( x) = P({ X ( ) x}) . Proprietatile ei sunt:
a) Fx ( ) = 0 b) Fx ( +) = 1 c) Fx ( x ) creste monoton

Densitatea de probabilitate este: f x ( x) = dFx ( x) dx

Aceasta derivata exista numai pentru varibile cu functie de repartitie absolut continua. In punctele in care functia de repartitie are salturi, se introduc distributii ponderate cu un factor egal cu marimea saltului lui Fx(x) in punctul respectiv.

Functia de repartitie se poate deduce din densitate prin integrare: Fx ( x)


= fx(u)du.
x

Exemple: Variabile aleatoare discrete (Aruncarea cu banul ) Variabile aleatoare continue (Masurarea timpului de viata)

Fx(x) 1,0 0,5 x

Fx(x) 1 (x/tmax)2 x tmax

fx(x)

fx(x) 2/tmax

0,5 x tmax x

Daca o variabila aleatoare discreta ia valorile xi cu i = 1, ..., M atunci densitatea de probabilitate este de forma:

f x ( x ) = a i ( x xi )
i =1

unde a i este saltul lui Fx ( x ) la xi :

ai = P ({ X ( ) = xi }) Introducan d cele doua relatii in expresia lui F ( x ) se obtine : x Fx ( x ) = f x (u ) du = P ({ X ( ) = xi })


xi x x

Proprietat i ale densitatii de probabilit ate a unei variabile aleatoare : a) f x ( x ) 0 pentru tot i x
+

b)

f x ( x)dx = 1

Se poate calcula din f x ( x ) probabilit atea ca X ( ) sa ia o valoare intre x1 si x2 : P ({ x1 X ( ) x2 }) = f x ( x ) dx


x1 x2

Pentru var iabile discrete datorita proprietat ii de filtrare a lui , probabilit atea devine : P ({ x1 X ( ) x2 }) = P ({ X ( ) = xi })
x1 xi x2

4.Valori medii ale variabilelor aleatoare (valori asteptate = expected values) Permit caracterizarea incompleta, partiala a variabilelor aleatoare. Momente de ordin n X
(n) n

= E{[ X ( )] } = x n f x ( x )dx = mx(n)


+

Pentru n = 1 (valoare medie liniara): X = x f x ( x )dx


n

pentru variabile continue

X = Pk xk
k =1

pentru variabile discrete

Pk= P({X() = xk})

Operatorul de mediere se poate extinde si asupra functiilor de variabila aleatoare. Daca g(X()) este o functie bijectiva de variabila aleatoare X(), atunci: E{g ( X ( ))} = g ( x )dFx ( x )

Daca desitatea de probabilitate fx(x) exista, atunci: E{g ( X ( ))} = g ( x ) f x ( x )dx


Operatorul de mediere este un operator liniar:

E{ag ( X ( ))} = aE{g ( X ())} E{g ( X ( )) + h(Y ( ))} = E{g ( X ( ))} + E{h(Y ( ))}

Pentru n = 2 (valoare medie patratica): X X


( 2)

= x 2 f x ( x )dx
n

pentru variabile continue

( 2)

= Pk xk
k =1

pentru variabile discrete

Momente centrale de ordin n: ( X X ) ( n ) = E{[ X ( ) X ]n } = ( x X ) n f x ( x)dx


+

( n) x

Pentru n = 2 (varianta): (X X )
(2)

= ( x X )2 f x ( x )dx pentru variabile continue

x

Var{X( <

x

este dispersia (deviatia standard) a v.a.

Se poate arata ca:

Var{X( <

x

=X

( 2)

{( X ) }2

Statistica clasica este o statistica de ordin 2, care descrie variabilele aleatoare numai cu valori medii de ordinul 1 si 2. Statisticile de ordin superior folosesc pentru caracterizarea v.a. si valorile medii de ordin n >2. Valorile medii de ordin superior lui 2 se numesc cumulanti. Interesul crescand din ultimul timp pentru statisticile de ordin superior este justificat de urmatoarea teorema: O v.a. poate fi complet caracterizata daca se cunosc valorile medii pana la ordinul n, cand n \ 5. Ansamble de doua variabile aleatoare Pe acelasi spatiu al esantioanelor H se pot defini mai multe variabile aleatoare, de exemplu X() si Y(), proiectand multimea H a rezultatelor posibile pe doua multimi IR de numere reale. Pentru aceste doua variabile se pot defini: 6. Functia de repartitie a ansamblului: FXY (x,y) = P({X() x}( Y() y}) si Densitatea de probabilitate a ansamblului: f xy ( x, y ) = 2 Fxy ( x, y ) xy .
\<  \< 

Evenimentele sigure in aceasta situatie sunt {X() respectiv{Y() \< ,


0;03 20390 2548 - X() respectiv{Y() - \< 

Rezulta astfel pentru ansamblul de doua v.a. urmatoarele Proprietati ale functiei de repartitie de ansamblu, FXY (x,y): FXY (x, +\  FX (x) FXY (+\, y) = FY (y) FXY (x, - \ FXY (- \, y) = 0 FXY (+\,+\  Functia de repartitie a ansamblului se poate determina prin integrarea densitatii de probabilitate a ansamblului: FXY ( x, y ) = f XY (u, v )dudv .
+ +

Densitatile marginale de probabilitate se pot determina cu relatiile: f X ( x ) = f XY ( x, y )dy fY ( y ) = f XY ( x, y )dx


+ +

Proprietatile densitatii de probabilitate de ansamblu: este o functie nenegativa: f XY ( x, y ) 0 satisface conditia de completitudine:
+ +

f XY ( x, y )dxdy = 1

Observatie: Pentru v.a. discrete densitatile de probabilitate se inlocuiesc cu probabilitati, iar integrarile prin sumari. Independenta statistica a doua variabile aleatoare Este una din relatiile interesante pentru studiul sistemelor de prelucrare a informatiei, deoarece efectele variabilelor pot fi luate in consideratie separat. Conditia de independenta statistica este: f XY ( x, y ) = f X ( x ). fY ( y ) .

10

Rezulta pentru functiile de repartitie relatia: FXY ( x, y ) = FX ( x ). FY ( y ) . Valori medii (momente) ale ansamblului Moment de ordin k, m mxy
( k ,m )

= E{ X ( )Y ( )} = x k y m f XY ( x, y )dxdy
k m

+ +

pentru k = 1, m = 1, se obtine functia de corelatie mutuala mxy


(1,1)

= Cor{ XY } = E{ XY } = E{( X ( ) m X )k (Y ( ) mY )m } =
(1) (1) (1) (1)

Moment centrat de ordin k, m

xy

( k ,m )

= ( x m X )k ( y m y )m f XY ( x, y )dxdy

+ +

pentru k = 1, m = 1, se obtine functia de covariatie mutuala

xy (1,1) = Cov{ XY } = E{( X ( ) m X (1) ) (Y ( ) mY (1) )} =


= ( x m X ) ( y m y ) f XY ( x, y )dxdy
(1) (1) + +

Intre Cor si Cov exista relatia : Cov{ XY } = Cor{ XY } E{ X } E{Y } = E{ XY } E{ X } E{Y } Variabile necorelate : Cov{ XY } = 0 E{ XY } = E{ X } E{Y } Variabile ortogonale : Cor{ XY } = E{ XY } = 0 Doua variabile aleatoare independente statistic sunt necorelate :

11

E{ X ( )Y ( )} = xyf XY ( x, y )dxdy = xyf X ( x ) fY ( y )dxdy =


+

+ +

+ +

xf X ( x )dx yfY ( y )dy = E{ X ( )}E{Y ( )}

Reciproca nu este intotdeauna adevarata: conditia de independenta statistica este mai tare decat cea de necorelare (decorelare).

Coeficient de corelatie

XY

(1,1) (1) (1) E{( X ( ) m X )(Y ( ) mY )} XY = = X Y | E{( X ( ) m X (1) )2 } E{(Y ( ) mY (1) )2 } |

limitele domeniului de variatie ale coeficientului sunt : - 1 XY 1 Demonstratie: (1) (1) 2 Y ( ) mY X ( ) m X 0 E X Y valoarea medie a partii din stanga a relatiei este : 1 2 XY + 1 0 care este valabila pentru ambele semne numai pentru | XY | 1 Coeficientul de corelatie arata relatia dintre doua variabile aleatoare : 1. Sunt decorelate pentru :

XY = 0 2. Daca sunt liniar dependente : Y ( ) = aX ( ), atunci se poate arata ca XY = 1 pentru a > 0 si XY = 1 pentru a < 0 .

12

Functia de repartitie conditionata si densitatea de probabilitate conditionata. FX ( x / B ) = P({ X ( ) x} / B ) dFX ( x / B ) dx Pentru B = { X ( ) a} f X ( x / B) = FX ( x / B ) = P({ X ( ) x} { X ( ) a}) P ({ X ( ) a}) x a P ({ X ( ) x} { X ( ) a}) = P ({ X ( ) a}) x a P ({ X ( ) x} { X ( ) a}) = P ({ X ( ) x}) FX ( x / B ) = FX ( x ) FX ( a )

FX ( x / B ) = 1

f X ( x) f X ( x) pentru x a = a ( ) F a X f X (u )du dFX ( x / B ) f X ( x / B) = = pentru x a dx 0 Pentru B = {Y ( ) y} FX ( x / B ) = f X ( x / B) = FXY ( x, y ) FY ( y ) f XY ( x, y ) fY ( y )

13

7. Densitati de probabilitate uzuale Distributii discrete Uniforma, cand rezultatele experimentului aleator sunt egal probabile: P ( X = xi ) = 1 / n i = 1,2,3,..., n Binomiala, cand intereseaza probabilitatea de aparitie a unui eveniment A de probabilitate p de k ori in sirul de n repetitii ale experimentului: k k P ( X = k ) = Cn p (1 p )n k , k = 1,2,...n unde : n! k si m ! = m(m 1)( m 2)...( 3)( 2)(1); 0 ! = 1 Cn = k! ( n k )! Exemplu: Probabilitatea de eronare a k simboluri intr-un cuvant de lungime n Poisson, cand intereseaza numarul k al rezultatelor pozitive ale unui experiment intr-un interval de timp de lungime T : k P ( X = k ) = e , k = 0, 1, 2,... k! = ' T unde ' este numarul rezultatelor pozitive cu care apar in unitatea de timp. Exemplu: Numarul apelurilor primite de o centrala telefonica sau numarul electronilor emisi de un catod fierbinte. Distributii continue: Distributia uniforma 1 /(b a ), a x b f x ( x) = 0 in rest Media si varianta varibilei aleatoare uniforme sunt: b+a mx = 2 (b a ) 2 2 x = 12 Exemplu: Eroarea de cuantizare Distributia normala (gaussiana) unidimensionala

14

Este cea mai utilizata, avand o forma analitica simpla; are multiple aplicatii ca urmare a teoremei limita centrala.
fx(x)

( x mx ) 2 exp f x ( x) = 2 2 2 x 2 x 1
Aria = 1/2 Aria = P(X > mx + y x) = Q(y)

( x mx )2 exp P( X > a ) = 2 2 2 x a 2 x
x

x mx mx + yx

Pentru schimbarea de variabila : z = (x mx)/x, integrala precedenta devine:

P( X > a ) =

(a mx ) / x

1 exp( z 2 / 2)dz 2

O medoda de calcul a acestei integrale se bazeaza pe integrala tabulata Q(y): 1 x 2 Q( y ) = exp( z / 2)dz, y > 0 2 y P ( X > a ) = Q[( a mx ) / x ] Deasemenea se poate calcula: P ( X a ) = 1 Q ( y ) sau: P ( X 0) = 1 / 2
[1-2Q(a)]

P(X a ) = 1-Q(a)

Q( a )

Q( a )

-a

Distributia normala bidimensionala x m 2 y m X Y + 1 1 X Y f xy ( x, y ) = exp 2 2 ( 1 ) 2 ( x m X )( y mY ) 2 X Y 1 2 X Y 8. Transformari de variabile aleatoare Cazul unidimensional: X Y


g(X)

15 2

Y = g(X) X

Exemplu: caracteristica unui amplificator In ce consta problema: daca este cunoscuta fX (x) trebuie determinata fY (y) a) Cazul cand g(x) este bijectiva: g ( x) g: R # P{x X x + dx} = P{ y Y y + dy} 1 f X ( x )dx = fY ( y )dy fY ( y ) = f X ( x ) dy dx b) Cazul cand g este bijectiva pe portiuni: g: R # y R, xi R g ( xi ) = y fY ( y ) = f x ( xk ) dy dx xk = g 1 ( y )
1 2 3 4 5 6 x y+dy y x x x+dx x = g 1 ( y ) g ( x)

16

Cazul bidimensional:

x2

y2


x2+dx2 x2

x y2+dy2 y2


y1

x1 x1+dx1

x1

y1 y1+dy1

y1 = g1 ( x1, x2 ) Y : X ( , ) = y g x x 2 2 1 2 x1 = 1 ( y1, y2 ) X : Y ( , ) = x y y 2 2 1 2
g1 g 2
1 2

P{x x} = P{y y}
f x1x2 ( x1 x2 ) x = f y1y2 ( y1 y2 ) y f y1y2 ( y1 y2 ) = f x1x2 ( x1 x2 )
y x

y x

Jacobianul transformarii
y2 x1 f y y ( y1 y2 ) = f x x ( x1 x2 ) 1 1 2 1 2 y2 x2

y1 y ( y1 y2 ) x1 = = lim ( ) x x x y1 x >0 1 2 x 2

Exemplu: schimbarea de coordonate rectangulare / polare

17 x2

x2

 
x1

1 2

x1

x1 =  .48    x2 
 8 3 

cos(y2)

 

 

1= x1 + x 2
2



1 sin(y2)

2=

arctg x2
x1

yx

y1 x = 1 y1 x 2

y2 x1 cos( y2 ) = y2 y1 sin( y2 ) x2

sin( y2 ) 2 = y1 = x12 + x2 y1 cos( y2 )

f x1x2 ( x1 x2 ) = f y1 y2 ( y1 y2 )

x 1 = f y1 y2 ( y1 y2 ) y

f y1 y2 ( y1 y 2 ) = f x1x2 ( x1 x 2 )
Modificarea coordonatelor duce la schimbarea distributiilor
Fx1x2 ( x1 x2 ) = Fy1 y2 ( y1 y 2 ) =
x1 x2

y1 y2

x1x2

(u , v ) dudv (u , v) dudv

y1 y2

9. Variabile aleatoare complexe Variabila aleatoare complexa Z se defineste cu ajutorul variabilelor aleatoare reale X si Y: Z = X+jY Valoarea medie of g(Z) este definita ca:

18

E{g ( Z )} = g ( z ) f X ,Y ( x, y )dxdy

media lui Z, mZ , este : mZ = E{Z } = E{ X } + jE{Y } = m X + jmY var ianta este :


2 Z = E{| Z mZ |2 } covarianta lui Z m , Z n este : CZ m Z n = E{( Z m mZ m ) * ( Z n mZn )}

unde * semnifica complex conjugat 10. Vector aleator Variabila aleatoare scalara ia valori pe axa reala, iar vectorul aleator ia valori intr-un spatiu m dimensional Rm. Functia de repartitie a vectorului aleator ca si densitatea sa de probabilitate se pot defini ca pentru ansamble de m variabile aleatoare: FX 1 ,..., X m ( x1 ,..., x m ) = P[( X 1 x1 )...( X m x m ) x1x 2 ...x m Parametrii importanti sunt valorile medii si covariantele: m X i = E{ X i } f X 1 , X 2 ... X m ( x1 , x 2 ,..., x m ) = m FX 1 ,..., X m ( x1 ,..., x m )

X i X j = E{ X i X j } m X i m X j
Legile probabilistice pentru vectori aleatori pot fi formulate concis, folosind notatii vectoriale. Ansamblul de m variabile aleatoare X1, Xm poate fi reprezentat ca un vector coloana cu m componente: X1 X X = 2 sau X T = [ X 1 X 2 ,..., X m ] .. X m

Vectorul medie si matricea de covariatie sunt:

19

E ( X1 ) E( X ) 2 m X = E(X ) = ... E ( X ) m X = E{XX T } m X mT X X1X1 X1X 2 X2X2 X X = 2 1 ... ... X m X1 X m X 2 ... ... ...

X1X1

X1X m X2Xm ... XmXm

componentele sunt necorelate daca:

X i X j = ij = 0, i j
si independente daca: f X 1 , X 2 ,..., X m ( x1 , x2 ,..., xm ) = f X i ( xi )
i =1 m

11. Functia caracteristica Definitie Este transformata Fourier a densitatii de probabilitate. R C X ( j ) = jX X ( j ) = E{e } pentru variabile discrete : X ( j ) = e jxk PX ( X = xk )
k =1

pentru variabile continue : X ( j ) = e jx f X ( x )dx

Proprietati: X ( j ) =  * { f X ( x)} 1 j x f X ( x) = X ( j )e d 2 Legatura cu momentul unei variabile aleatoare Daca se diferentiaza functia caracteristica: d X ( j ) = j xe jx f X ( x )dx d
d X ( j ) = j x f X ( x )dx = jE{ X } d =0

20

E{ X } = ( j )
n

nd

X ( j ) d n =0

n d n X ( j ) X ( j ) = n! d n n =0 =0
( j )n ( j )n X ( j ) = E{ X } = mn ! n n! n =0 n =0 n

Semnale si procese aleatoare


% 3,



.43

8023, 0

54

$023,

 $ & % % )
/ 1

28:7 07,7


1

,9

cunoscuta, ca de exemplu X (t ) = A cos(t + ) . $023, 687 43/  43,9 /09072 3 890 :<;87 74= 0;4 :
9 2

570;0/0,

/09072 3 890 0

! ! ! # ' ( *,+.- / 1&4 0


.,7 10 : 74 /08.7 8

8:3

"

570;

! 0 2
8 /

9 25 

:72947 0;4 : /

0 5

0 1

9 2

1:3.

54,9 9 2

54,9

570;0/

6@;

5,7 ,

/04,70.

A > ?

,7,2097

6 > B C
,

semnalului este o variabila aleatoare, ca de exemplu: X (t ) = A( ) cos(t + ) sau X (t ) = A cos( ( )t + ) sau X (t ) = A cos(t + ( )) Semna 6 , 0,94,70 :D;E7 74= 0;4 : 6 > 9 2? 089 6 57,.9 7 imprevizibila si care vor fi studiate in continuare. 1.
01 3 

&

unde ia valori in
5

8023,

8023, : :

, 0,94

70,

, 0,947

089

, 7 .

70, , 54 8023,

507 203

:3:

X (i , t )

9 ;

0 ,39 /

bc^

.,7

, 0,94

.4389

0 02039, /

1,2

R S Q X V ] ^ ` i ] \ ada X ( , t ) (vezi figura).


8 ,7 8 8023 1 ., 4- 3 . / 9 25 :72,7 , 0 070 / 85, : .,7 /09072 3 1:3.

85, :

8 K L

1:3.

0 ,39 4,30 47

O P t, de obicei, ia valori T U V Y V Y Z Z ] ^ _ ` Ha \ ] ] a
, 010.9:7 :3: 0 ,39 4,30 4 , 0 070 1:3. 0

/4

5,7,2097

M X ( , t )

experiment aleatoriu

X(i, t)

* i *

***

egfih j kmlonqp
rezultatelor H

t1 t2

s X( ,t), notata Xv (t), x y{z numita realizare particulara w | } ~  | sale particulare, in orice moment de timp t } }E | aleatoare Xt( si t si t variabile: X( ,t
 0.70 ;, 47 .47085:3/ 8, 1:3. 1:3. 0 ,39 4 8023, : : 70, ,. 089 .:348.: 574.08: , 0,94 57 2:  20 8 7 4 4- 3 ,7 ,.4380. 3, /:5 .: ;,7 ,  .0 /4 5,7,2097 /0480:7294,70 , :7 089 8023, , 0,947 ,/ . 1,2 / 70, 7 5,79 .: ,70

r rdr

sut

variabil si t fix: X( ,t) = Xt( ) este o variabila aleatoare; fix si t variabil: X( ,t) = X (t) este o realizare

si t fixe, X( ,t
5,79 .: ,7, ,/ .

1:3. 0570

39

9 2

3: 9,

27

2. Clasificarea semnalelor aleatoare. Semnale aleatoare in timp continuu, sau simplu semnale aleatoare, constituite din o familie nenumarabila de variabile aleatoare Xt( ) cu t . 1. Daca Xt( ) pentru un t oarecare este o variabila aleatoare continua, semnalul este de amplitudine continua (figura a1); un exemplu l poate constitui tensiunea de la bornele unei prize electrice. 2. Daca Xt( ) pentru un t oarecare este o variabila aleatoare discreta, semnalul este de amplitudine discreta (figura a2); un exemplu l poate constitui un semnal de date intr-o transmisie asincrona, cnd 7: de date poate ncepe la orice moment de timp. Semnale aleatoare in timp discret sau serii aleatoare care
70570

notate Xn( ), unde t = nT cu n Z .

39

2:  2

3:2,7,-

1:3.

, 0,94,7

1. Daca pentru un n oarecare, Xn( ) este o variabila aleatoare continua, seria este de amplitudine continua (figura b1); un exemplu l poate constitui un semnal 2. Daca pentru un n oarecare, Xn( ) este o variabila aleatoare discreta, seria este de amplitudine discreta
1 :7 /

,25

9:/ 3

.439 3:

,3, 4

0 ,39 43,9

-

2,

3:20 9

,3

, 0,947

exemplu l poate constitui un semnal analogic


0 ,39 43,

.:,39

X1(t) Xi(t) t t = ti Fig. a2 Fig. a1 XN(t) T q T t t

Xi(t)

Fig. b1

Fig. b2

3.

:3.

705,79 

/038 9,9

574-,-

9,9

semnalelor aleatoare in timp continuu :3. 705,79  74-,- 9,9


/01 30 9

50397

,7 ,-

, 0,94,7

47/ 3:

se

.439 3:

4- 3:9

din semnalul aleator la un moment oarecare de timp: FX ( x, t ) = P( X ( , t ) x ) Densitatea de probabilitate de ordinul 1 8 /01 30 9 94 ca pentru o variabila aleatoare continua si este: F ( x, t ) f X ( x, t ) = X x :3. 705,79  / 47/ 3: 3 se refera la n v.a. continue, considerate la n momente de timp diferite: FX 1 , X 2 ,...., X n ( x1, x2 ,...., xn ; t1, t2 ,...., tn ) = P ( X 1 x1,..., X n xn )

unde am notat X i = X ( , ti ).
Densitatea de probabilitate de ordin n este:

f X 1 ,.., X n ( x1,.., xn ; t1,.., tn ) =


:3.

FX 1 ,.., X n ( x1,.. xn ; t1,..tn )


n

705,79 

x1,.., xn

/038 9,9

574-,-

9,9

semnalului aleator depind de momentele de timp ti la care sunt considerate variabilele aleatoare. :3. 705,79  8,2 : : / 8023, 0 aleatoare continue in timp X( 9) si Y( 9) definite pe

Densitatea de probabilitate a ansamblului de doua semnale aleatoare continue in timp mai sus considerat este: 2 FXY ( x, y; t1, t2 ) f XY ( x, y; t1, t2 ) = xy
,.

FXY ( x , y ; t1 , t2 ) = P ( X ( , t1 ) x , Y ( , t2 ) y )

,.0 ,

85,

0 ,39 4,30 4

0890

/4:

8023, ,9:3.

0 ,39 4,30 47

8:3

/01 3 9

54,9

;07 1 .

.0 ,

/,.

8:3

85,

89,9 89

independente. 4. Semnale aleatoare statistic independente 01 3  0: Doua semnale aleatoare X( 9) si Y( 9) definite pe
,.0 ,

85,

0 ,39 4,30 4

3:208

89,9 89

3/0503/039

daca pentru orice momente t11,,t1i din intervalul de timp pe care este definit X( 9) si pentru orice momente t21,,t2j din intervalul de timp pe care este definit Y( 9), variabilele aleatoare X( 911),, X( 91i) sunt statistic independente de variabilele aleatoare Y( 921),, Y( 92j). Atunci, cu t1 Tx , t 2 Ty (Tx si Ty sunt intervalele pe care se observa semnalele aleatoare X, Y: FXY ( x, y; t1, t2 ) = FX ( x, t1 ) FY ( y , t2 )

f XY ( x, y; t1, t2 ) = f X ( x, t1 ) fY ( y , t2 ) In interpretare fizica, intre doua semnale statistic independente nu


8

54,9

89,-

dd

3 .

9:7,

574;

70

8:78

diferite si de aceea efectele lor in sistemele de prelucrare a


31472, 0

54


1

:,9

.438 /07,

805,7,9

Pentru cazul in care variabilele aleatoare X( 91i) si Y( 92j) sunt
/ 8.7090 .43/ 

Pkn = Pk P n

unde : Pkn = P ( X ( , t1i ) = ak , Y ( , t2 j ) = bn ) ,

3/0503/039

89,9 89 .

/0; 30

Pk = P( X ( , t1i ) = ak ) Pn = P(Y ( , t2 j ) = bn ) iar ak si bn sunt valori ale variabilelor X si Y , 08 valori posibile ale acestor variabile: {a1, a2 ,..., ak , ...} respectiv {b1, b2 ,..., bn ,...}
!0397 /

7:7

5. Valori medii statistice ale semnalelor aleatoare

le particulare, se pot defini doua tipuri de valori medii: valori medii


89,9 89 .

8023,

, 0,947

2:  20

70,

7

8,

70,

7

5,79 .: ,7

,3:2

24203

9 2

X(1 t) Valoare medie statistica t Valoare medie temporala t X(3 t) t X(4 t) t X(5 t) t
8

;, 47

20/

02547,

1 0.70

70,

7

5,79 .: ,70

Valorile medii statistice sunt de fapt valori medii ale variabilelor aleatoare considerate la un anumit moment de timp si care devin
,8910

1:3.

d
/

9 25

.089

;, 47

20/

d
8

/01 308

variabile aleatoare, ceea ce se vede in continuare: Valoarea medie liniara


1) m( x (t ) =


. 8

50397

E{ X ( , t )} = xf X ( x, t )dx

Valoare

20/

597,9 .,

2) 2 2 m( x (t ) = E{ X ( , t )} = x f X ( x , t )dx

Varianta
2 X (t )

= E{( X ( , t ) m X (t )) } = ( x m x (t ))2 f X ( x, t )dx


2

:3.

intre valorile semnalului aleator la momente de timp diferite

,:94.470 ,9 0 .,7

284,7

9:7


,7

89

RX 1 X 2 (t1 , t2 ) = E{ X ( , t1 ) X ( , t2 )} = x1 x2 f X 1 X 2 ( x1 x2 ; t1, t2 )dx1dx2


:3.

,:94;,7 ,9 0 .,7

089

1:3.

,:94.470 ,9

semnalului centrat pe valoarea sa medie si are expresia:


C X1 X 2 (t1 , t2 ) = E{( X ( , t1 ) m x (t 1))( X ( , t 2 ) m x (t 2 ))} =
+ +

(x

m x (t 1))( x2 m x (t2 )) f X1 X 2 ( x1 x 2 ; t1 , t2 )dx1dx2

Se poate arata ca se pastreaza relatia dedusa la variabile aleatoare : C X1 X 2 (t1 , t2 ) = R X1 X 2 (t1 , t 2 ) m x (t 1)m x (t2 ) Functia de intercorelatie sau de corelatie mutuala intre doua semnale aleatoare X ( , t1 ) si Y ( , t2 ) R XY (t1 , t2 ) = E{ X ( , t1 )Y ( , t 2 )} =
+ +

xy f

XY

( xy ; t1 , t 2 )dxdy

Functia de covariatie sau de intervariatie C XY (t1 , t2 ) = E{( X ( , t1 ) m x (t 1))(Y ( , t2 ) m y (t2 ))} =


+ +

( x m (t ))( y m
x 1

(t 2 )) f XY ( x, y; t1 , t2 )dxdy

Semnale aleatoare necorelate : doua semnale aleatoare definite pe acelasi spatiu al esantioanelor sunt necorelate daca pentru toate valorile t1 Tx si t 2 T y variabilele aleatore respective sunt necorelate , adica daca : E{ X ( , t1 )Y ( , t 2 )} = E{ X ( , t1 )}E{Y ( , t2 )} Semnale ortogonale : doua semnale aleatoare definite pe acelasi spatiu al esantioanelor sunt ortogonale daca pentru toate valorile t1 Tx si t 2 T y variabilele aleatore respective sunt ortogonale, adica daca : E{ X ( , t1 )Y ( , t 2 )} = 0 Daca doua semnale aleatoare sunt necorelate si daca cel putin unul din ele are valoarea medie nula, atunci ele sunt si ortogonale Daca doua semnale sunt statistic independente, atunci ele sunt si necorelate . Reciproca nu este intotdeauna adevarata!

6. Valori medii statistice ale semnalelor aleatoare discrete Valorile medii statistice se calculeaza pe ansamblul realizarilor particulare considerate la momente arbritare de timp t1, t2, , ti, , deci asupra variabilei aleatoare ce rezulta in aceste momente de timp. Se mai numesc valori medii pe ansamble si depind de alegerea momentelor de timp alese. Acestea sunt:
Valoare medie (moment de ordinul 1, media liniara) mx ( n ) = E [ X ( , n )] = ak Pk ( n )
k

unde {a1, , ak, , aN} reprezinta ansamblul valorilor posibile.


Valoarea patratica medie (moment de ordinul 2)
2) 2 2 m( x ( n ) = E [ X ( , n )] = ak Pk ( n ) k

Varianta

2 ( n ) = E [ X 2 ] ( E [ X ])2 Momentul de ordinul n


n) n n m( x ( n ) = E [ X ( , n )] = ak Pk ( n ) k

Functia de autocorelatie

Rxx ( n1 , n2 ) = E [ X ( , n1 ) X ( , n2 )] = ai a j Pij ( n1 , n2 )
i =1 j =1

N N

Pij ( n1 , n2 ) = P( X ( , n1 ) = ai , X ( , n2 ) = a j ) Functia de corelatie mutuala a doua semnale aleatoare X ( ,t ) si Y ( ,t )

Rxy ( n1 , n2 ) = ai b j Pij ( ai ,b j ; n1 , n2 )
i =1 j =1

N N

cu Pij ( ai ,b j ; n1 , n2 ) = P( X ( , n1 ) = ai ,Y ( , n2 ) = b j )

unde ai, i=[1,N] , sunt valorile posibile ale lui X ( , n1 ) iar bj, j=[0,N], sunt valorile posibile ale lui Y ( , n2 ) .
Functia de autovariatie

C xx ( n1 , n2 ) = Rxx ( n1 , n2 ) m x ( n1 )mx ( n2 )

Functia de covariatie a doua semnale

Y ( ,t )

X ( ,t ) si

C xy ( n1 , n2 ) = Rxy ( n1 , n2 ) m x ( n1 )m y ( n2 )

7. Valori medii pentru semnale aleatoare complexe Z ( ,t ) = X ( ,t ) + jY ( ,t ) deducem

E [ Z ( ,t )] = E [ X ( ,t )] + jE [ Y ( ,t )] M z ( t1 ,t2 ) = E [ Z ( ,t1 )Z ( ,t 2 )]

Momentul de ordinul 2 Functia de autocorelatie continua

Rzz ( t1 ,t 2 ) = E [ Z ( ,t1 )Z * ( ,t 2 )]
Functia de autocorelatie discreta

Rzz ( n1 , n2 ) = E [ Z ( , n1 )Z * ( , n2 )] cu proprietatile: M z ( t1 ,t 2 ) = M z ( t 2 ,t1 ), t1 ,t 2


simetrie hermitica

Rzz ( t1 ,t2 ) = R* zz ( t 2 ,t1 ), t1 ,t 2

Corelatia statistica de ordinul n

Rx ( t1 ,t 2 ,..., t n ) = E [ X ( ,t1 ) X ( ,t 2 )...X ( ,t n )]

8. Medii temporale pentru semnale in timp continuu Mediile temporale se calculeaza pe o realizare particulara X ( ,t ) si depind de parametrul din spatiul esantioanelor. Acestea sunt:
Valoarea medie liniara

mx = X ( t ) = lim

1 X ( ,t )dt = X ( t0 + t ) T T T
2

T 2

Deci nu depinde de originea timpului t0. Valoarea medie temporala reprezinta componenta continua a semnalului si este ea insasi o variabila aleatoare deoarece depinde de . Valoarea sa medie statistica este: E [ X ( t ) ] = lim 1 E [ X ( , t )] dt = m x T T T
2 T 2

Rezulta ca valoarea medie statistica a tuturor valorilor medii liniare temporale este egala cu valoarea medie liniara statistica a semnalului.
Valoarea patratica medie (moment de ordinul 2)
T 2

[ X ( t )] 2 = lim

1 2 2 [ X ( ,t )] dt = [ X ( t0 + t )] T T T
2

Valoarea patratica medie, nu depinde de originea timpului si reprezinta puterea medie a semnalului pe sarcina unitara.

10

Momentul de ordinul n
T 2

[ X ( t )] n = lim

1 n n [ X ( ,t )] dt = [ X ( t0 + t )] T T T
2

Functia de autocorelatie

Depinde de diferenta dintre momentele de timp considerate. Rxx , ( t1 ,t 2 ) = X ( t1 + t ) X ( t 2 + t ) =


T 2

= lim X ( ,t1 + t ) X ( ,t2 + t )dt = Rxx , ( t 2 t1 )


T T 2

Functia de corelatie mutuala

Rxy , ( t1 ,t 2 ) = X ( t1 + t )Y ( t 2 + t ) = = lim X ( ,t1 + t )Y ( ,t2 + t )dt = Rxy , ( t 2 t1 )


T T 2 T 2

Se poate demonstra ca:

Rxy , ( ) Rxy , ( )

Rxy , ( ) = R yx , ( );
Functia de autovariatie

= t 2 t1

C xx , ( t1 ,t 2 ) = [ X ( t1 + t ) m x ][ X ( t 2 + t ) mx ] = C xx , ( t 2 t1 ) Functia de covariatie C xy , ( t1 ,t 2 ) = [ X ( t1 + t ) mx ][ Y ( t 2 + t ) m y ] = C xy , ( t 2 t1 )

11

9. Medii temporale pentru semnale in timp discret Daca semnalul aleator este definit doar in momente discrete de timp, in formulele anterioare se inlocuieste indicele t prin indicele n Z , stiind ca tn = nT unde T reprezinta intervalul de timp intre doua momente de timp, iar integrarea se inlocuieste printr-o insumare. De exemplu:
Valoarea medie liniara

mx = lim


1 X ( 0 ,i ) N N + 1 N =
i 2

N 2

S-a notat X ( 0 ,i ) pentru X ( 0 ,iT ) sau, inca, X ( 0 ,ti ) . Indicele este un element arbritar al spatiului esantioanelor.
Momentul de ordinul n

(n) X

lim N
N 2

N /2 1 X n ( 0 , i ) N + 1 i= N / 2

Functia de autocorelatie

Rxx ,0 ( m ) = lim

1 X ( 0 ,i ) X ( 0 ,i + m ) N N + 1 N =
i 2

Functia de corelatie mutuala

Rxy ,0 ( m ) = lim

1 X ( 0 ,i )Y ( 0 ,i + m ) N N + 1 N
i= 2

N 2

12

Functia de corelatie circulara

rxy ( m ) Observatii:

1 X ( 0 ,i )Y ( 0 ,i + m ) N +1 N
i= 2

N 2

In cazul seriilor aleatoare digitale (semnale digitale sau semnale discrete in timp cu amplitudine discreta), variabila aleatoare X ( 0 ,i ) (respectiv Y ( 0 ,i ) ) ia valori in alfabetul finit { a1 , a2 ,..., ak ,..., an } (si, respectiv, { b1 ,b2 ,...,b j ,...,bm } ). Autocorelatia ca medie temporala devine: Rxx ,0 ( h ) = lim 1 ak ak + h N 1 + N N
k = 2 N 2

Corelatia mutuala temporala a doua semnale digitale este:


N 2

Rxy ,0 ( h ) = lim

1 ak bk + h N N + 1 N
k = 2

Corelatiile temporale de ordinul n depind de realizarea particulara aleasa prin parametrul si de n variabile 1 , 2 ,..., n 1 reprezentand diferentele dintre momentele de timp considerate : i = ti +1 ti , i = 1,..., n 10. Stationaritate

Definitie: Un semnal aleator este stationar daca proprietatile sale statistice sunt invariante in raport cu

13

schimbarea originii timpului sau, echivalent, la orice translatie de timp. Doua semnale sunt simultan stationare daca fiecare este stationar si daca proprietatile lor statistice simultane sunt invariante la orice translatie de timp. Stationaritatea poate fi in sens strict sau in sens larg. Stationaritate in sens strict Definitie(stationaritate in sens strict sau tare): Un semnal este stationar tare sau in sens strict daca functia sa de repartitie (legea temporala) de orice ordin este invarianta la orice translatie de timp . Fn ( x1 ,..., xn ; t1 ,...,t n ) = Fn ( x1 ,..., xn ; t1 + ,...,tn + ) Rezulta ca densitatile de probabilitate de orice ordin n sunt invariante la orice translatie de timp. Daca semnalul este o secventa digitala aleatoare X ( , n ) cu valori in alfabetul { a1 , a2 ,..., ak ,..., a N } , atunci stationaritatea in sens strict presupune: - Pi = P( X n = ai ) este independenta de n - P( a1 ,..., a N ) = P( X 1 = a1 ,..., X n = a N ) depinde numai de diferentele de timp. Stationaritate in sens larg Definitie(stationaritate in sens larg sau slaba): Un semnal este stationar in sens larg sau slab daca functiile sale de repartitie de ordinul 1 si 2 sunt invariante la orice translatie de timp .

F1( x ,t ) = F1( x ,t + ) = F1( x ) F2 ( x1 , x2 ; t1 ,t 2 ) = F2 ( x1 , x2 ; t1 + t ,t 2 + t ) = F2 ( x1 , x2 ; ), = t 2 t1 Ca urmare densitatile de probabilitate de ordinul 1 si 2 sunt invariante la orice translatie de timp si deci: m x = E [ X ( ,t )] - nu depinde de timp

14

2) 2 m( x = E [ X ( ,t )] - nu depinde de timp Rxx ( ) = E [ X ( ,t ) X ( ,t + )] - depinde de diferenta de timp Rxy ( ) = E [ X ( ,t )Y ( ,t + )] - depinde de diferenta de timp

In cazul unui semnal digital, stationaritatea in sens larg se defineste prin: - Pi = P( X n = ai ) este independenta de n - Pij ( n , k ) = P( X n = ai , X k = a j ) = Pij ( n k ) depinde numai de n-k. Stationaritatea in sens larg se mai numeste stationaritate pana la ordinul al doilea. Spre deosebire de aceasta, stationaritatea simpla de ordinul al doilea se refera doar la invarianta in timp a proprietatilor statistice de ordinul al doilea, ceea ce nu implica si stationaritatea de ordinul intai. De exemplu, in cazul unei secvente digitale aleatoare, probabilitatea Pi = P( X n = ai ) = P( X n = ai , X k = a j ) = Pij ( n k )
j =1 j =1 N N

nu depinde de alegerea lui X k dar poate depinde de n desi Pij ( n k ) depinde numai de (n-k). In concluzie: stationaritatea in sens larg este verificata prin relatiile: cazul semnalelor discrete in timp - E [ X n ] independenta de n - E [| X n |2 ] < - Rxx ( n1 , n2 ) = Rxx ( n2 n1 ) cazul semnalelor continue in timp

15

- E [ X ( ,t )] independenta de t - E [| X ( ,t ) |2 ] < - Rxx ( t1 ,t 2 ) = Rxx ( t 2 t1 ) - continuitatea in origine a functiei de autocorelatie care asigura continuitatea realizarilor particulare in medie patratica.

15


,9 1

11. Ergodicitate Stationaritatea este o proprietate a unui semnal aleator care


/09072 3,9

particulare. Din punct de vedere practic, interesant este cazul in care o singura realizare particulara poate fi luata drept model pentru ntregul proces aleator.
,

/0.

2:  20

9:9:74

 

0,

7

.47085:3 94,7

&

.74

,802030 20/

 
,

70570

care se dispune simplu. Aceste semnale se numesc ergodice.


01 3  3:20 9 5,3

'('

89,9 89

10.9:,9

'

!#"

39 8023, 0

'*)

8:3

0 8 3

, :7

" !&% .

, 0,94,7 20/ ,7

70,

'

5,79 .: ,7,

"

89, 43,7 902547,

 " 1

, '
/ 8

cu probabilitate 1, cu medi orice n.


01 3  3:20 9

3 3

ergodic tare sau in sens strict daca mediile temporale


47/ 3:

07

4/ . 9,9

9,70

&

8023,

89, 43,

465

:30

70,

7

89,9 89 .

5,79 .: ,7 /

9: 9 9<:
&

7- 97,7

.0 ,

47/ 3

8:3

, 0 

50397

>

ergodic slab sau in sens larg daca mediile statistice de ordinul nti si al doilea sunt egale, cu probabilitatea 1, cu mediile temporale ale un0D 70, 7 E 5,79 .: ,7 F ,7- 97,7 F / F ,.0 , E 47/ 3 Egalitatea, cu probabilitatea 1, a unei medii statistice cu o
20/

07

4/ . 9,9

8 ,-,

8023,

89, 43,

convergenta in probabilitate: m X (t ) = E [X ( , t )] m X ( ) = X ( , t )
T

902547, ,

H G
/

025 :

H I

., :

47/ 3: :

L39

L380,23

lim P m X ( ) m X (t ) < = 1

ceea ce implica anularea variantei variabilei aleatoare m X ( ) . Deoarece demonstrarea ergodicitatii este, in general, anevoioasa, adesea in practica este suficienta considerarea ergodicitatii in raport cu media liniara (de ordinul nti), care poate fi numita erodicitate practica. liniara) R &S 8023,T , 0,94U 89, 43,U 8 V 3:20 daca varianta mediei temporale este nula:
01 3 

07

4/ . 9,9

57,.9 .

MON P

7,547 9

57,.9

Q N WXV
.

20/ 7 4/

var m X ( )

16

2 =m X

=0

Interpretarea fenomenului de ergodicitate practica (sau in raport cu media liniara) este imediata. Deoarece m X ( ) este o variabila aleatoare obtinuta printr-un proces la limita, conditia din definitia anterioara poate fi rescrisa sub forma: 1 T /2 lim var X ( , t ) dt =0 T T T / 2 sau, daca se introduce o noua variabila aleatoare: 1 T /2 m X ( , t ) = X ( , t ) dt T T / 2 lim var m X ( , t ) = 0 sau
T T

lim m X ( , t ) = m X

Considernd un Y / Z 242039 Z Tn , fiecare dintre variabilele aleatoare m X ( ,Tn ) are media m X , varianta tinznd la zero pentru n = (fig. 1) m X ( ,Tn )

mX

T1

T2

Tn
Figure 0

Fig.1. Reprezentarea fenomenului de ergodicitate practica. Punctele indica valori ale variabilelor aleatoare m X ( ,Tn ) oscilnd in jurul mediei m X , varianta tinznd la zero pentru n .
&

.7 907

\^] Z

07

4/ . 9,9

:9

089

.43 3:

` [

904702

:7294,70

17

Teorema (criteriul de ergodicitate practica): Fie un semnal stationar in sens larg X ( ,t ) continuu in timp. Daca: 1 T lim 1 T C XX ( )d = 0 , T T T atunci semnalul X ( ,t ) este practic ergodic. Demonstratie:


rezulta:

.43/ 

d c

3: ,7

d c

;,7 ,390

20/ 0

egf

02547,

3 ,70 

2 m = E m X ( ) m X X

{[

]2 }= E{[m X ( )]2 } (m X )2
2

= lim

T /2 T /2

T T 2 T / 2 T / 2

X ( , v) X ( , u )dvdu (m X )

cu schimbarea de variabile v u = v = u + ,

v = v,
se trece de la planul ( v ,u ) la planul ( v , ) . Domeniul de integrare in planul ( v ,u ) din fig.2a se transforma in domeniul de intregrare din fig2b, limitele obtinandu-se din: T T v = + , 2 2 T T u = v = . 2 2 2 Cu aceasta, integrala dubla din ultima expresie a lui m X u=

se transforma in integrala simpla, deoarece elementul de 8:57,1, c ( dvdu ) din planul ( v ,u ) se transforma in elementul ( T | |)d din planul ( v , ) : dvdu ( T | |)d

18

T 2 T 2
0

T 2

T 2
-T u 0

T T 2

T 2 a)

T 2 b)

Fig.2 transformarea domeniului de integrare prin substitutia v u = Intr-adevar, aria paralelogramului din fig.2b se obtine prin scaderea suprefetei hasurate in fig.3b din suprafata hasurata din fig.3a.
v

v =| |

T 2

-T T 2 a)

-T

b)

Fig.3. Calculul elementului de suprafata in planul ( v , ) Rezulta deci: 2


T T T d | | d = ( T | |)d T 2 T T T

19

in loc de

T T 2 2

T T 2 2

dvdu

2 Teorema este demonstrata deoarece expresia lui m devine x

1 T | | (1 )C XX ( )d = 0 T T T T Un alt criteriu practic de recunoastere a ergodicitatii unui semnal aleator este dat de urmatorul corolar al teoremei precedente. Corolar (alt criteriu de ergodicitate practica): Daca 1:3. h de autocovarianta a unui semnal aleator X ( ,t ) 89, 43,i 9 3/ j
2 m = lim x
.97

atunci semnalul X ( ,t ) este practic ergodic.


0243897, 0

lim C XX () = 0 ,

074

Pentru orice > 0 se poate alege un ' > 0 astfel incat: | C XX () |< , > ' . Rezulta, atunci, pentru T > ' : 1T || || T | (1 )C XX ()d | (1 )d = 2 . T T T T T T 1T || Deci: lim (1 )C XX ()d = 0 T T T T si din teorema anterioara rezulta ca semnalul X ( ,t ) este practic ergodic.
Prin urmare, pentru a verifica ergodicitatea unui semnal aleator

in raport cu valoarea sa medie liniara, trebuie calculata 1:3. h sa de autocovarianta C XX ( ) , deci o valoare medie de ordinul al doilea.

In general, pentru verificarea ergodicitatii unei valori medii de ordinul k 089 j 30.08,i 8 h 8 j / 85:3 / jkml , 4,7 j 20/ j / j 47/ 3: n 2k.

20

Demonstrarea ergodicitatii unui proces aleator este dificila si, ca


,9,70

proprietatea de ergodicitate este doar presupusa. Ergodicitatea implica ntotdeauna proprietatea de stationaritate . tvu .43/  p 30.08,7, o /,w 38:1 . 0nta. Ierarhizarea claselor
8023, 0 4

p p

10.9:0, 

3:2,

q qsr

., :7

850. , 0

, 92 3907

89, 43,7

x y
8

07

4/ .

089

70570 039,9

z { 

-807;, 0

8:3

.4;,7 ,3,

Doua semnale aleatoare sunt simultan ergodice daca ambele


07 4/ .

89,9 89 .

} ~
8

/,.

2420390 8:3

gale cu cele temporale.

2:9:,

.470 ,

2:9:,

 ~
8

semnale aleatoare semnale stationare in sens larg

semnale stationare in sens strict semnale ergodice in sens larg(slab)

semnale ergodice in sens strict(tare)

Fig.4. Ierarhizarea semnalelor aleatoare dupa proprietatile de stationaritate si ergodicitate.

21

Exemplu: Fie un semnal aleator sinusoidal cu amplitudinea, frecventa si faza aleatoare: X ( ,t ) = A( ) sin[ ( )t + ( ) , unde A( ), ( ) si ( ) sunt variabile aleatoare independente; A( ) si ( ) au ,.00, 1:3. / 705,79  8 , , 47 A 0 si, respectiv, 0 . 1 In schimb, ( ) ,7 < 705,79  :3 1472, f ( ) = , in 2 intervalul [ 0 ,2 ] . #0, 7 5,79 .: ,7 97, 0.947 ile) semnalului aleator dat sunt semnale sinusoidale uzuale (fig.5).
4

A1 sin( 1t + 1 )

Ai sin( i t + i )

-2

-4 0 2 4 6 8 10 12 t Fig.5. Realizari particulare sinusoidale ale unui semnal aleator cu amplitudinea, frecventa si faza aleatoare.

a)

.08

respectiv densitatile de probabilitate, invariante la f n { A sin( t1 + + ),..., A sin( t n + + )} = = f n { A sin( t1 + ),..., A sin( t n + )} Daca se noteaza:
97,38 ,

8023,

089

89, 43,

/04,70.

,7

705,79 

9 25

= + , = + 2k , k = int reg , atunci ramane de demonstrat egalitatea: ) = f ( A, , ) , f ( A, , unde s-au definit evenimentele simultane ( ) . A( ) A, ( ) , Dar A, , sunt variabile aleatoare independente, de unde rezulta . Egalitatea anterioara se reduce atunci si independenta v.a. A, , la: ) = f ( A ) f ( ) f ( ) f ( A ) f ( ) f ( ) = f ( ) f ( sau la: se obtine din prin translatia cu si reducere modulo Dar 2 . Deoarece repartitia lui este uniforma, aceasta nu se modifica prin translatie. Prin urmare, ultima egalitate este demonstrata.
b) Media statistica liniara este constanta, semnalul fiind stationar; pentru = t , rezulta: (1) 1) (1) m X (t ) = m ( X (t + ) = m X (0), 1 2 1) (1) (1) (1) m( = m A = m A m = A ( 0 ) { sin } { } {sin } sin d = 0 X X A 2 0 c) Functia de autocovarianta, egala cu functia de autocorelatie deoarece valoarea medie este nula, se calculeaza dupa cum urmeaza: C XX (t , s ) = R XX (t , s) = E[ A2 sin(t + ) sin(s + )] = 1 = {E[ A2 cos (t s )] E[ A2 cos(t + s + 2)]} 2 Notand densitatea de probabilitate a lui prin f ( ) , rezulta: E[ A2 cos (t s ) = A2 E[cos (t s )] = A2 f () cos (t s )d
0

22

Similar, se deduce: E[ A2 cos(t + s + 2) = E[ A2 ]E[cos(t + s + 2)] = = A2 E[cos(t + s ) E[cos 2]] A2 E[sin(t + s ) E[sin 2]] = 0 S-a tinut cont ca E [cos 2 ] = E [sin 2 ] = 0 Datorita faptului ca este v.a. uniform repartizata pe intervalul [ 0 ,2 ] .

23

Rezulta, prin urmare: 1 2 2 C XX (t , s ) = C XX (t s) = A f () cos (t s)d, 2 0 ceea ce confirma stationaritatea semnalului. In cazul densitatii de probabilitate particulare de forma (/ 897 -: ,:. 2 1 f () = u () , 1 + 2 unde u( ) 089 1:3. 970,59 :3 9,90 8 4- 30 1 cos t 1 2 |t| C XX (t ) = C XX (t ,0) = R XX (t ,0) = A2 d = Ae 0 1 + 2 2
:3. 50397

m
/

:94.470 ,9

74.0

, 0,94


89

70570 039,9

89, 43,7

089

9 5

R XX (t ) = C XX (t )
1 2 A 2 t 0 F  :3. 6 ,:94.470 ,9 ,:94.4;,7 ,39,
8023, : : X ( ,t ) sinusoidal cu amplitudine, frecventa si faza aleatoare.

24

12. Analiza spectrala a semnalelor aleatoare stationare in sens larg


Densitatea spectrala de putere X (, t ) X (t ) XT (t )

proces aleator

XT (t ) = X (t ) , XT (t ) = 0,

realiz. particular. realizare trunchiat. a procesului a procesului, definita ca mai jos :

t T /2 in rest
T /2

XT (t ) admite transformata Fourier : XT ()

= X (t ) exp( jt )dt = X (t ) exp( jt )dt


T / 2

care este tot proces aleator. Energia normata (pe R = 1 ) este :


ET

2 Parseval X T (t ) dt

1 XT () d 2 2

si este de asemenea proces aleator. Energia medie normata este : ET =

2 XT (t ) dt

2 1 = X d ( ) 2 T

Puterea medie normata este : P = lim =


2 1 2 1 = X t dt X d = ( ) ( ) lim T T T T 2 T T

2 1 1 1 + = X d ( ) q XX ()d unde 2 T T 2

2 1 X T () este densitatea spectrala de putere T T Teorema Wiener Hincin Teorema: pentru un semnal aleator stationar in sens larg, densitatea spectrala de putere qXX() este transformata Fourier a functiei de autocorelatie RXX() .

q XX () = lim

25

q XX () = F{R XX ()} R XX () = F {q XX ()}


-1

q XX ()

F-1

R XX ()

q XX () = lim

2 1 1 X T () = lim [ X T ()]* X T () = T T T T

1 = lim X T (t1 ) exp( jt1 )dt1 X T (t 2 ) exp( jt 2 ) dt 2 = T T

1 lim X T (t1 ) X T (t 2 ) exp( j(t 2 t1 ))dt1dt 2 = T T 1 T /2 T /2 X T (t1 ) X T = lim (t 2 ) exp( j(t 2 t1 ))dt1dt 2 = T T T / 2 T / 2 1 T /2 T /2 R XX (t1 , t 2 ) exp( j(t 2 t1 ))dt1dt 2 T T T / 2 T / 2 Daca semnalul este stationar in sens larg, R XX (t1 , t 2 ) = R XX (t 2 t1 ) = lim Daca se noteaza (t 2 t1 ) = R XX (t 2 t1 ) exp( j(t 2 t1 )) rezulta 1 T /2 T /2 q XX () = lim (t 2 t1 )dt 2 dt1 T T T / 2 T / 2 Cu schimbarea de variabila t 2 t1 = ,
T 1 T [ ] q XX () = lim T d R j = ( ) lim ( ) exp( ) 1 XX T d = T T T T T

= R XX () exp( j)d = F{R XX ( )}

Densitatea spectrala de putere de interactiune (mutuala).

X (, t )
(t ) Fie doua semnale aleatoare: X T

Y (, t ) YT (t ) YT ()

XT ()

26

1 q XY () = lim { [ X T ()]* YT ()} = F{R XY ()} T T 1 qYX () = lim { X T () [YT ()]*} = F{RYX ()} T T Proprietatile densitatii spectrale de putere 1 2 1. q XX () = lim X T () > 0, : este o functie pozitiv definita T T 2. q XX () = q XX () : este o functie para

3. q XX () = este reala pentru 1 4. P = q XX ()d este puterea medie a semnalului 2


qXX() 1 pXX() 2

p XX () este densitatea spectrala de putere pentru > 0 1 P= p XX ()d 2 0 p XX () = 2q XX () U () 1, 0 U () = 0, < 0


Proprietatile densitatii spectrale de putere de interactiune si ale functiilor de intercorelatie q XY () = qYX ()

q XY () = [q XY ()]* R XY () = RYX ( )

27

Proprietatile functiei de autocorelatie


RXX() mX (2) RXX() mX (2)

X2
(mX)2

X2
(mX)2

R XX (t1 , t 2 ) = R XX (t 2 t1 ) = R XX () = E{X (, t1 ) X (, t 2 } R XX () =

1 q XX () exp( j)d 2

1. lim R XX () = E{X (, t1 )} E{X (, t 2 )} = (m X )2


2) 2. R XX (0) = m ( X =P 0

( 2) 2 lim R XX () = E{X (, t ) X (, t} = E X (, t ) = m X

1 lim R XX () = q XX ()d = P 2 0
2 ( 2) 3. 2 X = m X (m X ) = R XX (0) lim R XX ( )

4. R XX (0) R XX ()

: fctia de autocorelatie este maxima in 0

[X (, t ) X (, t + )]2 0
X 2 (, t ) + X 2 (, t + ) 2 X (, t ) X (, t + ) 0 2 X 2 (, t ) 2 X (, t ) X (, t + ) 0 R XX (0) R XX () 0 R XX (0) R XX (),

5. R XX () = R XX ( ) fctia de autocorelatie este para R XX () = 1 1 = q ( ) exp( j ) d XX q XX () cos()d 2 2

28

6. functia de autocorelatie a unui semnal periodic este un semnal periodic de aceeasi perioada T0 = 2 / 0 X (t ) = C (n0 ) exp( jn0t )
n = Parseval 2

n =

C ( n 0 )
2

q XX () = 2 C ( n0 ) ( n0 ) un spectru de linii
n =

R XX () = F

{q XX ()} = C (n0 )
n =

cos(n0t )

Banda de frecvente a semnalelor aleatoare a) Semnale aleatoare trece-jos, al caror spectru se intinde intre 0 si frecventa maxima fmax care si determina largimea de banda B a acestor semnale: B = fmax. qXX() Exemple: semnale in banda de baza: o Sunet: - de calitate telefonica, avand fmax= 3,4 kHz /2 - de calitate radio, avand fmax=7 kHz -B B - de inalta fidelitate (Hi-Fi), avand fmax=20 kHz o Imagine: - alb negru, avand fmax= 5,5 MHz - color, avand fmax= 7,5 MHz o Date: B = 0,7 fT , unde fT este frecventa de tact b) Semnale aleatoare trece banda qXX() care ocupa o banda de frecvente B in jurul unei - fc fc /2 frecvente centrale fc B B Exemple: semnale modulate in amplitudine, semnale esantionate

29

c) Semnale aleatoare cu banda de frecvente echivalenta 2Bech q XX (0) = q XX ( )d


qXX()

Bech

q ( )d 1 XX = q XX (0) 2

Bech

/2

Timp de corelatie c

c RXX (0) = RXX ( )d


c =

RXX ( )d RXX (0)


-1

RXX()

Daca RXX ( ) = F ( q XX ( )) atunci

c =

q XX (0)

q XX ( )d

1 2Bech

Functia de coerenta a doua semnale aleatoare X(, t) si Y(,t) poate preciza gradul de dependenta intre procese:

2 XY

q XY ( ) ( ) = q XX ( ) qYY ( )
2

2 pentru XY (0 ) = 0 semnalele sunt incoerente la frecventa 0 2 pentru XY (0 ) = 1 semnalele sunt coerente la frecventa 0

13. Exemple de func


a)

RXX()
,:94.470 , 0

30

R XX () = A cos 0 q XX () = A [( 0 ) + ( + 0 )] 2
-2f0

T0/2 qXX()

A2(-0)/2 RXX() 2f0

b)

1 T , pentru < T R XX () = pentru rest 0, sin / 2 q XX () = T / 2


2

-T T qXX()

-4/T
qXX()

-2/T

2/T 4/T RXX()

c)

R XX () = A exp( | |) q XX () = + ()
2

2 A

qXX() N0/2

d) q XX () =

N0 real 2 N R XX () = 0 () 2

Bech c 0 = 0 2

RXX() () N0/2 qXX() A RXX() 0 qXX() A 2fc RXX() 0

e) q XX () = A R XX () =

0 Bech

A0 sinc 0 * fc

c = 0 =

f) q XX () = A

B B Asinc cos 2f c R XX () = 2 2

B B B * f c + -2f c 2 2 2
cosc

31

a ) Detectia semnalelor slabe, acoperite de perturbatii Fie un semnal aleator X (, t ) S (, t ) + N (, t ) = semnal receptionat semnal util perturbatie S (, t ) si N (, t ), fiind produse de surse diferite, sunt independente statistic, deci sunt decorelate si daca E{N (, t )} = 0, sunt si ortogonale : RSN () = RNS () = 0 de unde : R XX () = E{X (, t ) X (, t + )} = E{[S (, t ) + N (, t )] [S (, t + ) + N (, t + )]} = RSS ( ) + RSN () + RNS ( ) + RNN () = RSS () + RNN ()
RXX()

14. Aplica6

1:3.

.470 , 0

RSS()

RNN()

lim R XX () = RSS ( )

X(,t)

RXX()RSS() Corelator

S(,t) Decorelator

b) Masurarea vitezelor de deplasare Exemplu: masurarea vitezei v a unui mediu mobil M fata de doua traductoare fixe T1, T2, situate la o distanta cunoscuta l unul de altul. X (, t ) = S (, t ) + N1 (, t ) Y (, t ) = S (, t t0 ) + N 2 (, t )
T1 M l v Y(,t) T2 X(,t)

Corelator

RSS(t0 -)

32

Functionare: se regleaza pana cand RSS(t0 -) este maxim. Atunci t0 - = 0 sau t0 = = l/v v = l/. Se pot masura astfel viteze de deplasare ale laminatelor, vehicolelor, etc.

c) Determinarea continuitatii unui semnal aleator Semnalul aleator stationar in sens larg X (, t ) este continuu, in sensul mediei patratice, daca :
0 2 lim [X (, t + ) X (, t )] = 0

lim X 2 (, t + ) + X 2 (, t ) 2 X (, t + ) X (, t )
0 0 0

lim [2 R XX (0) 2 R XX ()] = 0 lim [R XX (0) R XX ()] = 0 deci daca functia sa de autocorelatie este continua in origine.
Obs.: structura generala a unui corelator, pentru semnale analogice ergodice, este data in fig. de mai jos:
X(,t) Y(,t)

Multiplicator

Integrator

RYX() = RYX(,)

1 T /2 unde RYX(,) = X (, t + )Y (, t )dt T T / 2 Pentru semnale digitale 1 M 1 RYX(, l) = X (, k + l )Y (, k ) M k =0


valori l X(,k) Y(,k) RYX(,l) + z-1 1/M dupa M-1 tacte

....

Multiplicator

33

15. Prelucrarea liniara a semnalelor aleatoare (filtrare)

Notiuni fundamentale Se considera ca semnalele aleatoare x(t) = X(t) = X(t) trec prin sisteme liniare, invariante in timp si cauzale (SLITC), la care functia pondere respecta relatia: h(t) = 0, t<0

Y () = H () X ()
y (t ) = x(t )h( ) d = x()h(t )d = [x h](t )
x(t) X()

H(), h(t)

y(t) Y()

Y () X () H () X () 2 qYY () = lim T = lim T = H () lim T = T T T T T T = H () q XX () = H () H * () q XX ()


E{y (t )} = E x(t )h()d = {E [x(t )]} h( )d = m X (t ) h()d = 2

= m X h()d = m X H (0)

RYY (t1 , t2 ) = E{y (t1 ) y (t 2 )} = E x(t1 1 )h(1 )d1 x(t 2 2 )h(2 )d2 = = R XX (t1 1 , t 2 2 )h( 1 )h( 2 )d1d 2

RYY (t1 t 2 ) = R XX (t1 1 t 2 + 2 )h( 1 )h( 2 )d1d 2


RYY () = R XX () h() h( ) F [RYY ()] = qYY (); F-1[qYY ()] = RYY ( ) * qYY () = q XX () H () H () 1 2 RYY () = F 1{qYY ()} = q XX () H () exp( j)d 2
1 2 E y (t ) = RYY (0) = q XX () H () d 2
2

{ }

34

q XY () = q XX () H () qYX () = q XX () H * () q XX () H () H * () = qYY ()

R XY () = R XY () h() RYX () = R XX () h( )

qYY () = qYX () H () = q XY () H * () RYY () = R XX () h( ) h()

Trecerea zgomotului alb prin sisteme liniare Pentru zgomot alb: qXX() N0 N0/2 q ( ) , = XX 2 RXX() R () = N 0 () () N0/2 XX 2 m X = 0 Pentru zg. alb coeficientul de autocorelatie este : R XX () ( ) = =0 XX R XX (0) Pentru semnalul de la iesire :

qYY () = N 0 A2 () 2 N0 2 1 RYY () = qYY () exp( j)d = A () exp( j)d 2 4 mY = H (0) m X = 0 coeficientul de autocorelatie este : N0 2 A () exp( j)d RYY ( ) 4 YY () = = 0 N R ( 0 ) 2 0 YY A ()d 4 Obs. : orice sistem liniar produce un semnal de iesire cu un grad de corelare mai mare decat gradul de corelare al semnalului de intrare.

35

Determinarea lui h(t) pentru SLITC, prin metoda de autocorelatie


Y(t) X(t) = N(t) (zg. alb) h(t) Corela tor RXY()

Pentru zgomot alb la intrare: N R XX () = 0 (), 2

R XY ( ) = R XX () h() = h(u )R XX ( u )du =

N0 h() 2

R XY ( ) = h(u )

N0 N ( u )du = 0 h() 2 2

h() =

2 R XY () N0

unde R XY () se obtine cu montajul de mai sus

Detectia semnalelor
Detectia semnalelor presupune determinarea prezentei sau absentei unui semnal cu semnificatie (exemple: ecoul in radar sau in sonar, la transmisii de date prezenta sau absenta unor simboluri dintr-un alfabet finit si cunoscut ). 1. Modelul sistemelor de detectie a semnalelor
r(t) Sursa simbol Si Modulator s(t) n(t) simboluri modulare spatiul simbolurilor Si purtatoare perturbare perturbatie ipoteze Hi decizii Canal Receptor Decizii Di

verificare ipoteze spatiul deciziilor Di

spatiul semnalelor emise si(t)

spatiul observatiilor r(t) = si(t) + n(t)

Obs.: la receptie se verifica toate ipotezele relative la simbolurile Si si daca ipoteza Hi este adevarata se ia decizia Di ca semnalul receptionat r(t) corespunde simbolului Si. ipotezele pot fi simple (Si si(t) ca punct in spatiul semnalelor) sau compuse (Si si(t) ca domeniu in spatiul semnalelor) observatiile pot fi discrete (esantioane ale r(t)) sau continue (pentru intregul semnal r(t)). 2. Detectie binara (i = 0,1) cu observatii discrete (o singura observatie pe simbol)
Si T s(t) s0(t) r(t) s1(t) 0 1 1 0 t observatii t Di 1 1 d. eronata 1 0

2 In detectia binara avem doua simboluri (S0 si S1) si doua ipoteze (H0 si H1): H0: a fost transmis 0 (S0) H1: a fost transmis 1 (S1) Se urmareste gasirea unui criteriu de stabilire a ipotezei corecte, pe baza unei singure observatii asupra R. Se presupun cunoscute densitatile de probabilitate ale R in cele doua ipoteze: f R| H 0 ( r | H 0 ) f R| H1 (r | H1 ). Dac P( H i | r ) cu i = 0,1 reprezinta probabilitatea ipotezei Hi la receptia r: se alege H 0 dac P ( H 0 | r ) > P ( H1 | r )

se alege H1 dac P ( H1 | r ) P( H 0 | r ) H1
> <

P ( H1 | r ) > P( H 0 | r ) sau, concis :

H0 Criteriul de decizie MAP (maximum a posteriori probability). Criteriul dedecizie duce la partitia spatiului observatiilor in doua regiuni R0 si R1 si se alege H0 daca r este continut in R0 si H1 daca r este continut in R1. Cu regula Bayes se poate scrie:

P( H i | r ) =

f R| H1 (r | H i ) P( H i ) f R (r )
H1
> <

atunci criteriul de

mai sus se rescrie : f R | H 1 ( r | H 1 ) P ( H1 ) f R| H 0 (r | H 0 ) P ( H 0 ) f R | H 1 ( r | H1 ) f R| H 0 (r | H 0 ) (r )


H1
> <

1 sau :

H0

H1
> <

H0

P( H 0 ) sau : P ( H1 )

H0

daca se noteaz raportul de plauzibilitate (r ) si pragul testului K cu : f R | H 1 ( r | H1 ) P( H 0 ) K= (r ) = f R| H 0 (r | H 0 ) P ( H1 )

f R| H 0 (r | H 0 )

f R | H 1 ( r | H1 )

accept H0

accept H1

P(D0| H1)

P(D1| H0)

Din cauza zgomotului se pot lua decizii eronate. Pot fi urmatoarele situatii: a) se decide D0 cand H0 este adevarat b) se decide D1 cand H1 este adevarat c) se decide D0 cand H1 este adevarat d) se decide D1 cand H0 este adevarat primele doua decizii sunt corecte iar ultimele doua sunt eronate. Eroarea de tip c) se numeste eroare de pierdere (miss) si are

4 probabilitatea PM = P(D0| H1). Eroarea de tip d) se numeste alarma falsa (false alarm) si are probabilitatea PF = P(D1| H0). Ca masura a performantei sistemului se alege probabilitatea medie de eroare : Pe = P( H 0 ) P( D1 | H 0 ) + P ( H1 ) P( D0 | H1 ) Criteriul de decizie Bayes Acest criteriutine cont de costurile deciziilor in procesul de detectie binara. In acest proces apar perechi (Di, Hj). Fiecarei perechi i se poate asocia un cost Cij. Criteriul de decizie Bayes minimizeza costul mediu. Costul mediu se defineste cu relatia: C = Cij P( Di , H j ) = Cij P( H j ) P( Di | H j )
i = 0,1 i = 0,1 j = 0,1 j = 0,1

C = C00 P ( D0 | H 0 ) P( H 0 ) + C10 P ( D1 | H 0 ) P ( H 0 ) + + C01P ( D0 | H1 ) P ( H1 ) + C11P ( D1 | H1 ) P ( H1 ) = = C00 P( H 0 ) R f R| H 0 ( r | H 0 )dr + C10 P( H 0 ) R f R| H 0 (r | H 0 )dr +


0 1

+ C01P ( H1 ) R f R| H1 (r | H1 )dr +C11P( H1 ) R f R| H1 (r | H1 )dr


0 1
70 rezonabil c decizia incorect cost mai mult dect se face prezumia cea corecta : C10 > C00 si C01 > C11

si se face uz de faptul ca R1 R0 = (, ) si R1 R0 = si atunci :

C = C10 P ( H 0 ) + C11P( H1 ) + R { [ P ( H1 )(C01 C11 ) f R| H1 (r | H1 )]

[P( H 0 )(C10 C00 ) f R|H

(r | H 0 ) }dr

Cea mai mica valoare a costului mediu se obtine cand integrandul ecuatiei de mai sus este negativ pentru toate valorile lui r R0. Se poate accepta ipoteza H0 daca:

P( H1 )(C01 C11 ) f R| H1 (r | H1 ) < P( H 0 )(C10 C00 ) f R| H 0 (r | H 0 ) sau concis : (r ) = f R | H 1 ( r | H1 ) f R| H 0 (r | H 0 ) H1


> <

H0 Se vede ca pentru C10 - C00 = C01 - C11, criteriul Bayes devine criteriul MAP. Se poate arata ca daca: C00 = C11= 0 si C10 = C01 =1, atunci criteriul Bayes minimizeaza probabilitatea deciziilor eronate.

P( H 0 )(C10 C00 ) =K P ( H1 )(C01 C11 )

6 3. Detectia binara (i = 0, 1) cu observatii multiple pe simbol (daca r > 0 1, daca r < 0 0)


Si s(t) s0(t) r(t) s1(t) 0 T t 1 1 0

t Di 0 1 1 dispare decizia eronata 0

T t 1 2............N momentele observatiilor

Daca receptorul observa N esantioane ale r(t) in intervalul (0, T), notate r1, r2, ..., rN, se defineste vectorul r = [r1 , r2 ,..., rN ]T ca si densitatile de probabilitate :

f (r1 , r2 ,..., rN / H 0 ) = f R|H (r / H 0 )


0

f (r1 , r2 ,..., rN / H1 ) = f R| H ( r / H1 )
1

rN D0 r2 D1

r1

Se urmareste gasirea unor decizii corecte, pe baza mai multor observatii asupra R . Se presupun cunoscute densitatile de probabilitate ale R in cele doua ipoteze:

f R| H (r | H 0 )
0

f R| H (r | H1 ).
1

Criteriile de decizie deduse pentru o singura observatie se pot rescrie pentru N observatii, dupa cum urmeaza:

(r )

H1
> <

H0

unde pentru MAP : (r ) = f R | H ( r | H1 )


1

f R| H (r | H 0 )
0

K=

P( H 0 ) P ( H1 )

pentru plauzibilitate maxima : (r ) = f R | H ( r | H1 )


1

f R| H (r | H 0 )
0

K =1

pentru Bayes : (r ) = f R | H ( r | H1 )
1

f R| H (r | H 0 )
0

K=

P( H 0 ) C10 C00 P( H1 ) C01 C11

pentru Neyman - Pearson : (r ) = f R | H ( r | H1 )


1

f R| H (r | H 0 )
0

K se alege din conditia PF

Daca se noteaza cu f Ri | H 0 (ri | H 0 ) si f Ri | H 0 (ri | H 0 ) densitatile de probabilitate

ale observatiei ri in ipotezele H 0 , H1 si daca observatiile sunt statistic independente, avem : f R| H ( r |H 0 ) = f Ri | H 0 (ri | H 0 )
0

f R| H (r |H1 ) = f Ri | H1 (ri | H1 )
1

i =1 N

i =1

Exemplu: detectia a doua semnale de forma cunoscuta s0 (t ) = a0 s (t ) 0 t T

s1 (t ) = a1s (t ) 0 t T

a0 H 0 a= a1 H1 Se presupune ca zgomotul este gaussian, de valoare medie nula si de varian 2. Densitata de probabilitate pentru un esantion de semnal receptionat este: r (t ) = as (t ) + n(t )

1 exp 2 (ri a0 si ) 2 H 0 2 22 1 1 exp 2 (ri a1si ) 2 H1 f Ri | H1 (ri | H1 ) = 2 22 densitatea de probabilitate pentru vectorul receptionat este : f Ri | H 0 (ri | H 0 ) = 1 f R| H (r | H 0 ) = (
0

1 ) exp 2 (ri a0 si ) 2 2 22 i =1 1
N N

H0

f R | H ( r | H1 ) = (
1

N 1 ) N exp 2 (ri a1si ) 2 H1 2 22 i =1

sau : f R| H (r | H 0 ) = (
0

1 N ) N exp 2 (ri a0 si ) 2 H 0 2 i =1 22 1 1

1 N ) N exp 2 (ri a1si ) 2 H1 1 2 i =1 22 raportul de plauzibilitate este : f R | H ( r | H1 ) = ( (r ) = f R | H ( r | H1 )


1

f R| H

1 N = exp 2 (ri a1si ) 2 (ri a0 si ) 2 (r | H 0 ) 2 i =1

ln (r ) =

1 2
2

[ i =1
N

2 2 (ri a1si ) ( ri a0 si ) =

9
N N 1 2 + + 2 ( ) ( ) a a r s a a s 0 1 0 1 i i i 2 2 i =1 i =1 Criteriul plauzibilitatii maxime se poate scrie :

ln(r ) H1

H1

> <

ln K = ln 1 = 0

H0 ri si
N

i =1

<

>

H0

a0 + a1 N 2 si 2 i =1

pentru a0 = 0, a1 = 1, si = s 1 N ri N i =1 H1

> < > <

H0 H1 H0

s si daca N = 1 r 2

H1

> <

H0

s 2

pentru a0 = 1, a1 = 1, si = s 1 N ri N i =1 0 si pentru N = 1 : r H1

> <

H0

Probabilitatea de eroare este : Pe = P( D0 , H1 ) + P ( D1 , H 0 ) = P( H1 ) R f R| H (r | H1 )dr + P ( H 0 ) R f R| H ( r | H 0 ) dr


0 1 1 0

Observatie: Desi problema de detectie pe care ne-am propus sa o solutionam este formulata pentru un spatiu multidimensional, decizia se ia dupa o singura coordonata, care este, pentru cazul general: ri si , mR =
i =1 1 N N

iar

pentru

cazurile

particulare

mentionate

ri N i =1 Aceasta unica coordonata dupa care se poate lua decizia se numeste Statistica suficienta.

10 4. Detectie binara cu observatii multiple in ipoteza compusa In ipoteza compusa, simbolului Si ii corespunde in spatiul semnalului nu un punct si(t) ci un domeniu i . Exemplu: Semnal de amplitudine variabila
M m s(t,) tn tn+1 M t

H 0 r (t ) = s0 (t , ) + n(t ) = n(t ) H1 r (t ) = s1 (t , ) + n(t ) unde este un parametru care ia valori in domeniul = (m , M ) in timp ce semnalul s1 (t , ) este cuprins in domeniul 1 P s1 1 = P{ } f R| H (r | H1 ) = f R| (r | )
1 1

f R| H (r | H1 ) = f R| H (r | s1 1 ) = f R| ( r | ) = f R| (r , )d =
1

= f R| (r | ) f ()d Raportul de plauzibilitate este : (r) = f R | H ( r | H1 )


1

f R| H (r | H 0 )
0

f R| (r | ) f ()d f R| H (r | H 0 )
0

Pentru cazul particular al unui semnal de amplitudine variabila, cu amplitudinile uniform distribuite:

11

f () =

1 M m (r ) 2 N exp i 2 i =1 2 ( )2 N exp ri i =1 2 2
N N

1 f R| (r | ) = 2 2

1 f R| H (r | H 0 ) = 2 0 2

N 2 (ri ) M 1 i =1 d exp 2 M m m 2 iar pt. N = 1 : (r ) = N 2 ri exp i =1 2 2 M (r ) 2 1 d exp 2 M m m 2 (r ) = 2 (r ) exp 2 2 daca se noteaza : 1 x 1 2 F ( x) = exp u du ; 2 2 x= r atunci raportul devine :

n 2 M r 22 m r F exp (r ) = F 2 2 M m iar daca pragul testului este K = 1, atunci testul Bayes este : n 2 M r 22 m r F exp F 2 2 M m H1

> <

H0

12 5. Detectia secventiala Daca este necesar sa reducem timpul de decizie, se lucreaza cu un numar m de observatii variabil, cautandu-se reducerea acestuia. Pentru vectorul rm = (r1 ,..., rm ) raportul de plauzibilitate este :

(rm ) =

fR fR

m | H1

(rm |H1 ) (rm |H 0 )

m |H 0

Algoritmul de testare este : a) pentru prima observatie m = 1, rm = r1 , se calculeaza (r1 ), care se compara cu doua praguri A,B cu A > B : daca (r1 ) A D1 daca (r1 ) B D0 daca B < (r1 ) < A nu se ia decizie si se trece la la a doua obsevare r2 b) se calculeaza si se testeaza (r2 ); daca din nou nu se ia nici o decizie se calculeaza (r3 ) s. a. m. d. pana cand (rm ) A D1 sau (r1 ) B D0 Pentru determinarea A, B se procedeaza astfel : daca se ia decizia D1 avem : (rm ) = fR fR
m | H1

(rm | H1 ) (rm | H 0 )

A sau

fR

m | H1

(rm | H1 ) Af R

m |H 0

(rm | H 0 )

m |H 0

daca se ia decizia D0 avem:


( rm ) = fR fR
m | H1

13

( rm | H1 ) (rm | H 0 )

B sau

fR

m | H1

( rm | H1 Bf R

m |H 0

(rm | H 0 )

m |H 0

daca R1 cuprinde observatiile rm carora le corespunde D1 : R1 f Rm | H1 ( rm | H1 )dRm AR1 f Rm | H 0 (rm | H 0 )dRm sau PD APF de unde : P A D PF daca R0 cuprinde observatiile rm carora le corespunde D0 : R0 f Rm | H1 ( rm | H1 )dRm B R0 f Rm | H 0 (rm | H 0 )dRm sau PM B(1 PF ) de unde : P B M 1 PF in cele de mai sus reamintim ca : PD probabilitatea de detectie PF probabilitatea deciziei eronate, de alarma falsa (prob. deciziei D1 cand sursa a emis S 0 ) PM probabilitatea deciziei eronate, de pierderea tintei (prob. deciziei D0 cand sursa a emis S1 )

Estimarea parametrilor semnalului


1. Introducere a unui parametru Prin estimare se determina valoarea estimata (purtator de informatie) al semnalului afectat de perturbatie. Schema bloc care modeleaza procesul de estimare a unui parametru si graful prelucrarii semnalelor sunt date mai jos.
r(t,) Sursa mesaje m() mesaj purtatoare Modulator s(t,) n(t) perturbatie criterii de estimare parametru estimat Canal Receptor Estimare

modulare spatiul parametrului

perturbare

aplicare criterii spatiul parametrului estimat

spatiul semnalului emis s(t,)

spatiul observatiilor r(t) = s(t,) + n(t)

Exemple de aplicatii: in receptia semnalelor: estimarea intarzierilor, a amplitudinilor de semnal, a deviatiilor de frecventa; in sisteme de comunicatii: estimarea functiilor de transfer, a functiilor pondere, a rapoartelor semnal / zgomot in canale de comunicatii; in sisteme de masura si comanda la distanta: estimarea marimii comandate (acceleratie, viteza, pozitie, temperatura, debit, etc) in prelucrari de semnale: estimarea unor parametri statistici ai semnalului (medii, variante) Obs.: in aceste aplicatii se estimeaza parametri continui sau discreti, constanti sau variabili in timp; estimarea parametrilor discreti face legatura cu domeniul detectiei semnalelor (deciziei statistice) iar estimarea parametrilor variabili in timp face legatura cu estimarea formei semnalelor. Estimarea se poate face prin observare discreta sau prin observare continua.

2. Observarea discreta a unui parametru aleator Semnalul receptionat este: r (t ) = s (t , ) + n(t )

unde este un parametru aleator scalar, continand informatia. In intervalul / 0 t T se fac N observatii r1 ,...., rN , constituite in vectorul r . Se folosesc / / | ( r ( | r densitatile de probabilitate f R | ), f | R ) si f (); se determina / (r valoarea estimata ) a lui . / (r Eroarea estimarii este data de = ). Pentru a evalua eroarea se

defineste o functie de cost. 2.1 Functii de cost C( ) patratul erorii C ( ) = 2

C()

C() 1

uniforma : 0 E / 2 C ( ) = 1 E / 2 modulul erorii : C ( ) =


-E/2

+E/2 C()

Valoarea medie a functiei de cost se numeste risc. / (, r )dR R = E{C ( )} = d C ( ) f , R

/ domeniul in care ia valori r


Valoarea estimata a parametrului se obtine minimizand riscul. Se pune riscul sub o forma in care se poate face minimizarea acestuia functie de observatiile efectuate:

integrala definita: Minimizarea riscului se face minimizand in raport cu / / / , r ) = C ( ) f ) f ( / r ( / ) ( )d = I ( r d C / R / R / I (, r ) = 0

/ (, r ) dR = R = E{C ( )} = d C ( ) f , R / / ( / r ) f R ( r ) dR = = d C ( ) f / R / / (r )dR C ( ) f / R ( / r )d = f R

/ / , r ) 2 f ( / r ) = ( )d pentru patratul erorii : I ( / R / / / ( / r )d = 0 sau I (, r ) = 2 f / R ( / r )d 2 f / R

^ ^ pentru functia de cost uniforma: - E/2 +E / 2 / / / / ( | r ( | r )d = 1 I u (, r ) 1 Ef | R ) I (, r ) = 1 f | R E / 2

/ = f ( / r )d p / R

/ ( / r deoarece f / R )d = 1

C() ^ + E/2

/ este minima pentru I u (, r ) maxima. Se prefera sa se caute maximul / / ( | r ( | r pentru ln f | R ) deoarece f | R ) are in general o forma exponentiala; ca urmare : / ( | r ln f | R ) |= MAP = / | ( r ln f () |= ln f R | ) | = MAP + MAP = 0 / / ( | r (r ) fR ) f | R / | ( r daca se are in vedere | ) = fR f () unde MAP este estimatul maximum a posteriori.

Pentru functia de cost modulul erorii: + / / , r ) = I ( M f / R ( / r ) d si pentru minimizarea ei :

/ I (, r ) = 0, respectiv :

+ M / / )f ( M ) f / R ( / r )d ( ( / r )d = 0 M / R M

Rezulta pentru calculul estimatului M

M / / f / R ( / r )d = f / R ( / r )d

se numeste estimatul de eroare minima. M


Obs.: O situare a celor trei estimati, pentru densitati de probabilitate conditionate, de forma simetrica si nesimetrica, este data in figurile de mai jos.

| (r | ) fR

f R | (r | )

MAP p M

MAP = p = M

Estimarea formei semnalului


Ipotezele de lucru: estimarea este liniara; semnalul receptionat si zgomotul sunt stationare in sens larg; criteriul de optim: minimul erorii medii patratice. 1. Filtrarea optimala a semnalelor continue. Ecuatia Wiener Hopf Ce se urmareste: estimarea formei lui s(t) se face prin prelucrarea liniara a semnalului receptionat r(t) = s(t) + n(t), astfel incat sa se obtina un semnal cat mai apropiat de semnalul dorit d(t) (filtrare optimala in sens Wiener Kolmogorov). Se urmareste determinarea functiei pondere a n(t) n (t) unui filtru liniar ho(t), a ^ do(t) ho(t) carui iesire, ( t ) = d ( t ) + d ( t ) o o + daca la d(t) intrare se + (t) = - d(t) + d(t) s(t) ^ d(t) aplica r(t), h(t) aproximeaza cu eroare medie patratica minima, semnalul dorit d(t). In schema de mai sus h(t) corespunde unui filtru neoptimal, care furnizeaza un semnal care aproximeaza semnalul dorit cu eroare medie patratica mai mare ca cea
Canal Estimator s(t) r(t)

^ d(t)

minima. Ar trebui: [ o (t )]2 = min [(t )]2

(t ) ) [(t )]2 = (d (t ) d (t ) = h()r (t )d = L [r (t )] d


2 2

(t ) ) [o (t )]2 = (d (t ) d o (t ) = h ()r (t )d = L [r (t )] d 0 o o [o (t )]2 = min [(t )]2

) [ (t )]2 = (d d
o

[( ) ( )] = [ (t )] + )(d d )] unde = d d . Ultimul termen devine : 2[(d d )(d d )] = 2[d L {r (t )}][L{r (t )} L {r (t )}] = 2[(d d
2

d d = d d o o
o

= 2 o (t )L' {r(t)} = 2L' {r(t)} o (t ) = 2L' {r (t ) o (t )}

Pentru filtru optimal o (t ) si r (t ) sunt ortogonale deci au loc relatiile :

o (t ) r (u ) = 0

(t ) r = 0 de unde : r o (t ) = d (t ) d o (t )r (u ) t , u si deoarece d = h ( )r (t )d d (t )r (u ) = d o o on

si c or (t , u ) = 0 t , u deci :

do

cdr (t u ) = hon ( ) r (t )r (u )d sau :


cdr (t u ) = hon ( )crr (t u )d sau, introducand variabila = t u :

cdr ( ) = hon ( )crr ( )d care este ecuatia Wiener - Hopf;

aceasta permite determinarea lui hon (t ). Aplicand transformata Fourier : qdr ( ) = H on ( )qrr ( ) H on ( ) = qdr ( ) qdr ( ) qss ( ) = = qrr ( ) qss ( ) + qnn ( ) qss ( ) + qnn ( )

pentru semnale s (t ) si n(t ) independente. Se obtine astfel functia de transfer a unui filtru nerealizabil (nu s-a impus ca h(t) = 0 pentru t < 0) care se poate aproxima insa cu filtre realizabile. Exemplu: Fie d(t) = s(t + ) unde s(t) este mesajul transmis. Daca: = 0, avem o filtrare simpla (estimarea se face pt. toate valorile trecute ale timpului) < 0, avem o filtrare cu intarziere (netezire): estimarea se face cu intarziere dar se utilizeaza mai multe date, deci eroarea este mai mica. > 0, avem o filtrare cu predictie (anticipare): estimarea se face in avans dar se utilizeaza mai putine date, deci eroarea este mai mare.

3 In domeniul frecventa, vom avea respectiv, urmatoarele functii de transfer ale unor filtre optimale nerealizabile: H on () = H on () = H on () = qss () qss () + qnn () qss () exp( j ) qss () + qnn () qss () exp(+ j ) qss () + qnn ()

Exemplu: Filtru optimal nerealizabil, continuu in timp. Sunt valabile: qs qss () = , qnn () = q0 2 2 1+ a qss () 2 AB H on () = exp( j ) = 2 exp( j ) cu qss () + qnn () B + 2 A= 1 q s qs , 2a q0 qs + q0 B= q 1 1+ s a q0

hon () = A exp( B )

hon

hon

intarziere

predictie

4 Filtru optimal realizabil Daca se fac schimbarile de variabile t u , t, avem:

cdr () = hon (t )crr ( t )dt = + cdr () + cdr ()


+

cdr ( ) = hon (t )crr ( t )dt =


0

c (), 0 = dr <0 0
dr ( )

cdr()

cdr()

= hon (t )crr ( t )dt =

c (), < 0 = dr 0 0 Filtrul optimal realizabil (cauzal) poate fi obtinut numai din + cdr () . Functia de transfer se obtine prin transformarea Fourier inversa a acestuia:

H o ( ) q + rr ( ) = + cdr ( ) exp( j ) d = + qdr ( )


H o ( ) =
+

qdr ( ) qrr ( )

1.1. Filtre optimale pentru zgomot alb (FOW)

r (t ) = z (t ) crr ( ) = c zz ( ) =
0

N0 N (t ); daca se considera 0 = 1 : 2 2
0

cdr ( ) = how (t ) crr ( t )dt = how (t ) ( t )dt = how ( ) = cdz ( ) Obs : la filtrul optimal pentru zgomot alb, functia pondere este covariatia dintre semnalul dorit si zgomot. In domeniul frecventa, deoarece q zz = 1 : H ow ( ) = + qdz ( )

5 1.2. Filtre optimale Wiener pentru un semnal oarecare


r(t) FA w(t) W() z(t) FIA r(t) w-1(t) W-1() ho(t) Ho() FOW FO

^ d(t)

q zz ( s ) = W ( s ) W ( s )qrr ( s ) W ( s ) W ( s ) = 1 (s) q ( s )qrr


+ rr

daca se iau numai partile realizabile : 1 W (s) = + qrr ( s ) H ow ( s ) = W 1 ( s ) H or ( s ) H o (s) =

FA: filtrul de albire FIA: filtrul invers de albire FO: filtrul optimal pentru r(t) FOW: filtrul optimal pentru zgomot alb

H ow ( s ) W 1 ( s ) 1.3. Filtrarea optimala Wiener prin extragerea zgomotului Ce se urmareste: estimarea formei lui s(t) se face prin estimarea lui n(t) si extragerea acestuia din r(t). Schema de extragere se da mai jos, unde: n1(t) = zgomotul s(t) + n(t) s(t) + captat din semnal ^ s(t) n(t) n(t) = zgomotul _ h1(t) ^ n(t) filtrat z(t) functia h1(t) = n1(t) w(t) how(t) h(t) = h1(t) pondere a legaturii modelul dintre cele doua semnalului componente captate s(t) si n2(t) ale semnalului. Deoarece h1(t) este necunoscut, h(t) = h1(t) poate fi determinat numai indirect printr-un procedeu de optimizare. qnn1 ( s ) qrn1 ( s ) H1 ( s ) = = H (s) qn1n1 ( s ) qn1n1 ( s )

6 O metoda de calcul rapid a lui H(s) este cea de mai jos in care se face apel la un corelator a lui r(t) cu zgomotul alb z(t):
s(t) n(t) h1(t) n1(t) z(t) w(t) how(t) h(t) = h1(t) w-1(t) h(t) ^ n(t) s(t) + n(t) corelator + ^ s(t) _

H1 ( s ) =

qnn1 ( s ) qn1n1 ( s )

qrn1 ( s ) qn1n1 ( s )

q zn1 ( s ) qrz ( s ) qn1n1 ( s ) q zz ( s )

unde How(s) = W-1(s)H(s) este dat de corelator.

q zn1 ( s ) qnz ( s ) = W ( s ) H ow ( s ) = H ( s ) qn1n1 ( s ) q zz ( s )

2. Filtrul optimal Kalman Bucy (t ) = s (t ) a) Cazul ideal: d Este o varianta de filtru optimal Wiener in care se relizeaza FOW printrun sistem dinamic iar intrarea filtrului de albire este diferenta dintre semnalul receptionat si estimatul semnalului dorit. Aici sistemele
r(t) n(t) z(t) K

^ d(t) sistem dinamic FIA FO r(t) w-1(t) H (s) ho(t) W-1() o Ho()

dinamice sunt generatoare de semnale aleatoare, fiind excitate de zgomot alb. Problema este de a determina functia de transfer a sistemului de asa natura incat la iesire lui sa se obtina un semnal a carui densitate spectrala de putere este cea a semnalului dorit: q zz ( s ) H o ( s ) H o ( s ) = qss ( s )

7 Obs.: daca n(t) = z(t), K = const. Exemplu: Se doreste: K qss ( s ) = 2 0 2 ; s 1 Deoarece q zz ( s ) = N 0 = K : 2 K 1 K 1 1 H o ( s ) H o ( s ) = 0 2 2 = 0 K s K s +s

K0 1 K +s Daca qss ( s ) dorit se descrie cu o aproximatie Butteworth de ordin mai mare Pentru filtru realizabil se ia numai partea realizabila H o ( s ) = va fi necesar un sistem dinamic de ordin superior, descris de : ecuatie diferentiala liniara cu coeficienti constanti : y ( n ) (t ) + an1 y ( n1) (t ) + ... + a0 y (t ) = bn1u ( n1) (t ) + ... + b0u (t ) functie de transfer corespunzatoare : Y ( s) bn1s n1 + ... + b0 H (s) = = U ( s ) s n + an1s n1 + ... + a0 ecuatii de stare si de iesire corespunzatoare : dx(t ) = Ax(t ) + Bu(t ) dt y (t ) = Cx(t ) an1 1 0 ... 0 bn1 an2 0 1 ... 0 ... ... ... ... ... b A= B = n2 C = 10...0 (o singura iesire) ... ... ... ... ... ... b0 a1 0 0 ... 1 a0
u B

0 ... 0
x y C

dt
A

Modelul sistemului dinamic generator de semnal aleator este dat alaturat ( u(t) = z(t) si x(t) = d(t))

8 Exemplu: fie schema din figura de mai jos, in care variabila de stare este tensiunea la bornele condensatorului, vc(t). Se cere: 1. modelul matematic, respectiv R vc(0) = V ecuatia de stare a circuitului v(t) C 2. structura sistemului dinamic generator al semnalului s(t) = vc(t) 3. s (t) pentru v(t) = 0 si vc(0) =V= v.a. 4. structura sistemului dinamic generator al semnalului s(t) = vc(t) in cazul (3). 5. sa se arate ca in cazul (3) s(t) este un proces aleator nestationar 6. functia de transfer a sistemului dinamic generator pentru vc(0) = V= 0 si v(t) = z(t), adica zgomot alb 7. sa se arate ca s(t) obtinut in conditiile de la (6) este un proces aleator stationar; care este relatia dintre D.S.P. a lui v(t) = z(t) si varianta y2 Solutie: 1. vR (t ) + vC (t ) = v(t ) x(t ) = vC (t ) = s (t ) dx(t ) 1 1 = x(t ) + v(t ) dt RC RC y (t ) = s (t ) 1 1 ; B= ; C=1 RC RC 1 1 1 1 2. X ( s ) = X ( s ) + x(0) + V (s) RC s RC s A=
dx/dt v(t) 1/RC (B) + x(0) = V y(t) = x(t) = s(t)

dt
+ 1/ - RC (A)

-1 + x(0) = V

3 . s ( t ) = y (t ) = x (t ) = 1 = V exp t RC

4.

dt +

x(t)

1/RC

9 5. daca v(t) = 0 si vc(0) =V= v.a. cu densitate de probabilitate fV(V), atunci 1 t1 deci rezulta ca y(t) la momentul t = t1: f y ( y, t1 ) = f V (V ) exp RC este un proces aleator nestationar deoarece densitatea de probabilitate variaza cu timpul. 6. H ( s ) =

7. qvv ( s ) = N 0 / 2

k s+k

unde : k = 1 / RC

k 2 N0 / 2 k 2 N0 / 2 q yy ( s ) = H ( s ) H ( s ) qvv ( s ) = 2 2 q yy ( ) = 2 k s k +2 Obs. : deoarece q yy ( ) este o fractie rationala patratica, y(t) este proces aleator stationar. kN 0 / 4 k+s 2 y = R(0) R () = lim s + q yy ( s ) lim s + q yy ( s ) = kN 0 / 4 0 = kN 0 / 4 Daca se ia partea realizabila a lui q yy ( s ) care este : + q yy ( s ) =
s s 0 2 Deci pentru ca semnalul generat sa aiba varianta y trebuie ca zgomotul

alb care excita sistemul dinamic generator sa se caracterizeze prin :


2 N 0 / 2 = 2 y /k

(t ) s (t ) b) Cazul general ( s Sistemul dinamic (sursa) care genereaza semnalul aleator este: dx(t ) = Ax(t ) + Bu(t ) dt y(t ) = Cx(t ) + n(t ) = s(t ) + n(t ) = r (t ) x(t0 ) = Se noteaza: = x0

10

E[u(t )] = u (t ) E[n(t )] = n (t ) Avem urmatoarele relatii pentru covariante (u(t ) si n(t ) sunt zgomote albe) :

x 0 ][ x 0 ] = c 0
T

[u(t ) u (t )][u( ) u ( )]T = cuu(t

=Q

9 9

t, 0 t, 0

[n(t ) n (t )][n( ) n ( )]T = cnn (t ) = P si urmatoarele necorelari: [ x 0 ][u(t ) u (t )]T 0 t 0


[ x 0 ][n(t ) n (t )]T 0 t 0

[n(t ) n (t )][u(t ) u (t )]T = cnu (t ) 0 t 0 Se urmareste gasirea unui observator de stare optimal de forma: (t ) dx (t ) + K (t )y (t ) + m (t ) = F (t )x dt (t 0 ) = x 0 x cu cerintele de optimalitate: 1. estimare fara eroare sistematica : (t ) 0 x (t ) x 2. covarianta matriciala a erorii de estimare este minimala : (t )][x(t ) x (t )]T c opt (t ) c (t ) = [ x(t ) x Se propune solutia:

11

(t ) dx (t ) + B u (t ) + c (t )CT P 1 [y (t ) n (t ) Cx (t ) ] = Ax dt (t 0 ) = x 0 x sau, pentru E[n(t)] = 0 = E[u(t) si sistem invariant in timp: (t ) dx (t ) + K [y (t ) Cx (t )] = Ax dt (t 0 ) = x 0 x unde K = c CT P 1 se numeste castigul filtrului in regim permanent iar c se determina din ecuatia Riccati1 pentru regimul permanent: dc Ac + c A T + BQB T c CT P 1Cc = =0 dt Schema fluxului de semnal la filtrul optimal Kalman-Bucy se da mai jos:

u B

n
x

E[n]= 0 B y _
K=cCTP-1

E[u]= 0

+
C s

dt

^ x

dt A C

A Modelul semnalului aleator (sursa)

Filtrul Kalman-Bucy (estimatorul)

Pentru un sistem stochastic de ordinul 1: dx(t ) = Ax(t ) + Bu (t ) dt y (t ) = x(t ) + n(t )

u (t ) : {0; Q} n(t ) : {0; P} unde matricile A, B, P, Q au cate un singur element.

Pentru justificarea ecuatiei Riccati vezi NOTA

12

2 Ac

c + B 2Q = 0 este ecuatia Riccati, solutia pozitiva fiind : P

c opt = AP + A2 P 2 + B 2QP ; Filtrul Kalman este :


(t ) dx B 2Q B 2Q 2 2 y (t ) (t ) + A + A + = A + x dt P P

Exemplu: prin canalul cu zgomot aditiv n(t), avand cnn = N 0 / 2 (zgomot alb) se transmite un semnal s (t ) = x(t ), avand: 2a si sistemul dinamic generator al s (t ) = x(t ), are functia qss ( ) = 2 a +2 1 1 de transfer: H ( ) = sau H ( s ) = rezulta: a + j a+s

de unde qvv ( ) = 2a iar modelul de q xx ( ) = qss ( ) = qvv ( ) H ( ) sistem dinamic este de forma: dx(t ) = ax(t ) + u (t ); dt y (t ) = x(t ) + n(t ) deci rezulta : A = [ a ]; B = [1]; C = [1]; la care se aduga: Q = [2a ]; P = [N 0 / 2], vom avea ecuatia Riccati de forma:
2

c 2ac + 2a = 0 , solutia pozitiva fiind : N0 / 2 c = aN 0 / 2 + a 2 ( N 0 / 2) 2 + 2a ;

Filtrul Kalman este de forma : (t ) 4a 4a dx 2 y (t ) (t ) + = a2 + + + x a a dt N0 N 0 Castigul filtrului in regim permanent are expresia: 4a c = K = a + a 2 + N0 N0 / 2 Obs.: In regim tranzitoriu, c c (t) si ecuatia Riccati devine:

13

c (t ) dc (t ) + 2a = , ecuatie care se poate modela N0 / 2 dt computational, iesirea modelului actualizand permanent castigul filtrului. 2ac (t )
Modelul dinamic al castigului filtrului

u B

n
x

E[n]= 0 B y _
K=cCTP-1

E[u]= 0

+
C s

dt

^ x

dt A C

A Modelul semnalului aleator (sursa)

Filtrul Kalman-Bucy (estimatorul)

S-ar putea să vă placă și