Sunteți pe pagina 1din 179

Mihai Ciuc Constantin Vertan

PRELUCRAREA STATISTIC

A A
SEMNALELOR
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
0 20 40 60 80 100 120 140 160 180 200
2
1
0
1
2
3
Editura MatrixRom
2005
Cuvant nainte
Aceasta lucrare reprezinta baza cursului de Teoria transmisiunii informat iei 2, curs de
tradit ie al Facultat ii de Electronica, Telecomunicat ii si Tehnologia Informat iei din Uni-
versitatea Politehnica Bucuresti, obligatoriu pentru tot i student ii anului III, indiferent
de specializarea pe care o urmeaza. Structura prezentarii urmareste, deci, del structura
cursului, ale carui baze au fost puse de domnul profesor Alexandru Spataru si sunt expuse
n lucrarea [2].

In plus, se presupune ca cititorii sunt deja familiarizat i cu o serie de not iuni (precum al-
gebra liniara, integrale multidimensionale, analiza Fourier, teoria sistemelor liniare, teoria
informat iei) care sunt dobandite la cursurile urmate n primii doi ani de studiu (Algebra
liniara, Analiza, Matematici speciale, Semnale, circuite si sisteme, Teoria Transmisiunii
Informat iei 1). De asemenea, se presupune ca cititorii sunt familiarizat i cu not iunea de
probabilitate, (not iune esent iala pentru aceasta lucrare) despre care sunt doar reamintite
pe scurt elementele de baza.
Dorim sa mult umim D-lui Vasile Buzuloiu, profesor la Catedra de Electronica Apli-
cata si Ingineria Informat iei a Facultat ii de Electronica, Telecomunicat ii si Tehnologia
Informat iei. Prezent a continua a Domniei Sale alaturi de noi de-a lungul ultimilor zece
ani a contribuit esent ial la formarea noastra (stiint ica si umana) astfel ncat contribut ia
Domniei Sale la aceasta lucrare este cu mult mai importanta decat ajutorul direct dat la
redactarea si revizuirea ei.
De asemenea, dorim sa mult umim D-rei Lavinia Darlea si D-lui Bogdan Ionescu, doc-
toranzi la Laboratorul de Analiza si Prelucrarea Imaginilor, care au avut bunavoint a si
rabdarea de a parcurge minut ios materialul, ajutand, astfel, substant ial la mbunatat irea
formei lui.
Aprilie 2005,
Autorii
i
ii
Cuprins
1 Introducere 1
2 Not iuni de teoria probabilitat ii 3
2.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Axiomele probabilitat ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Camp de evenimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Probabilitat i condit ionate. Evenimente independente . . . . . . . . . . . . 7
3 Variabile aleatoare 9
3.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Evenimente generate de variabile aleatoare . . . . . . . . . . . . . . . . . . 10
3.3 Funct ia de repartit ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Densitatea de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Distribut ii condit ionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.6 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.7 Tipuri de distribut ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.7.1 Distribut ia uniforma . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.7.2 Distribut ia gaussiana (normala) . . . . . . . . . . . . . . . . . . . . 20
3.7.3 Distribut ia Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.8 Funct ii de o variabila aleatoare . . . . . . . . . . . . . . . . . . . . . . . . 20
3.9 Teorema de medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Perechi de variabile aleatoare 31
4.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Funct ia de repartit ie de ordinul doi . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Densitatea de probabilitate de ordinul doi . . . . . . . . . . . . . . . . . . 33
4.4 Distribut ii condit ionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5 Variabile aleatoare independente . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 O funct ie de doua variabile aleatoare. Teorema limita centrala. . . . . . . . 37
4.7 Teorema de medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.8 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.9 Dreapta de regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.9.1 Coecientul de corelat ie . . . . . . . . . . . . . . . . . . . . . . . . 46
iii
iv CUPRINS
4.10 Distribut ia gaussiana de ordinul doi . . . . . . . . . . . . . . . . . . . . . . 47
5 Semnale aleatoare 49
5.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Caracterizarea statistica a semnalelor aleatoare . . . . . . . . . . . . . . . 49
5.2.1 Caracterizarea de ordinul unu a semnalelor aleatoare . . . . . . . . 50
5.2.2 Caracterizarea de ordinul doi a semnalelor aleatoare . . . . . . . . . 50
5.3 Semnale stat ionare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3.1 Stat ionaritate n sens strict . . . . . . . . . . . . . . . . . . . . . . 51
5.3.2 Stat ionaritate n sens larg . . . . . . . . . . . . . . . . . . . . . . . 53
5.4 Proprietat ile funct iei de autocorelat ie . . . . . . . . . . . . . . . . . . . . . 53
5.5 Funct ia de intercorelat ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.6 Semnale ergodice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.6.1 Medii temporale ale semnalului . . . . . . . . . . . . . . . . . . . . 55
5.6.2 Ergodicitate n sensul mediei si n sensul autocorelat iei . . . . . . . 56
5.6.3 Teorema ergodicitat ii mediei . . . . . . . . . . . . . . . . . . . . . . 56
5.7 Densitatea spectrala de putere . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.8 Teorema WienerHincin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.9 Densitatea spectrala de putere de interact iune . . . . . . . . . . . . . . . . 66
5.10 Zgomotul alb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.11 Trecerea semnalelor aleatoare prin ltre liniare . . . . . . . . . . . . . . . . 67
5.11.1 Sisteme liniare invariante n timp . . . . . . . . . . . . . . . . . . . 68
5.11.2 Relat ii ntre marimile statistice la trecerea prin ltre liniare . . . . . 70
5.11.3 Trecerea semnalelor aleatoare prin FTJ ideal . . . . . . . . . . . . . 71
5.11.4 Trecerea semnalelor aleatoare prin FTB ideal . . . . . . . . . . . . 74
5.12 Filtrul adaptat la semnal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.12.1 Maximizarea RSZ prin ltrare liniara . . . . . . . . . . . . . . . . . 80
6 Detect ia semnalelor 83
6.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2 Criteriul de decizie Bayes: cazul observat iilor discrete . . . . . . . . . . . . 85
6.2.1 Statistica sucienta . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.2.2 Criteriul Bayes pentru zgomot alb gaussian . . . . . . . . . . . . . . 90
6.3 Criteriul Bayes: cazul observat iilor continue . . . . . . . . . . . . . . . . . 93
6.3.1 Cazul zgomotului alb gaussian . . . . . . . . . . . . . . . . . . . . . 95
7 Estimarea parametrilor 99
7.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.2 Estimarea n sensul costului mediu minim . . . . . . . . . . . . . . . . . . 100
7.2.1 Estimarea n sensul funct iei de cost patratul erorii . . . . . . . . . . 101
7.2.2 Estimarea n sensul funct iei de cost uniforme . . . . . . . . . . . . . 102
7.2.3 Estimarea unui parametru gaussian n zgomot alb, gaussian . . . . 104
CUPRINS v
7.2.4 Estimarea n absent a unui model statistic a priori . . . . . . . . . . 109
7.3 Evaluarea calitat ii unui estimator . . . . . . . . . . . . . . . . . . . . . . . 109
8 Semnale aleatoare n timp discret 111
8.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.2 Matricea de autocorelat ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Modele stochastice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8.3.1 Modelul AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.3.2 Modelul MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.3.3 Modelul ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.3.4 Ecuat iile YuleWalker . . . . . . . . . . . . . . . . . . . . . . . . . 118
9 Filtrarea optimala a semnalelor 123
9.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
9.2 Principiul ortogonalitat ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
9.3 Ecuat iile WienerHopf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
9.3.1 Ecuat iile WienerHopf pentru ltru de tip FIR . . . . . . . . . . . 126
9.4 Aplicat ii ale ltrarii optimale a semnalelor . . . . . . . . . . . . . . . . . . 127
9.4.1 Atenuarea zgomotului . . . . . . . . . . . . . . . . . . . . . . . . . 128
9.4.2 Predict ia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
10 Transformate unitare 133
10.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
10.2 Transformata KarhunenLo`eve . . . . . . . . . . . . . . . . . . . . . . . . 136
10.3 Aproximari practice ale transformatei KL . . . . . . . . . . . . . . . . . . . 139
10.3.1 Transformata cosinus discreta . . . . . . . . . . . . . . . . . . . . . 140
10.3.2 Transformata sinus discreta . . . . . . . . . . . . . . . . . . . . . . 143
11 Cuantizarea semnalelor 145
11.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
11.2 Cuantizarea uniforma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
11.3 Cuantizarea optimala LloydMax . . . . . . . . . . . . . . . . . . . . . . . 148
11.4 Compandarea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
12 Aplicat ii n prelucrarea si analiza imaginilor 153
12.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.2

Imbunatat irea imaginilor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2.1 Egalizarea de histograma . . . . . . . . . . . . . . . . . . . . . . . . 156
12.3 Segmentarea imaginilor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.3.1 Segmentarea imaginilor ca problema de cuantizare . . . . . . . . . . 160
12.3.2 Segmentarea imaginilor ca problema de decizie . . . . . . . . . . . . 162
12.4 Compresia imaginilor cu transformate . . . . . . . . . . . . . . . . . . . . . 164
vi CUPRINS
A Impulsul Dirac 169
Bibliograe 171
Capitolul 1
Introducere
Spre deosebire de abordarea determinista a prelucrarii semnalelor, n care ecare semnal
este considerat o entitate de sine statatoare, n prelucrarea statistica se ia n considerare
faptul ca un semnal purtator de informat ie apart ine unei anumite clase de semnale (spre
exemplu, semnal vocal etc.) clasa ce poate caracterizata prin anumit i parametri statis-
tici. Scopul teoriei statistice a semnalelor este denirea acestor parametri si utilizarea lor
pentru o prelucrare ecienta a semnalelor.
Prima parte a acestei lucrari este dedicata denirii marimilor care caracterizeaza statis-
tic semnalele aleatoare.

In capitolul 2 sunt reluate pe scurt elementele de baza ale teoriei
probabilitat ii, pe care le vom utilizan capitolul 3 pentru introducerea not iunii de variabila
aleatoare: sunt denite marimile statistice ce caracterizeaza variabilele aleatoare (funct ie
de repartit ie, densitate de probabilitate, momente) si este discutata n detaliu problema
modicarii acestora prin aplicarea unei funct ii cunoscute variabilei aleatoare. Capitolul 4
trateaza problema caracterizarii statistice comune a unei perechi de variabile aleatoare, cu
ajutorul careia se pot trage concluzii referitoare la gradul si tipul de dependent a statistica
ntre acestea.
Toate marimile denite si toate rezultatele obt inute pentru variabilele aleatoare vor
servi n capitolul 5 pentru caracterizarea statistica a semnalelor aleatoare. Sunt denite
not iunile, extrem de importante, de stat ionaritate si ergodicitate a semnalelor. De aseme-
nea, se denesc marimi statistice care sa caracterizeze semnalele din punct de vedere
spectral si este demonstrata o teorema fundamentala n prelucrarea semnalelor (teorema
WienerHincin) care face legatura ntre marimile statistice temporale si spectrale. De
asemenea, este studiata modicarea marimilor statistice la trecerea semnalelor prin sis-
teme liniare, invariante n timp.
Partea a doua a lucrarii prezinta problema prelucrarii semnalelor aleatoare folosind
caracteristicile statistice denite n prima parte. Capitolele 6 si 7 trateaza probleme
de decizie statistica: detect ia semnalelor si estimarea parametrilor.

In primul caz, este
vorba despre identicarea cat mai precisa, n prezent a zgomotului, a unui semnal dintr-o
mult ime nita de semnale cunoscute (cu aplicat ie n extragerea informat iei n transmisiuni
digitale), n timp ce n al doilea caz, problema este de a estima cat mai precis (de aseme-
nea, n prezent a zgomotului) a unui parametru necunoscut al unui semnal cunoscut.

In
1
2 CAPITOLUL 1. INTRODUCERE
capitolul 8 se introduce reprezentarea n timp discret a semnalelor aleatoare si se discuta
not iunea de model aleator pentru generarea semnalelor de interes. Capitolul 9 prezinta
problema estimarii optimale a formei semnalelor prin ltrare liniara, si sunt prezentate
doua aplicat ii de interes practic ridicat: reducerea de zgomot si predict ia.

In capitolul 10
este tratata problema reprezentarii semnalelor n alte coordonate, cu aplicat ii imediate
pentru analiza si compresia datelor.

In sfarsit, n capitolul 11 este discutata problema
cuantizarii semnalelor, adica a transformarii naturii valorilor semnalelor din continuu n
discret.
A treia parte a lucrarii (capitolul 12) propune o incursiune interesanta n lumea unei
clase particulare de semnale aleatoare, si anume imaginile. Mai precis, sunt prezentate
cateva aplicat ii ale prelucrarii statistice a semnalelor n domeniul, extrem de actual, al
prelucrarii si analizei imaginilor digitale. Scopul principal al acestei part i este de a-i da
cititorului, pe exemple concrete, o not iune despre utilitatea tehnicilor descrise n aceasta
lucrare, not iune care, datorita ariditat ii prezentarii (ce nu poate ocolita pe alocuri) risca
sa treaca altminteri neobservata...
Capitolul 2
Not iuni de teoria probabilitat ii
2.1 Introducere
Probabilitat ile sunt instrumentul matematic de baza pentru prezenta lucrare, drept pentru
care vom relua n acest capitol elementele de baza din teoria probabilitat ii ce ne vor
de folos n continuare. Trebuie sa precizam ca nu avem intent ia de a face o prezentare
exhaustiva a teoriei probabilitat ilor, pentru aceasta cititorul ind rugat sa apeleze la una
dintre numeroasele lucrari de referint a din domeniu (spre exemplu [3]).
Asupra probabilitat ii unui eveniment exista o accept iune foarte evidenta venita dinspre
practica. Daca repetam un experiment de N ori, iar evenimentul A se produce de N
A
ori,
atunci probabilitatea P(A) de producere a evenimentului A este:
P(A) = lim
N
N
A
N
. (2.1)
Din pacate, aceasta descriere intuitiva a probabilitat ii unui eveniment, desi adevarata,
este insucient de precisa pentru a putea permite o construct ie matematica pe seama ei,
datele ind astfel imposibil de manipulat. Aceasta construct ie matematica a teoriei pro-
babilitat ilor, de care avem nevoie n continuare, se face pornind de la trei proprietat i pe
care le acceptam fara demonstrat ie (axiome). Trebuie sa remarcam ca desi abordarea e
diferita, totusi exista o potrivire perfecta a realitat ii practice, descrise de relat ia (2.1), pe
ntregul esafodaj matematic construit pe baza celor trei axiome.
Sa ncepem prin a stabili terminologia folosita n teoria probabilitat ilor. Fie =

1
,
2
, . . . mult imea tuturor rezultatelor posibile ale unui experiment.

In teoria proba-
bilitat ii, elementele
i
se numesc realizari experimentale, submult imile A se numesc
evenimente, mult imea se numeste evenimentul sigur, mult imea vida se numeste eveni-
mentul imposibil, iar submult imile formate din cate un singur element
i
se numesc
evenimente elementare. Doua evenimente A si B se numesc incompatibile daca AB = .
Daca la o desfasurare a experimentului s-a observat ca rezultat al acestuia elementul
i
,
atunci se spune ca evenimentul A s-a produs (sau a avut loc) daca
i
A. De asemenea,
daca
i
, B, se spune ca evenimentul B nu s-a produs.

In acest sens, este evident ca
evenimentul se produce la ecare desfasurare a experimentului, iar evenimentul nu
3
4 CAPITOLUL 2. NOT IUNI DE TEORIA PROBABILIT

AT II
se produce niciodata. De asemenea, doua evenimente incompatibile nu se pot produce
simultan niciodata.
Din denit iile date mai sus, rezulta ca la o desfasurare a experimentului se produc concomitent
mai multe evenimente.

Intr-adevar, dac a se observa
i
, se produc toate evenimentele A
i
. Sa
exemplicam acest lucru pe experimentul care consta n aruncarea zarului.

In acest caz, este
mult imea tuturor celor sase fet e ale zarului = f
1
, f
2
, . . . , f
6
. Daca zarul cade, la o aruncare,
pe fat a f
2
, atunci se produc n acelasi timp evenimentele distincte A = fat a para = f
2
, f
4
, f
6
,
B = fat a cu numar 3 = f
1
, f
2
, f
3
, C = f
2
, f
3
, n timp ce evenimentele D = fat a impara =
f
1
, f
3
, f
5
, E = fat a cu numar 4 = f
4
, f
5
, f
6
etc. nu se produc
1
.
Un alt exemplu n acelasi sens este urmatorul: consideram o cutie ce cont ine mai multe forme
geometrice, caracterizate de culori, forme si dimensiuni diferite. De exemplu: sfera mica si rosie,
cub mare si verde, tetraedru mare si albastru etc.

In acest caz =mult imea tuturor pieselor
din cutie. Daca la extragerea la ntamplare a unei forme din cutie se scoate, sa zicem, sfera mare
si galbena, atunci au loc concomitent evenimentele A =sfera=mult imea tuturor formelor de forma
sferica, B =galben=mult imea tuturor formelor de culoare galbena si C =mare=mult imea tu-
turor formelor de dimensiune mare, n timp ce evenimentele D=albastru si E=tetraedru nu se
produc.
2.2 Axiomele probabilitat ii
Probabilitatea P este o masura care se asociaza evenimentelor A si care satisface
urmatoarele axiome:
1. Probabilitatea oricarui eveniment este un numar pozitiv:
P(A) 0 A.
2. Probabilitatea evenimentului sigur este egala cu unitatea:
P() = 1.
3. Daca doua evenimente sunt incompatibile, atunci probabilitatea reuniunii celor doua
evenimente este egala cu suma probabilitat ilor evenimentelor:
A B = P(A B) = P(A) + P(B).
Observat ie. Prin extinderea axiomei 3, se poate calcula P(AB C) = P(A) +
P(B) +P(C) pentru trei evenimente incompatibile doua cate doua si tot asa pentru
patru s.a.m.d., cu alte cuvinte, axioma 3 poate extinsa pentru orice numar nit de
evenimente A
i
, i = 1 . . . , N. Axioma 3 nu se mai poate extinde, nsa, cand N ;
deci ea trebuie completata pentru a ngloba si cazul unui numar numarabil de
mult imi. Introducem, deci, si axioma 3a.
1

In total, sunt 2
5
= 32 evenimente distincte care se produc si tot 2
5
= 32 evenimente care nu se produc
simultan, la o singura aruncare a zarului.
2.2. Axiomele probabilitat ii 5
(a) Pentru orice mult ime numarabila de evenimente incompatibile doua cate doua
A
1
, A
2
, A
3
, . . ., cu A
i
A
j
= , daca i ,= j, avem:
P
_
_
i
A
i
_
=

i
P(A
i
).
Proprietat ile probabilitat ii
Pe baza celor trei axiome se mai pot demonstra urmatoarele proprietat i ale probabilitat ii
pe care le vom numerota n continuarea axiomelor.
4. P() = 0.
Demonstrat ie. Avem A = A , A. Pe de alta parte A = , A. Aplicand
axioma 3, obt inem:
P(A) = P(A )
ax.3
= P(A) + P(),
de unde rezulta, evident, proprietatea enunt ata.
5. P((A)) = 1 P(A), cu (A) =
_

i
, A
_
.
Demonstrat ie. Avem A (A) = si A (A) = , de unde rezulta:
P()
. .
1
= P(A (A))
ax.3
= P(A) + P((A)).
6. P(A) 1, A.
Demonstrat ie. Conform proprietat ii 5, P(A) = 1 P((A)), iar din axioma 2,
P((A)) 0.
7. Pentru doua evenimente oarecare A si B, avem:
P(A B) = P(A) + P(B) P(A B)
Demonstrat ie. Putem scrie:
A = A = A (B (B)) = (A B) (A (B)),
si ntrucat (A B) (A (B)) = rezulta, aplicand axioma 3, ca:
P(A) = P(A B) + P(A (B)). (2.2)
Pe de alta parte, avem: AB = (A(B))B (vezi gura 2.1), cu (A(B))B = ,
de unde:
P(A B) = P(A (B)) + P(B). (2.3)
Eliminandu-l pe P(A (B)) din ecuat iile (2.2) si (2.3), obt inem relat ia cautat a.
6 CAPITOLUL 2. NOT IUNI DE TEORIA PROBABILIT

AT II
A C(B)
B
Figura 2.1: Ilustrarea graca a relat iei A B = (A (B)) B.
2.3 Camp de evenimente

In general, nu suntem interesat i (n unele cazuri nici macar nu este posibil) sa dam proba-
bilitat i tuturor evenimentelor ce se pot forma pe . Desigur, alocarea unei probabilitat i
pentru ecare eveniment nu este o problema atunci cand , de exemplu, e o mult ime cu
sase elemente, caz n care T() are 2
6
= 64 de elemente distincte
2
. Problema nsa se
complica pentru avand componente din ce n ce mai numeroase ( poate , evident, o
mult ime cu o innitate de elemente).
Dorim, deci, sa alocam probabilitat i unei mult imi reduse de evenimente. Dorim, nsa,
ca mult imea respectiva de submult imi ale lui sa e nchisa la operat iunile elementare
cu mult imi, cum ar reuniunea, intersect ia si complementarea. Aceasta necesitate vine
din faptul ca daca stim P(A) si P(B), atunci n general ne intereseaza sa putem calcula
si P(A B), si P((A)), P(A B) etc, cu alte cuvinte, daca A si B sunt n mult imea
restransa de submult imi ale lui carora li se aloca probabilitat i, atunci A B, (A),
A B etc. trebuie sa e tot n acea mult ime. Ajungem, astfel, la not iunea de camp de
evenimente.
Denit ie. Fie / T() o mult ime de evenimente denite pe . / se numeste camp
de evenimente daca:
1. A / (A) /;
2. A, B / A B /.
Vom demonstra n continuare ca un camp de evenimente astfel denit are urmatoarele
proprietat i:
3. A, B / A B /.
2
Pentru o mult ime oarecare A, mult imea part ilor lui A, care se noteaza cu T(A) reprezinta mult imea
tuturor submult imilor ce se pot forma cu elemente din A.
2.4. Probabilitat i condit ionate. Evenimente independente 7
Demonstrat ie. Avem: A, B / (A), (B) / (A) (B) /
((A) (B)) = A B /
4. /.
Demonstrat ie. Avem: A / (A) / A (A) = /.
5. /.
Demonstrat ie. Avem: A / (A) / A (A) = /.
Denit ie. Mult imea / T() se numeste camp Borel de evenimente daca este un
camp de evenimente pentru care denit ia 2 este valabila pentru o innitate numarabila
de mult imi, deci se nlocuieste cu:
2
t
. A
i
/ cu i N, avem

i
A
i
/.
Pentru xarea not iunii de camp de evenimente, sa consideram un exemplu practic. Sa presupunem
ca dorim sa construim campul de evenimente minimal /
1
pe = f
1
, . . . , f
6
, care sa cont ina eveni-
mentul A =fat a para=f
2
, f
4
, f
6
. Conform proprietat ilor 4 si 5 ale unui camp de evenimente, /
1
trebuie sa cont ina n afara de A si pe si . De asemenea, el trebuie sa-l cont ina si pe (A) =fat a im-
para=f
1
, f
3
, f
5
. Se observa ca /
1
= , , f
2
, f
4
, f
6
, f
1
, f
3
, f
5
reprezinta un camp de evenimente,
ntucat orice operat ie elementara cu mult imi cu una sau doua elemente din /
1
conduce tot la un element
din /
1
.
Campul minimal /
2
care cont ine evenimentele elementare B = f
1
si C = f
2
este /
1
=
, , f
1

..
B
, f
2

..
C
, f
1
, f
2

. .
BC
, f
1
, f
3
, f
4
, f
5
, f
6

. .
(C)
, f
2
, f
3
, f
4
, f
5
, f
6

. .
(B)
, f
3
, f
4
, f
5
, f
6

. .
(BC)
.

In concluzia acestei scurte introduceri n probabilitat i putem arma ca un experiment


este complet determinat din punct de vedere probabilistic prin specicarea tripletului
(, /, P), unde:
este mult imea tuturor rezultatelor experimentale posibile;
/ T() este campul de evenimente denit pe ;
P este mult imea probabilitat ilor asociate elementelor din /.
2.4 Probabilitat i condit ionate. Evenimente indepen-
dente
Fie A, B doua evenimente oarecare, cu P(B) ,= 0. Se deneste probabilitatea
evenimentului A condit ionat de B ca ind:
P(A[B)

=
P(A B)
P(B)
, (2.4)
8 CAPITOLUL 2. NOT IUNI DE TEORIA PROBABILIT

AT II
Probabilitatea de mai sus reprezinta probabilitatea de producere a evenimentului A con-
siderand ca evenimentul B s-a produs.
Exemplu. Consideram experimentul ce consta n aruncarea zarului. Fie evenimentele
A = f
2
, respectiv B = fat a para = f
2
, f
4
, f
6
. Evident, avem P(A) =
1
6
, P(B) =
1
2
.
Astfel, putem scrie:
P(A[B) =
P(A B)
P(B)
=
P(A)
P(B)
=
1
6
1
2
=
1
3
.
Rezultatul de mai sus era de asteptat, ntrucat P(A[B) reprezinta probabilitatea ca zarul
sa cada pe fat a f
2
in ipoteza producerii evenimentului B, adica stiind faptul ca zarul a
cazut pe o fat a para. Invers, putem scrie:
P(B[A) =
P(A B)
P(A)
=
P(A)
P(A)
= 1,
ceea ce iarasi e normal, ntrucat P(B[A) reprezinta probabilitatea ca zarul sa cada pe o
fat a para n ipoteza ca el a cazut pe fat a f
2
.
Denit ie. Doua evenimente A si B se numesc independente daca:
P(A B) = P(A)P(B). (2.5)
T inand cont de (2.4), rezulta ca daca A si B sunt independente, avem:
P(A[B) =
P(A)P(B)
P(B)
= P(A), (2.6)
respectiv
P(B[A) =
P(A)P(B)
P(A)
= P(B), (2.7)
ceea ce justica denit ia (2.5). Relat iile de mai sus se interpreteaza n sensul ca daca
doua evenimente sunt independente, atunci producerea oricaruia dintre ele nu inuent eaza
probabilitatea de producere a celuilalt.
Capitolul 3
Variabile aleatoare
3.1 Introducere
Prin denit ie, o variabila aleatoare este o funct ie care asociaza ecarui element
i

un numar real. Vom nota variabilele aleatoare cu litere grecesti: , , , . . . Putem, deci,
scrie ca:
: R. (3.1)
De ecare data cand se desfasoara experimentul si observam ca rezultat al acestuia pe

k
, valoarea asociata (
k
)
not
=
(k)
se numeste realizarea particulara a lui .
Exemple.
1. pentru experimentul care consta n aruncarea zarului, putem deni pe =
f
1
, . . . , f
6
mai multe variabile aleatoare, ca de exemplu:
(f
i
) = i, i 1, . . . , 6, variabila aleatoare care asociaza ecarei fet e a
zarului numarul de pe ea;
(f
i
) =
_
0 daca i = 2k
1 daca i = 2k + 1
, variabila aleatoare care ia valoarea 0 n cazul
n care cade fat a para, si 1 pentru fat a impara.
2. pentru experimentul care consta n alegerea la ntamplare a unui rezistor
dintr-o cutie de N rezistoare r
i
iesite de pe aceeasi linie de fabricat ie, atunci
= r
1
, . . . , r
N
, pe care se pot deni, de asemenea, mai multe variabile de in-
teres practic, cum ar :
(r
i
) = R(r
i
), adica este valoarea rezistent ei electrice a rezistorului r
i
;
(r
i
) = C(r
i
), adica este valoarea capacitat ii parazite a rezistorului r
i
.
9
10 CAPITOLUL 3. VARIABILE ALEATOARE
3.2 Evenimente generate de variabile aleatoare

In general, n practica este de interes cunoasterea probabilitat ii ca o variabila aleatoare sa


ia valori ntr-un anumit interval din R, sau sa e mai mica decat o anumita valoare reala.
Spre exemplu, n experimentul 2 descris mai sus, producatorul rezistoarelor respective este
interesat s a cunoasca probabilitatea ca valoarea reala a rezistent ei rezistorului (respectiv,
variabila aleatoare denitan exemplul 2) sa ia valori n intervalul de tolerant a specicat,
si exemplele pot continua la nesfarsit.
Dupa cum stim, nsa, din capitolul precedent, putem aloca probabilitat i numai eveni-
mentelor A . Vom vedea n continuare cum putem sa generam, pornind de la aceste
evenimente de probabilitate cunoscuta, evenimente legate de variabilele aleatoare.
Fie o variabila aleatoare denita pe si e x
1
, x
2
R. Atunci, denim evenimentul
x
1
x
2
ca ind:
x
1
x
2
=
_

x
1
(
i
) x
2
_
. (3.2)
Spre exemplu, pentru denita la exemplul 1, putem scrie:
2, 5 =
_
f
i

(f
i
) 2, 5
_
= f
3
, f
4
, f
5
, f
6

2 < 4 =
_
f
i

2 < (f
i
) 4
_
= f
3
, f
4

< 0, 5 =
_
f
i

(f
i
) < 0, 5
_
=
5 8, 3 =
_
f
i

5 (f
i
) 8, 3
_
= f
1
, . . . , f
6
=
Se observa ca pentru orice x
1
, x
2
R, x
1
< x
2
, < x
1
, x
2
etc. nu sunt
altceva dec at submult imi ale lui , ceea ce justica denirea lor ca evenimente.

Inseamna
ca putem aa probabilitatea acestor evenimente, n masura n care stim probabilitat ile
asociate evenimentelor denite pe . Avem, deci, dreptul sa vorbim de probabilitatea ca
o variabila aleatoare sa ia valori ntr-un interval oarecare din R, sau, prin extensie, ntr-o
reuniune nita sau numarabila de intervale din R.
Este evident ca pe R se pot deni submult imi A R care sa nu e intervale sau
reuniuni de intervale, dar n majoritatea cazurilor nu este de interes practic determinarea
probabilitat ii P( A) pentru aceste submult imi (si dam numai un exemplu ilustrativ
pentru aceasta: A = R Q), lasand la o parte faptul ca n unele cazuri respectivele
probabilitat i nici nu pot calculate.
Ne mult umim, deci, cu determinarea probabilitat ilor P( A), cu A 1, unde
1 =mult imea tuturor intervalelor din R nchise, deschise, sau semideschise si
a tuturor reuniunilor unui numar nit sau numarabil de intervale. Este evident
ca 1 reprezinta un camp de evenimente, ind nchis la complementare si reuniune.
Desi o astfel de descriere probabilistica a variabilelor aleatoare pare extrem de compli-
cata, ea nu este asa. Vom arata n paragraful urmator ca toate probabilitat ile ment ionate
3.3. Funct ia de repartit ie 11
mai sus pot deduse pornind de la expresia unei singure funct ii, numita funct ie de
repartit ie a variabilei aleatoare.
3.3 Funct ia de repartit ie
Fie o variabila aleatoare. Se deneste funct ia ei de repartit ie F

: R [0, 1] cu expresia
data de:
F

(x)

= P( x) (3.3)
Proprietat ile funct iei de repartit ie
1. F

() = P( ) = 0.
2. F

() = P( ) = 1.
3. F

e o funct ie crescatoare: x
1
, x
2
R, x
1
< x
2
F

(x
1
) F

(x
2
).
Demonstrat ie. F

(x
2
) = P( x
2
) = P(( x
1
) (x
1
< x
2
)). Avand n
vedere ca evenimentele x
1
si x
1
< x
2
sunt incompatibile, putem scrie
ca:
F

(x
2
) = P( x
1
) + P(x
1
< x
2
) = F

(x
1
) + P(x
1
< x
2
)
. .
0
,
ceea ce completeaza demonstrat ia.
4. P(x
1
< x
2
) = F

(x
2
) F

(x
1
).
Aceasta relat ie nu este decat relat ia nala din demonstrat ia proprietat ii 3 pusa sub
o alta forma. O ment ionam, nsa, separat, pentru ca este relat ia care justica cele
armate mai sus, cum ca funct ia de repartit ie ofera sucienta informat ie pentru a
calcula P( A), A 1. Este evident ca pentru orice interval sau reuniune de
intervale poate scrisa o relat ie de genul celei de mai sus, care face apel numai la
valorile funct iei de repartit ie n capetele intervalului(elor) respectiv(e).
Exemplu. Sa calculam spre exemplicare funct ia de repartit ie a variabilei aleatoare
denite n exemplul 1 de la nceputul capitolului. Avand n vedere natura discreta a
lui (care poate lua, conform denit iei, numai valorile 1, 2, . . . , 6), vom trata problema
12 CAPITOLUL 3. VARIABILE ALEATOARE
calculului funct iei de repartit ie pe intervale. Astfel:
x (, 1), F

(x) = P( x) = P() = 0
x [1, 2), F

(x) = P( x) = P(f
1
) =
1
6
x [2, 3), F

(x) = P( x) = P(f
1
, f
2
) =
2
6
x [3, 4), F

(x) = P( x) = P(f
1
, f
2
, f
3
) =
3
6
x [4, 5), F

(x) = P( x) = P(f
1
, f
2
, f
3
, f
4
) =
4
6
x [5, 6), F

(x) = P( x) = P(f
1
, f
2
, f
3
, f
4
, f
5
) =
5
6
x [6, ), F

(x) = P( x) = P() = 1
Gracul funct iei de repartit ie este prezentat n gura 3.1
)
)
)
)
)
)
[
[
[
[
[
[
F

(x)
x
1/6
2/6
3/6
4/6
5/6
1
1 2 3 4 5 6
Figura 3.1: Funct ia de repartit ie a variabilei aleatoare numarul de pe fat a zarului.
Denit ie. O variabila aleatoare se numeste continua daca funct ia ei de repartit ie este
continua pe R, se numeste discreta daca funct ia ei de repartit ie este o funct ie n trepte,
de genul celei din gura 3.1, si se numeste mixta daca funct ia ei de repartit ie prezinta
discontinuitat i, fara a , totusi, o funct ie n trepte.
3.4 Densitatea de probabilitate
Se deneste densitatea de probabilitate w

a unei variabile aleatoare ca ind derivata


funct iei sale de repartit ie:
w

(x)

=
dF

(x)
dx
. (3.4)
3.4. Densitatea de probabilitate 13
Daca explicitam derivata n relat ia de mai sus, obt inem:
w

(x) = lim
x0
F

(x + x) F

(x)
x
= lim
x0
P(x < x + x)
x
. (3.5)

In calculul de mai sus am t inut cont de proprietatea 4 a funct iei de repartit ie. Se poate,
deci, scrie:
w

(x)x
x
P(x < x + x), (3.6)
relat ie care justica denumirea de densitate de probabilitate data funct iei w

.

Intr-adevar,
se observa ca valoarea funct iei w

ntr-un punct x permite calculul probabilitat ii ca vari-


abila aleatoare sa ia valori ntr-un interval innitezimal (x, x+x], aceasta probabilitate
ind data de aria de sub gracul lui w

delimitata de intervalul (x, x+x] (vezi gura 3.2).


w

(x)
x x+ x
w

(x)xP(x<x+x)
Figura 3.2: Probabilitatea este data de aria de sub gracul densitat ii de probabilitate.
Necesitatea utilizarii funct iei de densitate de probabilitate este dictata de faptul ca,
n cazul n care variabila aleatoare n discut ie e continua, avem P( = x) = 0 x R
1
.
Proprietat ile densitat ii de probabilitate
1. w

(x) 0
Demonstrat ie. w

este derivata lui F

care este funct ie crescatoare.


2. F

(x) =
x
_

(u)du.
Demonstrat ie. Se t ine cont de faptul ca F

este primitiva lui w

, si ca F

() = 0.
1
Pentru justicarea acestei armat ii, sa ne imaginam un zar cu N = 20 fet e simetrice (facand abstract ie
de faptul ca o astfel de gura geometrica nu exista n realitate).

In acest caz, probabilitatea de aparit ie
a ecarei fet e este
1
20
. Pe masura ce N creste, scade probabilitatea ecarei fet e. La limita, cand N ,
zarul se transforma ntr-o sfera, fat a devine punct, iar probabilitatea ecarei fet e este
1

, adica 0.
14 CAPITOLUL 3. VARIABILE ALEATOARE
3. Condit ia de normare:

(x)dx = 1.
Demonstrat ie. Se scrie proprietatea 2 n punctul x = .
4. Pentru x
1
, x
2
R, avem
x
2
_
x
1
w

(x)dx = P(x
1
< x
2
).
Demonstrat ie. Se utilizeaza proprietatea 2 a densitat ii de probabilitate si propri-
etatea 4 a funct iei de repartit ie.
Aceasta relat ie ne arata ca aria de sub gracul densitat ii de probabilitate delimitata
de un interval reprezinta probabilitatea ca variabila aleatoare sa ia valori n intervalul
respectiv.
Exemplu. Sa calculam densitatea de probabilitate a variabilei a carei funct ie de
repartit ie este ilustrata n gura 3.1.
Dupa cum se observa, funct ia de repartit ie este constanta peste tot n R, mai put in n
punctele x = 1, . . . , 6, unde are salturi bruste.

In derivata funct iei de repartit ie, respectiv
n densitatea de probabilitate w

, n aceste puncte vor aparea impulsuri Dirac


2
de arii egale
cu
1
6
, ntrucat, n ecare punct i = 1, . . . , 6, funct ia F

efectueaza un salt de amplitudine


1
6
. Densitatea de probabilitate a lui (prezentata grac n gura 3.3) se poate scrie, deci:
w

(x) =
6

i=1
1
6
(x i).
w

(x)
x
1 2 3 4 5 6
1/6(x1)
1/6(x6)
Figura 3.3: Densitatea de probabilitate a variabilei aleatoare numarul de pe fat a zaru-
lui.
Dupa cum este discutat n detaliu n anexa A, semnicat ia practica a unui impuls
Dirac este aceea de arie nenula concentrata ntr-un singur punct. Asadar, aparit ia
2
Pentru mai multe detalii despre impulsul Dirac, a se consulta anexa A a acestei lucrari.
3.5. Distribut ii condit ionate 15
unui impuls Dirac de arie A ntr-un punct x
0
al unei funct ii densitate de probabilitate
w

semnica faptul ca variabila aleatoare respectiva are probabilitate nenula sa ia exact


valoarea x
0
, probabilitate care este egala cu aria impulsului respectiv
3
: P( = x
0
) = A.
3.5 Distribut ii condit ionate
Fie o variabila aleatoare si A un eveniment oarecare. Prin analogie cu (2.4), se deneste
funct ia de repartit ie a lui condit ionata de A:
F
[A
(x) = P
_
( x)[A
_
=
P
_
( x) A
_
P(A)
. (3.7)

In mod similar cu (3.4), se deneste densitatea de probabilitate condit ionata:


w
[A
(x) =
dF
[A
(x)
dx
= lim
x0
P
_
(x < x + x)[A
_
x
. (3.8)
Exemplu. Sa consideram o variabila aleatoare oarecare, si sa consideram evenimentul
A = a < b, cu a < b oarecare. Sa calculam ntr-o prima instant a funct ia de
repartit ie condit ionata F
[A
(x). Avem, conform (3.7):
F
[a<b
(x) =
P
_
( x) (a < b)
_
P(a < b)
=
P
_
( x) (a < b)
_
F

(b) F

(a)
. (3.9)
Pentru x < a, avem x a < b = , si deci:
F
[a<b
(x) = 0.
Pentru x (a, b] avem x a < b = a < x, iar (3.9) se scrie:
F
[a<b
(x) =
P(a < x)
F

(b) F

(a)
=
F

(x) F

(a)
F

(b) F

(a)
.
Pentru x > b, avem x a < b = a < b, de unde:
F
[a<b
(x) =
P(a < b)
F

(b) F

(a)
= 1.
Cat despre densitatea de probabilitate condit ionata, aplicand (3.8), avem:
w
[a<b
(x) =
_

_
0 daca x < a
w

(x)
F

(b)F

(a)
daca a < x b
0 daca x > b.
(3.10)
16 CAPITOLUL 3. VARIABILE ALEATOARE
a b
x
F
|{a<b}
(x)
F

(x)
1
w

(x)
w
|{a<b}
(x)
a
b
x
Figura 3.4: Distribut ii condit ionate.

In gura 3.4 sunt ilustrate funct ia de repartit ie si densitatea de probabilitate condit ionate
pentru o forma arbitrara a lui F

(x).
Sa observam din exemplul prezentat ca atat funct ia de repartit ie condit ionata cat
si densitatea de probabilitate condit ionata respecta toate proprietat ile unei funct ii de
repartit ie (descrise n paragraful 3.3) respectiv ale unei densitat i de probabilitate (para-
graful 3.4). Aceasta observat ie poate demonstrata pentru cazul general, pornind de la
denit iile (3.7) si (3.8).
3.6 Momente
Fie variabila aleatoare avand distribut ia w

4
. Se deneste momentul necentrat de ordin
k al variabilei aleatoare si se noteaza cu m
(k)

sau cu
k
valoarea integralei:
m
(k)

not
=
k
=

x
k
w

(x)dx k = 1, 2, . . . . (3.11)
Facem precizarea ca pentru anumite variabile aleatoare, ncepand cu un anumit ordin
k, momentele de ordin mai mare decat k pot innite
5
.
3
Aceasta justica denit ia variabilelor aleatoare discrete de la pagina 12: daca funct ia de repartit ie e
n trepte, atunci densitatea de probabilitate e o succesiune de impulsuri Dirac, deci este posibil numai
un numar nit sau numarabil de valori pentru variabilele aleatoare respective.
4

In restul lucrarii, vom folosi termenul distribut ie pentru a desemna o densitate de probabilitate.
5
De exemplu, pentru variabila aleatoare cu distribut ia.
w

(x) =
_
1
x
2
daca x 1
0 n rest
chiar si momentul de ordin unu este innit.
3.6. Momente 17
De o mare important a n studiul variabilelor aleatoare sunt momentele necentrate de
ordin unu si doi. Astfel, momentul necentrat de ordin unu, dat de:
=

xw

(x)dx (3.12)
se numeste media variabilei aleatore.
Momentul necentrat de ordin doi:

2
=

x
2
w

(x)dx (3.13)
se numeste media patratica a variabilei aleatoare.
Consideram utila n acest punct o discut ie referitoare la formulele de denit ie a mediei si mediei
patratice de mai sus.

In general, exista o accept iune foarte clara asupra not iunii de medie a unei variabile
aleatoare, ca ind media aritmetica a unui numar (de preferint a cat mai mare) de realizari particulare
ale variabilei aleatoare respective. Dupa cum vom arata n exemplul urmator, aceasta accept iune nu
contravine n nici un fel formulei (3.12). Revenind la experimentul 2 descris n paragraful 3.1 sa pre-
supunem ca dorim sa estimam valoarea mediei a rezistent ei electrice a rezistoarelor din cutia respectiva.

In acest sens, masuram toate valorile rezistent elor, si calculam valoarea medie aritmetica a acestora R
med
.
Sa presupunem ca, dispunand de un ohmmetru nu foarte precis, nu ret inem decat valoarea ntreaga a
rezistent elor (desi, teoretic, valoarea respectiva este de natura continua). Sa presupunem ca masuram
urmatoarele valori pentru ntreg setul de N = 1825 rezistoare:
Valoare rezistent a R
i
19 20 21 22 23 24 25
Numar rezistoare 89 211 432 501 342 171 79
Deci, valoarea medie a rezistent ei R
med
este:
R
med
=
1
N
N

i=1
R(r
i
) =
89 19 + 211 20 +. . . + 79 25
1825
= 19
89
1825
+ 20
211
1825
+. . . + 25
79
1825
.
(3.14)
Rapoartele puse n evident a n relat ia de mai sus reprezinta probabilitat ile diverselor valori posibile ale
rezistent ei electrice determinate experimental, pe setul de date disponibil (vezi relat ia (2.1)). Cu alte
cuvinte P(19)
89
1825
, P(20)
211
1825
etc. Putem, deci, rescrie pe (3.14) ca:
R
med

25

R
i
=19
R
i
P(R
i
). (3.15)
Considerand valoarea rezistent ei continua (cum, de fapt, si este) si nu discreta (cum am fost fort at i sa
o consideram din lipsa de mijloace materiale sucient de sensibile), variabila discreta R
i
se transforma
n R, continua, apoi suma

R
i
devine o integrala
_
R
, iar probabilitat ile P(R
i
) se nlocuiesc cu w(R)dR.
Putem, deci, scrie pe (3.15) ca:
R
med

_
R
Rw(R)dR. (3.16)
18 CAPITOLUL 3. VARIABILE ALEATOARE
Relat ia (3.16) arata faptul ca media aritmetica a unui numar de realizari particulare nu este altceva decat
un estimat al valorii medii (3.12), pe care-l facem n absent a cunostint elor despre marimile statistice
(densitate de probabilitate, etc.) ale variabilei aleatoare respective!
Se denesc, de asemenea, momentele centrate de ordin k ale variabilei aleatoare, notate
cu M
(k)

, ca ind:
M
(k)

not
=
_

_
k
=

(x )
k
w

(x)dx k = 2, 3, . . . . (3.17)
Momentul centrat de ordinul doi:
M
(2)

not
=
_

_
2
=

(x )
2
w

(x)dx (3.18)
se numeste variant a variabilei aleatoare, iar radacina patrata a acestuia se noteaza cu

si se numeste dispersia variabilei aleatoare:

=
_
M
(2)

. (3.19)
Dispersia unei variabile aleatoare (numita de asemenea si abatere medie patratica)
masoara gradul de mprastiere al valorilor variabilei aleatoare fat a de valoarea medie.
Cu cat dispersia este mai mica (sau mai mare), cu atat scade (respectiv creste) probabili-
tatea ca o realizare particulara a variabilei aleatoare sa ia o valoare care sa difere puternic
de valoarea medie

In practica, se obisnuieste a se nota variant a ca ind patratul dispersiei:


M
(2)

not
=
2

. (3.20)
Pornind de la formula variant ei (3.18), se poate demonstra o relat ie simpla ntre aceasta
pe de-o parte si media si media patratica a variabilei aleatoare pe de alta parte:

_
x
2
2x +
2
_
w

(x)dx
=

x
2
w

(x)dx
. .

2
2

xw

(x)dx
. .

+
2

(x)dx
. .
1
=
2
2
2
+
2
=
2

2
.
(3.21)
3.7 Tipuri de distribut ii
.

In acest paragraf, vom prezenta pe scurt diverse tipuri de distribut ii des ntalnite n
prelucrarea semnalelor:
3.7. Tipuri de distribut ii 19
3.7.1 Distribut ia uniforma
O variabil a aleatoare are o distribut ie uniforma n intervalul [a, b] daca densitatea ei de
probabilitate este de forma:
w

(x) =
_
1
ba
daca a x b
0 n rest.
. (3.22)
w

(x)
x
a
b
1/(ba)
w

(x)
x
m

2
>
1

(a) (b)

(x)
x
(c)
Figura 3.5: Tipuri de distribut ii ale variabilelor aleatoare: (a) uniforma, (b) normala,
(c) Rayleigh.
Gracul densitat ii de probabilitate uniforme este prezentat n gura 3.5.(a). Forma
distribut iei indica faptul ca o variabila aleatoare uniforma poate lua cu aceeasi probabili-
tate orice valoare n intervalul [a, b], dar nu poate lua nici o valoare n exteriorul acestuia.
Prin calcul direct, se arata ca media si dispersia distribut iei uniforme sunt: =
a+b
2
si

=
ba
2

3
.
Distribut ia uniforma modeleaza destule fenomene reale de interes (cum ar , spre
exemplu, eroarea obt inuta la cuantizarea uniforma cu un numar sucient de mare de
nivele).
20 CAPITOLUL 3. VARIABILE ALEATOARE
3.7.2 Distribut ia gaussiana (normala)
Se zice ca o variabila aleatoare este distribuita dupa o lege normala (sau gaussiana) de
parametri m R si > 0 (si se noteaza : ^(m, )) daca densitatea ei de probabilitate
este data de:
w

(x) =
1

2
exp
_

(x m)
2
2
2
_
. (3.23)
Gracul distribut iei gaussiene (cunoscut si sub numele de clopotul lui Gauss) este
prezentat n gura 3.5.(b) pentru doua valori diferite ale parametrului . Se observa ca
pe masura de creste, clopotul se aplatizeaza si, n acelasi timp, se lat este.
Prin calcul, se determina ca media si dispersia distribut iei normale sunt = m, res-
pectiv

= . Asadar, semnicat ia celor doi parametri de care depinde gaussiana este


de medie si dispersie a variabilei aleatoare distribuite dupa o astfel de lege
6
.
Distribut ia normala este cu sigurant a cea mai importanta n studiul prelucrarii statis-
tice a semnalelor. Ipoteza de normalitate a distribut iei multor fenomene reale este
justicata de o teorema (numita teorema limita centrala) despre care vom discuta mai pe
larg n capitolul 4.
3.7.3 Distribut ia Rayleigh
Distribut ia Rayleigh este data de relat ia:
w

(x) =
_
x

2
exp
_

x
2
2
2
_
daca x 0
0 n rest.
. (3.24)
si este ilustrata n gura 3.5.(c).
Media si dispersia variabilei distribuite dupa o lege Rayleigh sunt =
_

2
, respectiv

=
_
4
2
.
3.8 Funct ii de o variabila aleatoare
Fie o variabila aleatoare cu distribut ie w

cunoscuta, si e g : R R o funct ie de
asemenea cunoscuta. Aplicand funct ia g variabilei , obt inem o alta variabila aleatoare,
pe care-o notam = g(). Problema pe care ne propunem sa o rezolvamn acest paragraf
este calculul densitat ii de probabilitate a variabilei aleatoare transformate w

pe baza
cunostint elor pe care le avem despre distribut ia variabilei init iale w

si despre funct ia de
transformare g.
6
Se poate ilustra aici armat ia enunt ata anterior despre semnicat ia dispersiei: cu cat creste, cu atat
clopotul este mai plat, deci creste probabilitatea ca variabila sa devieze mult n stanga si dreapta mediei.
Invers, pe masura ce scade, clopotul se ngusteaza, deci probabilitatea ca sa ia valori puternic deviate
fat a de medie scade. S-a calculat ca pentru distribut ia gaussiana, probabilitatea ca variabila aleatoare
sa devieze cu mai mult de 3 fat a de valoarea medie este de 0, 3%: P(m3 m+ 3) = 99, 7%
indiferent de .
3.8. Funct ii de o variabila aleatoare 21
Sa ilustram la nceput problema pe un exemplu oarecare. Fie funct ia g(x) avand
gracul prezentat n gura 3.6. Variabila aleatoare ia valori pe axa Ox, n timp ce
= g() pe axa Oy.
y
1

x
1

y
1

x
1

x
2
x
3
g(x)
x
Figura 3.6: Exemplicarea problemei funct iilor de o variabila aleatoare.
Se observa, pentru valorile din gura ca, spre exemplu:
F

(y
t
1
) = P( y
t
1
) = P( x
t
1
) = F

(x
t
1
)

g(x

1
)=y

1
F

(y
1
) = P( y
1
) = P
_
( x
1
) (x
2
x
3
)
_
= F

(x
3
) F

(x
2
) + F

(x
1
)

g(x
1
)=g(x
2
)=g(x
3
)=y
1
Astfel, se vede ca pentru y R, valoarea funct iei de repartit ie a lui n punctul
respectiv F

(y) poate scrisa n funct ie de valorile funct iei de repartit ie a variabilei


init iale F

n punctele care sunt solut ii ale ecuat iei g(x) = y.

In continuare vom demonstra urmatoarea teorema:


Teorema. Fie o variabila aleatoare cu distribut ie w

cunoscuta, si e = g(), cu
g(x) o funct ie cunoscuta. Atunci, pentru y R cu proprietatea ca ecuat ia g(x) = y are
un numar nit sau cel mult numarabil de solut ii, pe care le notam cu x
1
, x
2
, . . ., are loc
relat ia:
w

(y) =

k
w

(x
k
)
[g
t
(x
k
)[
(3.25)
22 CAPITOLUL 3. VARIABILE ALEATOARE
Demonstrat ie. Sa revenim la exemplul considerat anterior. Se observa din gura 3.7 ca
ecuat ia g(x) = y
1
admite trei solut ii: x
1
, x
2
, x
3
. Sa consideram n continuare valoarea
y
1
+dy
1
. Ecuat ia g(x) = y
1
+dy
1
admite si ea trei solut ii, pe care le notam x
1
+dx
1
, x
2
+
dx
2
, x
3
+ dx
3
(vezi gura 3.7).
y
1

x
1

x
2
x
3

g(x)
x
x
1
+dx
1

x
2
+dx
2

x
3
+dx
3

y
1
+dy
1

Figura 3.7: Ecuat ia g(x) = y
1
are solut iile x
1
, x
2
si x
3
.

In continuare, putem scrie:


P(y
1
< y
1
+ dy
1
) = P
_
(x
1
< x
1
+ dx
1
) (x
2
+ dx
2
< x
2
) . . .
. . . (x
3
< x
3
+ dx
3
)
_
, (3.26)
relat ie care este evidenta prin observarea gurii, unde intervalele care intervin sunt scoase
n evident a. Se observa, de asemenea, ca dx
2
< 0, ntrucat x
2
se aa pe o panta negativa
a funct iei (adica g
t
(x
2
) < 0).
Valoarea lui dy
1
poate facuta sucient de mica astfel ncat intervalele (x
i
, x
i
+ dx
i
]
sa nu se suprapuna, oricat de apropiate ar x
i
de x
j
7
.

In consecint a, evenimentele
x
i
< x
i
+ dx
i
sunt incompatibile, si, aplicand axioma a treia a probabilitat ilor,
7

In aceasta presupunere intervine necesitatea ca numarul solut iilor ecuat iei g(x) = y sa e nit, sau
cel mult numarabil.

In caz contrar, de exemplu, daca solut ia ecuat iei g(x) = y ar un ntreg interval
[a, b], atunci nu s-ar mai putea face ipoteza nesuprapunerii intervalelor (x
i
, x
i
+ dx
i
] oricat de mic s-ar
face dx
i
.
3.8. Funct ii de o variabila aleatoare 23
avem:
P(y
1
< y
1
+ dy
1
) = P(x
1
< x
1
+ dx
1
) + P(x
2
+ dx
2
< x
2
) + . . .
. . . + P(x
3
< x
3
+ dx
3
). (3.27)
Cand dy
1
, putem aplica formula (3.6), si, n consecint a, relat ia (3.27) devine:
w

(y
1
)dy
1
= w

(x
1
)dx
1
+ w

(x
2
) [dx
2
[ + w

(x
3
)dx
3
. (3.28)
Este evidenta necesitatea de a-l lua pe dx
2
n modul n relat ia de mai sus, ntrucat termenul
respectiv trebuie sa e pozitiv (reprezinta o probabilitate).
Pe de alta parte, cum x
1
,x
2
si x
3
sunt solut iile ecuat iei g(x) = y
1
, putem scrie:
y
1
= g(x
1
) = g(x
2
) = g(x
3
), (3.29)
de unde, prin diferent iere, obt inem:
dy
1
= g
t
(x
1
)dx
1
= g
t
(x
2
)dx
2
= g
t
(x
3
)dx
3
. (3.30)

Inlocuind dx
i
cu
dy
1
g

(x
i
)
n ecuat ia (3.28) si simplicand pe dy
1
, obt inem:
w

(y
1
) =
w

(x
1
)
g
t
(x
1
)
+
w

(x
2
)
[g
t
(x
2
)[
+
w

(x
3
)
g
t
(x
3
)
. (3.31)
care, t inand cont ca atat g
t
(x
1
) cat si g
t
(x
3
) sunt pozitive, deci pot nlocuite cu modulul
lor, reprezinta exact relat ia ce trebuia demonstrata!
Trebuie sa observam ca rat ionamentul poate reluat n mod identic pentru orice forma
a gracului funct iei g(x), ceea ce face ca demonstrat ia de mai sus sa e valabila n cazul
general.
Exemplu. Sa se calculeze distribut ia variabilei aleatoare = a +b, cu a, b R, a ,= 0,
n funct ie de distribut ia variabilei aleatoare .
Rezolvare. Funct ia de trecere ntre cele doua variabile este funct ia g(x) = ax + b.
Pentru y R, ecuat ia g(x) = y admite o singura solut ie, si anume x
1
=
yb
a
. Cum
g
t
(x) = a, relat ia (3.25) se scrie:
w

(y) =
w

(x
1
)
[g
t
(x
1
)[
=
1
[a[
w

_
y b
a
_
. (3.32)

In particular, daca are o distribut ie uniforma sau gaussiana, rezulta din relat ia de
mai sus ca si are acelasi tip de distribut ie, dar cu parametri modicat i.
Exemplu. Sa se calculeze distribut ia variabilei aleatoare = cos(), unde este o
variabila aleatoare distribuita uniform n intervalul [0, 2].
24 CAPITOLUL 3. VARIABILE ALEATOARE
x
1
y
g(x)=cos(x)
x
x
2
x
2
1
1

x
0

x
1

Figura 3.8: Funct ia g : R [1, 1] g(x) = cos(x).


Rezolvare. Gracul funct iei g este prezentat n gura 3.8. Se observa ca pentru
y , [1, 1], ecuat ia g(x) = y nu admite nici o solut ie, si, deci, w

(y) = 0.
Pentru y [1, 1], nsa, ecuat ia g(x) = y admite o innitate numarabila de solut ii (v.
gura 3.8), date de
8
:
x
k
=
_
arccos(y) + k pentru k = 2l
arccos(y) + (k + 1) pentru k = 2l + 1
. (3.33)
Observ and, n plus, ca g
t
(x) = sin(x), relat ia (3.25) poate scrisa:
w

(y) =

kZ
w

(x
k
)
[ sin(x
k
)[
. (3.34)
Mai ramane de calculat valoarea densitat ii de probabilitate w

n toate punctele x
k
date
de (3.33). Conform (3.22), distribut ia lui este data de:
w

(x) =
_
1
2
daca x [0, 2]
0 n rest
. (3.35)
Deci, trebuie sa identicamn continuare acele valori x
k
din intervalul [0, 2], interval pe
care valoarea funct iei w

este nenula. Reamintindu-ne ca funct ia arccos : [1, 1] [0, ],


rezulta ca nu exista decat doua valori x
k
n intervalul cautat, respectiv x
0
= arccos(y)
si x
1
= 2 arccos(y). Avand n vedere ca w

(x
k
) = 0 pentru k , 0, 1, relat ia (3.34)
devine:
w

(y) =
w

(x
0
)
[g
t
(x
0
)[
+
w

(x
1
)
[g
t
(x
1
)[
=
w

(arccos(y))
[sin(arccos(y))[
+
w

(2 arccos(y))
[sin(2 arccos(y))[
. (3.36)
8
Relat ia de mai jos poate scrisa mai compact, dar mai put in riguros matematic, sub forma
x
k
= arccos(y) + 2k, cu k Z
3.8. Funct ii de o variabila aleatoare 25
T inand, n plus, cont ca sin(arccos y) =
_
1 y
2
, avem:
w

(y) =
1
2
_
1 y
2
+
1
2
_
1 y
2
=
1

_
1 y
2
. (3.37)

In concluzie, am aratat ca:


w

(y) =
_
1

1y
2
pentru x [1, 1]
0 n rest
. (3.38)
Gracul funct iei (3.38) este dat n gura 3.9.
1
1
y
w

(y)
1/
Figura 3.9: Gracul funct iei w

(y) data de relat ia 3.38.


Cazul solut iilor nenumarabile.

In continuare, ne vom ocupa cu discut ia cazului n care teorema (3.25) nu poate aplicata,
respectiv cazul acelor y
i
R pentru care ecuat ia g(x) = y
i
are ca solut ie unntreg interval
din R: x [a, b], g(x) = y
i
.
Situat ia va discutata pe un exemplu. Fie = g(), cu g(x) data de
g(x) =
_
_
_
a daca x < a
x daca a x a
a daca x > a
. (3.39)
si ilustrata n gura 3.10. Presupunem ca are o distribut ie w

(x) cunoscuta, dar nespe-


cicata.
26 CAPITOLUL 3. VARIABILE ALEATOARE
g(x)
x
a
a
a
a
y
y
Figura 3.10: Funct ia g(x) data de (3.39) .
Se observa ca funct ia g are doua paliere, adica atat pentru y
1
= a cat si pentru y
2
= a,
solut ia ecuat iei g(x) = y
1
(respectiv g(x) = y
2
) este intervalul (, a] (respectiv [a, ))
care sunt mult imi nenumarabile.
Vom proceda, la fel ca si n exemplul dat la nceputul acestui paragraf, prin a calcula
valorile funct iei de repartit ie a variabilei transformate F

.
Se poate constata cu usurint a urmarind gracul funct iei g din gura 3.10 ca:
y < a, F

(y) = P( y) = 0
y = a, F

(a) = P( a) = P( a) = F

(a)
y (a, a), F

(y) = P( y) = P( y) = F

(y)
y = a, F

(a) = P( a) = P( ) = 1
y > a, F

(y) = P( y) = P( ) = 1
Sintetizand, avem:
F

(y) =
_
_
_
0 daca y < a
F

(y) daca a y < a


1 daca y a
. (3.40)

In coloana din stanga a gurii 3.11 sunt prezentate grac funct ia de repartit ie a lui
(de o forma arbitrara) si cea a lui . Scopul acestei reprezentari grace este ilustrarea
aparit iei unor discontinuitat i n funct ia de repartit ie a variabilei transformate F

exact n
punctele speciale y
1
= a si y
2
= a.
3.8. Funct ii de o variabila aleatoare 27
1
F

(y)
y
a a
w

(y)
y
a a
1
F

(y)
y
)
)
[
[
a
a
F

(a)
F

(a)
w

(y)
y
a a
F

(a)(x+a) (1F

(a))(xa)
Figura 3.11: Funct iile de repartit ie si densitat ile de probabilitate ale lui si = g(x).
Aceste discontinuitat i din funct ia de repartit ie vor conduce, dupa cum am discutat n
detaliu n paragraful 3.4, la aparit ia n densitatea de probabilitate w

a unor impulsuri
Diracn punctele respective, de arie egala cu amplitudinea saltului facut de F

. Densitat ile
de probabilitate ale lui si sunt prezentate n coloana din dreapta din gura 3.11. Se ob-
serva ca ariile celor doua impulsuri Dirac sunt F

(a) = P( a) = P( (, a])
pentru cel localizat n punctul y
1
= a, respectiv 1 F

(a) = P( a) = P( [a, ))
pentru impulsul din y
2
= a. Din toate acestea, putem trage urmatoarea concluzie:
Pentru acei y
i
R pentru care solut ia ecuat iei g(x) = y
i
este un interval [a, b], n
densitatea de probabilitate a variabilei transformate w

va aparea un impuls Dirac n


punctul y = y
i
de arie egala cu probabilitatea P( [a, b]) = F

(b) F

(a).
Cu alte cuvinte, devine nenula P( = y
i
), ceea ce e normal: ntrucat g(x) = y
i
x
[a, b], atunci = y
i
cu aceeasi probabilitate cu care [a, b]!
Exemplu. Sa se arate ca aplicand unei variabile aleatoare continue oarecare nsasi
funct ia ei de repartit ie F

, se obt ine o variabila aleatoare uniforma n [0,1].


28 CAPITOLUL 3. VARIABILE ALEATOARE
Rezolvare. Trebuie, deci, demonstrat ca variabila aleatoare = F

() are distribut ie
uniforma n [0, 1] pentru orice forma a funct iei de repartit ie F

(cu singura constrangere


ca aceasta sa e continua pe R).
Desi, la o prima vedere, problema nu pare a rezolvabila din lipsa de date suciente
(nu se cunoaste funct ia de transformare g!!), totusi, ea admite solut ie, iar demonstrat ia
este extrem de utila pentru nt elegerea mai profunda a problemei funct iilor de variabile
aleatoare.
Sa ncepem prin a observa ca, datorita faptului ca F

: R [0, 1], pentru y , [0, 1],


ecuat ia F

(x) = y nu are solut ii reale, si, deci, w

(y) = 0.
Pentru y [0, 1], trebuie determinat numarul de solut ii ale ecuat iei F

(x) = y. Ne
vom reaminti ca funct ia de repartit ie a oricarei variabile aleatoare este crescatoare pe
R (proprietatea 3). Daca F

ar strict crescatoare, problema ar rezolvata, pentru


ca funct iile strict monotone sunt bijective, si, deci, ecuat ia F

(x) = y ar avea o singura


solut ie y [0, 1] si F

. Totusi, funct ia este numai crescatoare, ceea ce nseamna ca


poate admite port iuni pe R n care stagneaza, mai precis, F

(y) poate avea paliere,


oricat de multe, si oricat de ntinse! Rezolvarea s-ar opri aici, din lipsa de suciente date,
daca nu am observa ca un interval din R pe care F

are palier este un interval n care


variabila nu poate lua valori !

Intr-adevar:
F

(x) = y
1
x [a, b] P( [a, b]) = F

(b) F

(a) = y
1
y
1
= 0.
Or, sa nu uitam ca noi aplicam funct ia F

nsasi variabilei aleatoare . Rezulta, deci, ca


ne intereseaza numai restrict ia funct iei F

la intervalele n care ia valori, adica intervalele


pe care w

(x) > 0, adica intervalele pe care funct ia F

este strict crescatoare. Figura 3.12


prezinta un exemplu.
w

(x)
x
x
1
x
2
x
3
x
4

F

(x)
1
x
x
1
x
2
x
3
x
4

Figura 3.12: O funct ie de densitate de probabilitate w

arbitrara, si funct ia de repartit ie


F

corespunzatoare. Se observa ca variabila aleatoare ia valori numai pe reuniunea de


intervale [x
1
, x
2
] [x
3
, x
4
].

Intrucat = F

(), de interes e numai restrict ia funct iei de


repartit ie la intervalele respective (hasurate n gura): F

: ([x
1
, x
2
] [x
3
, x
4
]) [0, 1].
Astfel denita, funct ia de repartit ie e strict crescatoare.
3.9. Teorema de medie 29

Intrucat am decis asupra faptului ca funct ia de trecere este strict crescatoare, ea este
bijectiva, deci y
1
[0, 1], !x
1
astfel ncat y
1
= F

(x
1
). Aplicand relat ia (3.25), avem:
w

(y
1
) =
w

(x
1
)

F
t

(x
1
)

=
w

(x
1
)
[w

(x
1
)[
=
w

(x
1
)
w

(x
1
)
= 1.

In dezvoltarea de mai sus, am folosit faptul ca derivata funct iei de repartit ie este ns asi
densitatea de probabilitate, si ca aceasta este pozitiva, deci este egala cu modulul ei.
Sintetizand, am aratat ca:
w

(y) =
_
1 daca y [0, 1]
0 n rest
,
ceea ce termina demonstrat ia noastra.
3.9 Teorema de medie
Teorema de medie pe care o vom enunt a si demonstra n acest paragraf permite calculul
mediei variabilei aleatoare transformate fara a-i mai calcula acesteia distribut ia, ci di-
rect din distribut ia variabilei int iale si din funct ia de trecere dintre cele doua variabile
aleatoare.
Teorema. Fie = g(). Atunci, media lui poate calculata ca:
=

g(x)w

(x)dx. (3.41)
Demonstrat ie. Sa revenim la situat ia ilustrata n gura 3.7.

Inmult ind relat ia (3.28) cu
y
1
, si t inand cont de (3.29), avem:
y
1
w

(y
1
)dy
1
= g(x
1
)w

(x
1
)dx
1
+ g(x
2
)w

(x
2
) [dx
2
[ + g(x
3
)w

(x
3
)dx
3
. (3.42)
Valoarea medie a lui poate scrisa:

j
dy
j
=R
y
j
w

(y
j
)dy
j

dy
j
0

yw

(y)dy, (3.43)
cu alte cuvinte, valoarea se obt ine sumand toate cantitat ile de tip y
j
w

(y
j
)dy
j
pentru
dy
j
baleind ntreaga axa reala Oy. Dar suma tuturor cantitat ilor y
j
w

(y
j
)dy
j
poate
scrisa, conform relat iei (3.42) cu o suma de cantitat i de tip g(x
i
)w

(x
i
)dx
i
.

Intrucat g
este o funct ie, care, prin denit ie, aloca ecarui x un y si numai unul, putem arma ca
n suma respectiva de cantitat i de tip g(x
i
)w

(x
i
)dx
i
, ecare va aparea o data si numai
o data. Cu alte cuvinte, cand dy
j
va baleia axa Oy, dx
i
va baleia axa Ox! Chiar daca
30 CAPITOLUL 3. VARIABILE ALEATOARE
unei cantit at i y
j
w

(y
j
)dy
j
i pot corepunde nici una, una sau mai multe cantitat i de tipul
g(x
i
)w

(x
i
)dx
i
, invers, putem spune ca unei cantitat i g(x
i
)w

(x
i
)dx
i
i va corespunde o
singura cantitate y
i
w

(y
i
)dy
i
si numai una! Deci, putem scrie:

j
dy
j
=R
y
j
w

(y
j
)dy
j

i
dx
i
=R
g(x
i
)w

(x
i
)dx
i
, (3.44)
de unde, prin trecere la limita:
=

yw

(y)dy =

g(x)w

(x)dx. (3.45)
Observat ie. Desi demonstrat ia teoremei s-a facut n ipoteza particulara a unui numar
cel mult numarabil de solut ii ale ecuat iei g(x) = y, relat ia (3.41) este valabila pentru orice
funct ie g(x).
Exemplu. Sa se calculeze media lui = a +b cu a, b R. Conform teoremei de medie,
putem scrie:
=

(ax + b)w

(x)dx = a

xw

(x)dx
. .

+ b

(x)dx
. .
1
= a + b. (3.46)
Spre exemplu, pentru b = 0, se poate scrie:
a = a, (3.47)
ceea ce se interpreteaza n sensul ca nmult irea cu o constanta comuta cu medierea statis-
tica (altfel spus, constantele ies n afara operat iei de mediere). De-a lungul acestei
lucrari, vom face de mai multe ori apel la acest rezultat.
Capitolul 4
Caracterizarea unei perechi de
variabile aleatoare
4.1 Introducere

In capitolul precedent, am discutat despre caracterizarea statistica a unei variabile


aleatoare. Daca avem doua variabile aleatoare, caracterizarea ecareia dintre ele n parte
cu marimile mai sus ment ionate permite descrierea completa a comportamentului vari-
abilei respective independent de cealalta variabila. Cu alte cuvinte, nu avem sucienta
informat ie pentru a putea evalua eventuala interdependent a statistica ntre cele doua
variabile considerate. Aceasta interdependent a poate studiata numai folosind marimi
statistice de ordinul doi, specice perechii de variabile aleatoare. Vom arata ca aceasta
caracterizare de ordinul doi a unei perechi de variabile aleatoare este sucient de com-
pleta, ea ngloband, ca un caz particular, caracterizarea de ordinul unu a ecareia dintre
cele doua variabile aleatoare.
4.2 Funct ia de repartit ie de ordinul doi
Fie si doua variabile aleatoare. Se deneste funct ia de repartit ie de ordinul doi a
perechii de variabile aleatoare ca ind F

: R
2
[0, 1], cu expresia data de:
F

(x, y) = P (( x) ( y)) . (4.1)


Cu alte cuvinte, valoarea funct iei de repartit ie de ordinul doi ntr-un punct (x
0
, y
0
) R
2
reprezinta probabilitatea ca, n acelasi timp, sa e mai mic decat x
0
si mai mic decat
y
0
; altfel spus, probabilitatea ca punctul (, ) sa se ae n domeniul D R
2
gurat n
gura 4.1.
Proprietat ile funct iei de repartit ie de ordinul doi
1. F

(, y) = F

(x, ) = 0.
31
32 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
y
DR
2

x
x
0

y
0

Figura 4.1: Domeniul de valori al punctului (, ).
Aceasta proprietate este evidenta, avandn vedere ca evenimentele , respec-
tiv sunt de probabilitate zero.
2. F

(, ) = 1.
Iarasi, o proprietate evidenta: conform denit iei, F

(, ) reprezinta probabili-
tatea ca si sa ia concomitent valori n R, ceea ce reprezinta evenimentul sigur.
3. F

(x, ) = F

(x), respectiv F

(, y) = F

(y).
Demonstrat ie. F

(x, ) = P (( x) ( )) = P( x) = F

(x).
Aceasta proprietate este foarte importanta, ntrucat demonstreaza ceea ce am
enunt atn introducere, si anume faptul ca marimile statistice de ordinul unu specice
ecareia dintre variabilele aleatoare pot obt inute ca un caz particular al marimilor
de ordinul doi ale perechii de variabile aleatoare.
4. P((x
1
< x
2
)(y
1
< y
2
)) = F

(x
2
, y
2
)F

(x
1
, y
2
)F

(x
2
, y
1
)+F

(x
1
, y
1
).
Demonstrat ie. Avem
P((x
1
< x
2
) (y
1
< y
2
)) =
= P((x
1
< x
2
) ( y
2
)) P((x
1
< x
2
) ( y
1
))
Apoi, observam ca ecare dintre cei doi termeni de mai sus poate la randul sau
4.3. Densitatea de probabilitate de ordinul doi 33
descompus:
P((x
1
< x
2
) ( y
2
)) = P(( x
2
) ( y
2
)) P((x
1
< ) ( y
2
))
= F

(x
2
, y
2
) F

(x
1
, y
2
),
respectiv
P((x
1
< x
2
) ( y
1
)) = P(( x
2
) ( y
1
)) P((x
1
< ) ( y
1
))
= F

(x
2
, y
1
) F

(x
1
, y
1
).
Apoi, prinnlocuirea relat iilor de mai sus, obt inem rezultatul ce trebuia demonstrat.
4.3 Densitatea de probabilitate de ordinul doi
Se deneste densitatea de probabilitate de ordinul doi a perechii de variabile aleatoare
(, ) ca:
w

(x, y) =

2
F

(x, y)
xy
. (4.2)
Explicitand formula derivatei, putem scrie:
F

(x, y)
x
= lim
x0
F

(x + x, y) F

(x, y)
x
,
dupa care:
w

(x, y) =

2
F

(x, y)
xy
=

_
F

(x,y)
x
_
y
=

_
lim
x0
F

(x+x,y)F

(x,y)
x
_
y
= lim
x0
F

(x+x,y)
y

F

(x,y)
y
x
= lim
x0
lim
y0
F

(x+x,y+y)F

(x+x,y)
y
lim
y0
F

(x,y+y)F

(x,y)
y
x
= lim
x0
lim
y0
F

(x + x, y + y) F

(x + x, y) F

(x, y + y) + F

(x, y)
xy
,
adica, t inand cont de proprietatea 4 a funct iei de repartit ie de ordinul doi, putem scrie:
w

(x, y) = lim
x0
lim
y0
P (( (x, x + x]) ( (y, y + y]))
xy
. (4.3)
Relat ia (4.3) poate rescrisa ca:
w

(x, y)xy
x,y
P
_
( (x, x + x]) ( (y, y + y])
_
. (4.4)
Relat ia (4.4) poate interpretata la fel ca si n cazul unidimensional: cu ajutorul
densitat ii de probabilitate de ordinul doi w

se poate calcula probabilitatea ca, n acelasi


timp, sa se ae n intervalul innitezimal (x, x + x] iar sa se ae n intervalul
(y, y+y], iar aceasta probabilitate este data de volumul de sub gracul funct iei densitate
de probabilitate delimitat de domeniul (x, x + x] (y, y + y].
34 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
Proprietat ile densitat ii de probabilitate de ordinul doi
1. w

(x, y) 0, (x, y) R
2
.
2. Pentru orice domeniu D R
2
care reprezinta un eveniment, P
_
(, ) D
_
=
__
D
w

(x, y)dxdy.
Demonstrat ie. Orice domeniu plan D poate descompus ca o reuniune de sub-
domenii innitezimale dreptunghiulare nesuprapuse (x
i
, x
i
+ x
i
] (y
j
, y
j
+ y
j
],
dupa cum este aratat n gura 4.2.
x
y
DR
2




[x
i
,x
i
+ x
i
] [y
j
,y
j
+ y
j
]
Figura 4.2: Descompunerea unui domeniu plan ntr-o reuniune de subdomenii innitez-
imale nesuprapuse.
Atunci, se poate scrie:
P((, ) D) P
_
(, )
_
i
_
j
([x
i
, x
i
+ x
i
] [y
j
, y
j
+ y
j
])
_
=

j
P
_
( [x
i
, x
i
+ x
i
]) ( [y
j
, y
j
+ y
j
])
_
,
(4.5)
ceea ce, t inand cont de (4.4), devine:
P((, ) D)

j
w

(x
i
, y
j
)x
i
y
j
.
Facand x
i
0 si y
j
0 n relat ia de mai sus, se obt ine, evident, relat ia pe care
trebuia sa o demonstram.
3. Condit ia de normare a densitat ii de probabilitate de ordinul doi:
__
R
2
w

(x, y)dxdy = 1
4.3. Densitatea de probabilitate de ordinul doi 35
.
Demonstrat ie. Se scrie proprietatea 2 pentru D = R
2
.
4. F

(x, y) =
x
_

y
_

(u, v)dudv.
Demonstrat ie. Se scrie proprietatea 2 pentru D = (, x] (, y] si se t ine
cont de (4.1).
5. Calculul densitat ilor de probabilitate de ordinul unu (numite, n acest context, den-
sitat i marginale), n funct ie de densitatea de probabilitate de ordinul doi:
w

(x) =

(x, y)dy (4.6a)


w

(y) =

(x, y)dx (4.6b)


Demonstrat ie. Vom demonstra numai prima dintre relat iile de mai sus, cealalta
demonstrandu-se analog. Se scrie proprietatea 4 a densitat ii de probabilitate pentru
y = , si, t inand cont de proprietatea 3 a funct iei de repartit ie, rezulta:
F

(x) = F

(x, ) =
x
_

(u, v)dudv, (4.7)


de unde:
w

(x) =
dF

(x)
dx
=
d
dx
x
_

(u, v)dudv =

(x, v)dv. (4.8)

In deducerea relat iei de mai sus s-a t inut cont de faptul ca, pentru o funct ie oarecare
f(x), are loc relat ia
d
dx
x
_
a
f(u)du = f(x). (4.9)
Aceasta proprietate ne arata clar cat de multa informat ie suplimentara ne aduce
caracterizarea de ordinul doi a perechii de variabile aleatoare fat a de caracterizarea
de ordinul unu a ecareia dintre variabile. Practic, interpretarea relat iilor (4.6a)
si (4.6b) este aceea ca densitat ile de probabilitate marginale se obt in prin proiect ia
funct iei densitate de probabilitate de ordinul doi pe ecare dintre cele doua axe.
Este clar ca doua funct ii unidimensionale obt inute prin proiect ie nu pot cont ine la
fel de multa informat ie ca funct ia bidimensionala care a fost proiectata. Rezulta ca,
n general, nu se poate determina densitatea de probabilitate de ordinul doi pornind
de la cele doua distribut ii de ordinul unu!
36 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
4.4 Distribut ii condit ionate

In foarte multe situat ii din practica, este de interes cunoasterea distribut iei lui atunci
cand ia o anumita valoare x, respectiv w
[=x
(y). Aplicarea directa a denit iei (3.8)
nu este posibila, ntrucat n general, dupa cum am aratat n capitolul 3, P( = x) = 0.
Totusi, densitatea respectiva poate denita printr-o trecere la limita. Sa consideram
mai ntai evenimentul A = x
1
< x
2
. Conform (3.7), avem:
F
[x
1
<x
2

(y) =
P
_
( y) (x
1
< x
2
)
_
P(x
1
< x
2
)
=
F

(x
2
, y) F

(x
1
, y)
F

(x
2
) F

(x
1
)
. (4.10)

In relat ia de mai sus, am aplicat proprietatea 4 a funct iei de repartit ie de ordinul doi.
Prin derivare dupa y, obt inem:
w
[x
1
<x
2

(y) =
dF
[x
1
<x
2

(y)
dy
=
F

(x
2
,y)
y

F

(x
1
,y)
y
F

(x
2
) F

(x
1
)
. (4.11)
T inand cont de proprietatea 4 a densitat ii de probabilitate de ordinul doi si de relat ia (4.9),
putem scrie:
F

(x, y)
y
=

x
_

y
_

(u, v)dudv
y
=
x
_

(u, y)du, (4.12)


de unde (4.11) se scrie:
w
[x
1
<x
2

(y) =
x
2
_

(u, y)du
x
1
_

(u, y)du
F

(x
2
) F

(x
1
)
=
x
2
_
x
1
w

(u, y)du
F

(x
2
) F

(x
1
)
. (4.13)
Alegand x
1
= x, respectiv x
2
= x + x, putem rescrie pe (4.13) sub forma:
w
[x<x+x
(y) =
x+x
_
x
w

(u, y)du
F

(x + x) F

(x)

x
w

(x, y)x
w

(x)x
. (4.14)
Putem, deci, scrie ca:
w
[=x
(y) =
w

(x, y)
w

(x)
. (4.15)
Pentru un x
1
xat, funct ia w

(x
1
, y) este o curba ce reprezinta intersect ia ntre
suprafat a w

(x, y) cu planul x = x
1
(dupa cum este ilustrat n gura 4.3). Interpretarea
relat iei (4.15) este ca densitatea de probabilitate w
[=x
1

(y) reprezinta ecuat ia curbei


respective normalizate cu w

(x
1
), astfel ncat sa devina de arie unitara.
Evident, relat ia (4.15) poate scrisa n mod similar si pentru cealalta variabila
aleatoare. Putem, deci, scrie ca:
w

(x, y) = w
[=y
(x)w

(y) = w
[=x
(y)w

(x). (4.16)
interpretarea funct iei w
[=y
ind de intersect ie a suprafet ei w

(x, y) cu planul y =
constant.
4.5. Variabile aleatoare independente 37
w

(x,y)
x
y
x
y
x
1

w

(x
1
,y)
Figura 4.3: O densitate de probabilitate de ordinul doi si intersect ia ei cu planul x = x
1
.
4.5 Variabile aleatoare independente
Prin denit ie, doua variabile aleatoare si sunt independente daca evenimentele x
si y sunt independente pentru orice x si y n R. Reamintindu-ne denit ia a doua
evenimente independente (2.5), avem:
F

(x, y) = P
_
( x) ( y)
_
= P( x)P( y) = F

(x)F

(y), (4.17)
de unde, prin derivare dupa x si y, obt inem:
w

(x, y) = w

(x)w

(y). (4.18)
Evident, n ipoteza de independent a, relat iile (4.16) si (4.15) devin:
w
[=y
(x) = w

(x), (4.19)
w
[=x
(y) = w

(y). (4.20)
Trebuie remarcat faptul ca independent a este singura ipoteza n care cunoasterea celor
doua distribut ii de ordinul unu este sucienta pentru determinarea distribut iei de ordinul
doi a perechii de variabile aleatoare.
4.6 O funct ie de doua variabile aleatoare. Teorema
limita centrala.
Presupunem ca avem doua variabile aleatoare si , avand distribut ia de ordinul doi
w

cunoscuta. Obt inem variabila aleatoare aplicand funct ia g : R


2
R (cunoscuta)
variabilelor aleatoare si :
= g(, ). (4.21)
38 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
La fel ca si n capitolul 3, ne punem problema calculului densitat ii de probabilitate w

a variabilei aleatoare transformate n funct ie de distribut ia de ordinul doi a variabilelor


aleatoare init iale w

si de funct ia de trecere g. Avem urmatoarele relat ii:


F

(z) = P( z) = P
_
(, ) D
z
_
, (4.22)
cu
D
z
=
_
(x, y) R
2

g(x, y) z
_
. (4.23)
Trebuie, deci, determinat domeniul D
z
din (4.23), dupa care relat ia (4.22) poate
scrisa (t in and cont de proprietatea 2 a densitat ii de probabilitate de ordinul doi):
F

(z) =
__
D
z
w

(x, y)dxdy, (4.24)


iar apoi
w

(z) =
dF

(z)
dz
=
d
dz
__
D
z
w

(x, y)dxdy. (4.25)


Problema care ramane de rezolvat este determinarea domeniului D
z
pentru ecare
z R, operat iune care necesita o tratare separata pentru ecare funct ie g considerata.

In cele ce urmeaza, vom da un exemplu de aplicare a celor descrise mai sus.


Exemplu. Distribut ia sumei a doua variabile aleatoare.
Consideram funct ia g(x, y) = x + y, ceea ce este echivalent cu a spune ca:
= + . (4.26)
Domeniul D
z
=
_
(x, y) R
2

x + y z
_
este cel prezentat n gura 4.4.

In aceste condit ii, ecuat ia (4.24) devine:


F

(z) =
__
D
z
w

(x, y)dxdy =

zy
_

(x, y)dxdy, (4.27)


iar ecuat ia (4.25) devine, la randul ei:
w

(z) =
d
dz

zy
_

(x, y)dxdy =

_
_
d
dz
zy
_

(x, y)dx
_
_
dy
=

(z y, y)dy.
(4.28)

In calculul relat iei (4.28) s-a t inut cont de (4.9).


4.6. O funct ie de doua variabile aleatoare. Teorema limita centrala. 39
x
y
x+y=z
z
z
D
z

Figura 4.4: Domeniul D
z
pentru funct ia g(x, y) = x + y.
Daca, n plus, si sunt independente, atunci relat ia (4.28) se scrie:
w

(z) =

(z y)w

(y)dy = w

() w

(). (4.29)
Rezultatul de mai sus, care arma ca densitatea de probabilitate a sumei a doua
variabile aleatoare independente se obt ine prin convolut ia celor doua distribut ii, este foarte
important, ntrucat sta la baza demonstrat iei unei teoreme fundamentale n statistica, si
anume teorema limita centrala care se enunt a astfel:
Teorema. Fie
1
,
2
, . . . ,
N
variabile aleatoare avand distribut ii oarecare, satisfacand
doar urmatoarele condit ii:
1. oricare doua dintre variabile,
i
si
j
, sunt independente,
2. nici una dintre variabile nu are o valoare preponderenta fat a de celelalte, ceea ce
e echivalent cu a spune ca variant a ecareia dintre ele este neglijabila n raport cu
suma variant elor celorlalte:

2
i

N

i=1
i,=j

2
j
.
Atunci, variabila aleatoare =
1
+
2
+. . . +
N
are o distribut ie gaussiana atunci c and
N .
40 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
0 0.2 0.4 0.6 0.8 1
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
i = 1
0 0.5 1 1.5 2
0
0.2
0.4
0.6
0.8
1
i = 2
0 1 2 3
0
0.2
0.4
0.6
0.8
i = 3
0 1 2 3 4
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 4
0 1 2 3 4 5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 5
0 2 4 6
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 6
Figura 4.5: Distribut iile variabilelor aleatoare obt inute prin convolvarea a i distribut ii
uniformen [0,1] (i = 1, . . . , 6) reprezentate cu linie continua si distribut iile gaussiene
avand aceleasi medie si dispersie cu linie punctata.
Nu vom da o demonstrat ie a acestei teoreme, ci ne vom margini doar la argumenta
ca distribut ia lui , conform relat iei (4.29), se obt ine prin N operat ii de convolut ie a
distribut iilor variabilelor
i
.
Sa consideram, spre exemplu, un caz particular, si anume sa facem ipoteza ca
i
au
toate o distribut ie uniforma n intervalul [0, 1].

In gura 4.5 sunt prezentate funct iile
rezultate prin convolvarea succesiva a i = 2, 3 . . . distribut ii uniforme. Se observa ca pe
masura ce i creste, distribut ia rezultata variaza din ce n ce mai put in de la i la i + 1,
tinzand la o funct ie invarianta la convolut ie. Aceasta funct ie este funct ia clopot a lui
Gauss. Se poate demonstra cu usurint a ca prin operat ia de convolut ie ntre doua funct ii
clopot ale lui Gauss (3.23) se obt ine tot o funct ie clopot a lui Gauss, ceea ce justica
rezultatul enunt at de teorema limita centrala.
Nu putem ncheia discut ia fara a mai face doua observat ii pe tema teoremei limita
centrala:
din cele discutate mai sus, rezulta ca suma oricator variabile aleatoare gaussiene
este fara nici un fel de aproximare tot o variabila aleatoare gaussiana;
desi teoretic distribut ia sumei se apropie de gaussiana doar pentru N , se
observa ca, practic, distribut ia rezultata prin sumarea a N variabile aleatoare inde-
pendente este aproximata destul de bine gaussiana chiar si pentru N mic: se observa
din gura 4.5 ca diferent a corespunzatoare lui N = 6 este absolut nesemnicativa.
4.7. Teorema de medie 41
4.7 Teorema de medie
La fel ca si n cazul unidimensional, se poate enunt a si aici o teorema de medie (pe
care-o vom accepta fara demonstrat ie), care permite calculul mediei variabilei aleatoare
transformate direct din distribut ia de ordinul doi a perechii init iale w

si din funct ia
de trecere g.
Teorema. Media variabilei aleatoare = g(, ), indiferent de funct ia g si de distribut ia
w

, se poate calcula cu formula:


=
__
R
2
g(x, y)w

(x, y)dxdy. (4.30)


Exemplu. Media sumei a doua variabile aleatoare. Fie = + . Avem:
= + =
__
R
2
(x + y)w

(x, y)dxdy
=
__
R
2
xw

(x, y)dxdy +
__
R
2
yw

(x, y)dxdy
=

x
_
_

(x, y)dy
_
_
. .
w

(x)
dx +

y
_
_

(x, y)dx
_
_
. .
w

(y)
dy
=

xw

(x)dx
. .

yw

(y)dy
. .

= +
(4.31)
Rezultatul obt inut mai sus, conform caruia media sumei a doua variabile aleatoare
este egala cu suma mediilor, indiferent de gradul de (in)dependent a al acestora, este un
rezultat important, pe care l vom folosi intensiv n restul lucrarii.
4.8 Momente
Dupa modelul de la capitolul 3, se pot deni momente care sa caracterizeze o pereche de
variabile aleatoare. Astfel, se denesc momentele necentrate de ordin (k, l) ale perechii
de variabile aleatoare (, ) ca ind media statistica a produsului
k

l
:
m
(k,l)

=
k

l
=
__
R
2
x
k
y
l
w

(x, y)dxdy. (4.32)


42 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
Momentul necentrat mixt de ordin doi (corespunzator lui k = l = 1) se numeste corelat ia
ntre si , si se noteaza cu R

:
m
(1,1)

=
not
= R

=
__
R
2
xyw

(x, y)dxdy. (4.33)


De asemenea, se pot deni momentele centrate de ordin (k, l) ale perechii (, ) ca
ind momentele necentrate ale variabilelor centrate (adica ale variabilelor din care s-a
scazut media, astfel ncat sa devina de medie nula):
M
(k,l)

=
_

_
k
( )
l
=
__
R
2
_
x
_
k
(y )
l
w

(x, y)dxdy. (4.34)


Momentul centrat mixt de ordin doi (pentru k = l = 1) se numeste covariat ia ntre
si , si se noteaza cu K

:
_

_
( )
not
= K

=
__
R
2
_
x
_
(y ) w

(x, y)dxdy. (4.35)


Prin prelucrari elementare, se poate arata ca:
K

=
_

_
( ) = +
= + = + = = R

.
(4.36)

In calculul de mai sus s-au folosit doua rezultate obt inute anterior: media sumei este
suma mediilor, respectiv constantele ies n afara operat iei de mediere (motiv pentru care,
de exemplu, = ).
Denit ie. Doua variabile aleatoare se numesc decorelate atunci cand covariat ia dintre
ele este nula:
K

= 0. (4.37)
Proprietate. Daca doua variabile aleatoare sunt independente, atunci ele sunt si decore-
late. Reciproca nu este n general valabila.
Demonstrat ie. Daca si sunt independente, avem:
=
__
R
2
xyw

(x, y)dxdy =
__
R
2
xyw

(x)w

(y)dxdy
=

xw

(x)dx
. .

yw

(y)dy
. .

= ,
(4.38)
si, deci:
K

= = 0.
4.9. Dreapta de regresie 43
Vom arata n paragraful urmator ca gradul de corelare ntre doua variabile aleatoare
(masura data atat de corelat ia, cat si de covariat ia ntre cele doua variabile) reprezinta
gradul de dependent a liniara ntre cele doua variabile, adica masura n care dependent a
dintre cele doua variabile poate aproximata printr-o relat ie liniara de tip = a + b.
4.9 Dreapta de regresie

In acest paragraf vom arata faptul ca momentele mixte de ordinul doi ale unei perechi de
variabile aleatoare (corelat ia, covariat ia) sunt o masura a gradului de dependent a liniara
ntre cele doua variabile.
Sa presupunem urmatorul exemplu: ne intereseaza studiul dependent ei statistice ntre
doua variabile aleatoare.

In absent a cunostint elor statistice despre si , se acumuleaza
prin experimentari succesive cat mai multe realizari particulare (
(i)
,
(i)
) ale perechii de
variabile aleatoare, iar punctele rezultate se aseaza pe un grac bidimensional.
Din forma norului de puncte rezultat se pot trage concluzii referitoare la tipul de
dependent a ntre si . Astfel, cu cat forma norului seamana mai pronunt at cu o dreapta
(ca n gura 4.6.(a)) cu atat nseamna ca ntre cele doua variabile exista o dependent a
liniara mai puternica, cu alte cuvinte, aproximarea uneia din cealalta printr-o relat ie
liniara este mai buna. Daca forma norului este haotica (ca n gura 4.6.(b)), nseamna ca
si sunt independente, si ncercarea de a o aproxima pe vreuna din cealalta dupa o relat ie
oarecare (nu neaparat liniara) este sortita esecului. Pot exista cazuri n care norul de
puncte nu este haotic, dar forma dupa care se orienteaza nu este liniara (v. gura 4.6.(c));
n acest caz, variabilele aleatoare sunt independente liniar (ceea ce e echivalent cu faptul
ca ele sunt decorelate, dupa cum vom arata n continuare) dar nu sunt independente!
6 4 2 0 2 4 6
5
4
3
2
1
0
1
2
3
4
5
3 2 1 0 1 2 3 4
3
2
1
0
1
2
3
1.5 1 0.5 0 0.5 1 1.5
1
0.5
0
0.5
1
(a) (b) (c)
Figura 4.6: Exemplicarea tipurilor de dependent a ntre variabile aleatoare. Diagrama
(, ) pentru diverse cazul (a) si corelate; (b) si independente; (c) si decorelate,
dar dependente.
Sa presupunem n continuare ca ne aam n situat ia n care forma norului de puncte
(
(i)
,
(i)
) este cat de cat liniara; se poate pune, deci, problema aproximarii acestuia cat
mai bune cu o dreapta. Dreapta respectiva (numita dreapta de regresie) ar aproxima pe
cu o funct ie liniara de (vezi gura 4.7).
44 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
10 5 0 5 10
4
2
0
2
4
6
8
10
12
14
16
Figura 4.7: Problema aproximarii liniare: norul de puncte (
(i)
,
(i)
) si, cu linie punctata,
dreapta de regresie.
Astfel, trebuie cautate numerele a, b R astfel ncat estimarea liniara a lui din ,
notata cu si data de:
= a + b (4.39)
sa se e cat mai apropiata posibil de valoarea reala a lui . Acest deziderat trebuie
tradus matematic, printr-un criteriu de eroare, pe care-l alegem criteriul erorii patratice
medii minime. Aceasta alegere este justicata n principal prin faptul ca acest criteriu
conduce la o solut ie matematica ce poate exprimata analitic. Se deneste, deci, eroarea
patratica medie ca ind:
= ( )
2
(4.40)
cu ajutorul careia denim matematic problema ca:
a, b =? astfel ncat =
min
(4.41)
Problema este una de aare a minimului unei funct ii n funct ie de doua argumente.
Avand n vedere faptul ca funct ia e patratica n oricare din cele doua argumente, se poate
arata ca problema se poate trata separat, ca doua probleme de minimizare unidimen-
sionala. Asadar, valorile lui a si b care-l minimizeaza pe se obt in facand:

b
= 0 b
o
(4.42a)

a
= 0 a
o
(4.42b)
unde a
o
si b
o
reprezinta valorile optimale ale parametrilor a si b. Avand n vedere ca
poate scrisa ca
= ( )
2
= ( a b)
2
, (4.43)
4.9. Dreapta de regresie 45
relat ia (4.42a) devine

b
=
( a b)
2
b
= 2( a b) = 0, (4.44)
de unde rezulta valoarea lui b:
b
o
= a (4.45)

Inlocuind-o pe aceasta n (4.43), rezulta:


=
_
( ) a( )
_
2
, (4.46)
dupa care (4.42b) poate scrisa

a
=

_
( ) a( )
_
2
a
= 2
_
( ) a( )
_ _

_
= 2
_
( )( ) a
_

_
2
_
= 2
_
K

a
2

_
= 0,
(4.47)
de unde rezulta valoarea lui a care-l minimizeaza pe :
a
o
=
K

. (4.48)

Inlocuind valorile obt inute pentru a


o
si b
o
(din relat iile (4.48) si (4.45)) n relat ia (4.39),
rezulta ca ecuat ia dreptei de regresie, care aproximeaza optim pe ca o funct ie liniara de
(n sensul erorii patratice medii minime) este:

o
=
K

( ) + . (4.49)
Am notat valoarea optima a lui cu
o
.
Prima observat ie importanta pe care o facem este ca daca si sunt decorelate, adica
daca K

= 0, atunci avem
o
= , adica cea mai buna aproximare liniara a lui n
funct ie de nu depinde de acesta. Altfel spus, ntre doua variabile decorelate nu exista
nici un fel de dependent a liniara!
A doua observat ie, nu mai put in importanta, este urmatoarea: daca K

,= 0 atunci
singurul lucru ce poate armat este ca si nu sunt decorelate, ntre ele exist a o
anumita dependent a liniara. Ce nu se poate evalua, nsa, pe baza valorii efective a lui
K

este cat de puternica este dependent a respectiva, cu alte cuvinte, cat de apropiat este
norul de puncte (
(i)
,
(i)
) de o dreapta. Aceasta masura poate studiata numai studiind
valoarea erorii obt inute prin aproximarea lui cu
o
.
46 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
4.9.1 Coecientul de corelat ie
Scriind formula erorii patratice medii minime obt iute, avem:

min
= (
o
)
2
=
_
( )
K

( )
_
2
= ( )
2
. .

2
K

( )( )
. .
K

+
K
2

_

_
2
. .

=
2

2
K
2

+
K
2

=
2


K
2

=
2

_
1
_
K

_
2
_
.
(4.50)
Termenul pus n evident a n expresia nala a erorii patratice medii minime se noteaza cu

si se numeste coecient de corelat ie:

=
K

. (4.51)
Coecientul de corelat ie

reprezinta valoarea normalizata a covariat iei, care permite


evaluarea absoluta a masurii dependent ei liniare ntre si .

Intr-adevar, scriind:

min
=
2

_
1
2

_
, (4.52)
se observa ca

este de modul subunitar, n caz contrar, eroarea patratica medie devenind


negativa, ceea ce este imposibil, avand n vedere ca aceasta reprezinta media patratului
unei valori:
[

[ 1. (4.53)
Mai mult, se observa ca pe masura ce [

[ 1, eroarea pe care o facem aproximandu-l


pe cu
o
este din ce n ce mai mica. La limita, avem:
[

[ = 1
min
= 0 =
o
,
cu alte cuvinte, daca modulul coecientului de corelat ie este egal cu unu, ntre si
exista o dependent a liniara funct ionala (norul de puncte (
(i)
,
(i)
) este o dreapta)
1
.
O ultima observat ie la acest capitol este legata de semnicat ia unei valori negative a
coecientului de corelat ie. Faptul ca

< 0 semnica numai faptul ca panta dreptei de


regresie este negativa, n nici un caz faptul ca si sunt mai put in corelate decat n cazul

0 !

In gura 4.8, este prezentat un exemplu al formei norului de puncte (


(i)
,
(i)
) pentru
diverse valori ale lui

.
1
Daca media patratica a unei variabile aleatoare este nula, atunci variabila aleatoare respectiva (n
cazul nostru
o
) este determinist egala cu 0.
4.10. Distribut ia gaussiana de ordinul doi 47
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4

=1
4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4

=0.8
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4

=0.4
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4

=0
5 4 3 2 1 0 1 2 3 4
4
3
2
1
0
1
2
3
4

=0.8
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4

=1
Figura 4.8: Forma norului de puncte (
(i)
,
(i)
) pentru diverse valori ale coecientului de
corelat ie.
4.10 Distribut ia gaussiana de ordinul doi
Variabilele aleatoare si se zice ca au o distribut ie gaussiana (sau normala) de ordinul doi
de parametri m
1
, m
2
,
1
,
2
, r (si se noteaza (, ): ^ (m
1
, m
2
,
1
,
2
, r)) daca densitatea
lor de probabilitate de ordinul doi este data de:
w

(x, y) =
1
2
1

1 r
2
exp
_

1
2(1 r
2
)
_
(x m
1
)
2

2
1

2r
(x m
1
)(y m
2
)

2
+
(y m
2
)
2

2
2
__
, (4.54)
cu m
1
si m
2
oarecare,
1
> 0,
2
> 0 si [r[ 1.
Prin calcul direct, folosind proprietatea 5 a densitat ii de probabilitate de ordinul doi,
se poate arata ca daca perechea (, ) are o distribut ie gaussiana de ordinul doi, atunci
si si au o distribut ie gaussiana de ordinul unu, mai precis : ^(m
1
,
1
), respectiv
: ^(m
2
,
2
).
Reciproca armat iei de mai sus nu e valabila. Cu alte cuvinte, faptul ca atat cat si
au ecare o distribut ie gaussiana de ordinul unu nu garanteaza faptul ca perechea (, )
are o distribut ie gaussiana de ordinul doi!
Am vazut mai sus ca primii patru parametri ai gaussienei de ordinul doi au semnicat ia
de medii, respectiv dispersii, ale celor doua variabile aleatoare. Cat despre al cincilea
parametru, respectiv r, se arata prin calcul direct ca acesta reprezinta coecientul de
48 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
corelat ie ntre si :

=
K

= = r. (4.55)
Deci, forma clopotului lui Gauss bidimensional va mai mult sau mai put in elongata
n funct ie de cat de apropiat este [r[ de 1 (respectiv de 0).

In gura 4.9 se arata forma
funct iei (4.54) pentru doua valori ale lui r.
(a) (b)
Figura 4.9: Forma distribut iei gaussiene de ordinul doi pentru: (a) r = 0, 3 si (b) r = 0, 8.
Din faptul ca

= r mai decurge o alta proprietate importanta a gaussienei. Pentru


r = 0, se poate scrie:
w

(x, y) =
1
2
1

2
exp
_

1
2
_
(x m
1
)
2

2
1
+
(y m
2
)
2

2
2
__
=
1

2
exp
_

(x m
1
)
2
2
2
1
_
1

2
exp
_

(y m
2
)
2
2
2
2
_
= w

(x)w

(y).
(4.56)
Altfel spus, daca doua variabile aleatoare cu distribut ie gaussiana de ordinul doi sunt
decorelate, atunci ele sunt si independente!
Capitolul 5
Semnale aleatoare
5.1 Introducere
Dupa ce am studiat caracterizarea statistica a variabilelor aleatoare si a perechilor de
variabile aleatoare, este momentul sa mergem mai departe. Vom aborda n continuare
problema semnalelor aleatoare, care pot vazute precum colect ii de variabile aleatoare
cu desfasurare n timp. Practic, vom vedea cum se aplica toate rezultatele obt inute n
capitolele anterioare pentru caracterizarea statistica a semnalelor aleatoare, care sunt
obiectul principal de studiu al acestei lucrari.
Semnalele aleatoare sunt semnale guvernate, e si part ial, de legi probabilistice. Cu
alte cuvinte, valoarea unui semnal aleator la un moment dat este, cel put in part ial, impre-
dictibila. Din punct de vedere matematic, un semnal aleator este o funct ie denita atat
pe spat iul esantioanelor cat si pe R:
: R R. (5.1)
Daca xam
k
, atunci avem de-a face cu o realizare particulara a semnalului aleator,
(
k
, t)
not
=
(k)
(t), care este ceea ce convent ional numim un semnal, adica o funct ie de timp.
Este momentul sa atragem atent ia, pentru a evita confuziile si a xa not iunile, asupra
faptului ca termenul de semnal aleator se refera la o clasa de semnale caracterizate de
aceleasi proprietat i statistice, si nu la vreun semnal n parte, acesta din urma numindu-se,
asa cum am precizat mai sus, realizare particulara a semnalului aleator. Aceasta este
ilustrata n gura 5.1.
5.2 Caracterizarea statistica a semnalelor aleatoare
Daca xam un moment de timp oarecare t
1
, valoarea semnalului la momentul respec-
tiv de timp este o variabila aleatoare (t
1
) : R. Aceasta observat ie ne nlesneste
descrierea statistica a semnalului aleator folosind marimile statistice introduse n capi-
tolele anterioare pentru caracterizarea variabilelor aleatoare sau a perechilor de variabile
aleatoare.
49
50 CAPITOLUL 5. SEMNALE ALEATOARE
t
Figura 5.1: Diverse realizari particulare ale unui semnal aleator.
5.2.1 Caracterizarea de ordinul unu a semnalelor aleatoare
Se deneste funct ia de repartit ie de ordinul unu a semnalului aleator (t) ca ind:
F

(x
1
, t
1
)

= P((t
1
) x
1
) (5.2)
Se observa ca denit ia (5.2) este similara celei din (3.3), cu diferent a ca, n cazul sem-
nalelor, funct ia de repartit ie depinde si de timp. Acest lucru este normal, ntrucat funct ia
de repartit ie trebuie sa caracterizeze ntreg semnalul, adica variabilele aleatoare (t
1
)
pentru orice moment de timp t
1
R.
Apoi, se deneste densitatea de probabilitate de ordinul unu a semnalului, dupa:
w

(x
1
, t
1
) =
F

(x
1
, t
1
)
x
1
, (5.3)
pe baza careia se pot calcula momentele statistice ale semnalulului, printre care si media,
media patratica si variant a acestuia:
(t
1
) =

x
1
w

(x
1
, t
1
)dx
1
, (5.4)

2
(t
1
) =

x
2
1
w

(x
1
, t
1
)dx
1
, (5.5)

(t
1
) =
2
(t
1
) (t
1
)
2
. (5.6)
Toate aceste marimi statistice de ordinul unu permit caracterizarea completa a com-
portamentului statistic al semnalului la orice moment de timp. Ceea ce nu poate evaluat,
nsa, cu ajutorul acestor marimi este interdependent a statistica ntre valorile semnalului
la doua momente de timp diferite. Pentru aceasta este nevoie de marimi statistice de
ordinul doi, pe care le vom discuta n paragraful urmator.
5.2.2 Caracterizarea de ordinul doi a semnalelor aleatoare
Se deneste funct ia de repartit ie de ordinul doi a semnalului aleator (t) ca ind funct ia
de repartit ie de ordinul doi a variabilelor aleatoare (t
1
) si (t
2
):
F

(x
1
, x
2
, t
1
, t
2
)

= P (((t
1
) x
1
) ((t
2
) x
2
)) . (5.7)
5.3. Semnale stat ionare 51
Ca si pentru ordinul unu, funct ia de repartit ie de ordinul doi depinde si de momentele de
timp t
1
si t
2
. Se poate deni apoi densitatea de probabilitate de ordinul doi a semnalului:
w

(x
1
, x
2
, t
1
, t
2
) =

2
F

(x
1
, x
2
, t
1
, t
2
)
x
1
x
2
, (5.8)
care permite calculul momentelor mixte ale acestuia. Se deneste, deci, funct ia de
autocorelat ie a semnalului ca ind corelat ia dintre (t
1
) si (t
2
), t
1
, t
2
R:
R

(t
1
, t
2
)

= (t
1
)(t
2
) =
__
R
2
x
1
x
2
w

(x
1
, x
2
, t
1
, t
2
)dx
1
dx
2
. (5.9)
Facem observat ia ca, desi n spiritul notat iilor utilizate pana n acest punct, funct ia de
autocorelat ie ar trebui notata cu R

, noi o vom nota cu R

, considerand ca aceasta
simplicare a notat iei nu introduce nici un echivoc.

In mod absolut similar, putem deni funct ia de autocovariat ie a semnalului ca ind


funct ia de autocorelat ie a valorilor centrate ale semnalului:
K

(t
1
, t
2
)

=
_
(t
1
) (t
1
)
__
(t
2
) (t
2
)
_
= (t
1
)(t
2
) (t
1
) (t
2
). (5.10)
Descrierea statistica a semnalelor aleatoare ar putea continua prin denirea densitat ilor
de probabilitate de ordin superior lui doi. Evident, cu cat ordinul este mai mare, cu atat
descrierea semnalului este mai completa. Pe de alta parte, cu cat ordinul este mai mare,
cu atat devin mai greu de estimat n mod practic marimile respective. Din aceste motive,
majoritatea aplicat iilor n prelucrarea statistica a semnalelor folosesc marimile de ordin
cel mult doi (medie, funct ie de autocorelat ie, etc.). Exista, totusi, si aplicat ii mai speciale
ale prelucrarii semnalelor, n care este necesara folosirea marimilor statistice de ordin trei
si patru, numite statistici de ordin superior, pentru a obt ine rezultate ce nu pot extrase
folosind marimile de ordinul unu si doi.
5.3 Semnale stat ionare

In acest paragraf, vom introduce o not iune foarte importanta n teoria statistica a sem-
nalelor, si anume stat ionaritatea semnalelor aleatoare. Exista doua feluri de stat ionaritate,
n sens strict si n sens larg, dupa cum vom arata n paragrafele urmatoare.
5.3.1 Stat ionaritate n sens strict
Un semnal aleator (t) se zice ca este stat ionar n sens strict de ordinul n daca densitatea
sa de probabilitate de pana la ordinul n este invarianta la o translat ie oarecare n timp:
w

. .
n
(x
1
, . . . , x
n
, t
1
, . . . , t
n
) = w

. .
n
(x
1
, . . . , x
n
, t
1
+ , . . . , t
n
+ ), R. (5.11)
Evident, relat ia de mai sus este valabila pentru orice n
t
< n, ntrucat densitatea de
ordin n
t
se obt ine ca densitate marginala a celei de ordin n.
52 CAPITOLUL 5. SEMNALE ALEATOARE

In particular, un semnal stat ionar n sens strict de ordinul doi este un semnal pentru
care:
w

(x
1
, t
1
) = w

(x
1
, t
1
+ ), R (5.12)
w

(x
1
, x
2
, t
1
, t
2
) = w

(x
1
, x
2
, t
1
+ , t
2
+ ), R (5.13)
Daca alegem = t
1
n relat ia (5.12), obt inem:
w

(x
1
, t
1
) = w

(x
1
, 0) = w

(x
1
), (5.14)
cu alte cuvinte, prima consecint a directa a stat ionaritat ii unui semnal este faptul ca
densitatea sa de probabilitate de ordinul unu nu depinde de timp: la orice moment de
timp t, variabila aleatoare (t) are aceeasi densitate de probabilitate. Consecint a imediata
a acestui fapt este si faptul ca media, media patratica si dispersia semnalului au aceeasi
proprietate.

Intr-adevar, daca nlocuim (5.14) n relat iile, (5.4)(5.6), obt inem:
(t
1
) = , (5.15)

2
(t
1
) =
2
, (5.16)

(t
1
) =
2

. (5.17)
Daca, n plus, alegem = t
2
n ecuat ia (5.13), obt inem:
w

(x
1
, x
2
, t
1
, t
2
) = w

(x
1
, x
2
, t
1
t
2
, 0) = w

(x
1
, x
2
, t
1
t
2
), R. (5.18)
Relat ia (5.18) ne arata ca densitatea de probabilitate de ordinul doi a semnalului stat ionar
n sens strict de ordinul doi nu depinde de cele doua momente de timp ca atare, ci numai
de diferent a ntre ele. Altfel spus, oricare doua valori ale semnalului localizate la acelasi
ecart temporal una fat a de cealalta vor avea aceeasi distribut ie de ordinul doi, indiferent
de localizarea lor absoluta pe axa timpului. Evident, acest lucru se va rasfrange asupra
momentelor mixte ale semnalului, adica funct iile de autocorelat ie si autocovariat ie, care
vor avea si ele aceeasi proprietate de a nu depinde de cele doua argumente ca atare, ci
numai de diferent antre ele. Astfel, introducand (5.18) n relat iile (5.9) si (5.10), obt inem:
R

(t
1
, t
2
) = R

(t
1
t
2
), (5.19)
K

(t
1
, t
2
) = K

(t
1
t
2
), (5.20)
cu
R

() = (t)(t + ) t R, (5.21)
K

() = R

()
2
. (5.22)
Se observa din relat ia (5.22) ca n ipoteza stat ionaritat ii, funct iile de autocorelat ie si
autocovariat ie difera numai printr-o constanta. Daca, n plus, semnalul este de medie
nula, atunci cele doua funct ii coincid.
5.4. Proprietat ile funct iei de autocorelat ie 53
5.3.2 Stat ionaritate n sens larg
Stat ionaritatean sens strict este o ipoteza greu de vericat n practica pentru majoritatea
semnalelor reale, chiar si pentru valori mici ale lui n.

In practica, se foloseste o ipoteza
simplicata, si anume cea de stat ionaritate n sens larg, care implica invariant a la o
translat ie n timp nu a densitat ilor de probabilitate, ci a momentelor semnalului de ordinul
unu si doi.
Un semnal se numeste stat ionar n sens larg daca:
1. media lui este independenta de timp (relat ia (5.15));
2. funct ia lui de autocorelat ie depinde doar de diferent a ntre cele doua argumente ale
sale (relat ia (5.19)).
Se poate arata ca din (5.15) si (5.19) se pot deduce si relat iile de invariant a la o
translat ie n timp a celorlalte momente de interes, cu alte cuvinte ca si relat iile (5.16),
(5.17) si (5.20) sunt adevarate n ipoteza stat ionaritat ii n sens larg.

In cele ce urmeaza, ne vom referi pe scurt la semnalele stat ionare n sens larg ca ind
semnale stat ionare.
Dupa cum spuneam, clasa semnalelor stat ionare ocupa un loc foarte important n
studiul statistic al semnalelor. Majoritatea semnalelor reale sunt e stat ionare, e pot
aproximate pe durate mai lungi sau mai scurte cu semnale stat ionare, ceea ce explica
interesul aratat pentru acest tip de semnale.

In continuarea acestei lucrari, vom considera
stat ionaritatea semnalelor studiate ca ind o ipoteza de lucru .
5.4 Proprietat ile funct iei de autocorelat ie

In acest paragraf, vom stabili cateva proprietat i importante ale funct iei de autocorelat ie
a semnalelor aleatoare stat ionare data de (5.21).
1. Funct ia de autocorelat ie este para.
R

() = R

() R. (5.23)
Demonstrat ie. Pornind de la (5.21) si alegand = t
1
t, obt inem R

() =
(t
1
)(t
1
) = R

().
Este evident ca asa si trebuie sa e: R

() reprezinta corelat ia ntre doua valori ale


semnalului decalate n timp cu , oriunde ar ele localizate n mod absolut pe axa
timpului. Fie doua momente t
1
si t
2
, cu t
2
t
1
= . Atunci, t
2
e decalat cu fat a
de t
1
, n timp ce t
1
e decalat cu fat a de t
2
. Rezulta ca R

() si R

() masoara,
de fapt, acelasi lucru, si anume corelat ia dintre variabilele aleatoare (t
1
) si (t
2
),
deci trebuie obligatoriu sa e egale!
54 CAPITOLUL 5. SEMNALE ALEATOARE
2. Funct ia de autocorelat ie este maxima n origine.
R

(0) [R

()[ R. (5.24)
Demonstrat ie. Calculam media patratica a diferent ei (t) (t + ):
((t) (t + ))
2
=
2
(t) 2(t)(t + ) +
2
(t + )
=
2
(t)
..
R

(0)
2(t)(t + )
. .
R

()
+
2
(t + )
. .
R

(0)
= 2 (R

(0) R

()) .
(5.25)
Cum media patratica este obligatoriu pozitiva, rezulta ca R

(0) R

(). Repetand
rat ionamentul de mai sus pornind de la (t)+(t+), va rezulta ca R

(0) R

(),
ceea ce completeaza demonstrat ia relat iei (5.24).
Relat ia (5.24) are si ea o interpretare evidenta: valoarea funct iei de autocorelat ie
n 0 reprezinta corelat ia dintre valoarea semnalului la un moment de timp dat si ea
nsasi. Este evident ca aceasta corelat ie (care e perfecta) nu poate mai mica decat
corelat ia respectivei valori cu alta valoare a semnalului, decalata cu un oarecare.
3.

In ipoteza ca n semnal nu exista componente periodice sau deterministe, valoarea
funct iei de autocorelat ie la innit este egala cu patratul mediei semnalului.
R

() =
2
. (5.26)
Demonstrat ie. Revenind la (5.21) observam ca atunci cand , avem de-a
face cu doua valori care, desi provin din acelasi semnal, datorita ecartului tempo-
ral ntre ele, este verosimil sa nu mai e legate statistic una de alta, adica sa e
independente.

In acest caz, media produsului devine egala cu produsului mediilor,
care sunt egale, si deci, relat ia (5.26) este demonstrata. Evident, presupunerea de
independent a statistica ntre doua valori ale semnalului foarte ndepartate temporal
una de cealalta nu mai e valabila daca, de exemplu, n semnal exista o componenta
periodica.
4. Media patratica si variant a semnalului se obt in din funct ia de autocorelat ie astfel:

2
= R

(0) (5.27)

= R

(0) R

() (5.28)
Demonstrat ie. Relat ia (5.27) nu este altceva decat exprimarea relat iei (5.21)
pentru = 0, t inand n plus cont de (5.16), n timp ce relat ia (5.28) decurge resc
din ecuat iile (5.27) si (5.26).
5. Daca semnalul aleator este periodic, atunci si funct ia lui de autocorelat ie este peri-
odica, avand aceeasi perioada ca si semnalul.
(t) = (t + T) t R R

() = R

( + T) R. (5.29)
5.5. Funct ia de intercorelat ie 55
Demonstrat ie. Scriem ca
R

( + T) = (t)
..
(t+T)
(t + + T) = (t + T)(t + + T) = R

(). (5.30)
Interpretarea relat iei (5.29) este de asemenea imediata. Daca semnalul este periodic,
daca valorile sale se repeta identic dupa o durata T, este logic sa se ntample acelasi
lucru si cu funct ia sa de autocorelat ie: R

() este corelat ia dintre (t) si (t + ),


care, datorita faptului ca (t + ) = (t + + T) este identica cu corelat ia dintre
(t) si (t + + T), care nu este altceva decat R

( + T).
5.5 Funct ia de intercorelat ie
Fie (t) si (t) doua semnale stat ionare. Se pot deni funct iile de intercorelat ie si
intercovariat ie ntre cele doua semnale prin analogie cu funct iile similare ce caracteri-
zeaza un singur semnal. Astfel, pornind de la relat ia (5.21) se poate scrie funct ia de
intercorelat ie ntre (t) si (t) precum:
R

() = (t)(t + ) t R, (5.31)
si, n mod similar, se poate scrie si funct ia de intercovariat ie:
K

() =
_
(t) (t)
__
(t + ) (t + )
_
= R

() , t R (5.32)
Se observa din modul de denire ca funct ia de intercorelat ie nu mai este o funct ie
para.

In schimb, reluand demonstrat ia de la proprietatea 1 a funct iei de autocorelat ie, se
poate arata ca funct ia de intercorelat ie este caracterizata de:
R

() = R

() (5.33)

In mod similar cu (5.31), se poate deni si funct ia de intercovariat ie K

().
5.6 Semnale ergodice

In acest paragraf, vom introduce o noua clasa de semnale, mai restrictiva decat clasa
semnalelor stat ionare, si anume semnalele ergodice. Pentru aceasta, nsa, este necesara
denirea mediilor temporale ale semnalului.
5.6.1 Medii temporale ale semnalului
Fie
(k)
(t) o realizare particulara a semnalului aleator stat ionar (t). Se deneste media
temporala a realizarii particulare ca ind:

(k)
= lim
T
1
T
T
2
_

T
2

(k)
(t)dt. (5.34)
56 CAPITOLUL 5. SEMNALE ALEATOARE

In mod similar, se poate deni o funct ie de autocorelat ie temporala calculata pe re-


alizarea particulara respectiva:
R
t

(k)
(t
1
, t
2
) = lim
T
1
T
T
2
_

T
2

(k)
(t + t
1
)
(k)
(t + t
2
)dt. (5.35)
Facand schimbarea de variabila t +t
2
= n ecuat ia (5.35), se observa ca, prin nsusi
modul ei de denit ie, funct ia de autocorelat ie temporala depinde numai de diferent a ntre
cele doua argumente ale ei:
R
t

(k)
(t
1
, t
2
) = R
t

(k)
(t
1
t
2
). (5.36)
5.6.2 Ergodicitate n sensul mediei si n sensul autocorelat iei
Un semnal aleator stat ionar (t) se numeste ergodic n sensul mediei daca media temporala
a oricarei realizari particulare ale sale aceeasi si este egala cu media statistica:
=

(k)
k. (5.37)
Un semnal aleator stat ionar (t) se numeste ergodic n sensul funct iei de autocorelat ie
daca funct ia sa de autocorelat ie calculata pe oricare realizare particulara a sa este identica
cu funct ia de autocorelat ie statistica:
R

() R
t

(k)
() k. (5.38)

In primul rand, sa facem observat ia ca problema ergodicitat ii nu s-ar putea pune


n absent a ipotezei de stat ionaritate a semnalului. (

Intr-adevar, daca semnalul ar


nestat ionar, atunci media lui statistica ar varia cu timpul, deci n-ar unica, si, deci,
nu s-ar mai putea pune problema egalitat ii cu media temporala a unei realizari particu-
lare oarecare.)

In al doilea rand, este util de precizat faptul ca ergodicitatea este o ipoteza facuta de
multe ori din lipsa de suciente date, si nu ntotdeauna vericata n practica. Ea permite
calculul marimilor statistice ale semnalului pornind de la o singura realizare particular a a
acestuia, si este invocata ori de cate ori avem nevoie de marimile respective n condit iile
n care dispunem de un numar de realizari particulare ale semnalului insucient pentru o
estimare precisa a acestora.

In paragraful urmator, vom demonstra o teorema care ne arata condit ia pe care trebuie
sa o satisfaca funct ia de covariat ie a unui semnal stat ionar pentru ca el sa e si ergodic
n sensul mediei.
5.6.3 Teorema ergodicitat ii mediei
Fie
(k)
(t) realizarea particulara a semnalului aleator stat ionar (t) denita mai sus. Fie

(k)
T
() media temporala a realizarii particulare trunchiate pe intervalul
_

T
2
,
T
2

:
5.6. Semnale ergodice 57

(k)
T
() =
1
T
T
2
_

T
2

(k)
(t)dt. (5.39)
Evident, media temporala denita mai sus este o variabila aleatoare, ntrucat ia n con-
siderare un interval nit pentru integrare, si deci, va varia de la o realizare particulara

(k)
la alta. Media statistica a lui
(k)
T
() este data de:

(k)
T
() =
1
T
T
2
_

T
2

(k)
(t)dt =
1
T
T
2
_

T
2

(k)
(t)
. .

dt =
1
T
t

T
2

T
2
= . (5.40)

In dezvoltarea de mai sus, am folosit ipoteza de stat ionaritate a semnalului prin fap-
tul ca media statistica este invarianta n timp. De asemenea, am t inut cont de faptul
(demonstrat n capitolul capitolul 4) ca operat ia de mediere statistica comuta cu operat ia
de sumare (integrare); n plus constantele (n cazul de fat a raportul
1
T
) iesn afara operat iei
de mediere.
Semnalul (t) se este ergodic n sensul mediei daca:
lim
T
_

(k)
T
()
_
2
= 0. (5.41)

Intr-adevar, relat ia de mai sus este echivalenta cu denit ia (5.37): ea arma ca variant a
variabilei aleatoare
(k)
T
() tinde la 0 atunci cand T . Or, faptul ca variant a unei
variabile aleatoare este nula este echivalent cu a spune ca variabila respectiva este de-
terminista, egala cu media ei. Altfel spus, media temporala pe R a oricarei realiz ari
particulare a semnalului este egala cu media statistica a acestuia.
Dezvoltand termenul din relat ia (5.41), obt inem:
_

(k)
T
()
_
2
=
_
_
_
1
T
T
2
_

T
2

(k)
(t)dt
_
_
_
2
=
_
_
_
1
T
T
2
_

T
2

(k)
(t)dt
1
T
T
_
_
_
2
=
_
_
_
1
T
T
2
_

T
2
_

(k)
(t)
_
dt
_
_
_
2
=
_
_
_
1
T
T
2
_

T
2
_

(k)
(t
1
)
_
dt
1
_
_
_
_
_
_
1
T
T
2
_

T
2
_

(k)
(t
2
)
_
dt
2
_
_
_
=
1
T
2
__ T
2

T
2
_

(k)
(t
1
)
_ _

(k)
(t
2
)
_
dt
1
dt
2
=
1
T
2
__ T
2

T
2
_

(k)
(t
1
)
_ _

(k)
(t
2
)
_
. .
K

(t
1
,t
2
)
dt
1
dt
2
=
1
T
2
__ T
2

T
2
K

(t
1
t
2
)dt
1
dt
2
.
(5.42)
58 CAPITOLUL 5. SEMNALE ALEATOARE

In dezvoltarea de mai sus, am identicat funct ia de autocovariat ie a semnalului (5.10),


care, datorita stat ionaritat ii acestuia, depinde numai de diferent a dintre argumentele sale
(ecuat ia (5.20)).

In ecuat ia (5.42) se face urmatoarea schimbare de variabile:


= t
1
t
2
= t
2
(5.43)
Domeniul patrat [
T
2
,
T
2
] [
T
2
,
T
2
] pe care se face integrarea n coordonatele init iale
(t
1
, t
2
) devine un paralelogram n noile coordonate (, ), dupa cum este prezentat n
gura 5.2.

Intr-adevar, ntrucat = t
2
, limitele de variat ie ale lui sunt [
T
2
,
T
2
]. Pentru
un xat, = t
1
t
2
= t
1
, deci, avand n vedere ca t
1
[
T
2
,
T
2
], rezulta ca
[
T
2
,
T
2
], ceea ce explica forma domeniului de integrare din gura 5.2.(b).
Avand n vedere ca transformarea inversa este:
t
1
= +
t
2
= ,
(5.44)
jacobianul transformarii (5.43) este:
J(, ) = det
__
t
1

t
1

t
2

t
2

__
= det
__
1 1
0 1
__
= 1. (5.45)
Astfel, ecuat ia (5.42) poate scrisa n noile coordonate astfel:
_

(k)
T
()
_
2
=
1
T
2
__
D
K

()dd, (5.46)
unde D este domeniul bidimensional reprezentat n gura 5.2.(b).

In ecuat ia (5.46), facem
mai ntai integrarea dupa variabila . Se poate observa ca limitele de variat ie ale lui
depind de . Astfel, daca [0, T] (corespunzator jumatat ii paralelogramului situate
deasupra axei absciselor), [
T
2
,
T
2
]. Pentru [T, 0], nsa (jumatatea inferioara
a paralelogramului D) avem [
T
2
,
T
2
].

In cele expuse anterior, s-a t inut cont
ca ecuat iile celor doua drepte oblice ale paralelogramului D sunt + =
T
2
, respectiv
5.6. Semnale ergodice 59
+ =
T
2
. Astfel, ecuat ia (5.46) devine:
_

(k)
T
()
_
2
=
1
T
2
_
_
_
T
_
0
T
2

T
2
K

()dd +
0
_
T
T
2
_

T
2

()dd
_
_
_
=
1
T
2
_

_
T
_
0
K

()
_
_
_
T
2

T
2
d
_
_
_
. .
T
d +
0
_
T
K

()
_
_
_
T
2
_

T
2

d
_
_
_
. .
T+
d
_

_
=
1
T
2
_
_
T
_
0
(T )K

()d +
0
_
T
(T + )K

()d
_
_
=
1
T
2
_
T
T
(T [[)K

()d =
1
T
_
T
T
_
1
[[
T
_
K

()d.
(5.47)
T inand cont de relat ia (5.41), ajungem la forma nala a teoremei erodicitat ii mediei,
T/2
T/2
T/2
T/2
t
1

t
2



T
T
T/2
T/2
T/2
T/2
(a) (b)
Figura 5.2: (a) Domeniul de integrare n coordonate (t
1
, t
2
); (b) Domeniul de integrare
n coordonate (, )
.
60 CAPITOLUL 5. SEMNALE ALEATOARE
care arm a ca un semnal este ergodic n sensul mediei daca:
lim
T
1
T
_
T
T
_
1
[[
T
_
K

()d = 0. (5.48)
Se observa ca daca semnalul este decorelat la innit, adica daca
0
R astfel ncat
K

() = 0 pentru
0
(ipoteza cat se poate de verosimila pentru majoritatea sem-
nalelor reale, conform discut iei purtate n contextul demonstrat iei proprietat ii 3 a funct iei
de autocorelat ie) atunci:

_
T
T
_
1
[[
T
_
K

()d

= M < , T R,
si, deci limita din (5.48) este 0, semnalul ind ergodic n sensul mediei. Sa mai preciz am
ca aceasta ipoteza a decorelarii a semnalului la innit reprezinta o condit ie sucienta,
nu si necesara, relat ia (5.48) putand ndeplinita si de alte semnale (printre care si cele
asimptotic decorelate).
Sa mai remarcam, n nal, ca demonstrat ia de mai sus se poate relua si pentru funct ia
de autocorelat ie, pornind, n loc de media (5.39) calculata nu pentru semnalul (t), ci
pentru

(t) = (t)(t + ):

(k)
T
(

) =
1
T
T
2
_

T
2

(k)
(t)
(k)
(t + )dt. (5.49)
Rezultatul nal ar face, nsa, sa apara funct ia de covariat ie a lui

(t) care depinde de


momente de ordin superior lui doi ale lui (t).
5.7 Densitatea spectrala de putere

In acest paragraf, ne propunem caracterizarea din punct de vedere spectral a semnalelor


aleatoare stat ionare n sens larg.
Acest demers nu este unul trivial, si necesita o atent ie sporita, datorita faptului ca
ipoteza de stat ionaritate a unui semnal implica faptul ca acesta este de modul neintegrabil!

Intr-adevar, daca un semnal este stat ionar, atunci el este obligat sa aiba suport spat ial
innit
1
(ceea ce implica faptul ca, n realitate, nu exista semnale pur stat ionare), si:

[(t)[dt = . (5.50)
1
Daca nu ar asa, daca semnalul ar avea un suport temporal nit, sa zicem, (t) = 0 pentru t , [T
1
, T
2
],
atunci mediile semnalului nu ar invariante n timp. De exemplu,
2
(t
1
) = 0 pentru t
1
, [T
1
, T
2
], n
timp ce
2
(t
2
) ,= 0 pentru t
2
[T
1
, T
2
] si, deci, semnalul nu ar stat ionar.
5.7. Densitatea spectrala de putere 61
Aceasta implica, mai departe, faptul ca nu putem calcula transformata Fourier a
vreunei realizari particulare a semnalului, stiut ind ca una din condit iile de existent a a
transformatei Fourier a unui semnal este integrabilitatea modulului acestuia.
Pentru a deni, totusi, o masura care sa caracterizeze spectral semnalul, vom recurge
la urmatoarea construct ie. Consideram, mai ntai, o realizare particulara a semnalului,

(k)
, si consideram, mai departe, o varianta trunchiata a acesteia, pe care o notam
(k)
T
si
pe care o denim astfel:

(k)
T
(t) =
_

(k)
(t) daca [t[
T
2
0 n rest
. (5.51)
Datorita limitarii suportului temporal, varianta trunchiata este de modul integrabil
si, deci, transformata Fourier a acesteia exista si o vom nota cu X
(k)
T
:
X
(k)
T
() = T
_

(k)
T
(t)
_
() =

(k)
T
(t) exp(jt)dt. (5.52)
Evident, semnalul original
(k)
T
poate recuperat din echivalentul sau spectral prin
transformare Fourier inversa:

(k)
T
(t) = T
1
_
X
(k)
T
()
_
(t) =
1
2

X
(k)
T
() exp(jt)d. (5.53)
Energia realizarii particulare trunchiate a semnalului este data de:
E

(k)
T
=

(k)
T
_
2
dt =

(k)
T

(k)
T
dt
=

(k)
T
_
_
1
2

X
(k)
T
() exp(jt)d
_
_
dt
=
1
2

X
(k)
T
()
_
_

(k)
T
exp(jt)dt
_
_
d
=
1
2

X
(k)
T
()X
(k)
T
()d =
1
2

X
(k)
T
()

2
d,
(5.54)
unde prin ()

am notat operatorul de conjugare complexa.


Puterea realizarii particulare trunchiate a semnalului este data de:
P

(k)
T
=
E

(k)
T
T
=
1
2T

X
(k)
T
()

2
d. (5.55)
62 CAPITOLUL 5. SEMNALE ALEATOARE
Astfel, am reusit sa denim o marime, respectiv valoarea

X
(k)
T
()

2
, care sa reprezinte
o caracteristica spectrala a semnalului. Ea, nsa, caracterizeaza o singura realizare par-
ticulara, si aceea trunchiata, a acestuia. Pentru a obt ine o masura care sa caracterizeze
semnalul aleator n ansamblul lui, si nu o realizare particulara oarecare a acestuia, trebuie
sa efectuam o mediere statistica. Astfel, se deneste puterea medie a semnalului trunchiat

T
ca ind media statistica a puterii P

(k)
T
:
P

T
= P

(k)
T
=
1
2

X
(k)
T
()

2
T
d =
1
2

X
(k)
T
()

2
T
d. (5.56)

In sfarsit, ultima operat iune pe care o efectuam este trecerea la limita cand T
a relat iei (5.56), pentru a elimina efectul trunchierii. Se deneste, deci, puterea medie a
semnalului netrunchiat ca ind:
P

= lim
T
P

T
=
1
2

lim
T

X
(k)
T
()

2
T
d. (5.57)
Trebuie ment ionat ca faptul ca semnalul este de energie innita este o consecint a a
duratei sale innite; puterea lui este nita, deci limita de mai sus exista!
Integrandul din ecuat ia (5.57) se noteaza cu q

si se numeste densitatea spectrala de


putere a semnalului:
q

() = lim
T

X
(k)
T
()

2
T
. (5.58)
Se observa ca puterea medie a semnalului se scrie ca
P

=
1
2

()d, (5.59)
ceea ce justica ntru totul denumirea data marimii q

: din ecuat ia (5.59), se observa ca


semnicat ia cantitat ii q

()d este de putere medie a semnalului cont inuta de armonicile


acestuia din intervalul de frecvent e [, + d].
Din relat ia (5.58), rezulta ca densitatea spectrala de putere este o funct ie reala si
pozitiva, ceea ce este normal, avand n vedere faptul ca aceasta masoara o putere, marime
prin denit ie pozitiva.

In plus, q

este o funct ie para, aceasta armat ie ind justicata prin


proprietatea transformatei Fourier a unui semnal real de a avea valori complex conjugate
n puncte situate simetric fat a de 0.

In paragraful urmator, vom enunt a si demonstra o teorema fundamentala a teoriei


statistice a semnalelor, care stabileste legatura ntre marimile statistice spectrale si tem-
porale ce caracterizeaza semnalele aleatoare stat ionare.
5.8. Teorema WienerHincin 63
5.8 Teorema WienerHincin
Teorema WienerHincin face legaturantre funct ia de autocorelat ie si densitatea spectrala
de putere a semnalelor aleatoare stat ionare n sens larg.
Teorema. Densitatea spectrala de putere a unui semnal aleator stat ionar n sens larg
este transformata Fourier a funct iei sale de autocorelat ie.
Demonstrat ie. Conform celor expuse mai nainte, densitatea spectrala de putere a
semnalului poate scrisa ca:
q

() = lim
T

X
(k)
T
()
2

T
= lim
T
X
(k)
T
()X
(k)
T
()
T
, (5.60)
Pornind de la (5.52), avem:
X
(k)
T
() =

(k)
T
(t
1
) exp (jt
1
) dt
1
=
T
2
_

T
2

(k)
(t
1
) exp (jt
1
) dt
1
, (5.61)
si observand ca
X
(k)
T
() =
T
2
_

T
2

(k)
(t
2
) exp (jt
2
) dt
2
, (5.62)
rezulta ca ecuat ia (5.60) poate scrisa ca:
q

() = lim
T
1
T
__ T
2

T
2

(k)
T
(t
1
)
(k)
T
(t
2
) exp (j(t
1
t
2
)) dt
1
dt
2
= lim
T
1
T
__ T
2

T
2

(k)
T
(t
1
)
(k)
T
(t
2
)
. .
R

(t
1
,t
2
)
exp (j(t
1
t
2
)) dt
1
dt
2
= lim
T
1
T
__ T
2

T
2
R

(t
1
t
2
) exp (j(t
1
t
2
)) dt
1
dt
2
(5.63)
Reluand pasii demonstrat iei teoremei ergodicitat ii mediei din paragraful 5.6.3, mai
precis trecerea de la integrala bidimensionala din (5.42) la cea unidimensionala din (5.47),
rezulta ca, pornind de la (5.63), putem scrie densitatea spectrala de putere ca:
64 CAPITOLUL 5. SEMNALE ALEATOARE
q

() = lim
T
1
T
T
_
T
(T [[)R

() exp(j)d
= lim
T
T
_
T
R

() exp(j)d lim
T
T
_
T
[[
T
R

() exp(j)d
=

() exp(j)d lim
T
T
_
T
[[
T
R

() exp(j)d
(5.64)
Se poate observa cu usurint a faptul ca primul termen din ecuat ia (5.64) reprezinta
exact transformata Fourier a funct iei de autocorelat ie a semnalului (t). Pentru ca
demonstrat ia sa e completa, mai trebuie, deci, demonstrat ca al doilea termen al
ecuat iei (5.64) este nul, cu alte cuvinte, ca:
lim
T
T
_
T
[[
T
R

() exp(j)d = 0. (5.65)
Pentru aceasta, trebuie sa folosim ipoteza de integrabilitate a modulului funct iei de
autocorelat ie a semnalului, ipoteza n absent a careia nici nu se pune problema calculului
transformatei Fourier a acesteia (v. discut ia purtata n paragraful 5.7). Vom presupune,
deci, ca:

[R

()[ d = M < . (5.66)


Se poate arata ca din condit ia de integrabilitate a modulului funct iei de autocorelat ie din
ecuat ia (5.66) rezulta ca:
lim
T

_
T
[R

()[ d = 0. (5.67)

Intr-adevar, valoarea integralei din ecuat ia (5.67) este aria A


T
din gura 5.3, care
obligatoriu trebuie sa tinda la zero cand T pentru ca ntreaga arie de sub gracul
funct iei sa e nita. Ecuat ia (5.67) poate rescrisa:
> 0, T

, astfel ncat

_
T

[R

()[ d < . (5.68)


Fie, asadar, > 0, si e T

(xat) astfel ncat sa e satisfacuta relat ia (5.68). Mai


ntai, facem urmatoarea observat ie:

T
_
T
[[
T
R

() exp(j)d

T
_
T

[[
T
R

() exp(j)

d =
T
_
T
[[
T
[R

()[ d (5.69)
5.8. Teorema WienerHincin 65
T

|R

()|
A
T
Figura 5.3: O funct ie de modul integrabil.
Apoi, observam ca pentru T sucient de mare (T > T

), putem scrie:
T
_
T
[[
T
[R

()[ d =
T

_
T
. . . d +
T

_
T

. . . d +
T
_
T

. . . d. (5.70)

In relat ia de mai sus, integranzii celor trei integrale din partea dreapta sunt identici
cu cel din stanga, si au fost omisi din motive de simplitate a scrierii.

In continuare, vom
considera separat ecare din cele trei integrale din relat ia de mai sus, si vom arata ca
ecare dintre ele poate facuta mai mica decat . Astfel, pentru termenul din mijloc
putem scrie:
T

_
T

[[
T
[R

()[ d =
1
T
T

_
T

[[ [R

()[ d
. .
constant
< pt. T suf. de mare (5.71)

In relat ia (5.71) s-a folosit faptul ca integrala este una pe un domeniu nit dintr-o funct ie
nita, si, deci, este constanta.

In continuare, pentru al treilea termen, avem:
T
_
T

[[
T
[R

()[ d <
T
_
T

[R

()[ d <

_
T

[R

()[ d < , (5.72)


si, in mod absolut similar cu relat ia (5.72), se poate arata ca:
T

_
T
[[
T
[R

()[ d < . . . < . (5.73)

In concluzie, introducand relat iile (5.71) (5.72) si (5.73) n ecuat ia (5.70), si, suplimentar,
t inand cont de relat ia (5.69), putem arma ca pentru > 0, T sucient de mare astfel
66 CAPITOLUL 5. SEMNALE ALEATOARE
ncat:

T
_
T
[[
T
R

() exp(j)d

< 3, (5.74)
ceea ce este echivalent cu a spune ca relat ia (5.65) este demonstrata, ceea ce, mai departe,
face ca relat ia (5.64) sa devina:
q

() =

() exp(j)d. (5.75)
Cu alte cuvine, demonstrat ia teoremei WienerHincin, care arma ca densitatea spec-
trala de putere si funct ia de autocorelat ie a semnalelor aleatoare stat ionare n sens larg
fac pereche Fourier, este terminata!
5.9 Densitatea spectrala de putere de interact iune

In mod similar cu modul de denire al densitat ii spectrale de putere a unui semnal, se


poate deni densitatea spectrala de putere de interact iune ntre doua semnale aleatoare
stat ionare (t) si (t), dupa relat ia:
q

() = lim
T
X
(k)
T
()Y
(k)
T
()
T
(5.76)
Din relat ia (5.76) este evident ca se poate deni similar si densitatea reciproca q

care
este legata de q

prin:
q

() = q

() (5.77)
Densitatea de putere de interact iune ntre doua semnale nu mai are semnicat ia zica
de putere propriu-zisa, si este denumita astfel numai prin analogie cu densitatea de putere
a unui semnal (dealtfel, se poate observa cu usurint a ca q

() este o funct ie cu valori


complexe). Densitatea de interact iune este mai mult o masura a dependent ei statistice
dintre cele doua semnale, exprimata n frecvent a. Se poate arata, reluand demonstrat ia
din paragraful 5.8, ca densitatea spectrala de putere de interact iune este transformata
Fourier a funct iei de intercorelat ie dintre cele doua semnale:
q

() = T R

() () =

() exp(j)d (5.78)
5.10 Zgomotul alb
Un semnal aleator stat ionar se numeste zgomot de banda larga daca densitatea sa spec-
trala de putere poate considerata cu buna aproximat ie constanta ntr-o banda larga de
5.11. Trecerea semnalelor aleatoare prin ltre liniare 67
frecvent e. Se poate, deci, scrie:
q

()
_
K daca [[
T
0 n rest
. (5.79)
unde
T
este o frecvent a foarte mare (mult mai mare decat frecvent ele celorlalte semnale
considerate n aplicat ia respectiva).

In teorie, acest tip de semnal este modelat cu un
semnal ce are densitatea spectrala de putere constanta n toata gama de frecvent e. Acest
semnal se numeste zgomot alb, denumire ce provine din analogia cu lumina alba, care are
componente n toata gama de frecvent e vizibile.
Deci, zgomotul alb are
q

() = K, , (5.80)
si, drept urmare, are funct ia de autocorelat ie
R

() = T
1
q

()() = K(). (5.81)


Funct ia de autocorelat ie si densitatea spectrala de putere ale zgomotului alb sunt ilustrate
n gura 5.4.
R

()
K()

()

K
Figura 5.4: Funct ia de autocorelat ie si densitatea spectrala de putere ale zgomotului
alb.
Din (5.81), rezulta ca zgomotul alb este un semnal aleator pur decorelat: ntrucat
R

(t
1
) = 0 t
1
,= 0, rezulta ca oricare doua valori ale semnalului, oricat de apropiate n
timp una de cealalta, sunt decorelate.

In acelasi timp, din (5.80), rezulta ca el este de
putere innita. Evident, acest semnal este o idealizare, nu poate exista n realitate, dar
serveste cu buna aproximat ie de model pentru multe din semnalele perturbatoare reale.
5.11 Trecerea semnalelor aleatoare prin sisteme
liniare invariante n timp

In acest paragraf vom aborda problema ltrarii liniare a semnalelor aleatoare stat ionare.
Sistemele liniare invariante n timp (pe scurt, ltrele liniare) sunt de o important a aparte
68 CAPITOLUL 5. SEMNALE ALEATOARE
n studiul prelucrarii de semnale, ind de departe subiectul cel mai studiat n acest dome-
niu. Este de interes, deci, studierea comportamentului semnalelor aleatoare la trecerea
prin astfel de ltre. Mai precis, ne intereseaza sa gasim legatura ntre marimile statistice
ale semnalelor de la intrarea si iesirea ltrelor. Pentru nceput, n paragraful urmator,
vom face o scurta trecere n revista a not iunilor de baza referitoare la sistemele liniare,
invariante n timp.
5.11.1 Sisteme liniare invariante n timp
Un sistem se numeste liniar daca, aplicand la intrare o combinat ie liniara a doua semnale
ax
1
(t) +bx
2
(t) cu a, b R, semnalul de iesire poate scris sub forma ay
1
(t) +by
2
(t), unde
y
1
(t) si y
2
(t) sunt raspunsurile sistemului la x
1
(t), respectiv x
2
(t). (v. gura 5.5).
invariant in timp
ax
1
(t)+bx
2
(t) ay
1
(t)+by
2
(t)
Sistem liniar
ax
1
(tt
0
)+bx
2
(tt
0
)
ay
1
(tt
0
)+by
2
(tt
0
)
Figura 5.5: Sistem liniar invariant n timp.
Sistemul se numeste invariant n timp daca act iunea sa asupra unui semnal x(t) este
aceeasi indiferent de momentul cand este aplicat semnalul respectiv la intrarea sistemului.
Se stie din teoria sistemelor ca sistemele liniare invariante n timp (pe care le vom
numi, pe scurt, ltre liniare) au ca funct ii proprii semnalele sinusoidale. Altfel spus, daca
aplicam la intrarea unui ltru liniar un semnal sinusoidal de frecvent a
0
, semnalul de
iesire va tot o sinusoida de frecvent a
0
(cu amplitudinea si faza modicate fat a de
sinusoida de intrare). Un ltru liniar va , deci, complet caracterizat de o funct ie care sa
descrie modicarea amplitudinii si a fazei sinusoidelor pentru ecare frecvent a
0
, funct ie
care se numeste funct ie de transfer si se noteaza H().
Spre exemplu, sa consideram ltrul liniar format dintr-o celula RC prezentat n gura 5.6. Daca
tensiunea de intrare este sinusoidala, x(t) = X cos (
0
t +
X
), atunci putem scrie tensiunea de iesire
sub forma y(t) = Y cos (
0
t +
Y
). Relat ia dintre amplitudinile si fazele semnalelor de intrare si iesire
poate exprimata simplu, considerand reprezentarea semnalelor sub forma complexa. Astfel, daca avem
X = X exp(j
X
) si Y = Y exp(j
Y
), atunci putem scrie:
Y =
1
j
0
C
R +
1
j
0
C
X =
1
1 +j
0
RC
X.
Cantitatea
1
1+j
0
RC
este exact valoarea funct iei de transfer a ltrului pentru frecvent a
0
:
H(
0
)
not
=
1
1 +j
0
RC
.
Putem, deci, scrie ca:
Y = H(
0
)X. (5.82)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 69




R
C x(t)
y(t)
Figura 5.6: Celula RC.

In cazul n care semnalul x(t) aplicat la intrarea ltrului liniar nu este sinusoidal,
putem explica forma semnalului de iesire y(t) tot prin reducere la cazul sinusoidal. Acest
lucru este posibil ntrucat stim, de la analiza Fourier a semnalelor, ca orice semnal de
modul integrabil x(t) poate descompus ca o suma (innita) de semnale pur sinusoidale.

Intr-adevar, considerand transformata Fourier a lui x(t):


X() = Tx(t)() =

x(t) exp(jt)dt, (5.83)


atunci l putem scrie pe x(t) sub forma:
x(t) =
1
2

X() exp(jt)d. (5.84)


Relat ia (5.84) reprezinta exact descompunerea dorita a semnalului x(t) ntr-o suma de
sinusoide pure.
T inand cont de faptul ca, n ipoteza n care x(t) este un semnal real, avem
X() = X

() = [X()[ exp(j()), atunci relat ia (5.84) poate adusa la forma:


x(t) =
1

_
0
[X()[ cos(t +())d, (5.85)
ceea ce justica armat ia de mai sus. Modulul [X()[ si faza () ale cantitat ii complexe X() sunt
amplitudinea, respectiv faza cosinusoidei de frecvent a ce intra n component a semnalului x(t). Cu alte
cuvinte, cantitatea X() este tocmai reprezentarea sub forma complexa a sinusoidei respective.
Apoi, pentru ecare componenta sinusoidala de frecvent a din semnal, putem calcula
faza si amplitudinea la iesire n funct ie de cele la intrare (vezi relat ia (5.82)) precum:
Y () = H()X() , (5.86)
70 CAPITOLUL 5. SEMNALE ALEATOARE
dupa care recompunem semnalul de iesire sumand toate sinusoidele Y ():
y(t) =
1
2

Y () exp(jt)d. (5.87)
T inand cont de proprietatea transformatei Fourier privind produsul de convolut ie,
relat ia (5.86) poate scrisa direct n domeniul temporal, considerand transformata Fourier
inversa a funct iei de transfer, notata h(t) si numita funct ie pondere:
h(t) = T
1
H()(t) =
1
2

H() exp(jt)d. (5.88)


Astfel, relat ia (5.86) poate scrisa ca:
y(t) = h(t) x(t) =

h()x(t )d =

h(t )x()d. (5.89)

In paragraful urmator vom arata cum inuent eaza trecerea prin ltre liniare marimile
statistice ce caracterizeaza semnalele aleatoare.
5.11.2 Relat ii ntre marimile statistice la trecerea prin ltre
liniare
Considerand ca la intrarea unui ltru liniar aplicam un semnal aleator stat ionar (t),
la iesire vom obt ine un semnal aleator, pe care-l vom nota cu (t). Se poate arata cu
usurint a c a si semnalul de la iesire este stat ionar.

In continuare, vom determina legaturantre marimile statistice ale celor doua semnale.
Rescriind relat ia (5.89), obt inem pentru orice realizare particulara a acestora:
(t) = h(t) (t) =

h()(t )d. (5.90)

Inmult ind relat ia (5.90) cu (t ) si aplicand operat ia de mediere statistica, obt inem:
(t)(t ) =

h()(t )(t )d =

h()(t )(t )d. (5.91)


Prin identicare de termeni, t inand cont de ecuat iile (5.31) si (5.21), si de faptul ca funct ia
de autocorelat ie a unui semnal este para, rezulta:
R

() =

h()R

( )d = h() R

(), (5.92)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 71
ceea ce, n domeniul frecvent ial, devine:
q

() = H()q

(). (5.93)
Pe de alta parte, daca nmult im relat ia (5.90) cu (t ), obt inem:
(t)(t ) =

h()(t )(t )d =

h()(t )(t )d, (5.94)


ceea ce, prin identicare de termeni, ne da:
R

() =

h()R

( )d =

h()R

( )d = h() R

(). (5.95)
Rescriind relat ia (5.95) n frecvent a, obt inem:
q

() = H()q

(). (5.96)
Folosind n continuare relat ia (5.77), si nlocuind pe q

cu valoarea lui data de


relat ia (5.93), avem:
q

() = H()q

() = H()H

()q

() = [H()[
2
q

(), (5.97)
de unde, t inand cont de faptul ca densitatea spectrala de putere a unui semnal e o funct ie
reala, rezulta:
q

() = [H()[
2
q

(). (5.98)
Relat ia (5.98) este cea cautata, care stabileste legatura ntre marimile statistice ale
semnalelor aleatoare aate la intrarea si iesirea ltrului liniar. Evident, funct ia de
autocorelat ie a semnalului de la iesire poate scrisa:
R

() =
1
2

() exp(j)d =
1
2

[H()[
2
q

() exp(j)d (5.99)

In continuare, vom prezenta cateva exemple de ltre liniare.


5.11.3 Trecerea semnalelor aleatoare prin ltrul trecejos ideal
Filtrul trecejos (FTJ) ideal este acel ltru care lasa sa treaca nealterate toate armonicile
semnalului cu frecvent e mai mici decat un anumit prag, n timp ce armonicile cu frecvent e
superioare pragului respectiv sunt complet rejectate. Un asemenea comportament este
modelat cu ajutorul unei funct ii de transfer H() = [H()[ exp(j()) ale carei modul si
faza sunt date de (v. gura 5.7):
[H()[ =
_
A daca [[
0
0 n rest
, (5.100)
72 CAPITOLUL 5. SEMNALE ALEATOARE

0

0

|H()|

0

0

()
Figura 5.7: Modulul si faza unui ltru trecejos ideal.
respectiv,
() =
_
t
0
daca [[
0
0 n rest
, (5.101)
Frecvent a
0
se numeste frecvent a de taiere a ltrului si reprezinta frecvent a maxima
din semnalul de intrare care este lasata sa treaca de ltru, iar t
0
se numeste timp de
ntarziere de grup, si reprezinta ntarzierea indusa de ltru n semnal.
Funct ia pondere a ltrului h(t) se obt ine aplicand transformata Fourier inversa funct iei
de transfer:
h(t) = T
1
H() (t) =
1
2
_

0

0
Aexp(jt
0
) exp(jt)d
=
A
2
1
j(t t
0
)
exp
_
j(t t
0
)
_

0
=
A
2
1
j(t t
0
)
2j sin(
0
(t t
0
))
=
A
0

sinc (
0
(t t
0
)) .
(5.102)
unde am folosit relat ia sin(x) =
exp(jx)exp(jx)
2j
, iar sinc(x) este funct ia sinus cardinal,
denita ca:
sinc(x)

=
sin(x)
x
. (5.103)
Se observa ca h(t) ,= 0 pentru t < 0, de unde rezulta ca ltrul nu este cauzal
2
, si, deci, nu
poate implementat n timp real.
Daca la intrarea ltrului se aplica un semnal aleator stat ionar (t) avand densitatea,
spectrala de putere q

(), atunci densitatea spectrala de putere a semnalului la iesire (t)


se scrie, t inand cont de (5.98), ca:
q

() =
_
A
2
q

() daca [[
0
0 n rest
, (5.104)
2
Un ltru se numeste cauzal daca semnalul de iesire apare ca rezultat al aplicarii semnalului de intrare
la intrarea ltrului. Aceasta este echivalenta cu condit ia ca h(t) = 0 t < 0.

Intr-adevar, t inand cont de
prima egalitate din relat ia (5.89), observam ca daca
1
< 0 pentru care h(
1
) ,= 0, atunci n expresia lui
y(t) va aparea x(t
1
) care este valoarea lui x la un moment de timp ulterior lui t.
5.11. Trecerea semnalelor aleatoare prin ltre liniare 73
n timp ce funct ia lui de autocorelat ie devine:
R

() =
A
2
2

0
_

0
q

() exp(j)d. (5.105)

In cazul particular n care semnalul de intrare este zgomot alb, cu densitatea spectrala
de putere data de relat ia (5.80), atunci funct ia de autocorelat ie a semnalului la iesire
devine:
R

() =
A
2
2

0
_

0
K exp(j)d =
A
2
K
0

sinc(
0
). (5.106)

In obt inerea rezultatului de mai sus am reluat calculul de la (5.102). Forma funct iei de
autocorelat ie a semnalului de la iesirea ltrului trecejos ideal este prezentatan gura 5.8.
R

()

A
2
K
0
/
/
0

/
0

Figura 5.8: Funct ia de autocorelat ie a semnalului de la iesirea ltrului trecejos ideal
avand la intrare un zgomot alb.
Este de remarcat aici un aspect important, si anume acela ca, desi semnalul la intrare
este complet decorelat, prin ltrarea acestuia cu un FTJ, n el se induce o corelat ie.
Mai mult, considerand ntr-o prima aproximat ie, ca numai lobul principal al funct iei
sinc, situat n intervalul [

0
,

0
], are valori importante, si neglijand restul funct iei,
putem arma ca aceasta corelat ie este cu atat mai importanta cu cat banda de trecere a
trului (n cazul de fat a
0
) este mai ngusta. Aceasta concluzie, dupa cum vom vedea n
paragraful urmator, este valabila pentru orice fel de caracteristica frecvent iala a ltrului.
Inducerea corelat iei n semnal este ilustrata n gurile 5.9, 5.10, si 5.11.

In gura 5.9
sunt prezentate versiunile originala (t) si ltrate cu ltre trecejos cu frecvent a de taiere
medie (t), respectiv joasa (t) a unui semnal zgomot alb. Se poate observa ca pe masura
ce frecvent a de taiere scade, cu alte cuvinte, selectivitatea ltrului creste, semnalul este
mai neted, ceea ce nseamna ca este mai corelat. Acest fapt reiese si mai evident din
gura 5.10, care prezinta norul de puncte bidimensional (s(t); s(t + )) pentru = 1
pentru ecare dintre cele trei semnale
3
. Se observa faptul ca semnalul original este perfect
3
S-a presupus ca semnalele sunt ergodice n sensul autocorelat iei.
74 CAPITOLUL 5. SEMNALE ALEATOARE
0 10 20 30 40 50 60 70 80 90 100
2
0
2
0 10 20 30 40 50 60 70 80 90 100
2
0
2
0 10 20 30 40 50 60 70 80 90 100
2
0
2
(t)
(t)
(t)
Figura 5.9: Realizare particulara a unui semnal zgomot alb, notat (t) si versiunile sale
ltrate cu ltre trecejos cu frecvent a de taiere
0
medie, notat (t), respectiv joasa, notat
(t).
decorelat (norul de puncte este perfect haotic) n timp ce ntre esantioanele semnalelor
ltrate exista o corelat ie, fapt indicat de forma liniara a norului de puncte. Mai mult,
corelat ia din semnalul ltrat cu ltrul mai selectiv (t) (gura 5.10.(c)) este mai mare
decat cea indusa de ltrul mai put in selectiv (t) (gura 5.10.(b)).

In gura 5.11 este prezentat norul de puncte bidimensional (s(t), s(t +)) pentru cele
doua semnale ltrate ((t) si (t)) pentru diverse valori ale lui . Corelat ia indusa n (t)
este mai puternica: valori relativ distant ate n timp ale lui (t) nca mai sunt corelate, n
timp ce corelat ia se stinge mai repede n (t).
5.11.4 Trecerea semnalelor aleatoare prin ltrul trecebanda
ideal
Filtrul trecebanda (FTB) ideal este ltrul care lasa sa treaca nealterate armonicile sem-
nalului de intrare situate ntr-un interval de frecvent e dat si elimina complet celelalte
5.11. Trecerea semnalelor aleatoare prin ltre liniare 75
2 0 2
3
2
1
0
1
2
3
(t)

(
t
+
1
)
2 0 2
3
2
1
0
1
2
3
(t)

(
t
+
1
)
2 0 2
3
2
1
0
1
2
3
(t)

(
t
+
1
)
Figura 5.10: Norul de puncte (s(t), s(t + 1)) pentru semnalele din gura 5.9.
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
4
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
4
)
Figura 5.11: Norul de puncte (s(t), s(t + )) pentru semnalul ltrat cu FTJ mai put in
selectiv (r andul de sus), respectiv pentru ltrul mai selectiv (randul de jos) pentru =
1, 2, 3, 4.
76 CAPITOLUL 5. SEMNALE ALEATOARE
armonici. Modulul si faza funct iei de transfer H() sunt date de:
[H()[ =
_
A daca [[ [
0


2
,
0
+

2
]
0 n rest
(5.107)
[()[ =
_
_
_
(
0
)t
0
daca [
0


2
,
0
+

2
]
( +
0
)t
0
daca [
0


2
,
0
+

2
]
0 n rest
(5.108)
unde
0
reprezinta frecvent a centrala a benzii, largimea de banda, iar t
0
timpul de
ntarziere de grup. Modulul si faza ltrului trece banda ideal sunt prezentate n gura 5.12
|H()|

()
Figura 5.12: Modulul si faza unui ltru trecebanda ideal.
Funct ia pondere a FTB ideal este data de:
h(t) = T
1
H() (t) =
A

sinc
_

2
(t t
0
)
_
cos(
0
t), (5.109)
relat ie ce poate obt inuta pornind de la rezultatul din ecuat ia (5.102) si aplicand teorema
convolut iei n frecvent a a transformatei Fourier.
Daca la intrarea FTB ideal se aplica semnalul aleator stat ionar (t), atunci la iesire
vom avea semnalul (t) avand densitatea spectrala de putere si funct ia de autocorelat ie
date de:
q

() =
_
A
2
q

() daca [[ [
0


2
,
0
+

2
]
0 n rest
, (5.110)
R

() = A
2
_
_
_

0
+

2
_

2
q

() exp(j)d +

0
+

2
_

2
q

() exp(j)d
_
_
_
. (5.111)
Daca semnalul de intrare este zgomot alb, caracterizat de (5.80) si (5.81), atunci
funct ia de autocorelat ie a semnalului de iesire devine:
R

() =
A
2
K

sinc
_

2

_
cos(
0
t). (5.112)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 77
0 10 20 30 40 50 60 70 80 90 100
3
2
1
0
1
2
3
0 10 20 30 40 50 60 70 80 90 100
3
2
1
0
1
2
3
(t)
(t)
Figura 5.13: Realizare particulara a unui semnal zgomot alb (t) si versiunea sa ltrata
cu un FTB (t).
Gracul funct iei de autocorelat ie (5.112), realizat n ipoteza
0
este prezentat n
gura 5.14.

In gura 5.13 sunt prezentate versiunile originala si ltrata cu un FTB selectiv (cu
banda de trecere ngusta) a unei realizari particulare a unui semnal zgomot alb. Se poate
usor observa tendint a ltrului de a pastra niste sinusoide de frecvent e relativ apropiate,
semnalul ltrat semanand destul de bine cu o sinusoida, spre deosebire de cel original.

In gura 5.15 este gurat norul de puncte bidimensional [(t); (t +)] pentru diverse
valori ale lui , observandu-se faptul ca n semnal s-a indus o corelat ie pe termen destul de
lung, datorata selectivitat ii ltrului utilizat. Deci, si n cazul FTB putem trage aceleasi
concluzii ca si cele discutate n cazul FTJ, relative la corelat ia suplimentara indusantr-un
semnal aleator prin operat ia de ltrare liniara.
78 CAPITOLUL 5. SEMNALE ALEATOARE
R

()

Figura 5.14: Funct ia de autocorelat ie a semnalului de la iesirea ltrului trecebanda


ideal avand la intrare un zgomot alb.
5.12 Filtrul adaptat la semnal
Fie s(t) un semnal determinist de durata nita. Se numeste ltru adaptat la semnal ltrul
liniar invariant n timp care are funct ia pondere h(t) data de:
h(t) = Ks((t t
0
)), (5.113)
unde K si t
0
sunt constante reale oarecare, singura constrangere ind ca t
0
trebuie ales
astfel ncat ltrul sa e cauzal, adica h(t) = 0 pentru t < 0. Un exemplu de ltru adaptat
la semnal este prezentat n gura 5.16.
Funct ia de transfer a ltrului adaptat la semnal este:
H() = K

s((t t
0
)) exp(jt)dt = K

s() exp(j(t
0
))d
= K exp(jt
0
)

s(t) exp(j
0
)d = KS

() exp(jt
0
),
(5.114)
unde S() este transformata Fourier a lui s(t).

In dezvoltarea de mai sus, am facut
schimbarea de variabila (t t
0
) = .

In paragraful urmator vom demonstra o proprietate importanta a ltrului adaptat la


semnal, si anume ca maximizeaza raportul semnalzgomot pentru semnalul dat.
5.12. Filtrul adaptat la semnal 79
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
4
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
5
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)

(
t
+
6
)
Figura 5.15: Norul de puncte (s(t), s(t + )) pentru semnalul ltrat cu FTB (t) din
gura 5.13 pentru = 1, . . . , 6.
s(t)
t
0 T
h(t)
t
t
0
T t
0

(a) (b)
Figura 5.16: Exemplu de ltru adaptat la semnal: (a) semnalul original, (b) funct ia
pondere a ltrului adaptat la semnal.
80 CAPITOLUL 5. SEMNALE ALEATOARE
5.12.1 Maximizarea raportului semnalzgomot prin ltrare
liniara
Dispunem de un semnal rezultat prin perturbarea (aditiva) cu zgomot n(t) a unui semnal
util s(t). Aplicand acest semnal, x(t) = s(t)+n(t), la intrarea unui ltru liniar invariant n
timp avand funct ia pondere h(t), obt inem la iesire un semnal pe care, datorita liniaritat ii
ltrului, l putem interpreta ca ind componenta utila plus componenta remanenta a
zgomotului. Asadar, putem scrie semnalul de la iesirea ltrului sub forma y(t) = s
o
(t) +
n
o
(t), unde s
o
(t) este semnalul ce l-am obt ine la iesire daca la intrare am avea s(t), iar
n
o
(t) este semnalul rezultat prin trecerea prin ltru a lui n(t).
Problema pe care ne-o punem n continuare este cautarea acelui ltru liniar care face
ca raportul semnalzgomot dupa ltrare sa e maxim.

In acest sens, denim raportul
semnalzgomot la un moment de timp xat t
f
ca ind raportul dintre puterea instantanee
a semnalului util la momentul respectiv de timp si puterea medie a zgomotului. Pentru
semnalele de la iesirea ltrului, aceasta se scrie:
RSZ
t
f
=
[s
o
(t
f
)[
2
P
n
o
. (5.115)
T inand cont de faptul ca
s
o
(t
f
) = T
1
S
o
()(t
f
) = T
1
H()S()(t
f
)
=
1
2

H()S() exp(jt
f
)d,
(5.116)
respectiv,
P
n
o
=
1
2

q
n
o
()d =
1
2

[H()[
2
q
n
()d, (5.117)
relat ia (5.115) devine:
RSZ
t
f
=
1
2

H()S() exp(jt
f
)d

[H()[
2
q
n
()d
. (5.118)

In continuare, vom aplica inegalitatea CauchyBuniakowskiSchwartz, conform careia,


pentru orice doua funct ii avand valori complexe A(x) si B(x) are loc relat ia:

A(x)B(x)dx

[A(x))[
2
dx

[B(x)[
2
dx, (5.119)
cu egalitate daca si numai daca
A(x) = kB

(x), x (5.120)
5.12. Filtrul adaptat la semnal 81
unde k este o constanta oarecare
4
. Astfel, alegem
A() = H()
_
q
n
(), (5.121)
respectiv,
B() =
S() exp(jt
f
)
_
q
n
()
. (5.122)

In relat iile (5.121) si (5.122) s-a t inut cont de faptul ca densitatea spectrala de putere
q
n
() este o funct ie pozitiva. Se observa, de asemenea, ca prin alegerea facuta produsul
A()B() reprezinta exact integrandul aat la numaratorul expresiei (5.118). Astfel,
folosind (5.119), obt inem:
RSZ
t
f

1
2

H()
_
q
n
()

2
d

S() exp(jt
f
)

q
n
()

2
d

[H()[
2
q
n
()d
, (5.123)
de unde, prin reducerea primei integrale de la numarator cu cea de la numitor (care sunt
identice), se obt ine:
RSZ
t
f

1
2

S() exp(jt
f
)
_
q
n
()

2
d =

[S()[
2
q
n
()
d (5.124)
Se observa ca integrala care limiteaza superior raportul semnalzgomot nu depinde de
ltrul folosit, ci numai de semnalul util si de puterea zgomotului la intrare, care sunt
date. Rezulta, deci, ca aceasta integrala reprezinta raportul semnalzgomot maxim ce se
poate obt ine prin ltrare liniara:
RSZ
t
f
,max
=

[S()[
2
q
n
()
d. (5.125)
Mai mult, raportul semnalzgomot obt inut si poate atinge valoarea maxima data
de (5.125) daca n ecuat ia (5.124) se obt ine egalitate, cu alte cuvinte, cand este ntrunita
condit ia ca inegalitatea CauchyBuniakovskiSchwartz sa se transforme n egalitate, mai
precis, cand relat ia (5.120) este ndeplinita. T inand cont de (5.121) si (5.122), aceasta
devine:
H()
_
q
n
() = k
_
S() exp(jt
f
)
_
q
n
()
_

, (5.126)
4
Relat iile (5.119) si (5.120) nu reprezinta altceva decat exprimarea n forma continua, pentru valori
complexe, a relat iei cunoscute din liceu, conform careia, pentru orice numere reale a
1
, . . . , a
N
, respectiv
b
1
, . . . , b
N
, are loc inegalitatea

N
i=1
(a
i
b
i
)
2

N
i=1
a
2
i
__

N
i=1
b
2
i
_
, cu egalitate daca si numai daca
a
1
b
1
=
a
2
b
2
= . . . =
a
N
b
N
.
82 CAPITOLUL 5. SEMNALE ALEATOARE
ceea ce, t inand cont ca q
n
() e reala, se scrie:
H() = k
S

() exp(jt
f
)
q
n
()
. (5.127)
Presupunand mai departe ca zgomotul care perturba semnalul este zgomot alb, si deci, q
n
este de forma (5.80), rezulta ca funct ia de transfer a ltrului care maximizeaza raportul
semnalzgomot la iesire devine:
H() = k
1
S

() exp(jt
f
). (5.128)
Readucandu-ne aminte de relat ia (5.114), putem concluziona ca ltrul care maximizeaza
raportul semnalzgomot pentru un semnal util dat este chiar ltrul adaptat la semnalul
util.
Acest rezultat are cateva aplicat ii practice importante, dintre care ment ionam aici pe
scurt numai detect ia semnalelor, unde problema care se pune este de a decide asupra trans-
miterii unui semnal dintr-o mult ime nita de semnale cunoscute n prezent a zgomotului.
Mai multe detalii despre acest subiect vor prezentate n capitolul 6.
Capitolul 6
Detect ia semnalelor
6.1 Introducere
Modelul unui lant de transmisiune cu detect ie pe care l vom lua n considerare n acest
capitol este prezentat n gura 6.1. Sursa S este o sursa discreta de informat ie, care
emite simboluri S
i
dintr-o mult ime cu M simboluri S
0
, S
1
, . . . S
M1
cu probabilit at i
P(S
i
)
not
= P
i
presupuse cunoscute. Pentru ecare simbol S
i
, generatorul de semnal G
genereaza un semnal s
i
(t) pe durata t [0, T], care este transmis pe canal.

In timpul
transmisiunii, semnalul util este afectat de zgomot n(t), care este un semnal aleator per-
turbator de natura aditiva, astfel ncat semnalul recept ionat la iesirea din canal se poate
scrie r(t) = s
i
(t) + n(t) pentru t [0, T]. Problema detect iei, respectiv a implementarii
blocului de decizie D, este ca pe baza semnalului recept ionat r(t) pe o durata [0, T] sa se
decida asupra simbolului emis de sursa. Iesirea blocului de decizie catre utilizatorul nal
U este o decizie D
i
, care semnica faptul ca se decide ca s-a transmis simbolul S
i
(ceea
ce, binent eles, poate corespunde sau nu realitat ii).
S
i
s
i
(t)
r(t)
D
i
S G canal D U
zgomot
n(t)
Figura 6.1: Schema generala a unui lant de transmisiune cu detect ie.

In gura 6.2 este prezentat un exemplu pentru semnalele de la intrarea si iesirea


din canal pentru un caz particular: sursa binara (M = 2), semnale constante s
0
(t) = 0,
s
1
(t) = A pentru t [0, T] alocate celor doua simboluri. Se observa, e si numai din punct
de vedere calitativ, ca problema deciziei asupra simbolului emis de sursa pornind de la
semnalul recuperat la iesirea canalului nu este triviala, n urma perturbarii cu zgomot,
83
84 CAPITOLUL 6. DETECT IA SEMNALELOR
acesta semanand destul de put in cu versiunea sa curata.
S
0
S
1
S
1
S
0
S
1
S
0
S
0
S
1
S
0
S
1
S
1
S
0
S
1
S
0
S
0
S
1
Figura 6.2: Exemplu de transmisiune a unui semnal binar printr-un canal cu zgomot. S-
a considerat s
0
(t) = 0, s
1
(t) = A. Cu linie subt ire este prezentat semnalul corespunzator
secvent ei binare S
0
S
1
S
1
S
0
S
1
S
0
S
0
S
1
la intrarea pe canal, iar cu linie ngrosata semnalul la
iesirea din canal.
Semnalele s
i
(t) emise de generatorul G pot deterministe, cunoscute atat la emisie,
cat si la recept ie (caz n care spunem ca ne aam ntr-o ipoteza simpla) sau pot la
randul lor aleatoare, caz n care spunem ca ne aam ntr-o ipoteza compusa.

In ipoteza
compusa, ceea ce difera ntre semnalele s
i
(t) pentru i = 0, . . . , M 1 sunt parametrii
statistici ai acestora.
La recept ie, decizia poate luata pe baza semnalului r(t) observat n mod continuu,
pentru t [0, T], sau acesta poate discretizat (spunem ca spat iul observat iilor este
discret).

In acest caz, se alege un numar de N momente de timp n intervalul [0, T]:
0 t
1
< t
2
< . . . < t
N
T,
si se ret in numai valorile semnalului recept ionat la acele momente: r
i
not
= r(t
i
) pentru
i = 1, . . . , N.

In acest caz, decizia se va lua pe baza vectorului aleator Ndimensional
avand drept componente cele N valori ale semnalului recept ionat:
r = (r
1
, r
2
, . . . , r
N
).
6.2. Criteriul de decizie Bayes: cazul observat iilor discrete 85

In continuarea acestui capitol, vom discuta despre regula de decizie Bayes n ipoteza
binara simpla, caz n care alfabetul sursei este binar: S
0
, S
1
, iar semnalele s
i
(t) cu
i = 0, 1 sunt deterministe.
6.2 Criteriul de decizie Bayes: cazul observat iilor
discrete

In acest paragraf ne vom ocupa de deducerea criteriului de decizie Bayes considerand


spat iul observat iilor discret. Pentru ecare simbol emis de sursa decizia se va lua, deci,
pe baza vectorului recept ionat r = (r
1
, r
2
, . . . , r
N
). Evident, datorita zgomotului, care
este un proces aleator, observat ia r va diferi de la simbol la simbol, chiar n ipoteza
transmiterii aceluiasi simbol S
i
de catre sursa, ceea ce ne conduce la a-l considera pe r
ca ind o realizare particulara a unui vector aleator Ndimensional, pe care-l vom nota
R = (R
1
, R
2
, . . . , R
N
):
r R
(k)
. (6.1)
Deducerea unui criteriu de decizie n aceste condit ii consta n calculul unei
hipersuprafet e de decizie n R
N
, care sa-l mparta pe acesta n doua zone de decizie

0
si
1
, cu
0

1
= , respectiv
0

1
= R
N
. Astfel, daca vectorul recept ionat
r
0
se decide D
0
, iar daca r
1
se decide D
1
. Canalul de transmisiune astfel obt inut
este un canal binar
1
.
Pentru ilustrarea geometrica a problemei, n scopul nt elegerii acesteia, sa presupunem ca avem
urmatoarele date: s
0
(t) = 0, s
1
(t) = A, pentru t [0, T] si ca la recept ie luam decizia pe baza a N = 2
esantioane, deci r = (r
1
, r
2
).

In absent a zgomotului, avem r(t) = s
o
(t) = 0, daca sursa emite S
0
si,
deci R[S
0
= [0, 0], respectiv r(t) = s
1
(t) = A pentru simbolul S
1
ceea ce conduce la R[S
1
= [A, A].
Situat ia este ilustrata n gura 6.3.(a).

In prezent a zgomotului, avem R[S
0
= [n
1
, n
2
], respectiv R[S
1
=
[A+n
1
, A+n
2
] unde n
1
si n
2
reprezinta valorile zgomotului la cele doua momente alese pentru esantionarea
semnalului r(t). Norii de puncte recept ionate (R
(i)
[S
0
, respectiv R
(i)
[S
1
) obt inut i la transmisiunea unui
numar mare de simboluri n acest caz particular sunt ilustrat i n gura 6.3.(b). S-a considerat n acest
exemplu ca cele doua esantioane de zgomot n
1
si n
2
sunt independente, de unde rezulta structura haotica
a celor doua aglomerari de puncte. Dreapta punctata din gura 6.3.(b)
2
pare cea mai naturala alegere
(dintr-un punct de vedere strict calitativ) pentru mpart irea lui R
2
n cele doua zone de decizie
0
(semiplanul de sub dreapta)si
1
(semiplanul de deasupra dreptei)
3
. Se observa, de asemenea, ca exista
1
S-ar mai putea lua n considerare si mpart irea lui R
N
n trei zone de decizie:
0
,
1
, respectiv

anulare
.

In acest caz, daca r
anulare
, nu se ia nici o decizie asupra simbolului transmis de sursa,
considerandu-se ca o decizie ar prea riscanta. Canalul de transmisiune astfel obt inut devine un canal
cu alfabet binar la intrare si alfabet ternar la iesire, care, se numeste, dupa caz, e canal binar cu anulari,
e canal binar cu erori si anulari.
2

In R
2
, o hipersuprafat a este o curba, n R
3
o suprafat a, etc.
3
Daca s-ar considera pentru acest caz si zona de decizie
anulare
, aceasta ar trebui sa e o banda
delimitata de doua drepte paralele cu dreapta punctata din gura, situate de-o parte si de cealalta a
86 CAPITOLUL 6. DETECT IA SEMNALELOR
puncte clasicate gresit (puncte n
1
, respectiv puncte n
0
, acestea corespunzand unor decizii
gresite.
r
1
r
2
A
A
r
1
r
2
A
A

1
(a) (b)
Figura 6.3: Exemplicare 2D a procesului de decizie. Cu sunt gurate punctele R
(i)
[S
0
,
iar cu punctele R
(i)
[S
1
, n doua cazuri: (a) n absent a zgomotului si (b) n prezent a
zgomotului.

Impart irea lui R


N
n cele doua zone de decizie trebuie facuta n sensul minimizarii
unui criteriu de eroare.

In acest sens, se presupune ca deciziile sunt legate de niste costuri
presupuse cunoscute (impuse de aplicat ie) C
ij
cu i, j = 0, 1, care sunt numere pozitive
(C
ij
0) care reprezinta costul deciziei D
j
cand sursa emite S
i
:
C
ij
= Cost(S
i
D
j
), i, j = 0, 1.
Cu cat este de dorit ca un eveniment S
i
D
j
sa se ntample mai rar, cu atat costul aferent
C
ij
este mai mare
4
.
Regula de decizie Bayes se ia n sensul minimizarii costului mediu al deciziei. Odata
denite costurile aferente ecarui eveniment S
i
D
j
ce poate surveni la transmisia unui
simbol pe canal, se deneste valoarea medie a costului de decizie C:
C = C
00
P(D
0
S
0
) + C
01
P(D
1
S
0
) + C
10
P(D
0
S
1
) + C
11
P(D
1
S
1
)
= C
00
P(D
0
[S
0
)P
0
+ C
01
P(D
1
[S
0
)P
0
+ C
10
P(D
0
[S
1
)P
1
+ C
11
P(D
1
[S
1
)P
1
,
(6.2)
acesteia.
4
Pentru majoritatea transmisiunilor digitale, evenimentele S
0
D
1
(respectiv, transmiterea eronata a
unui 0) si S
1
D
0
(respectiv, transmiterea eronata a unui 1) sunt la fel de nedorite, caz n care trebuie
ales C
01
= C
10
. De asemenea, alegerea naturala pentru costurile evenimentelor transmisie corecta este
C
00
= C
11
= 0. Exista nsa cazuri n care important a deciziilor eronate asupra simbolurilor S
0
si S
1
sa
difere; atunci C
01
,= C
10
(un exemplu tipic este detect ia t intelor aeriene cu un sistem radar).
6.2. Criteriul de decizie Bayes: cazul observat iilor discrete 87
iar criteriul de decizie Bayes urmareste, dupa cum am enunt at anterior, minimizarea
acestui cost mediu C.

In calculul de la (6.2), am folosit formula probabilitat ii
condit ionate (2.4).

In continuare, pentru simplicarea formalismului matematic, vom folosi urmatoarele


convent ii de notat ie simplicate:
w
R
(r)
not
= w
R
1
R
2
...R
N
(r
1
, . . . , r
N
)
dr
not
= dr
1
dr
2
. . . dr
N
_
not
=
_

_
.
(6.3)
Astfel, n aceste condit ii, putem scrie:
P(D
0
[S
0
) = P ((R[S
0
)
0
) =
_
0
w
R[S
0
(r)dr, (6.4)
unde w
R[S
0
reprezinta densitatea de probabilitate de ordinul N a variabilelor aleatoare
R
1
, . . . , R
N
n ipoteza emiterii simbolului S
0
(cu alte cuvinte, revenind la exemplul din
gura 6.3, densitatea de probabilitate a punctelor gurate cu ). Relat ia (6.4) nu
reprezinta altceva decat extinderea la cazul a N variabile aleatoare a proprietat ii 2 a
densitat ii de probabilitate de ordinul doi (prezentata la pagina 34).

In mod absolut simi-
lar, si celelalte probabilitat i P(D
j
[S
i
) pot scrise:
P(D
j
[S
i
) = P ((R[S
i
)
j
) =
_
j
w
R[S
i
(r)dr, i, j = 0, 1, (6.5)
ceea ce conduce la urmatoarea relat ie pentru costul mediu:
C =
1

i=0
1

j=0
C
ij
P
i
_
j
w
R[S
i
(r)dr. (6.6)

In continuare, t inand cont ca:


_

0
w
R[S
0
(r)dr +
_

1
w
R[S
0
(r)dr =
_
R
N
w
R[S
0
(r)dr = P
_
(R[S
0
) R
N
_
= 1, (6.7)
putem scrie n relat ia (6.6) toate integralele pe domeniul
1
ca niste integrale pe
0
,
dupa:
_

1
w
R[S
i
(r)dr = 1
_

0
w
R[S
i
(r)dr, i = 0, 1. (6.8)
88 CAPITOLUL 6. DETECT IA SEMNALELOR
Astfel, valoarea costului mediu devine:
C = C
00
P
0
_

0
w
R[S
0
(r)dr + C
10
P
1
_

0
w
R[S
1
(r)dr+
+ C
01
P
0
_
_
1
_

0
w
R[S
0
(r)dr
_
_
+ C
11
P
1
_
_
1
_

0
w
R[S
1
(r)dr
_
_
, (6.9)
ceea ce poate rescris mai compact drept:
C = C
01
P
0
+ C
11
P
1
+
_

0
_
P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r)
_
dr. (6.10)
Din punct de vedere matematic, problema minimizarii costului mediu C din (6.10)
este una de minimizare a ariei unui subgrac n funct ie de domeniul ales. Solut ia poate
usor vazut a daca facem o analogie unidimensionala.

In gura 6.4 este prezentat gracul
unei funct ii oarecare f(x). Se observa ca alegand domeniul D
1
ca n gura, respectiv
D
1
=
_
x R

f(x) < 0
_
obt inem
_
D
1
f(x)dx min.
D
1
f(x)
x
Figura 6.4: Exemplicarea 1D a alegerii domeniului care minimizeaza aria de sub gracul
unei funct ii.

Intr-adevar, orice alt domeniu D


2
am adauga la D
1
, avem
_
D
1
D
2
f(x)dx >
_
D
1
f(x)dx,
ntrucat
_
D
2
f(x)dx > 0.
6.2. Criteriul de decizie Bayes: cazul observat iilor discrete 89
Revenind la problema alegerii intervalului
0
care minimizeaza costul mediu C
din (6.10), rezulta ca putem scrie, prin analogie cu situat ia ilustrata mai sus:
C = C
min

0
=
_
r R
N

P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r) < 0
_
.
(6.11)
Rezulta, deci, ca domeniul
1
care minimizeaza costul mediu este dat de:

1
=
_
r R
N

P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r) > 0
_
. (6.12)
Avand n vedere ca r
0
D
0
, respectiv r
1
D
1
,relat iile (6.11) si (6.12) pot
scrise mai compact astfel:
P
1
(C
10
C
11
)w
R[S
1
(r)
D
1

D
0
P
0
(C
01
C
00
)w
R[S
0
(r), (6.13)
ceea ce, prin rearanjarea termenilor, conduce la forma nala a criteriului de decizie Bayes:
w
R[S
1
(r)
w
R[S
0
(r)
D
1

D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.14)
Termenul din stanga se noteaza cu (r) si se numeste raport de plauzibilitate:
(r)
not
=
w
R[S
1
(r)
w
R[S
0
(r)
(6.15)
n timp ce termenul din dreapta (care este constant) se noteaza cu K si se numeste pragul
testului:
K
not
=
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.16)
Conform relat iei (6.14), rezulta schema bloc a blocului de decizie D din gura 6.5.
Prima operat ie este extragerea esantioanelor r
i
cu i = 1, . . . , N din semnalul continuu
r(t), pentru t [0, T], apoi se calculeaza raportul de plauzibilitate conform relat iei 6.15,
decizia nala ind data de rezultatul comparat iei acestuia cu pragul testului dat de 6.16.
Esantionare Calcul (r)
r(t)
r (r)
K
D
i

Figura 6.5: Schema bloc a blocului de detect ie D din gura 6.1 conform regulii de decizie
Bayes.
Sa mai ment ionam doar faptul ca, uneori, se prefera exprimarea regulii de decizie Bayes
n forma logaritmica, aceasta conducand la o expresie matematic mai simpla. Avand n
90 CAPITOLUL 6. DETECT IA SEMNALELOR
vedere ca funct ia logaritm natural este strict crescatoare, se poate rescrie relat ia (6.14)
sub forma:
ln (r)
D
1

D
0
ln K, (6.17)
ce reprezinta exprimarea criteriului Bayes n forma logaritmica.
6.2.1 Statistica sucienta
Se poate face ntotdeauna o schimbare de coordonate n R
N
astfel ncat toata informat ia
necesara deciziei sa e cont inuta ntr-o singura coordonata din spat iul transformat. Acea
coordonata se numeste statistica sucienta.
Astfel, daca se face schimbarea de coordonate [R
1
, . . . , R
N
] [L
1
, . . . , L
N
]
. .
L
, astfel
ncat,
w
L
2
,...,L
N
[S
0
(l
2
, . . . , l
N
) = w
L
2
,...,L
N
[S
1
(l
2
, . . . , l
N
), (6.18)
ceea ce, altfel spus, semnica faptul ca coordonatele L
2
, . . . , L
N
nu cont in informat ie
relevanta la decizie, atunci coordonata L
1
este statistica sucienta, iar regula de decizie
Bayes se scrie:
w
L[S
1
(l
1
, . . . , l
N
)
w
L[S
0
(l
1
, . . . , l
N
)
=
w
L
1
[S
1
(l
1
)
w
L
1
[S
0
(l
1
)
D
1

D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.19)
6.2.2 Criteriul Bayes pentru zgomot alb gaussian

In acest paragraf, vom particulariza regula de decizie Bayes pentru una din ipotezele
statistice cel mai des folosite pentru zgomotul de pe canal, si anume vom presupune ca
n(t) este un semnal aleator stat ionar, zgomot alb, avand o distribut ie de ordinul unu
gaussiana: n(t): ^(0,
n
) pentru t [0, T].
Pentru a pastra generalitatea, nu vom particulariza cele doua semnale s
0
(t) si s
1
(t),
marginindu-ne la a le presupune cunoscute.

In aceste ipoteze, densitat ile de probabilitate w


R[S
i
(r) ce intervin n regula de decizie
se calculeaza dupa cum urmeaza.

In ipoteza transmiterii lui S


0
avem r(t) = s
0
(t) + n(t) pentru t [0, T], ceea ce se
poate scrie n forma esantionata:
R
i
[S
0
= s
0i
+ n
i
i = 1, . . . , N, (6.20)
unde s
0i
not
= s
0
(t
i
) reprezinta valorile cunoscute ale semnalului s
0
la momentele de timp
alese pentru esantionarea lui r(t), iar n
i
not
= n(t
i
) reprezinta valorile aleatoare ale zgomo-
tului la aceleasi momente.
Cu aceste precizari, din relat ia (6.20) rezulta ca variabila aleatoare R
i
[S
0
, a carei re-
alizare particulara este r
i
, rezulta prin sumarea unei variabile aleatoare gaussiene n
i
peste
6.2. Criteriul de decizie Bayes: cazul observat iilor discrete 91
o constanta s
0i
5
. Aplicand rezultatul (3.32), rezulta ca si R
i
[S
0
are o distribut ie gaussiana,
cu media data de suma dintre media init iala si constanta adunata: R
i
[S
0
: ^(s
0i
,
n
), ceea
ce este echivalent cu:
w
R
i
[S
0
(r
i
) =
1

2
exp
_

(r
i
s
0i
)
2
2
2
n
_
i = 1, . . . , N. (6.21)
Avem, deci, distribut iile de ordinul unu ale tuturor componentelor vectorului R[S
0
.
Pentru a putea aplica, nsa, criteriul Bayes, avem nevoie de distribut ia de ordinul N a tu-
turor componentelor. Or, dupa cum stim din capitolul 4, cunostint ele despre distribut iile
de ordin inferior nu ofera sucienta informat ie pentru calculul distribut iilor de ordin mai
mare, decat ntr-o singura ipoteza: cea de independent a ntre variabilele aleatoare. Cum
n(t) este modelat ca ind zgomot alb, ceea ce, conform discut iei din paragraful 5.10
nseamna ca variabilele n(t
i
) si n(t
j
) sunt decorelate pentru t
i
,= t
j
, si cum, n plus
amandoua sunt gaussiene, putem presupune ca ele sunt si independente statistic
6
. Rezulta
ca si variabilele aleatoare R
i
[S
0
si R
j
[S
0
sunt independente pentru i ,= j, ntrucat ele
rezulta prin sumarea unor constante peste n
i
, respectiv n
j
. Putem, deci, scrie:
w
R[S
0
(r) =
N

i=1
w
R
i
[S
0
(r
i
) =
_
1

2
_
N
exp
_

1
2
2
n
N

i=1
(r
i
s
0i
)
2
_
. (6.22)
Rat ionamentul se poate relua n mod absolut similar si pentru w
R[S
1
(r):
w
R[S
1
(r) =
N

i=1
w
R
i
[S
1
(r
i
) =
_
1

2
_
N
exp
_

1
2
2
n
N

i=1
(r
i
s
1i
)
2
_
. (6.23)
Cu densitat ile de probabilitate deduse, rezulta ca raportul de plauzibilitate se scrie:
(r) =
w
R[S
1
(r)
w
R[S
0
(r)
=
_
1

2
_
N
exp
_

1
2
2
n

N
i=1
(r
i
s
1i
)
2
_
_
1

2
_
N
exp
_

1
2
2
n

N
i=1
(r
i
s
0i
)
2
_
= exp
_

1
2
2
n
N

i=1
_
(r
i
s
1i
)
2
(r
i
s
0i
)
2
_
_
= exp
_

1
2
2
n
N

i=1
_
r
2
i
2r
i
s
1i
+ s
2
1i
r
2
i
+ 2r
i
s
0i
s
2
0i
_
_
= exp
_
1

2
n
N

i=1
r
i
(s
1i
s
0i
)
1
2
2
n
N

i=1
_
s
2
1i
s
2
0i
_
_
.
(6.24)
5

In ipoteza transmiterii lui S


0
, valorile s
0i
sunt constante din punct de vedere statistic si nu tempo-
ral. Altfel spus, n expresia celui de-al i-lea esantion al semnalului recept ionat n ipoteza S
0
va aparea
ntotdeauna valoarea s
0i
.
6
Pentru ca n(t
i
) si n(t
j
) sa e independente, ar trebui ca si modelul statistic de ordinul doi al zgomo-
tului sa e tot gaussian.

In practica, cum nu exista semnal pur aleator, nu se poate presupune decorelarea
sau independent a ntre n(t
i
) si n(t
j
) pentru t
j
t
i
. Se poate alege, nsa, ecartul temporal minim ntre
doua momente succesive t
i1
si t
i
sucient de mare ca corelat ia din semnal sa se stinga; astfel, ipoteza
independent ei ntre valorile n(t
i
) devine verosimila.
92 CAPITOLUL 6. DETECT IA SEMNALELOR
Se observa ca pentru cazul de fat a este de preferat exprimarea criteriului Bayes n
forma sa logaritmica. Astfel, relat ia (6.17) devine:
1

2
n
N

i=1
r
i
(s
1i
s
0i
)
1
2
2
n
N

i=1
_
s
2
1i
s
2
0i
_ D
1

D
0
ln K, (6.25)
care, prin prelucrari elementare, poate scrisa sub forma nala ca:
N

i=1
r
i
(s
1i
s
0i
)
D
1

D
0

2
n
ln K +
1
2
N

i=1
_
s
2
1i
s
2
0i
_
, (6.26)
Observat ie. Termenul din stanga al relat iei (6.26), l
1
not
=

N
i=1
r
i
(s
1i
s
0i
) reprezinta sta-
tistica sucienta n acest caz, respectiv acea coordonata unica ce cont ine toata informat ia
necesara deciziei.
Exemplu. Sa particularizam relat ia (6.26) pentru urmatoarele semnale: s
0
(t) = 0,
s
1
(t) = A pentru t [0, T]. Astfel, avem s
0i
= 0 si s
1i
= A pentru i = 1, . . . , N. Sa mai
presupunem ca P
0
= P
1
=
1
2
(simboluri echiprobabile), C
00
= C
11
(costuri egale pentru
deciziile corecte) si C
01
= C
10
(costuri egale pentru deciziile gresite), ceea ce conduce la
K = 1, respectiv ln K = 0.

In aceste condit ii, relat ia (6.26) se scrie:
N

i=1
r
i
(A 0)
D
1

D
0
1
2
N

i=1
_
A
2
0
_
, (6.27)
ceea ce revine la:
1
N
N

i=1
r
i
D
1

D
0
A
2
. (6.28)
Revenind la exemplul prezentat n gura 6.3.(b), pentru N = 2, relat ia (6.28) se scrie
r
1
+ r
2
D
1

D
0
A, ceea ce corespunde solut iei gasite pe baza argumentelor calitative (ecuat ia
dreptei punctate din gura este r
1
+ r
2
= A).

In acest punct este utila discut ia inuent ei costurilor asupra deciziei. Sa presupunem
ca alegem C
01
> C
10
, ceea ce este un mod de a comunica sistemului de decizie ca
evenimentul S
0
D
1
este mai de nedorit decat S
1
D
0
.

In aceste condit ii, avem K > 1,
respectiv ln K > 0, iar regula de decizie revine r
1
+r
2
D
1

D
0
A+ cu =
2
n
ln K > 0. Altfel
spus, dreapta care separa cele doua zone de decizie se muta n sus cu o cantitate care
e cu atat mai importanta cu cat raportul costurilor
C
01
C
10
este mai mare.

In consecint a,
sistemul va favoriza decizia D
0
n detrimentul deciziei D
1
(pe masura ce dreapta luneca
n sus, din ce n ce mai multe puncte intra n
0
), ceea ce este exact comportamentul
asteptat! Trebuie remarcat ca, n acest caz, probabilitatea globala de eroare va creste,
ceea ce scade, nsa, este valoarea medie a costului.
6.3. Criteriul Bayes: cazul observat iilor continue 93
6.3 Criteriul Bayes: cazul observat iilor continue

In acest paragraf, vom vedea ce devine regula de decizie Bayes (6.14) n cazul n care
consideram spat iul observat iilor ca ind continuu, cu alte cuvinte, luand n considerare
ntregul semnal r(t) pentru t [0, T].
Vom trata problema ntr-un caz special, si anume considerand s
0
(t) = 0 pentru
t [0, T].

In acest caz, vom nota s
1
(t)
not
= s(t), pentru t [0, T], semnal avand ener-
gia:
E =
T
_
0
s
2
(t)dt.
Observat ia pe baza careia se ia decizia, respectiv semnalul r(t), cu t [0, T] poate
vazut ca o realizare particulara a unui vector aleator dintr-un spat iu cu o innitate
nenumarabila de dimensiuni. Vom ncerca sa-l reprezentam pe acesta ca un element
dintr-un spat iu cu un numar numarabil de dimensiuni. Aceasta poate facuta prin des-
compunerea lui r(t) ntr-o baza de funct ii pe [0, T]. Trebuie ales, deci, setul de funct ii
ortonormale v
k
(t)
kN
, pentru t [0, T], astfel ncat sa putem scrie:
r(t) =

k=1
r
k
v
k
(t), t [0, T]. (6.29)
Astfel, odata alese funct iile v
k
(t), va exista o corespondent a biunivoca ntre semnalul r(t)
si mult imea coecient ilor dezvoltarii sale n baza de funct ii aleasa, care este o mut ime
numarabila:
r(t), t [0, T] r
1
, r
2
, r
3
, . . ..
Constr angerea de ortonormalitate pe care o impunem bazei v
k
(t), ceea ce se poate
scrie compact ca:
T
_
0
v
k
(t)v
l
(t)dt =
_
1 daca k = l
0 daca k ,= l
, (6.30)
permite calculul coecient ilor dezvoltarii prin produs scalar ntre semnalul dezvoltat si
funct ia corespunzatoare din baza.

Intr-adevar, putem scrie:
T
_
0
r(t)v
i
(t)dt =
T
_
0
_

k=1
r
k
v
k
(t)
_
v
i
(t)dt =

k=1
r
k
T
_
0
v
k
(t)v
i
(t)dt
. .
=0 pentru k,=i
= r
i
. (6.31)
Considerentele care stau la baza alegerii setului de funct ii v
k
(t) sunt compactarea
cat mai buna a informat iei necesare deciziei. Cu alte cuvine urmarim sa concentr am
aceasta informat ie ntr-un numar cat mai mic de coecient i ai dezvoltarii r
k
, astfel ncat
decizia sa se ia cat mai simplu. Se arata ca, printr-o alegere potrivita a bazei, putem
94 CAPITOLUL 6. DETECT IA SEMNALELOR
face ca ntreaga informat ie aferenta deciziei sa e concentrata ntr-un singur coecient al
dezvoltarii. Astfel, alegem:
v
1
(t) =
1

E
s(t),
iar restul funct iilor v
k
(t) cu k = 2, 3, 4, . . . le alegem arbitrar, sub singura constangere de
ortonormalitate (6.30)
7
.
Cu baza astfel aleasa, avem:
r
1
=
T
_
0
r(t)v
1
(t)dt =
1

E
T
_
0
r(t)s(t)dt, (6.32)
care poate vazut ca o realizare particulara a unei variabile aleatoare notate R
1
.

In
ipoteza transmiterii ecaruia dintre cele doua simboluri, avem:
R
1
[S
0
=
T
_
0
r(t)v
1
(t)dt =
1

E
T
_
0
n(t)s(t)dt
not
= L
1
, (6.33)
R
1
[S
1
=
T
_
0
r(t)v
1
(t)dt =
1

E
T
_
0
(s(t) + n(t))s(t)dt =
=
1

E
T
_
0
s
2
(t)dt
. .
E
+
1

E
T
_
0
n(t)s(t)dt
. .
L
1
=

E + L
1
.
(6.34)
Coecientul r
k
al dezvoltarii pentru k ,= 1 poate vazut la randul sau ca ind o realizare
particulara a unei variabile aleatoare R
k
, a carei densitate de probabilitate poate scrisa,
n ecare dintre cele doua ipoteze, ca:
R
k
[S
0
=
1

E
T
_
0
n(t)v
k
(t)dt
not
= L
k
, (6.35)
R
k
[S
1
=
1

E
T
_
0
(s(t) + n(t))v
k
(t)dt =
=
1

E
T
_
0
s(t)v
k
(t)dt
. .
0
+
1

E
T
_
0
n(t)v
k
(t)dt
. .
L
k
= L
k
.
(6.36)
7
O astfel de baza exista. Judecand ntr-un spat iu cu numar redus de dimensiuni, sa zicem N = 3,
pentru orice vector s R
3
se poate alege o baza ortonormala a lui R
3
, v
1
, v
2
, v
3
, n care unul din
vectori sa e paralel cu s. Astfel, se alege v
1
=
s
s
, iar v
2
si v
3
se aleg n planul perpendicular pe
v
1
, de norma unitara, si perpendiculari unul pe celalalt. Procedeul de construct ie a unei astfel de baze
ortonormale se numste metoda Gram-Schmidt.
6.3. Criteriul Bayes: cazul observat iilor continue 95

In dezvoltarea (6.36), s-a folosit faptul ca funct iile v


k
(t) cu k ,= 1 s-au ales ortogonale pe
v
1
(t), deci si pe s(t). Din relat iile (6.35) si (6.36), se observa cu usurint a ca:
w
R
k
[S
0
(r
k
) = w
R
k
[S
1
(r
k
) k = 2, 3, 4, . . . , (6.37)
cu alte cuvinte, coecient ii r
2
, r
3
, r
4
, . . . sunt irelevant i pentru decizie, ntrucat distribut ia
ecaruia dintre ei (si, evident, a tuturor) nu depinde de simbolul transmis de sursa. Decizia
se va lua numai pe baza coecientului r
1
8
, iar regula de decizie Bayes (6.14) se scrie n
acest caz:
w
R
1
[S
1
(r
1
)
w
R
1
[S
0
(r
1
)
D
1

D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.38)
cu r
1
dat de (6.32).
6.3.1 Cazul zgomotului alb gaussian
Vom particulariza acum relat ia (6.38) n ipoteza unui zgomot alb, gaussian (acelasi model
statistic folosit n paragraful 6.2.2).
Avand n vedere relat iile (6.33) si (6.34), rezulta ca pentru deducerea celor doua
distribut ii din (6.38) trebuie calculata distribut ia lui
L
1
=
1

E
T
_
0
n(t)s(t)dt. (6.39)

Intrucat pentru t [0, T], n(t) este o variabila aleatoare gaussiana, rezulta ca si n(t)s(t)
este o variabila aleatoare gaussiana (rezulta din nmult irea lui n(t) cu o constanta), deci
si suma tuturor acestor variabile aleatoare pentru tot i t [0, T], cu alte cuvinte nsasi
variabila L
1
are si ea o distribut ie gaussiana: L
1
: ^(L
1
,
L
1
). Singurele nedeterminate
sunt media L
1
si dispersia
L
1
, pe care le vom calcula n continuare. Avem:
L
1
=
1

E
T
_
0
n(t)s(t)dt =
1

E
T
_
0
n(t)s(t)dt =
1

E
T
_
0
n(t)
..
0
s(t)dt = 0, (6.40)
respectiv:
L
2
1
=
_
_
1

E
T
_
0
n(t)s(t)dt
_
_
2
=
1
E
T
_
0
T
_
0
n(t
1
)s(t
1
)n(t
2
)s(t
2
)dt
1
dt
2
=
1
E
T
_
0
T
_
0
n(t
1
)n(t
2
)
. .
R
n
(t
1
,t
2
)
s(t
1
)s(t
2
)dt
1
dt
2
=
1
E
T
_
0
T
_
0
R
n
(t
1
t
2
)s(t
1
)s(t
2
)dt
1
dt
2
.
(6.41)
8
r
1
reprezinta statistica sucienta n acest caz.
96 CAPITOLUL 6. DETECT IA SEMNALELOR
Cum, nsa, n(t) este zgomot alb, conform (5.81) funct ia lui de autocorelat ie e data de:
R
n
() =
2
n
(), (6.42)
de unde relat ia (6.41) devine:
L
2
1
=

2
n
E
T
_
0
T
_
0
(t
1
t
2
)s(t
1
)s(t
2
)dt
1
dt
2
=

2
n
E
T
_
0
s(t
2
)
_
_
T
_
0
s(t
1
)(t
1
t
2
)dt
1
_
_
. .
s(t
2
)
dt
2
=

2
n
E
T
_
0
s
2
(t
2
)dt
2
. .
E
=
2
n
.
(6.43)

In calculul de mai sus, s-a folosit relat ia (A.5) demonstrata n anexa A.

In continuare, din (3.21), avem:

2
L
1
= L
2
1
L
1
2
=
2
n
, (6.44)
de unde rezulta, n sfarsit, ca L
1
: ^(0,
n
). De aici, t inand cont de (6.33) si (6.34),
rezulta ca R
1
[S
0
: ^(0,
n
), respectiv R
1
[S
1
: ^(

E,
n
), si, deci, raportul de plauzibili-
tate devine:
(r
1
) =
w
R
1
[S
1
(r
1
)
w
R
1
[S
0
(r
1
)
=
1

2
exp
_

(r
1

E)
2
2
2
n
_
1

2
exp
_

r
2
1
2
2
n
_
= exp
_

1
2
2
n
_
(r
1

E)
2
r
2
1
_
_
= exp
_
r
1

2
n

E
2
2
n
_
,
(6.45)
iar relat ia (6.38) se scrie, n forma logaritmica:
r
1

2
n

E
2
2
n
D
1

D
0
ln K, (6.46)
ceea ce, t inand cont de (6.32), se scrie n forma nala ca:
T
_
0
r(t)s(t)dt
D
1

D
0

2
n
ln K +
E
2
, (6.47)
Din punct de vedere practic, blocul de decizie poate implementat folosind un ltru
adaptat la semnalul s(t), dupa cum este ilustrat n gura 6.6.

Intr-adevar, daca se calculeaza valoarea semnalului la iesirea ltrului, avem:


y(t) = r(t) h(t) =

r()h(t )d =
t
_
0
r()s(t T + )d, (6.48)
6.3. Criteriul Bayes: cazul observat iilor continue 97
r(t)
h(t)=s(Tt)

n
2
lnK+E/2
y(t)
D
i
Figura 6.6: Schema bloc a blocului de detect ie pentru cazul continuu.
de unde:
y(T) =
T
_
0
r()s()d.
Se observ a ca iesirea ltrului la momentul t = T reprezinta exact termenul stang al
relat iei (6.47). La momentul respectiv se ia decizia pe baza comparat iei cu termenul din
dreapta (care este o constanta) dupa care se trece la urmatorul simbol etc.
98 CAPITOLUL 6. DETECT IA SEMNALELOR
Capitolul 7
Estimarea parametrilor
7.1 Introducere
Problema abordata n capitolul anterior, n cadrul detect iei semnalelor, este ca pe baza
masuratorii n zgomot a unui semnal despre care stim ca provine dintr-o mult ime nita
de semnale cunoscute, sa decidem care dintre semnalele posibile a fost emis pe canal.

In cazul estimarii parametrilor, dispunem de o masuratoare n zgomot a unui semnal


cunoscut care depinde de un parametru necunoscut, despre care avem doar un model
statistic a priori (adica n absent a oricarei masuratori). Problema estimarii parametrilor,
pe care o vom aborda n continuare, este ca, pe baza semnalului observat n zgomot si a
modelului statistic pentru parametrul necunoscut, sa-l estimam pe acesta cat mai bine.
Situat ia este prezentata schematic n gura 7.1.
r(t)
S M canal U
zgomot
n(t)
s(t,)
E
^

s(t)
Figura 7.1: Problema estimarii parametrilor.
Informat ia de interes este valoarea necunoscuta , modelata ca ind o realizare parti-
culara a unei variabile aleatoare , de distribut ie w

cunoscuta:

(k)
. (7.1)
Necunoscuta moduleaza n blocul de modulare Mn intervalul de timp [0, T] un semnal
cunoscut s(t). Semnalul masurat la iesirea din canal r(t) este o versiune afectata de
zgomot aditiv n(t) a semnalului s(t, ), care depinde n mod cunoscut de parametrul
necunoscut . Problema blocului de estimare E, pe care o vom dezvolta n continuarea
99
100 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
acestui capitol, este de a calcula un estimat cat mai precis al valorii necunoscute , estimat
pe care-l notam cu

.
Vom discuta problema estimarii numai n cazul observat iilor discrete. Cu alte cuvinte,
calculul estimatului

se va face pe baza vectorului recept ionat r = (r
1
, r
2
, . . . , r
N
) format
din N esantioane ale semnalului recept ionat r(t), dupa cum s-a discutat n detaliu n
paragraful 6.1. Evident, r este o realizare particulara a unui vector aleator Ndimensional,
pe care-l vom nota, ca si n capitolul anterior, cu R = (R
1
, R
2
, . . . , R
N
). De asemenea,
vom pastra notat iile (6.3).
7.2 Estimarea n sensul costului mediu minim
Regula de calcul al estimatului

trebuie facuta n sensul minimizarii unei funct ii de cost
C, care trebuie sa depinda de eroarea de estimare

, adica de diferent a dintre estimat si


valoarea reala:
C = C(

)
unde

=

.
Evident, pentru ca funct ia C sa ndeplineasca semnicat ia de cost al estimarii, ea trebuie
aleasa crescatoare cu modulul argumentului. Cu alte cuvinte, costul estimarii trebuie sa
creasca atunci cand eroarea de estimare creste n valoare absoluta.

Intrucat valoarea estimata



este o funct ie de cele N valori ale semnalului observat,
rezulta ca funct ia de cost C este o funct ie de N+1 variabile aleatoare, respectiv parametrul
ce trebuie estimat si cele N esantioane ale semnalului recept ionat. Rezulta ca valoarea
medie a costului C se va calcula prin extensia directa a teoremei de medie (4.30) la cazul
N + 1 dimensional:
C =
_
R
N+1
C(

)w
R,
(r, )drd. (7.2)

In continuare, vom cauta sa calculam estimatul



astfel ncat costul mediu al estimarii (7.2)
sa e minim.
Astfel, scriem densitatea de probabilitate de ordinul N + 1 conform (4.16):
w
R,
(r, ) = w
[R=r
()w
R
(r) = w
R[=
(r)w

() (7.3)
dupa care costul mediu poate scris, separand integrala N + 1 dimensionala ntr-o inte-
grala unidimensionala dupa , urmata de una N dimensionala dupa r:
C =
_
R
N
w
R
(r)
_
_

C(

)w
[R=r
()d
_
_
dr (7.4)
7.2. Estimarea n sensul costului mediu minim 101
Vom nota integrala dupa cu I, care, evident, este o funct ie atat de vectorul r, cat si de

:
I(r,

)
not
=

C(

)w
[R=r
()d. (7.5)
Costul mediu C devine minim daca pentru ecare observat ie r alegem

astfel ncat
integrala I(r,

) din (7.5) sa e minima.

In paragrafele urmatoare, vom deduce formula nala a estimatului care minimizeaza


pe I pentru doua funct ii de cost precizate.
7.2.1 Estimarea n sensul funct iei de cost patratul erorii
Consideram n acest paragraf cazul funct iei de cost patratice:
C
p
(

) =
2

. (7.6)
Alegerea funct iei patratice pentru denirea costului estimarii implica faptul ca vom in-
sera n regula de calcul a estimatului o informat ie conform careia cu cat eroarea de
estimate este mai mare, cu atata costul estimarii este mai important!

Inlocuind (7.6) n (7.5), obt inem:


I(r,

) =

_
2
w
[R=r
()d. (7.7)
Valoarea lui

care minimizeaza pe I se obt ine din ecuat ia:
I(r,

)

= 0. (7.8)
Astfel, avem:
I(r,

)

= 2

_
w
[R=r
()d
= 2

w
[R=r
()d
. .
1
2

w
[R=r
()d.
(7.9)

In dezvoltarea de mai sus, s-a t inut cont de cele precizate n paragraful 3.5, conform carora
o densitate de probabilitate condit ionata respecta toate proprietat ile unei densitat i de
probabilitate, deci si condit ia de normare. Astfel, aplicand (7.8) obt inem expresia nala
a estimatului optim n sensul funct iei de cost patratul erorii, numit estimat patratic si
notat

p
:

p
=

w
[R=r
()d (7.10)
102 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Interpretarea relat iei (7.10) este ca estimatul patratic al unui parametru se calculeaza ca
media condit ionata a posteriori a acestuia, respectiv media statistica a parametrului n
condit iile n care vectorul observat este chiar r.
7.2.2 Estimarea n sensul funct iei de cost uniforme

In acest paragraf, vom deduce formula estimatului optim n sensul funct iei de cost uni-
forme, denita ca:
C
u
(

) =
_
0 daca [

[
E
2
1 n rest
. (7.11)
Alegerea funct iei (7.11) pe post de cost al estimarii este echivalenta cu a spune ca nu
ne intereseaza decat ca eroarea de estimare sa e ntre niste limite bine precizate. Atata
vreme cat eroarea este mai mica decat limita respectiva, costul este nul, n timp ce daca
limita a fost depasita, nu ne intereseaza cu cat anume a fost depasita.
Rescriind relat ia (7.11) ca:
C
u
(

) = 1
_
1 daca


E
2


+
E
2
0 n rest
, (7.12)
si nlocuind-o n (7.5), obt inem:
I(r,

) =

w
[R=r
()d
. .
1

+
E
2
_

E
2
w
[R=r
()d, (7.13)
de unde rezulta ca minimizarea lui I este echivalenta cu maximizarea dupa

a integralei:
I
t
(r,

) =

+
E
2
_

E
2
w
[R=r
()d. (7.14)
Problema maximizarii lui I
t
din (7.14) nu poate rezolvata analitic decat printr-o
aproximare suplimentara, si anume facand ipoteza ca lat imea E a intervalului de accep-
tabilitate a erorii de estimare este foarte mica. Atunci, putem scrie:
w
[R=r
()
E
constant = w
[R=r
(

),
_


E
2
,

+
E
2
_
(7.15)
ceea ce conduce la:
I
t
(r,

) w
[R=r
(

+
E
2
_

E
2
d
. .
E
= Ew
[R=r
(

). (7.16)
7.2. Estimarea n sensul costului mediu minim 103
Astfel, maximizarea lui I
t
revine la maximizarea densitat ii de probabilitate w
[R=r
().
Se numeste estimat maximum a posteriori si se noteaza cu

map
estimatul optimn sensul
funct iei de cost uniforme, si este acea valoare a lui care maximizeaza densitatea de
probabilitate a posteriori:
w
[R=r
()

map
= max . (7.17)

In gura 7.2 este ilustrata grac diferent a ntre cei doi estimatori.
w
|{R=r}
()

map
^ ^
Figura 7.2: Diferent a ntre estimatul patratic si cel maximum a posteriori pentru o
distribut ie a posteriori w
[R=r
oarecare.
Relat ia (7.17) poate pusa ntr-o forma n care intervin densitatea de probabilitate
a priori w
R[=
(r) al carei calcul este mai simplu de facut.

In primul rand, exprimam
relat ia (7.17) n forma logaritmica:
ln w
[R=r
()

map
= max, (7.18)
ceea ce este echivalent cu a spune ca:

ln w
[R=r
()

map
= 0 (7.19)
Din (7.3), scriem densitatea a posteriori a lui ca:
w
[R=r
() =
w
R[=
(r)w

()
w
R
(r)
, (7.20)
104 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
de unde (7.19) se scrie:

ln
_
w
R[=
(r)w

()
w
R
(r)
_

map
= 0. (7.21)
T inand cont de proprietatea logaritmului de a transforma produsul n suma, putem scrie
relat ia de mai sus sub forma:
_

ln w
R[=
(r) +

ln w

()

ln w
R
(r)
_

map
= 0, (7.22)
de unde, observand ca ultimul termen din partea stanga a ecuat iei este nul (densitatea
w
R
(r) nu depinde de ) obt inem forma nala a ecuat iei ce permite determinarea lui

map
:
_

ln w
R[=
(r) +

ln w

()
_

map
= 0. (7.23)

In paragraful urmator, vom prezenta un exemplu de calcul al estimatului unui


parametru pentru ipoteze statistice bine precizate pentru acesta si pentru zgomot.
7.2.3 Estimarea unui parametru gaussian n zgomot alb, gaus-
sian
Vom presupune ca provine dintr-o distribut ie gaussiana, de medie si dispersie

cunoscute: : ^(,

). De asemenea, vom considera pentru zgomotul n(t) acelasi


model statistic folosit n paragraful 6.2.2, si anume zgomot alb, cu distribut ie normala de
medie 0 si dispersie
n
.
Vom presupune n plus ca semnalul modulat depinde n mod liniar de :
s(t, ) = s(t), t [0, T], (7.24)
cu s(t) un semnal cunoscut.

In aceste condit ii, semnalul recept ionat este:
r(t) = s(t, ) + n(t) = s(t) + n(t), t [0, T]. (7.25)
Sa precizamn continuare ca, desi problema calculului estimatului lui poate rezol-
vata direct, si mai simplu, aplicand una din formulele (7.10) sau (7.23), noi vom proceda
prin calculul intermediar al distribut iei a posteriori w
[R=r
() a parametrului necunos-
cut, considerand ca astfel se poate ajunge la o mai buna nt elegere a problemei.
Pornim calculul densitat ii de probabilitate a posteriori de la relat ia (7.20).

In ceea ce
priveste distribut ia globala a vectorului recept ionat w
R
(r), o putem scrie ca o densitate
marginala a lui w
R,
(r, ) aplicand extensia relat iei (4.6) pentru cazul multidimensional:
w
R
(r) =

w
R,
(r, )d =

w
R[=
(r)w

()d. (7.26)
7.2. Estimarea n sensul costului mediu minim 105
Rezulta, deci, ca:
w
[R=r
() =
w
R[=
(r)w

()

w
R[=
(r)w

()d
, (7.27)
relat ie ce face legatura ntre densitatea de probabilitate a posteriori w
[R=r
() si den-
sitat ile a priori w
R[=
(r), respectiv w

(), densitat i ce pot calculate direct pe baza


ipotezelor statistice asumate.
Pentru calculul densitat ii de probabilitate a vectorului R n ipoteza = , pornim
de la (7.25), de unde rezulta ca esantionul r(t
i
) al semnalului recept ionat este realizarea
particulara a variabilei R
i
, care, n ipoteza transmiterii lui se scrie:
R
i
[ = = s
i
+ n
i
, i = 1, . . . , N, (7.28)
unde s
i
not
= s(t
i
) si n
i
not
= n(t
i
).
Astfel, din (7.28), rezulta ca R
i
[ = : ^(s
i
,
n
), de unde, pe baza independent ei
ntre esantioanele semnalului r(t) (conform celor discutate n detaliu n paragraful 6.2.2),
avem:
w
R[=
(r) =
N

i=1
w
R
i
[=
(r
i
) =
_
1

2
_
N
exp
_

1
2
2
n
N

i=1
(r
i
s
i
)
2
_
. (7.29)
Cum, tot conform ipotezelor init iale,
w

() =
1

2
exp
_

( )
2
2
2

_
, (7.30)
rezulta ca (7.27) se scrie:
w
[R=r
() =
_
1

2
_
N
1

2
exp
_

1
2
2
n

N
i=1
(r
i
s
i
)
2
_
exp
_

()
2
2
2

_
_
1

2
_
N
1

exp
_

1
2
2
n

N
i=1
(r
i
s
i
)
2
_
exp
_

()
2
2
2

_
d
, (7.31)
ceea ce, dupa reduceri si gruparea termenilor, poate scris sub forma compacta ca:
w
[R=r
() =
exp(A
2
+ B C)

exp(A
2
+ B C)d
(7.32)
cu
A
not
=

N
i=1
s
2
i
2
2
n
+
1
2
2

(7.33a)
B
not
=

N
i=1
r
i
s
i

2
n
+

(7.33b)
C
not
=

N
i=1
r
2
i
2
2
n
+

2
2
2

(7.33c)
106 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Punand forma patratica ce constituie argumentul exponent ialei din (7.32) sub forma ei
canonica, avem:
exp(A
2
+ B C) = exp
_
A
_

B
2A
_
2
_
exp
_
B
2
4A
C
_
. .
const
. (7.34)
Astfel, relat ia (7.32) devine:
w
[R=r
() =
exp
_
B
2
4A
C
_
exp
_
A
_

B
2A
_
2
_
exp
_
B
2
4A
C
_

_

exp
_
A
_

B
2A
_
2
_
d
=
1
_

A
exp
_
A
_

B
2A
_
2
_
.
(7.35)

In relat ia (7.35) s-a t inut cont ca pentru > 0 si t


0
R avem:

exp
_
(t t
0
)
2

dt =
_

. (7.36)
Confruntand (7.35) cu (3.23), putem scrie:
[R = r: ^
_
B
2A
,
1

2A
_
. (7.37)
Cu alte cuvinte, distribut ia lui a posteriori, t inand cont de informat ia observata si
cont inuta n r, este tot gaussiana, avand media si dispersia date de:
[R = r =
B
2A
=

N
i=1
r
i
s
i

2
n
+

N
i=1
s
2
i

2
n
+
1

, (7.38)

[R=r
=
1

2A
=
1
_

N
i=1
s
2
i

2
n
+
1

. (7.39)
Sa interpretam rezultatul obt inut ntr-un caz particular, si anume s(t) = 1, pentru
t [0, T].

In acest caz, relat ia (7.28) devine:
R
i
[ = = + n
i
, i = 1, . . . , N. (7.40)
Altfel spus, dispunem de N observat ii ale lui afectate de zgomot, din care trebuie sa-l
estimam pe acesta.

In aceasta situat ie particulara, media si dispersia lui [R = r
devin:
[R = r =

N
i=1
r
i

2
n
+

2
n
+
1

=
1
N

N
i=1
r
i
1 +
1
N

2
n

+

1 + N

2
n
(7.41)

[R=r
=
1
_
N

2
n
+
1

. (7.42)
7.2. Estimarea n sensul costului mediu minim 107

In gura 7.3 sunt prezentate densitatea de probabilitate a priori w

() si densitatea
de probabilitate a posteriori w
[R=r
() n doua cazuri diferite, pentru valori numerice
precizate ale parametrilor statistici si ale vectorului observat r. Se observa ca, fat a de
distribut ia a priori w

(), distribut ia a posteriori w


[R=r
() se deplaseaza n direct ia
data de observat ia r. Mai mult, se observa ca dispersia parametrului [R = r este
ntotdeauna mai mica decat dispersia lui (ceea ce poate si demonstrat matematic
din relat ia (7.42)) ceea ce este normal, ntrucat masuratoarea r de care dispunem aduce
informat ie suplimentara asupra lui .
0 2 4 6 8 10 12
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
w

()
w
|{R=r
1
}
()
w
|{R=r
2
}
()
Figura 7.3: Distribut ia a priori w

() pentru = 5 si

= 2 si distribut ia a posteriori
w
[R=r
() pentru doi vectori recept ionat i r
1
= [1.6; 2.69; 2.82; 2.71; 3.29], respectiv
r
2
= [9.0; 11.57; 5.39; 7.94; 7.53].
Evident, ntrucat w
[R=r
() este un clopot al lui Gauss, valoarea care l maximizeaza
pe acesta coincide cu valoarea medie, deci estimatul patratic este egal cu estimatul ma-
ximum a posteriori (vezi gura 7.2):

p
=

map
= [R = r =
1
N

N
i=1
r
i
1 +
1
N

2
n

+

1 + N

2
n
. (7.43)
Relat ia de mai sus poate interpretata mai usor facand urmatoarele notat ii:

not
=
1
1 +
1
N

2
n

, (7.44a)

not
=
1
1 + N

2
n
. (7.44b)
Se observa apoi ca
+ = 1. (7.45)
108 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Notand, de asemenea, media celor N esantioane ale lui r cu
N
(r):

N
(r)
not
=
1
N
N

i=1
r
i
, (7.46)
si t inand cont de (7.45), relat ia (7.43) se scrie:

p
=

map
not
=

=
N
(r) + (1 ). (7.47)
Rezulta, deci, ca estimatul lui se obt ine ca o combinat ie convexa ntre doi termeni:
primul este media aritmetica a observat iilor lui n zgomot
N
(r), care reprezinta es-
timatul practic al lui , bazat numai pe observat ii, n timp ce al doilea este , care
reprezinta estimatul a priori al lui , bazat numai pe cunostint ele statistice a priori
asupra parametrului necunoscut. Situat ia este ilustrata n gura 7.4.

N
(r)

^
_
1

0
Figura 7.4: Estimatul

este o combinat ie convexa ntre estimatul practic
N
(r) si cel
a priori .
Ponderile celor doi termeni n valoarea nala a lui

depind de trei parametri, si anume
dispersia zgomotului
n
, dispersia cunoscuta a priori a parametrului

si numarul de
observat ii N. Sa analizam pe scurt dependent a ponderilor de ecare din cei trei parametri
(luat n considerare independent de ceilalt i):
N 1


N
(r). Cu alte cuvinte, pe masura ce avem din ce n ce mai
multe masuratori, tindem sa dam o pondere din ce n ce mai mare masuratorii n
detrimentul cunostint elor a priori.

n
0

. Altfel spus, ponderea estimatului a priori creste cu
dispersia zgomotului, care este o masura a puterii acestuia. Acest lucru e normal
ntrucat cu cat zgomotul de masuratoare este mai mare, cu atat observat ia este mai
put in abila.

1


N
(r).

este dispersia cunoscuta a priori a variabilei


aleatoare din care provine . Cu alte cuvinte

este o masura a cat de verosimila


este valoarea pentru . Este normal, deci, ca ponderea estimatului a priori sa
scad a cu

.

In cele doua cazuri limita, putem scrie:

0
, cu alte cuvinte,
masuratoarea nu conteaza, ntrucat stim dinainte ca = , respectiv

N
(r).
Acest din urma caz, respectiv

modeleaza absent a cunostint elor a priori


asupra lui .

Intr-adevar, pe masura ca

creste, clopotul w

se aplatizeaza,
apropiindu-se din ce n ce mai mult de o funct ie constanta pe R. Evident, n acest
caz, estimarea se face numai pe baza observat iei.

In paragraful urmator, vom da o
solut ie generala pentru acest caz.
7.3. Evaluarea calitat ii unui estimator 109
7.2.4 Estimarea n absent a unui model statistic a priori
Dupa cum am prezentat n exemplul precedent, faptul ca nu avem nici o cunost int a a
priori asupra modelului statistic al parametrului necunoscut este echivalent cu a spune,
n absent a oricarei masuratori, ca el poate lua orice valoare cu egala probabilitate, altfel
spus:
w

() = constant R (7.48)
inserand (7.48) n (7.23), obt inem relat ia de calcul al estimatului. Se numeste estimat de
maxima plauzibilitate si se noteaza cu

mp
acea valoare a lui care maximizeaza densitatea
de probabilitate a priori w
R[=
(r), sau, altfel spus:

ln w
R[=
(r)

mp
= 0. (7.49)
Este de remarcat faptul ca estimatul de maxima plauzibilitate nu este o alternativ a la
cel patratic sau maximum a posteriori, ci este solut iantr-un caz particular, si anume lipsa
informat iilor statistice a priori asupra parametrului necunoscut. Problema calculului lui

mp
nu se pune daca stim w

()!
7.3 Evaluarea calitat ii unui estimator
Vom prezenta n continuare cateva criterii de evaluare a calitat ii unui estimator. Evident,
estimatul

al valorii date este o variabila aleatoare. Cu alte cuvinte, repetarea estimarii
aceluiasi va conduce de ecare data la valori diferite ale lui

, indiferent de metoda
de calcul aleasa. Valoarea medie a estimatului lui dupa toate realizarile posibile ale
vectorului aleator recept ionat R[ = este data de:

=
_
R
N

(r)w
R[=
(r)dr. (7.50)
Estimatul se numeste nedeplasat daca

= .

In caz contrar, estimatul se numeste de-
plasat. Evident, cu cat diferent a

este mai mare, cu atata calitatea estimatorului
scade.
De asemenea, se poate calcula si variant a estimatului

dupa:

=
_

_
2
=
_
R
N
_

(r)

_
2
w
R[=
(r)dr. (7.51)
Variant a (dispersia) estimatului

este o masura a uctuat iei valorilor acestuia n ju-
rul valorii medii. Evident, cu cat dispersia este mai mica, cu atat calitatea estimatorului
creste.

In general, este de preferat un estimator deplasat cu dispersie mica unuia nede-
plasat dar avand dispersie mare.
110 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Capitolul 8
Semnale aleatoare n timp discret
8.1 Introducere

In acest capitol, vom ncepe studiul semnalelor aleatoare n timp discret. Acestea sunt
obt inute din semnalele aleatoare n timp continuu prin esantionare, cu o anumita perioada
T
e
, dupa cum este ilustrat n gura 8.1. Conform teoremei esantionarii, pentru ca semnalul
continuu s a poata reconstituit fara nici o pierdere din esantioanele sale, trebuie ca
frecvent a de esantionare sa e de cel put in doua ori mai mare ca frecvent a maxima a
semnalului f
max
:
f
e
=
1
T
e
2f
max
. (8.1)
T
e

t
Figura 8.1: Esantionarea semnalelor
Astfel, semnalele aleatoare n timp discret sunt reprezentate sub forma de secvent a de
numere [. . . , (T
e
), (0), (T
e
), (2T
e
), . . . , (nT
e
), . . . , ] ecare dintre aceste numere ind
o variabila aleatoare continua.

In cele ce urmeaza, vom omite din notat ie perioada de
esantionare, adica vom nota:
(n)
not
= (nT
e
). (8.2)
111
112 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET
Reprezentarea semnalelor n timp discret este unul din cei doi pasi care fac posi-
bila prelucrarea semnalelor cu calculatorul. Al doilea pas este cuantizarea (subiect pe
care-l vom aborda n detaliu n capitolul 11) care implica transformarea naturii valorilor
esantioanelor (n) din continua n discreta.
Evident, datorita naturii discrete a reprezentarii temporale a semnalului, atat den-
sitat ile de probabilitate de orice ordin cat si momentele semnalului vor si ele reprezentate
tot n timp discret.

In rest, toate considerentele discutate n capitolul 5 raman valabile si
n reprezentarea n timp discret.

In particular, un semnal aleator n timp discret (n) se
numeste stat ionar n sens larg (pe scurt, stat ionar) daca:
(n) = (8.3)
R

(n, k) = (n)(k) = R

(n k). (8.4)

In continuare, vom presupune ipoteza de stat ionaritate pentru toate semnalele n timp
discret considerate.

In ceea ce priveste reprezentarea spectrala a semnalelor aleatoare n timp discret,


sigura modicare fat a de reprezentarea n timp continuu este data de faptul ca, datorita
esantionarii cu perioada T
e
, cea mai mare frecvent a ce poate reprezentata n spectrul
semnalului (conform condit iei Nyquist) este:

max
=

e
2
=

T
e
. (8.5)
Deci, t inand cont de convent ia de notat ie T
e
= 1, densitatea spectrala de putere a semnalu-
lui, obt inuta ca ind transformata Fourier n timp discret a funct iei sale de autocorelat ie:
q

() = TR

(k)() =

k=
R

(k) exp(jk), (8.6)


va avea componente n intervalul de frecvent e [, ].
8.2 Matricea de autocorelat ie

In acest paragraf, vom deni o structura foarte importanta n studiul semnalelor aleatoare
n timp discret, si anume matricea de autocorelat ie. Vom porni prin a deni vectorul
R
N1
ca ind vectorul coloana ce cont ine N esantioane ale unui semnal stat ionar:
=
_
(0) (1) (N 1)

T
. (8.7)
unde prin ()
T
am notat operatorul de transpunere de matrici. Matricea de autocorelat ie
a semnalului, notata cu R

, se deneste ca:
R

=
T
(8.8)
8.2. Matricea de autocorelat ie 113
Explicitand nmult irea si t iand cont de faptul ca funct ia de autocorelat ie a semnalului
este para, avem:
R

=
_

_
(0)
(1)
.
.
.
(N 1)
_

_
_
(0) (1) (N 1)

=
_

_
(0)(0) (0)(1) (0)(N 1)
(1)(0) (1)(1) (1)(N 1)
.
.
.
.
.
.
.
.
.
.
.
.
(N 1)(0) (N 1)(1) (N 1)(N 1)
_

_
=
_

_
R

(0) R

(1) R

(2) R

(N 1)
R

(1) R

(0) R

(1) R

(N 2)
R

(2) R

(1) R

(0) R

(N 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R

(N 1) R

(N 2) R

(N 3) R

(0)
_

_
.
(8.9)

In mod absolut similar, se deneste si matricea de autocovariat ie K

ca ind:
K

=
_

_ _

_
T
= R


T
, (8.10)
care, la fel ca si matricea de autocorelat ie, se poate scrie sub forma:
K

=
_

_
K

(0) K

(1) K

(2) K

(N 1)
K

(1) K

(0) K

(1) K

(N 2)
K

(2) K

(1) K

(0) K

(N 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
K

(N 1) K

(N 2) K

(N 3) K

(0)
_

_
. (8.11)
Se observa imediat din relat iile (8.9) si (8.11) ca atat matricea de autocorelat ie cat si
cea de autocovariat ie sunt simetrice si au o structura de tip Toeplitz
1
.
O alta proprietate importanta a celor doua matrici este aceea ca ele sunt pozitiv
denite. Vom demonstra aceasta armat ie pentru matricea de autocorelat ie, demonstrat ia
pentru matricea de autocovariat ie facandu-se n mod similar. Vom demonstra, deci, ca
x R
N1
, avem
x
T
R

x 0. (8.12)

Intr-adevar, e un vector coloana oarecare x R


N1
si e variabila aleatoare scalara
= x
T
. Avem:

2
=
T
= x
T
(x
T
)
T
= x
T

T
x = x
T

T
x = x
T
R

x. (8.13)
1
O matrice este de tip Toeplitz daca elementele de pe orice diagonala paralela cu diagonala principala
sunt egale.
114 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET

In demonstrat ia de mai sus am folosit faptul ca este un scalar, deci el este egal cu
transpusa sa. Cum, prin denit ie,
2
0, rezulta proprietatea enunt ata.
Faptul ca matricea de autocorelat ie (autocovariat ie) este simetrica si pozitiv denita
este echivalent cu a spune ca valorile sale proprii sunt toate pozitive, proprietate la care
vom mai face referire n cele ce urmeaza.
8.3 Modele stochastice
Termenul de model, aici, se refera la ipotezele ce se fac privind modul n care a fost
generat un anumit semnal de interes. Din multitudinea de modele posibile, cele liniare
prezinta un interes deosebit, datorita simplitat ii lor. Problema care se pune, deci, este
de a proiecta un sistem liniar invariant n timp (ceea ce am numit pe scurt ltru liniar)
care sa genereze un semnal cu proprietat i statistice cunoscute (dorite) pornind de la un
semnal av and un model statistic simplu, cum ar , de exemplu, un zgomot alb n timp
discret
2
, adica un semnal (n) de medie nula, avand funct ia de autocorelat ie data de:
R

(n k) = (n)(k) =
_

2

daca k = n
0 daca k ,= n
. (8.14)
Problema este ilustrata n gura 8.2.
Filtru liniar
in timp discret
(n)
(n)
(zgomot alb) (semnal de interes)
Figura 8.2: Model stochastic liniar.
Sa precizam ca problema pe care ne propunem sa o rezolvam nu este noua.

In para-
graful 5.11 s-a discutat, n contextul prelucrarii semnalelor aleatoare continue, despre tre-
cerea semnalelor aleatoare prin ltre liniare, deducandu-se o relat ie de calcul al marimilor
statistice ale semnalului de iesire (densitate spectrala de putere, sau, alternativ, funct ie
de autocorelat ie) n funct ie de cele ale semnalului de intrare si de parametrii sistemului
(presupusi cunoscut i).

In cazul de fat a, avem aceeasi schema generala (un ltru liniar si
doua semnale, de intrare si iesire) numai ca problema pe care ne-o punem este de a de-
termina parametrii ltrului care sa conduca la obt inerea unui semnal de parametri dorit i,
n condit iile n care modelul semnalului de intrare este unul cunoscut.
Exista trei tipuri de modele liniare n timp discret, pe care le vom prezenta pe scurt
n paragrafele urmatoare.
2
Un astfel de semnal, mai exact o secvent a de numere decorelate, este foarte usor de generat cu
calculatorul, prin apelul funct iilor de generare de numere pseudoaleatoare.
8.3. Modele stochastice 115
8.3.1 Modelul AR
Modelul autoregresiv (AR) este caracterizat de urmatoarea relat ie ntre intrare si iesire:
(n) + a
1
(n 1) + a
2
(n 2) + . . . + a
M
(n M) = (n) n = 0, 1, 2, . . . (8.15)
unde constantele a
i
se numesc coecient ii ltrului. Scriind relat ia (8.15) sub forma
(n) = (n)
M

i=1
a
i
(n i), (8.16)
se observan calculul esantionului curent al semnalului de iesire (n) intervin M esantioane
anterioare ale aceluiasi semnal si esantionul curent al semnalului de intrare, ceea ce jus-
tica denumirea modelului. Schema bloc a unui model AR este prezentata n gura 8.3.a.
Daca se considera transformatele Z ale semnalelor, adica N(z) = Z(n)(z), X(z) =
Z(n)(z), si a secvent ei de coecient i:
H
A
(z) = Za
i
(z) =
M

i=0
a
i
z
i
, (8.17)
unde a
0
not
= 1, atunci relat ia (8.15) se scrie n domeniul spectral ca:
H
A
(z)X(z) = N(z), (8.18)
de unde rezulta ca funct ia de transfer a ltrului AR este data de:
H(z) =
X(z)
N(z)
=
1
H
A
(z)
=
1

M
i=0
a
i
z
i
. (8.19)
Pentru ltrele care implica recursie, se pune n mod special problema stabilitat ii. Un
ltru se numeste stabil daca, n condit iile n care semnalul de intrare este marginit, atunci
si semnalul de iesire este de asemenea marginit:
M R astfel ncat [(n)[ M [(n)[ M, n Z. (8.20)
Dupa cum se stie din teoria ltrelor digitale, condit ia necesara si sucienta ca un ltru
sa e marginit este ca polii funct iei de transfer sa e n interiorul cercului unitate. Pentru
cazul de fat a, notand cu p
i
radacinile numitorului funct iei de transfer:
H
A
(p
i
) = 0, i = 1, . . . , M, (8.21)
atunci condit ia de stabilitate este echivalenta cu:
[p
i
[ < 1. (8.22)
Dupa cum este demonstrat n referint a [4], condit ia (8.22) asigura si stat ionaritatea
(asimptotica) a semnalului de iesire.
116 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET

z
1
z
1
z
1

a
1
a
2
a
M1
a
M
(n)
(n)
(n1)
(n2)
(nM)
+
+
+
+
+
+
+

z
1
z
1
z
1
b
1
b
2
b
L1
b
L
(n)
(n)
(n1)
(n2)
(nL)
+
+
+
+
+
+
+
+


(a) (b)

z
1
z
1
z
1
z
1
z
1
z
1
b
1
b
2
b
L1
b
L
a
M
a
M1
a
1
a
2
(n1)
(n2)
(nL)
(nM)
(n2)
(n1)
+
+
+
+
+
+
+
+
+

+
+
+
+
+
+



(n)
(n)
(c)
Figura 8.3: Schemele bloc ale diverselor tipuri de modele stochastice: (a) AR, (b) MA,
(c) ARMA. Blocurile gurate cu z
1
sunt blocuri de ntarziere cu un ciclu de ceas.
8.3. Modele stochastice 117
8.3.2 Modelul MA
Modelul moving average (MA)
3
este caracterizat de relat ia:
(n) = (n) + b
1
(n 1) + b
2
(n 2) + . . . + b
L
(n L) n = 0, 1, 2, . . . (8.23)
Cu alte cuvinte, esantionul curent al semnalului de iesire se calculeaza ca o medie
ponderata a ultimelor L+1 esantioane ale semnalului de intrare cu coecient i constant i,
ceea ce justica denumirea data modelului. Schema bloc a unui ltru MA este desenata
n gura 8.3.b.
Considerand transformata Z a secvent ei de coecient i b
i
:
H
B
(z) = Zb
i
=
L

i=0
b
i
z
i
, (8.24)
unde b
0
not
= 1, relat ia (8.23) se scrie n domeniul spectral ca:
X(z) = H
B
(z)N(z), (8.25)
de unde rezulta ca funct ia de transfer a ltrului MA este data de:
H(z) =
X(z)
N(z)
= H
B
(z) =
L

i=0
b
i
z
i
. (8.26)
Se observa ca funct ia de transfer a ltrului nu are numitor, deci ltrul este n mod inerent
stabil (cum, dealtfel, se poate observa direct din relat ia ce leaga intrarea de iesire n timp).
8.3.3 Modelul ARMA
Modelul ARMA este o combinat ie ntre cele doua modele precedente, ind caracterizat
de relat ia:
(n) + a
1
(n 1) + a
2
(n 2) + . . . + a
M
(n M) =
(n) + b
1
(n 1) + b
2
(n 2) + . . . + b
L
(n L) n = 0, 1, 2, . . . (8.27)

In calculul esantionului curent al semnalului de iesire intervin esantioane anterioare


atat ale acestuia, cat si ale semnalului de intrare. Schema bloc a unui ltru ARMA este
prezentata n gura 8.3.c.
Cu notat iile din (8.17) si (8.24), relat ia (8.27) se scrie n domeniu spectral ca:
X(z)H
A
(z) = N(z)H
B
(z), (8.28)
de unde rezulta ca funct ia de transfer a ltrului este data de:
H(z) =
X(z)
N(z)
=
H
B
(z)
H
A
(z)
. (8.29)
Problema stabilitat ii este aceeasi ca la modelul AR, si anume pentru ca ltrul ARMA sa
e stabil trebuie sa aiba loc (8.22), cu p
i
dat i de (8.21).
3
Datorita faptului ca termenul MA este consacrat n literatura de specialitate, vom pastra terminologia
engleza, n locul celei romanesti, care s-ar putea traduce ca medie glisanta.
118 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET
8.3.4 Ecuat iile YuleWalker
Dintre cele trei modele descrise anterior, vom rezolva problema enunt ata, si anume de
proiectare a ltrului (respectiv de calcul al coecient ilor acestuia) pentru a obt ine un
semnal cu parametri statistici cunoscut i pentru un model de tip AR, ntrucat permite
exprimarea analitica a legaturii ntre coecient i si parametrii statistici ai semnalului de
iesire.
Vom considera, deci, n continuare, ca relat ia dintre semnalul de intrare si cel de iesire
este data de (8.15).

Inmult ind-o pe aceasta cu (ni) si mediind statistic relat ia, obt inem:
(n)(n i) + a
1
(n 1)(n i) + . . . + a
M
(n M)(n i) = (n)(n i). (8.30)
Se observa ca mediile statistice din partea stanga a ecuat iei reprezinta valori ale funct iei
de autocorelat ie a semnalului de iesire. Mai mult, pentru i > 0 termenul din dreapta este
nul, ntruc at reprezinta corelat ia ntre esantionul curent al zgomotului de la intrare si un
esantion anterior al semnalului de iesire:
(n)(n i) = 0 i = 1, 2, 3, . . . . (8.31)
Relat ia de mai sus este evidenta: (n i) depinde de esantioanele zgomotului de pan a la
momentul ni, care sunt toate decorelate cu cel de la momentul n. Astfel, relat ia (8.30)
se scrie:
R

(i) + a
1
R

(i 1) + a
2
R

(i 2) + . . . + a
M
R

(i M) = 0, i = 1, 2, 3, . . . (8.32)
Scriind (8.32) pentru i = 1, . . . , M obt inem un sistem de M ecuat ii cu M necunoscute, care
leaga coecient ii necunoscut i ai ltrului a
i
de valorile cunoscute (dorite) ale funct iei de
autocorelat ie a semnalului de iesire, sistem care poarta numele de ecuat iile YuleWalker:
R

(1) + a
1
R

(0) + a
2
R

(1) + . . . + a
M
R

(M + 1) = 0
R

(2) + a
1
R

(1) + a
2
R

(0) + . . . + a
M
R

(M + 2) = 0

R

(M) + a
1
R

(M 1) + a
2
R

(M 2) + . . . + a
M
R

(0) = 0
(8.33)
T inand cont de faptul ca funct ia de autocorelat ie R

este para, sistemul (8.33) poate


scris compact, sub forma matriciala ca:
_

_
R

(0) R

(1) R

(2) R

(M 1)
R

(1) R

(0) R

(1) R

(M 2)
R

(2) R

(1) R

(0) R

(M 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R

(M 1) R

(M 2) R

(M 3) R

(0)
_

_
_

_
a
1
a
2
a
3
.
.
.
a
M
_

_
=
_

_
R

(1)
R

(2)
R

(3)
.
.
.
R

(M)
_

_
.
(8.34)
8.3. Modele stochastice 119
Observand ca matricea sistemului de ecuat ii este chiar matricea de autocorelat ie a sem-
nalului de iesire (8.9), si facand urmatoarele notat ii suplimentare:
a
not
=
_

_
a
1
a
2
a
3
.
.
.
a
M
_

_
, (8.35)
respectiv
r

not
=
_

_
R

(1)
R

(2)
R

(3)
.
.
.
R

(M)
_

_
, (8.36)
solut ia sistemului de ecuat ii YuleWalker se scrie ca:
a = R
1

. (8.37)
Se impun cateva observat ii n legatura cu rezultatul obt inut mai sus. Sa pornim prin
a scrie relat ia (8.30) pentru i = 0.

In acest caz, termenul din dreapta nu mai este zero,
ci, t inand cont de (8.16) poate scris:
(n)(n) = (n)
_
(n)
M

i=1
a
i
(n i)
_
=
2
(n)
. .

i=1
a
i
(n)(n i)
. .
0
=
2

, (8.38)
de unde (8.30) se scrie:
R

(0) + a
1
R

(1) + a
2
R

(2) + . . . + a
M
R

(M) =
2

. (8.39)
Aceasta relat ie ne da modul de calcul al variant ei zgomotului, care, n condit iile modelului
luat n considerare (zgomot alb), este singurul parametru necunoscut al acestuia. Practic,
sistemul de ecuat ii (8.33) mpreuna cu ecuat ia (8.39) formeaza mpreuna un sistem care
leaga n mod biunivoc M + 1 necunoscute (respectiv cei M coecient i a
i
ai ltrului si
variant a zgomotului de intrare
2

) de primele M +1 valori ale funct iei de autocorelat ie a


semnalului de iesire R

(i) cu i = 0, . . . , M. Se observa ca daca mpart im (8.34) la R

(0),
obt inem un sistem de ecuat ii care leaga valorile funct iei de autocorelat ie normalizate

(i) =
R

(i)
R

(0)
(8.40)
de coecient ii ltrului:
a
1
, a
2
, . . . , a
M

(1),

(2), . . . ,

(M). (8.41)
120 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET
Cu alte cuvinte, coecient ii a
i
determina forma generala a funct iei de autocorelat ie, din
variant a zgomotului
2

regland, apoi, valorile propriu-zise (nenormalizate) ale acesteia:

(0). (8.42)
O alta observat ie importanta este aceea ca relat ia (8.32) poate scrisa si pentru i > M,
adica:
R

(M + 1) + a
1
R

(M) + a
2
R

(M 1) + . . . + a
M
R

(1) = 0
R

(M + 2) + a
1
R

(M + 1) + a
2
R

(M) + . . . + a
M
R

(2) = 0

(8.43)
Aceste relat ii permit calculul valorilor funct iei de autocorelat ie R

(i) pentru i > M n


funct ie de R

(0), R

(1), . . . , R

(M). Deci, valorile funct iei de autocorelat ie pentru i > M


nu sunt independente, ci depind de primele M+1 valori, respectiv cele specicate. Aceasta
observat ie este utila pentru alegerea ordinului modelului (respectiv a numarului M de
coecient i ai ltrului), ntrucat acesta reprezinta numarul de grade de libertate, adica
numarul de valori n care putem specica independent funct ia de autocorelat ie pe care
dorim sa o obt inem la iesire.

In gura 8.4 sunt prezentate doua forme dorite ale funct iei de autocorelat ie, iar
n gura 8.5 sunt prezentate semnalele obt inute la iesirea ltrului AR corespunzatore
funct iilor de autocorelat ie specicate.
0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
(a)
0 1 2 3 4 5 6 7 8 9 10
1
0.5
0
0.5
1
(b)
Figura 8.4: Doua exemple de funct ie de autocorelat ie R

(i) dorita la iesirea unui ltru


AR, specicate pana la ordinul M = 10.
8.3. Modele stochastice 121
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
(a)
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
(b)
0 20 40 60 80 100 120 140 160 180 200
2
1
0
1
2
3
(c)
Figura 8.5: Semnalele la intrarea si iesirea modelului AR: (a) Semnalul de intrare (zgo-
mot alb); (b) Semnalul la iesirea ltrului AR de ordin M = 10 proiectat n funct ie de
valorile R

(i) din gura 8.4.a; (c) Semnalul la iesirea ltrului AR proiectat M = 10 n


funct ie de valorile R

(i) din gura 8.4.b


122 CAPITOLUL 8. SEMNALE ALEATOARE

IN TIMP DISCRET
Capitolul 9
Filtrarea optimala a semnalelor
9.1 Introducere
Problema ltrarii optimale a semnalelor, pe care o vom trata n acest capitol pentru
semnale aleatoare n timp discret, se poate enunt a astfel: dorim sa proiectam un ltru
liniar care, aplicandu-i-se la intrare un semnal aleator (n), sa produca la iesire un semnal
(n) care sa e cat mai apropiat de un semnal aleator dorit (n). Facem din start
precizarea ca atat semnalul de intrare, cat si cel dorit a obt inut la iesire, sunt presupuse
stat ionare si de medie nula. Putem exprima similaritateantre semnalul dorit si cel obt inut
la iesirea ltrului prin intermediul diferent ei ntre cele doua semnale:
e(n) = (n) (n) n = 0, 1, 2, . . . , (9.1)
numit semnal eroare. Evident, este de dorit ca e(n) sa aiba valori cat mai mici. Problema
este ilustrata n gura 9.1.

(n)
(n)
e(n)
+

in timp discret
(n)
Filtru liniar
Figura 9.1: Punerea problemei ltrarii optimale a semnalelor.
Datorit a constrangerii pe care o impunem din start sistemului cautat, de a liniar si
invariant n timp, relat ia dintre semnalele de intrare si iesire este data de:
(n) =

k=0
h
k
(n k). (9.2)
123
124 CAPITOLUL 9. FILTRAREA OPTIMAL

A A SEMNALELOR
Relat ia (9.2) nu reprezinta altceva decat adaptarea relat iei (5.89) pentru cazul semnalelor
n timp discret, considerand n plus ltrul cauzal. Valorile h
k
se numesc coecient ii
ltrului si constituie necunoscutele problemei puse. Sunt posibile doua tipuri de structuri
de ltre: cele cu numar nit de coecient i, care se numesc ltre de tip FIR (Finite I mpulse
Response), si cele cu un numar innit de coecient i, care se numesc ltre IIR (I nnite
I mpulse Response)
1
.
Pentru a putea pune problema n ecuat ie, mai trebuie denit un criteriu de eroare,
prin care sa traducem matematic dezideratul enunt at, si anume asemanarea semnalului de
iesire (n) cu cel dorit (n). Alegem, ca dealtfel n majoritatea cazurilor tratate n aceasta
lucrare, minimizarea erorii patratice medii, criteriu de eroare care conduce, n general, la
un sistem de ecuat ii liniare, deci usor rezolvabil. T inand cont de (9.2), semnalul eroare
se scrie ca:
e(n) = (n)

k=0
h
k
(n k) n = 0, 1, 2, . . . (9.3)
iar eroarea medie patratica se deneste ca:
= e(n)
2
, (9.4)
care, datorita stat ionaritat ii semnalelor, este independenta de momentul de timp ales n.
Astfel, problema enunt ata se traduce matematic prin gasirea ponderilor h
k
care mini-
mizeaza pe dat de (9.4). Filtrul optimal astfel obt inut se numeste ltru Wiener.
9.2 Principiul ortogonalitat ii
Valorile ponderilor h
i
care minimizeaza eroarea patratica medie sunt acele valori n care
derivata acesteia este nula. Derivata lui dupa ponderea h
i
se scrie ca:

h
i
=
e
2
(n)
h
i
= 2e(n)
e(n)
h
i
= 2e(n)(n i), i = 0, 1, 2, . . . , (9.5)
de unde rezulta ca:
e
o
(n)(n i) = 0, i = 0, 1, 2, . . . , (9.6)
unde cu e
o
(n) am notat valoarea optima a erorii, adica cea corespunzatoare lui
min
.
Relat ia (9.6) este expresia principiului ortogonalitat ii, si, desi constituie un rezultat in-
termediar, are o interpretare importanta. Principiul ortogonalitat ii arma ca, n cazul
optimal, diferent a ntre ce dorim si ce avem la iesirea ltrului la un moment de timp
dat este decorelata cu toate esantioanele anterioare ale semnalului de intrare! Aceasta
decorelare a erorii fat a de semnalul de intrare semnica faptul ca am extras maximum de
informat ie din acesta, ntrucat nu mai exista nici o legatura statistica
2
ntre semnalul de
1
Din punct de vedere al implementarii practice, ltrele IIR sunt ltre cu recursie, de tipul AR sau
ARMA, n timp ce ltrele de FIR sunt ltre de tip MA.
2
Evident, este vorba despre o legatura statistica de tip liniar, singurul tip de legatura ce poate
evaluat cu ajutorul corelat iei.
9.3. Ecuat iile WienerHopf 125
care dispunem (cel de intrare) si ceea ce mai lipseste semnalului de iesire pentru ca acesta
sa corespunda ntru totul cerint elor noastre (adica sa e egal cu semnalul dorit (n)).
Corelat ia ntre semnalul de iesire si eroarea optimala poate scrisa, t inand cont
de (9.2), ca:
e
o
(n)(n i) = e
o
(n)
_

k=0
h
k,o
(n i k)
_
=

k=0
h
k,o
e
o
(n)(n i k), (9.7)
unde cu h
k,o
am notat ponderile optimale, care minimizeaza pe pe .

Inlocuind (9.6)
n (9.7), rezulta ca
e
o
(n)(n i) = 0, i = 0, 1, 2, . . . , (9.8)
relat ie ce reprezinta corolarul principiului ortogonalitat ii, care arma ca eroarea obt inuta
n cazul optimal este decorelata si cu valorile prezenta si anterioare ale semnalului de
iesire.
9.3 Ecuat iile WienerHopf

In aceast paragraf, vom deduce relat iile de calcul al ponderilor ltrului Wiener. Pornind
de la principiul ortogonalitat ii (9.6), si nlocuind expresia erorii (9.3) n cazul optimal,
obt inem:
_
(n)

k=0
h
k,o
(n k)
_
(n i) = 0, i = 0, 1, 2, . . . (9.9)
de unde, prin calcule elementare, obt inem:
(n)(n i)
. .
R

(i)
=

k=0
h
k,o
(n i)(n k)
. .
R

(ik)
i = 0, 1, 2, . . . . (9.10)
Prin identicarea mediilor din ecuat ia de mai sus cu valorile funct iei de autocorelat ie a
semnalului de intrare R

, respectiv a funct iei de intercorelat ie ntre semnalul de intrare si


cel dorit la iesirea ltrului R

, obt inem relat ia cautata:

k=0
h
k,o
R

(i k) = R

(i), i = 0, 1, 2, 3, . . . , (9.11)
Ecuat iile (9.11) poarta numele de ecuat iile WienerHopf, si reprezinta un sistem liniar
de o innitate de ecuat ii cu o innitate de necunoscute, care permite calculul ponderilor
optimale h
k,o
n funct ie de autocorelat ia semnalului de intrare si de intercorelat ia dintre
semnalul de intrare si cel dorit la iesirea ltrului (presupuse cunoscute).
Sa facem urmatoarea observat ie importanta. Solut ia sistemului de ecuat ii Wiener
Hopf poate scrisa n domeniul spectral, observand ca termenul stang al relat iei (9.11)
126 CAPITOLUL 9. FILTRAREA OPTIMAL

A A SEMNALELOR
nu reprezinta altceva decat convolut ia n timp discret ntre funct ia de autocorelat ie a
semnalului de intrare si secvent a h
k,o

kN
a ponderilor ltrului Wiener. Rezulta, deci,
ca relat ia (9.11) poate scrisa n domeniul spectral sub forma:
q

()H
o
() = q

(), [, ], (9.12)
unde H
o
() este funct ia de transfer a ltrului optimal, adica transformata Fourier n timp
discret a secvent ei de coecient i h
k,o
:
H
o
() = T h
k,o
() =

k=0
h
k,o
exp(jk) (9.13)
Ecuat ia (9.12) permite calculul funct iei de transfer a ltrului optimal ca:
H
o
() =
q

()
q

()
. (9.14)

In paragraful urmator, vom da o solut ie a sistemului de ecuat ii WienerHopf n dome-


niul temporal, pentru o structura particulara de ltru, si anume ltru cu numar nit de
coecient i.
9.3.1 Ecuat iile WienerHopf pentru ltru de tip FIR
Considerand numarul de coecient i ai ltrului nit, adica:
h
k
= 0 k = M, M + 1, M + 2, . . . , (9.15)
relat ia dintre iesire si intrarea ltrului este data de:
(n) =
M1

k=0
h
k
(n k). (9.16)
Structura ltrului Wiener de tip FIR, care implementeaza relat ia (9.16) este prezentata
n gura 9.2.

In acest caz particular, sistemul de ecuat ii WienerHopf (9.11) devine:


M1

k=0
h
k,o
R

(i k) = R

(i), i = 0, 1, 2, 3, . . . . (9.17)
Scriind relat iile de mai sus pentru i = 0, 1, . . . , M 1, obt inem urmatorul sistem de M
ecuat ii cu M necunoscute, a carui solut ie vor ponderile ltrului optimal h
k,o
:
h
0,o
R

(0) + h
1,o
R

(1) + . . . + h
M1,o
R

(M + 1) = R

(0)
h
0,o
R

(1) + h
1,o
R

(0) + . . . + h
M1,o
R

(M + 2) = R

(1)

h
0,o
R

(M 1) + h
1,o
R

(M 2) + . . . + h
M1,o
R

(0) = R

(M 1)
(9.18)
9.4. Aplicat ii ale ltrarii optimale a semnalelor 127
(n) (n1) (n2) (nM+1)
z
1
(n)

h
M1,o
h
2,o
h
1,o
h
0,o
z
1
z
1

+
+
+
+ +
+


Figura 9.2: Schema bloc a unui ltru optimal cu numar nit de coecient i (ltru de tip
FIR).
T inand cont de faptul ca funct ia de autocorelat ie R

este para, sistemul (9.18) poate


scris sub forma matriciala ca:
_

_
R

(0) R

(1) R

(M 1)
R

(1) R

(0) R

(M 2)
.
.
.
.
.
.
.
.
.
.
.
.
R

(M 1) R

(M 2) R

(0)
_

_
. .
R

_
h
0,o
h
1,o
.
.
.
h
M1,o
_

_
=
_

_
R

(0)
R

(1)
.
.
.
R

(M 1)
_

_
. (9.19)
Notand cu h
o
vectorul coloana al ponderilor optimale :
h
o
not
=
_

_
h
0,o
h
1,o
.
.
.
h
M1,o
_

_
, (9.20)
si cu r

vectorul ce cont ine valorile funct iei de intercorelat ie ntre semnalul de intrare si
cel dorit la iesire:
r

not
=
_

_
R

(0)
R

(1)
.
.
.
R

(M 1)
_

_
, (9.21)
putem scrie solut ia sistemului WienerHopf pentru cazul unui ltru de tip FIR ca:
h
o
= R
1

. (9.22)
9.4 Aplicat ii ale ltrarii optimale a semnalelor

In paragrafele urmatoare vom prezenta doua dintre cele mai importante aplicat ii ale l-
trelor optimale, si anume atenuarea zgomotului si predict ia.
128 CAPITOLUL 9. FILTRAREA OPTIMAL

A A SEMNALELOR
9.4.1 Atenuarea zgomotului
Sa presupunem ca semnalul de intrare (n) reprezinta versiunea perturbata cu zgomot
aditiv (n) a unui semnal de interes (n)
(n) = (n) + (n) n = 0, 1, 2, . . . . (9.23)

In acest caz, dorim ca iesirea ltrului sa aproximeze cat mai bine semnalul util. Cu alte
cuvinte, alegem:
(n) (n). (9.24)
Sa presupunem n continuare ca semnalul (n) reprezinta un proces aleator zgomot
alb, independent de semnalul util, de unde rezulta ca funct ia de autocorelat ie a semnalului
de intrare este:
R

(k) = (n)(n + k) = ((n) + (n))((n + k) + (n + k))


= (n)(n + k)
. .
R

(k)
+ (n)(n + k)
. .
0
+ (n + k)(n)
. .
0
+ (n)(n + k)
. .
R

(k)
= R

(k) + R

(k).
(9.25)

In dezvoltarea de mai sus am folosit faptul ca procesele si v sunt independente, ceea ce


face ca (n
1
)(n
2
) = (n
1
) (n
2
)
. .
0
= 0.

In plus, intercorelat ia ntre si se scrie:


R

(i) = (n)(n + i) = ((n) + (n))(n + i) = (n)(n + i)


. .
R

(i)
+ (n)(n + i)
. .
0
= R

(i),
(9.26)
de unde rezulta ca vectorul r

este prima coloana a matricii de autocorelat ie a semnalului


util R

:
r

=
_

_
R

(0)
R

(1)
.
.
.
R

(M 1)
_

_
not
= r

(9.27)
T inand cont de (8.14), rezulta ca matricea de autocorelat ie a zgomotului este diag-
onala: R

=
2

I
N
. Prin particularizarea relat iei (9.22) pentru datele deduse mai sus,
rezulta forma nala a coecient ilor ltrului Wiener optimal pentru atenuarea zgomotului:
h
o
=
_
R

+
2

I
N
_
1
r

. (9.28)

In gura 9.3 este prezentat un exemplu de ltrare de zgomot cu un ltru Wiener.


9.4. Aplicat ii ale ltrarii optimale a semnalelor 129
50 100 150 200 250 300 350 400 450 500
60
40
20
0
20
40
60
50 100 150 200 250 300 350 400 450 500
50
0
50
Figura 9.3: Exemplu de atenuare de zgomot cu un ltru optimal: n gura de sus,
semnalul original (cu linie ntrerupta) si cel petrurbat cu zgomot alb (cu linie continua).

In gura de jos, semnalul original (cu linie ntrerupta) si semnalul rezultat prin ltrarea
cu un ltru Wiener cu 20 de coecient i (cu linie continua).
9.4.2 Predict ia
Predict ia este o alta aplicat ie importanta n prelucrarea semnalelor. Scopul predict iei este
ca la ecare moment de timp n sa se estimeze valoarea urmatoare a semnalului de intrare.
Astfel, considerand semnalul de intrare (n), alegem semnalul de iesire dorit al ltrului
Wiener predictor ca ind:
(n) (n + 1). (9.29)

In aceste condit ii, intercorelat ia ntre semnalul de intrare si cel dorit este:
R

(i) = (n)(n + i) = (n)(n + i + 1) = R

(i + 1), (9.30)
ceea ce face ca vectorul r

din (9.21) sa e:
r

=
_

_
R

(1)
R

(2)
.
.
.
R

(M)
_

_
not
= r

. (9.31)
Vectorul ponderilor optimale ale ltrului Wiener predictor este astfel dat de:
h
o
= R
1

. (9.32)
130 CAPITOLUL 9. FILTRAREA OPTIMAL

A A SEMNALELOR
Se impun doua observat ii referitoare la relat ia (9.32). Prima este legata de faptul
ca problema predict iei unui semnal se pune numai n cazul n care ntre esantioanele
semnalului respectiv exista o oarecare corelat ie.

Intr-adevar, daca (n) este complet
decorelat, adica R

(i) = 0 pentru i ,= 0, atunci vectorul r

din (9.31) este nul, si la fel


va si vectorul ponderilor optimale h
o
si, implicit, si iesirea ltrului predictor! Se poate
de asemenea arata ca eroarea de predict ie este cu atat mai mica cu cat ntre esantioanele
semnalui exista o corelat ie mai puternica.
A doua observat ie se refera la similaritatea ntre solut ia sistemului de ecuat ii Wiener
Hopf pentru ltrul predictor (9.32) si solut ia sistemului de ecuat ii YuleWalker (8.37).
Aceasta asemanare nu este ntamplatoare: daca privim ltrul Wiener predictor din
gura 9.1 ca un sistem cu intrarea data de (n) si cu iesirea data de eroarea de predict ie
e(n) =

(n + 1) (n) (n loc de valoarea prezisa (n)
not
=

(n + 1)), atunci acesta poate
vazut ca inversul ltrului autoregresiv, respectiv un sistem liniar care are la intrare
un semnal cu funct ie de autocorelat ie cunoscuta si care trebuie sa produca la iesire un
semnal complet decorelat cu intrarea.

In gura 9.4 este prezentat un exemplu de act iune a unui ltru Wiener predictor.
50 100 150 200 250 300 350 400 450 500
50
0
50
100
50 100 150 200 250 300 350 400 450 500
60
40
20
0
20
40
60
80
Figura 9.4: Exemplu de predict ie: n gura de sus, semnalul original (cu linie ntrerupta)
si cel prezis de un ltru Wiener cu 20 de coecient i (cu linie continua).

In gura de jos,
sunt reprezentate semnalul original (cu linie ntrerupta) si eroarea de predict ie (cu linie
continua).
Predict ia este utilizata pentru compresia semnalelor (spre exemplu, semnalul vocal se
9.4. Aplicat ii ale ltrarii optimale a semnalelor 131
codeaza foarte bine prin predict ie liniara). Daca predict ia este buna, deci daca valoarea
prezisa aproximeaza del valoarea reala a semnalului, atunci pe canal se poate transmite
numai diferent a ntre cele doua valori, care, ind n medie mica (vezi gura 9.4), poate
codata pe un numar redus de bit i . Avandn vedere ca regula de predict ie este cunoscuta,
partea predictibila a semnalului poate reprodusa exact la recept ie. Din aceasta, prin
adaugarea erorii transmise pe canal, poate reconstruit ecare esantion al semnalului.
Astfel, se poate face o transmisiune cu compresie a semnalului, practic fara pierderi, pe
baza redundant ei (corelat iei) existente n acesta.
Schema bloc a unui lant de transmisiune cu predict ie, conform celor descrise mai
sus, este prezentata n gura 9.5. Blocul Q este bloc de codare a erorii: ntr-o prima
faza, eroarea este cuantizata iar apoi este codata cu un cod entropic (de tip Human) ce
exploateaz a distribut ia puternic neuniforma a valorilor acesteia: valorile mici au proba-
bilitate de aparit ie mare, n timp ce valorile mari apar rar. Blocul Q
1
reprezinta bloc
de decodare a erorii. Singurele pierderi (diferent a ntre e(n) si e
t
(n)) sunt cele datorate
operat iei de cuantizare
3
.
(n)
(n)
Predictor

e(n) e
q
(n)
Canal
Q Q
1
e

(n)

(n)

(n)

^
+

Predictor

+
+
^
Figura 9.5: Schema bloc a unui lant de transmisiune cu predict ie.
3
Problema cuantizarii semnalelor este tratata n detaliu n capitolul 11.
132 CAPITOLUL 9. FILTRAREA OPTIMAL

A A SEMNALELOR
Capitolul 10
Transformate unitare
10.1 Introducere
Termenul de tranformata unitara se refera la o clasa de matrici unitare folosite pentru
reprezentarea semnalelor. O matrice patratica avand componente complexe A C
NN
se numeste unitara daca:
A
1
= A
T
, (10.1)
unde prin ()

am notat operatorul de conjugare complexa.


Sa ment ionam chiar de la nceput ca, desi cazul complex nu este deloc neglijabil
1
,
n acest capitol vom trata numai problema transformatelor cu coecient i reali, deci vom
presupune n continuare A R
NN
, caz n care condit ia de unitaritate devine:
A
1
= A
T
. (10.2)
Fiind data matricea A unitara si vectorul coloana =
_
(0) (1) (N 1)

T
,
se deneste transformata lui ca ind vectorul coloana
=
_
(0) (1) (N 1)

T
obt inut ca:
= A. (10.3)
Considerand elementele matricii A = a(k, n)
k,n=0,...,N1
, relat ia (10.3) se poate scrie:
(k) =
N1

n=0
a(k, n)(n), k = 0, 1, . . . , N 1. (10.4)
Transformata inversa, care permite recuperarea vectorului original din cel transformat
se scrie, t inand cont de (10.2):
= A
T
, (10.5)
1
Spre exemplu, transformata Fourier discreta se obt ine cu ajutorul unei matrici A avand elemente
complexe!
133
134 CAPITOLUL 10. TRANSFORMATE UNITARE
sau, element cu element:
(n) =
N1

k=0
a(k, n)(k), n = 0, 1, . . . , N 1. (10.6)
Semnicat ia unei transformate unitare poate nt eleasa scriind matricea A
T
sub forma
A
T
=
_
a
0
a
1
a
N1

, (10.7)
unde a
k
sunt vectori coloana:
a
k
=
_

_
a(k, 0)
a(k, 1)
.
.
.
a(k, N 1)
_

_
. (10.8)
Cu aceste notat ii, relat iile care dau transformata directa (10.4), respectiv pe cea in-
versa (10.5), pot scrise sub forma:
(k) =
T
a
k
= , a
k
) k = 0, 1, . . . , N 1, (10.9)
respectiv:
=
N1

k=0
(k)a
k
, (10.10)
unde cu f, g) a fost notat produsul scalar ntre vectorii coloana f, g R
N1
, denit ca:
f, g)

= f
T
g =
N1

i=0
f(i)g(i). (10.11)
Calculul lui din relat ia (10.10) se interpreteaza ca o descompunere a acestuia ntr-o
alta baza a lui R
N
, si anume cea formata din coloanele matricii A
T
: a
0
, a
1
, . . . , a
N1
.
Coecient ii dezvoltarii lui n aceasta baza sunt chiar componentele (k) ale vectorului
transformat . Conform (10.9), acestia se obt in prin produs scalar ntre vectorul dezvoltat
si axa a
k
, care nu reprezinta altceva decat proiect ia lui pe a
k
.

In plus, noua baza n care se reprezinta semnalul este ortonormala, fapt asigurat de
condit ia (10.2) de unitaritate impusa matricii A.

Intr-adevar, (10.2) se poate rescrie ca:
AA
T
= I
N
, (10.12)
ceea ce, scris explicit n funct ie de vectorii a
k
, devine:
_

_
a
T
0
a
T
1
.
.
.
a
T
N1
_

_
_
a
0
a
1
a
N1

=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
. (10.13)
10.1. Introducere 135
Din relat ia de mai sus, rezulta ca:
a
i
, a
j
) = a
T
i
a
j
=
_
1 daca i = j
0 n rest
, (10.14)
ceea ce este echivalent cu a spune ca baza a
k

k=0,...,N1
pe care se descompune vectorul
original este ortonormala, ntrucat ecare doi vectori din set sunt perpendiculari, iar
norma ecaruia este unu!
Pentru xarea not iunilor, sa consideram un exemplu pentru care avem o reprezentare geometrica,
respectiv N = 2. Fie vectorul = [5, 2]
T
din gura 10.1. Cele doua componente ale vectorului
reprezinta coecient ii dezvoltarii vectorului n baza canonica
_
e
x
= [1, 0]
T
, e
y
= [0, 1]
T
_
aleasa din ociu
pentru reprezentarea oricarui vector din R
2
. Cu alte cuvinte, = [5, 2]
T
este echivalent cu:
= 5e
x
+ 2e
y
,
cu
, e
x
) = 5
, e
y
) = 2
e
x
e
y
e
y

e
x

5
2
Figura 10.1: Exemplu de schimbare de baza.

Insa e
x
, e
y
nu este singura baza a lui R
2
. Sa consideram, spre exemplu, baza
_
e

x
, e

y
_
obt inuta
printr-o rotat ie a bazei canonice cu un unghi astfel ales ncat versorul e

x
sa devina coliniar cu vectorul
considerat .

In noua baza
_
e

x
, e

y
_
, componentele lui devin:
, e

x
) =

29

, e

y
_
= 0
136 CAPITOLUL 10. TRANSFORMATE UNITARE
iar acesta poate scris ca:
=

29e

x
+ 0e

y
=
_
e

x
e

. .
A
T
_
29
0
_
. .

.
Deci, vectorul transformat = [

29, 0]
T
este noua reprezentare a lui n baza considerata.
Dintre aplicat iile transformatelor unitare, cea mai importanta este compresia de date,
care este posibila datorita proprietat ii transformatelor utilizate n practica de a compacta
energia ntr-un numar redus de coecient i n spat iul transformatei. Sa precizam pentru
nceput ca o transformata unitara conserva energia semnalului.

Intr-adevar:
E

= ||
2
=
T
= (A)
T
A =
T
A
T
A
. .
I
N
=
T
= ||
2
= E

. (10.15)
Desi energia totala se conserva, pentru majoritatea transformatelor utilizate n practica,
aceasta tinde sa e distribuita inegal ntre coecient ii spat iului transformat. Cu alte
cuvinte, energia este concentratantr-un numar redus de coecient i ai transformarii, restul
putand neglijat i, pierderea de informat ie indusa ind extrem de mica.
Problema compresiei optimale cu transformate unitare este tratata n continuarea
acestui capitol.
10.2 Transformata KarhunenLo`eve
Problema care se pune este aceea de calcul al matricii unitare
L =
_
l
0
l
1
l
N1

T
(10.16)
cu ajutorul careia sa compactam cat mai bine energia n spat iul transformatei, cu alte
cuvinte, sa concentram energiantr-un numar minim de coecient i n spat iul transformarii.
Fie transformata vectorului original :
= L =
_
(0) (m1) (m) (N 1)

T
. (10.17)
Din vectorul pastram numai primele m componente, restul nlocuindu-le cu niste con-
stante c
i
. Cu alte cuvinte, l aproximam pe cu dat de:
=
_
(0) (m1) c
m
c
N1

T
. (10.18)
Cu ajutorul vectorului aproximat n spat iul original

= L
T
(10.19)
se deneste eroarea patratica medie indusa de aproximarea n spat iul transformatei ca
ind:
=
_
_
_

_
_
_
2
. (10.20)
10.2. Transformata KarhunenLo`eve 137
Problema din punct de vedere matematic este de determinare a matricii transformarii L
astfel ncat eroarea patratica medie (10.20) sa e minima.
Trecand eroarea patratica medie din (10.20) n spat iul transformatei, avem:
=
_

_
T
_

_
= (L
T
( ))
T
(L
T
( )) = ( )
T
LL
T
..
I
N
( )
= ( )
T
( ) = | |
2
=
N1

i=0
((i) (i))
2
=
N1

i=0
((i) (i))
2
.
(10.21)
T inand cont ca primele m componente ale lui si sunt identice, rezulta ca eroarea
patratica medie poate scrisa ca:
=
N1

i=m
((i) c
i
)
2
. (10.22)

In acest punct, putem determina constantele c


k
care minimizeaza eroarea . Facem,
deci:

c
k
=

c
k
_
N1

i=m
((i) c
i
)
2
_
= 2 ((k) c
k
) = 0, (10.23)
de unde rezulta:
c
k
= (k) k = m, . . . , N 1. (10.24)

Inlocuind (10.24) n (10.22), obt inem:


=
N1

i=m
_
(i) (i)
_
2
. (10.25)
Dar, conform (10.9), avem
(i) =
T
l
i
= l
T
i
, (10.26)
de unde:
=
N1

i=m
_
(i) (i)
__
(i) (i)
_
=
N1

i=m
_
l
T
i
l
T
i

__

T
l
i

T
l
i
_
=
N1

i=m
l
T
i
_

_ _

_
T
l
i
=
N1

i=m
l
T
i
_

_ _

_
T
. .
K

l
i
=
N1

i=m
l
T
i
K

l
i
.
(10.27)
Relat ia (10.27) ne da scrierea cantitat ii de minimizat n funct ie de necunoscutele l
i
.
Nu putem, nsa, trece direct la minimizarea lui fara a t ine cont de constrangerile asupra
vectorilor l
i
de a de norma unitara, ntrucat sunt coloanele unei matrici unitare. Astfel,
minimizarea lui cu constrangerile l
T
i
l
i
= 1 revine la minimizarea expresiei:
=
N1

i=m
_
l
T
i
K

l
i

i
_
l
T
i
l
i
1
__
, (10.28)
138 CAPITOLUL 10. TRANSFORMATE UNITARE
unde
i
R sunt multiplicatorii Lagrange atasat i constrangerilor impuse.
Pentru rezolvarea eleganta, sub forma vectoriala, a problemei minimizarii lui
din (10.28), denim gradientul vectorial al unei expresii scalare. Fie E(v) o funct ie
scalara de vectorul v = [v
1
, . . . , v
N
]
T
. Denim gradientul lui E dupa v ca ind:

v
E =
_

_
E
v
1
.
.
.
E
v
N
_

_
. (10.29)
Evident, vectorul v care minimizeaza pe E se obt ine facand:

v
E = 0. (10.30)
Mai mult, se poate arata prin calcul direct ca pentru orice matrice simetrica (B = B
T
)
avem:

v
_
v
T
Bv
_
= 2Bv. (10.31)
T inand cont ca matricea de covariat ie K

este simetrica, si ca putem scrie l


T
i
l
i
= l
T
i
I
N
l
i
,
atunci, aplicand rezultatele enunt ate mai sus, rezulta ca vectorii v
k
care minimizeaza pe
se obt in din ecuat ia:

l
k
= 2K

l
k
2
k
l
k
= 0, (10.32)
de unde rezulta ca:
K

l
k
=
k
l
k
. (10.33)
Cu alte cuvinte, coloanele matricii transformatei KarhunenLo`eve (prescurtata n cele
ce urmeaza KL) L
T
, cu ajutorul careia se compacteaza optim energia vectorului original
, sunt vectorii proprii ai matricii de covariat ie ai vectorului respectiv! De asemenea,
multiplicatorii Lagrange
i
sunt valorile proprii atasate vectorilor l
i
.
Sa facem cateva observat ii importante referitoare la rezultatul obt inut.

In primul
rand, nlocuind vectorii l
k
din (10.33) n expresia (10.27), obt inem valoarea minima a
erorii patratice medii:

min
=
N1

i=m
l
T
i
K

l
i
..

i
l
i
=
N1

i=m

i
l
T
i
l
i
..
1
=
N1

i=m

i
. (10.34)
Cu alte cuvinte, eroarea patratica medie obt inuta n cazul optimal este suma valorilor
proprii aferente axelor ale caror componente sunt suprimate. Din aceasta observat ie
deducem ordinea de asezare a coloanelor l
i
n matricea L
T
: daca dorim sa eliminam
componentele vectorului localizate la coada (asa cum am impus la nceput) atunci
vectorii l
k
trebuie ordonat i n sens descrescator al valorilor proprii aferente:
L
T
=
_
l
0
l
1
l
N1

0

1

N1
(10.35)
10.3. Aproximari practice ale transformatei KL 139

In continuare, calculand matricea de covariat ie a vectorului transformat , avem:


K

= ( ) ( )
T
= L
_

_ _
L
_

__
T
= L
_

_ _

_
T
L
T
= L
_

_ _

_
T
L
T
= LK

L
T
.
(10.36)
T inand cont de (10.33), ecuat ia (10.36) se scrie mai departe:
K

=
_

_
l
T
0
l
T
1
.
.
.
l
T
N1
_

_
. .
L
K

_
l
0
l
1
l
N1

. .
L
T
=
_

_
l
T
0
l
T
1
.
.
.
l
T
N1
_

_
_
K

l
0
K

l
1
K

l
N1

=
_

_
l
T
0
l
T
1
.
.
.
l
T
N1
_

_
_

0
l
0

1
l
1

N1
l
N1

=
_

0
0 0 0
0
1
0 0
0 0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
N1
_

_
.
(10.37)
Semnicat ia rezultatului (10.37) este aceea ca, n noile coordonate, coecient ii dezvolt arii
sunt complet decorelat i! Mai mult, se observa ca

i
=
2
(i)
, (10.38)
adica valorile
i
au semnicat ia de variant a a coecientului descompunerii vectorului
pe axa l
i
, ceea ce justica alegerea facuta mai nainte, de eliminare a componentelor pe
axele cu
i
mic.

Intr-adevar, n lumina relat iei (10.38), aceasta semnica nlocuirea cu
media lor a componentelor de variant a mica, ceea ce este natural.

In gura 10.2, este prezentat un exemplu de schimbare de coordonate cu transformata


KL pentru un set de vectori 3D cu componente puternic corelate (ceea ce se poate observa
din forma liniara a norului de puncte reprezentand vectorii respectivi). Se observa ca n
noile coordonate, una din axe este chiar axa principala a norului de puncte, ceea ce
este echivalent cu a spune ca, n medie, componentele vectorilor pe celelalte doua axe
(perpendiculare pe axa principala) vor mici, ele putand eliminate cu o pierdere de
informat ie redusa.
10.3 Aproximari practice ale transformatei KL
Tranformata KL se foloseste rareori ca atare n practica. Unul dintre motive este acela
ca transformata nu este aceeasi pentru orice semnal, ci depinde de statistica semnalului
respectiv. Ea trebuie, deci, calculata pentru ecare clasa de semnale n parte. Un alt
motiv, si mai important, este acela ca transformata este lenta, complexitatea algoritmu-
lui de implementare ind O(N
2
). Astfel, n practica se folosesc diverse aproximari ale
140 CAPITOLUL 10. TRANSFORMATE UNITARE
4
3
2
1
0
1
2
3
4
4
2
0
2
4
4
3
2
1
0
1
2
3
4
3
2
1
0
1
2
3
4
4
2
0
2
4
4
3
2
1
0
1
2
3
(a) (b)
Figura 10.2: Exemplu de schimbare de coordonate a unui set de vectori cu componente
puternic corelate. (a) Sistemul de coordonate canonic; (b) Sistemul de coordonate rezultat
n urma aplicarii transformatei KL.
transformatei, suboptimale, dar cu posibilitat i de implementare ecienta.

In paragrafele
urmatoare, vom prezenta doua dintre transformate folosite n practica drept substitut de
transformata KL.
10.3.1 Transformata cosinus discreta
Transformata cosinus discreta este denita de matricea unitara C = c(k, n)
k,n=0,...,N1
avand elementele date de:
c(k, n) =
_
1

N
daca k = 0
_
2
N
cos
(2n+1)k
2N
daca k ,= 0
. (10.39)
Se poate demonstra (vezi referint a [5]) ca transformata cosinus discreta poate im-
plementat a printr-un algoritm rapid, de complexitate
2
O(N log N).

In ceea ce priveste asemanarea transformatei cosinus discrete cu transformata optimala


KL, vom arata n continuare ca matricea C aproximeaza foarte bine matricea transfor-
matei KL pentru semnale Markov de ordinul unu puternic corelate.
Prin denit ie, un semnal Markov de ordinul unu este un semnal aleator al carui trecut
nu are nici o inuent a asupra viitorului, cu condit ia ca prezentul sa e specicat. Aceasta
se traduce matematic ca:
w

(x
n
[x
n1
, x
n2
, x
n3
. . .) = w

(x
n
[x
n1
) (10.40)
unde cu w

(x
n
[x
n1
, x
n2
, x
n3
. . .) am notat densitatea de probabilitate a lui (n)
2
Pentru N = 1000, reducerea complexitat ii de la O
_
N
2
_
la O(N log N) este echivalenta cu cresterea
vitezei de calcul de aproximativ 100 de ori!
10.3. Aproximari practice ale transformatei KL 141
condit ionata de faptul ca valorile anterioare ale semnalului au fost x
n1
, x
n2
, . . .:
w

(x
n
[x
n1
, x
n2
. . .)
not
= w
(n)[(n1)=x
n1
(n2)=x
n2

(x
n
). (10.41)
Relat ia (10.40) se interpreteaza astfel: pentru determinarea statisticii semnalului la
momentul urmator n+1 este sucienta cunoasterea valorii semnalului la momentul prezent
n
3
. Semnalele Markov servesc deseori de model statistic simplicat pentru semnale reale.
Se poate arata ca funct ia de autocovariat ie a unui semnal Markov de ordinul unu este
de forma:
K

(n) =
2

[n[
cu [[ < 1, (10.42)
ceea ce este echivalent cu a spune ca matricea de autocorelat ie a procesului este:
K

=
2

_
1
2

N1
1
N2

2
1
N3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

N1

N2

N3
1
_

_
. (10.43)
Prin calcul direct, se poate demonstra ca inversa matricii de covariat ie din (10.43) este
data de:
K
1

=
_

_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_

_
, (10.44)
cu =
1

1+
2
1
2
si =

1+
2
.
Pe de alta parte, se poate demonstra prin calcul direct ca vectorii coloana ai matricii
C
T
sunt vectorii proprii ai matricii:
M =
_

_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_

_
, (10.45)
3
Un semnal Markov de ordinul unu poate modelat ca ind iesirea unui model AR de ordinul unu:
(n) = a
1
(n 1) +v(n).
142 CAPITOLUL 10. TRANSFORMATE UNITARE
cu R oarecare. Cu alte cuvinte, are loc relat ia:
Mc
k
=
k
c
k
, k = 0, . . . , N 1 (10.46)
unde:
c
k
=
_
c(k, 0) c(k, 1) c(k, N 1)

T
. (10.47)
Prin compararea relat iei (10.44) cu (10.45), se observa ca:
K
1


[[1
M. (10.48)
Altfel spus, t inand cont de (10.46) si de (10.48), vectorii coloana ai matricii C
T
aprox-
imeaza cu buna precizie vectorii proprii ai matricii K
1

(care sunt identici cu cei ai lui


K

4
) atunci cand 1.
Concluzia este cea enunt ata anterior: transformata cosinus discreta aproximeaza foarte
bine transformata optimala KL pentru semnale puternic corelate.

In practica, transfor-
mata cosinus discreta este folosita n standardul de compresie de imagini JPEG (dupa
cum vom prezenta n detaliu n capitolul 12).

In gura 10.3 este prezentat un exemplu
de compresie cu transformata cosinus discreta.
0 200 400 600 800 1000 1200 1400 1600
0
50
100
150
200
250
300
0 200 400 600 800 1000 1200 1400 1600
1500
1000
500
0
500
1000
1500
2000
2500
3000
3500
(a) (b)
Figura 10.3: Exemplu de compresie de semnale cu transformata cosinus discreta: (a)
Semnalul original (cu linie punctata) si cel rezultat n urma eliminarii a 87,5% din
coecient i n spat iul transformatei; (b) Transformata cosinus discreta a semnalului origi-
nal: se observa ca majoritatea coecient ilor au valori neglijabile.
4
S-a folosit rezultatul conform caruia, daca R
N1
este vector propriu al unei matrici oarecare
A R
NN
, atunci el este vector propriu al oricarei matrici A
n
, cu n Z.

Intr-adevar, daca avem
A = , atunci, nmult ind la stanga cu A avem: A
2
= A(A) = A =
2
etc. Pentru puteri
negative, nmult im la stanga cu A
1
si obt inem: A
1
A = A
1
ceea ce, prin mpart ire la , conduce
la A
1
=
1
.
10.3. Aproximari practice ale transformatei KL 143
10.3.2 Transformata sinus discreta
Transformata sinus discreta este data de matricea unitara S = s(k, n)
k,n=0,...,N1
, av and
elementele date de:
s(k, n) =
_
2
N + 1
sin
(k + 1)(n + 1)
N + 1
. (10.49)
La randul ei, si transformata sinus poate implementata prin algoritmi rapizi, de
complexitate O(N log N).
La fel ca si n cazul transformatei cosinus, se poate arata ca vectorii coloana ai matricii
S
T
sunt vectori proprii ai matricii:
N =
_

_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_

_
. (10.50)
Prin compararea (10.50) cu (10.44), se poate scrie:
N
[[0,5
K
1

, (10.51)
ceea ce se traduce prin faptul ca transformata sinus discreta reprezinta o buna aproximare
a transformatei optimale KL pentru semnale aleatoare slab corelate.
144 CAPITOLUL 10. TRANSFORMATE UNITARE
Capitolul 11
Cuantizarea semnalelor
11.1 Introducere
Asa dupa cum am enunt at si n capitolele anterioare, cuantizarea, mpreuna cu
esantionarea, reprezinta cei doi pasi prin care un semnal continuu este adus ntr-o forma
n care poate prelucrat cu calculatorul.

In urma operat iei de esantionare, semnalul con-
tinuu este transformat ntr-o secvent a discreta de valori continue. Cuantizarea urmareste
transformarea naturii valorilor esantioanelor semnalului din continuu n discret.

In acest
scop, se foloseste o funct ie de cuantizare Q cu care se aproximeaza valorile continue ale
semnalului cu valori ce provin dintr-o mult ime cu L elemente (deci nita).
Considerand ca gama de valori a semnalului este limitata n intervalul [
min
,
max
] (am-
bele limite ind presupuse cunoscute a priori) funct ia de cuantizare Q este de forma:
y = Q(x) =
_

_
y
L
daca x
L
< x x
L+1
y
L1
daca x
L1
< x x
L
. . .
y
1
daca x
1
x x
2
, (11.1)
unde x
1

min
iar x
L+1

max
. Valorile x
i
se numesc praguri de cuantizare, n timp
ce valorile y
i
se numesc valori cuantizate. Diferent a ntre doua praguri de cuantizare
succesive se noteaza cu
i
not
= x
i
x
i1
si se numeste pas de cuantizare.

In gura 11.1
este prezentata forma generala a gracului unei funct ii de cuantizare.
Astfel, dupa cuantizare, ecare esantion al semnalului cuantizat

(k) = Q((k)) (11.2)


poate codat pe un numar nit de bit i n
b
cu 2
n
b
L.

In gura 11.2 sunt prezentate
forma esantioanelor unui semnal nainte si dupa cuantizare.
Determinarea unei reguli de cuantizare consta, deci, n precizarea celor 2L 1 ne-
cunoscute, respectiv pragurile de cuantizare x
2
, . . . , x
L1
si valorile cuantizate y
1
, . . . , y
L
.

In paragrafele urmatoare vom prezenta cateva moduri de calcul al acestor valori.


145
146 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
x
Q(x)
x
i1
x
i

y
i1

x
1
x
L+1

i1

Figura 11.1: Gracul unei funct ii de cuantizare Q(x).
0 2 4 6 8 10 12
x
i+2
x
i+1
x
i
x
i1
y
i
y
i+1
y
i1
Figura 11.2: Cuantizarea valorilor unui semnal: cu sunt gurate valorile originale
(k) ale esantioanelor semnalului, n timp ce valorile cuantizate

(k) = Q((k)) sunt
reprezentate cu .
11.2. Cuantizarea uniforma 147
11.2 Cuantizarea uniforma
Cea mai simpla cuantizare este cea uniforma, care rezulta prin alegerea unui pas de
cuantizare uniform pe tot intervalul de valori posibile ale semnalului [
min
,
max
]:

n1
=
n
not
= n = 2, 3, . . . , L. (11.3)
Rezulta, deci, ca
=

max

min
L
, (11.4)
de unde rezulta valoarea pragurilor de cuantizare:
x
n
=
min
+ (n 1), n = 2, . . . , L. (11.5)
Cat despre valorile cuantizate, ele se aleg la mijlocul ecarui interval de cuantizare n
parte:
y
n
=
x
n
+ x
n+1
2
n = 1, 2, . . . , L. (11.6)
Daca se considera eroarea indusa n semnal de operat ia de cuantizare:
e(n) = (n)

(n), (11.7)
atunci aceasta poate scrisa sub forma
e(n) = g((n)), (11.8)
cu funct ia g(x) avand forma:
g(x) = x Q(x) =
_

_
x y
L
daca x
L
< x x
L+1
x y
L1
daca x
L1
< x x
L
. . .
x y
1
daca x
1
x x
2
. (11.9)
Gracul funct iei g corespunzatoare unei cuantizari uniforme este prezentat n gura 11.3.
Aplicand (3.25), rezulta
w
e
(u) =
_

L
i=1
w

(u + y
i
) daca u
_

2
,

2

0 n rest
. (11.10)
Se poate arata ca daca numarul de nivele de cuantizare L este sucient de mare pentru
o gama de valori precizata [
min
,
max
], ceea ce este echivalent cu a spune ca pasul de
cuantizare (11.4) este sucient de mic, distribut ia erorii induse prin cuantizare uniforma
este aproximativ uniforma n intervalul precizat:
w
e
(u)

_
1

daca [u[

2
0 n rest
. (11.11)
Rezulta din (11.11) ca eroarea patratica medie indusa de cuantizarea uniforma, care
nu este altceva decat variant a erorii e(n) este data de:
= e
2
(n) =
2
e
=

2
12
. (11.12)
148 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
g(x)
x
/2
/2
x
1

x
2

x
L+1


y
1

x
L

y
L

Figura 11.3: Funct ia de trecere din n e
11.3 Cuantizarea optimala LloydMax
Cuantizarea uniforma data de relat iile (11.5) si (11.6) este atractiva prin prisma sim-
plitat ii modului de calcul al pragurilor de cuantizare. Totusi ea nu este optimala, ntrucat
nu t ine cont de distribut ia valorilor semnalului de cuantizat w

. Cuantizarea LloydMax
urmareste calculul pragurilor de cuantizare si al valorilor cuantizate n sensul minimizarii
erorii patratice medii induse de cuantizare.

In mare, ideea este de a aloca pasi de cuan-
tizare
i
mici pe intervalele pe care distribut ia w

are valori importante, si, implicit, de


a aloca pasi de cuantizare mai mari (respectiv erori mai mari) pentru intervalele pe care
w

este mai mica (respectiv pentru valorile mai put in probabile).


Eroarea patratica medie, se scrie ca:
= e
2
(n) = g ((n))
2
=

g
2
(x)w

(x)dx. (11.13)

In dezvoltarea de mai sus am aplicat teorema de medie (3.41) si am t inut cont ca semnalul
(n) este presupus din ociu a stat ionar, deci este caracterizat de aceeasi densitate de
probabilitate w

la orice moment de timp n.



Inlocuind pe g(x) cu relat ia data de (11.9)
1
,
avem
=
L

i=1
x
i+1
_
x
i
(x y
i
)
2
w

(x)dx. (11.14)
Valorile pragurilor x
k
ce minimizeaza pe se obt in din ecuat ia:

x
k
= 0 k = 2, 3, . . . , L, (11.15)
ecuat ie care, t inand cont de (4.9), se scrie:
2(x
k
y
k1
)
2
w

(x
k
) 2(x
k
y
k
)
2
w

(x
k
) = 0. (11.16)
1
Formula este valabila pentru orice lege de cuantizare, adica pentru orice valori ale lui x
i
si y
i
.
11.3. Cuantizarea optimala LloydMax 149
Dupa reduceri si rearanjarea termenilor, obt inem:
x
k
=
y
k1
+ y
k
2
k = 2, . . . , L. (11.17)
Pe de alta parte, valorile cuantizate y
k
ce minimizeaza eroarea patratica medie se
obt in, la randul lor, din ecuat ia:

y
k
= 0 k = 2, 3, . . . , L, (11.18)
care este echivalenta cu:
2
x
k+1
_
x
k
(x y
k
)w

(x)dx = 0. (11.19)
Prin rearanjarea termenilor, obt inem valorile nale ale lui y
k
:
y
k
=
x
k+1
_
x
k
xw

(x)dx
x
k+1
_
x
k
w

(x)dx
k = 1, 2, . . . , L. (11.20)
T inand cont de relat ia (3.10), putem scrie expresia valorilor cuantizate optimale sub
forma:
y
k
=

xw
[x
k
x
k+1

(x)dx = [x
k
x
k+1
(11.21)
Relat iile (11.17) si (11.20) formeaza sistemul de ecuat ii LloydMax, care este un sistem
neliniar de 2L1 ecuat ii cu 2L1 necunoscute prin a carui rezolvare se determina pragurile
de cuantizare si valorile cuantizate ce minimizeaza eroarea patratica medie de cuantizare.
Sa mai spunem ca, n general, nu exista o solut ie analitica a sistemului LloydMax,
si ca aceasta se aa, n general, prin metode numerice. Totusi, dupa cum vom arata n
paragraful 11.4, pentru cazul particular al unui numar de nivele de cuantizare L ridicat,
solut ia sistemului LloydMax poate data n mod analitic cu buna aproximat ie.
Pentru moment, sa ne oprim asupra observat iei ca, n cazul n care semnalul de cuan-
tizat are o distribut ie uniforma n intervalul [
min
,
max
], atunci, t inand cont de (3.22),
ecuat ia (11.20) se scrie:
y
k
=
x
k+1
_
x
k
x
1

max

min
dx
x
k+1
_
x
k
1

max

min
dx
=
x
2
2

x
k+1
x
k
x

x
k+1
x
k
=
x
k
+ x
k+1
2
. (11.22)

In continuare, (11.17) devine:


x
k
=
x
k1
+x
k
2
+
x
k
+x
k+1
2
2
, (11.23)
150 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
care, prin operat ii elementare, poate scrisa ca:
x
k+1
x
k
= x
k
x
k1
k = 2, . . . , L. (11.24)
Comparand (11.23) cu (11.3), rezulta ca, n cazul unei distribut ii uniforme a semnalului
de cuantizat, cuantizorul optimal este chiar cel uniform.
11.4 Compandarea
Problema pe care ne-o punem este de a implementa cuantizarea optimala folosind un
dispozitiv zic de cuantizare uniforma. Trebuie, deci, gasita o funct ie f(x), astfel ncat
prin succesiunea de operat ii
transformare:
(n) = f((n)) (11.25)
cuantizare uniforma:
(n) = Q((n)) (11.26)
cu Q dat de (11.5) si (11.6),
transformare inversa:

(n) = f
1
( (n)) (11.27)
sa se obt in a o cuantizare optimala a semnalului (n). Datorita faptului ca alura funct iei f
rezultate pentru majoritatea distribut iilor ntalnite n practica este aceea a unei funct ii de
compresie a gamei semnalului (vezi gura 11.5), si deci, implicit, funct ia f
1
realizeaza o
expandare, tehnica poarta numele de compandare, termen ce provine din prescurtarea sin-
tagmei compresieexpandare. Schema bloc a cuantizarii prin compandare este prezentata
n gura (11.4).
f()
f
1
()
Cuantizare
uniforma





Compresie
Q
u
()
Expandare
Figura 11.4: Cuantizarea prin compandare.
Cat despre determinarea funct iei f(x), ne vom margini la a da expresia sa aproxi-
mativa, obt inuta n ipoteza unui numar de nivele L sucient de mare ca densitatea de
probabilitate w

sa poata considerata aproximativ constanta pe orice interval de cuan-


tizare:
w

(x)
L,,
const = w

(y
k
) x [x
k
, x
k+1
], k = 1, . . . , L. (11.28)
11.4. Compandarea 151
x
f(x)

max

max

min

min

Figura 11.5: Forma funct iei de compresie din relat ia (11.29) pentru o distribut ie w

de tip Gauss.

In aceasta ipoteza, funct ia f(x) poate aproximata cu:


f(x) = (
max

min
)
_
x

min
[w

(u)]
1
3
du
_

max

min
[w

(u)]
1
3
du
+
min
. (11.29)
Calculul ce permite deducerea relat iei (11.29) este prezentat n referint a [9].

In
gura 11.5 este prezentata forma funct iei f(x) pentru o distribut ie w

gaussiana. Se poate
observa forma funct iei, avand o panta ce scade spre extreme, ceea ce justica denumirea
de funct ie de compresie.
152 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
Capitolul 12
Aplicat ii n prelucrarea si analiza
imaginilor
12.1 Introducere
Unul dintre domeniile cu aplicat ii dintre cele mai spectaculoase ale teoriei si modelelor
statistice prezentate n capitolele anterioare este prelucrarea si analiza digitala a imagi-
nilor. Imaginile, n accept iunea cea mai simpla, sunt semnale bidimensionale funct ii
dependente de doua variabile a caror semnicat ie este de coordonate spat iale. Valo-
rile unei imagini provin din achizit ia din scena reala a unei marimi zice de interes de
catre un senzor adaptat corespunzator. Reprezentarea digitala a imaginilor nseamna
reprezentarea valorilor acestora ntr-o forma utilizabila direct de catre un calculator di-
gital, deci o reprezentare cu un numar nit de bit i, ce rezulta n urma esantionarii si
cuantizarii
1
semnalului continuu preluat de senzor.
Deci, pentru o imagine digitala, valorile posibile sunt n numar nit (n general cores-
punzand reprezentarii valorilor cuantizate ca ntregi, printr-un numar xat de bit i), iar
variabilele ce corespund suportului spat ial (coordonatelen spat iul imaginii, sau variabilele
de care depinde funct ia imagine) au la randul lor valori discrete.
Putem deci considera n cazul cel mai simplu ca o imagine digitala este o matrice
(sau tablou) n care sunt nscrise valorile funct iei imagine. Fiecare element al acestei
matrici, deci o celula situata la intersect ia unei linii si a unei coloane date, se numeste
pixel (termenul folosit n limba romana ind identic cu cel folosit n limba engleza, unde
provine din contragerea termenilor picture element element de imagine). Asadar, o
imagine digitala este alcatuita din pixeli, ecare pixel ind caracterizat de o anumita
pozit ie (coordonate de linie si de coloana corespunzatoare plasamentului sau n matricea
imagine) si de o anumita valoare
2
.
1
De cele mai multe ori cuantizarea este uniforma, numarul sucient de mare de nivele de cuantizare
asigurand precizia necesara (eroarea sucient de mica) de reprezentare.
2
Intereseaza de asemenea forma pixelului (evident patrata n exemplicarea de mai sus, dar putand
avea si alte forme de exemplu hexagonala n aplicat ii mai complexe).
153
154 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR

In covarsitoarea majoritate a aplicat iilor, imaginile sunt de natura vizuala, cores-


punzand masurarii n scena reala a unei intensitat i medii a radiat iei electromagnetice
din domeniul spectral vizibil luminant a. Imaginea rezultanta corespunde unei imagini
fotograce alb-negru (sau unei imagini de televiziune alb-negru); valorile pixelilor codeaza
(reprezinta) luminozitatea punctelor corespunzatoare din scena, ntre o valoare minima
nula, ce corespunde tonului celui mai ntunecat (negru) si o valoare maxima M 1,
determinata de numarul de bit i folosit i pentru reprezentarea binara a valorilor (M = 2
B
),
ce corespunde tonului celui mai deschis sau stralucitor (alb). Imaginea se numeste cu
nivele (sau tonuri) de gri. S-a demonstrat ca pentru aplicat ii de tipul transmisiei de
televiziune sunt suciente M = 256 de nivele de gri (si deci o reprezentare digitala pe
B = 8 bit i) pentru a asigura o percept ie vizuala de calitate sucienta.
Figura 12.1: Imagini de luminant a, cuantizate cu 256 nivele de gri: imagine naturala si
fragment dintr-o radiograe de calcaneu.
Odata ce imaginea a fost achizit ionata din scena si a fost esantionata si cuantizata
(deci reprezentata n forma digitala) mult imea de valori ale pixelilor poate stocata si
prelucrata de un sistem digital de calcul. Succesiunea de operat ii prin care se poate
modica aspectul vizual sau forma de codare a imaginii sau prin care se pot extrage
caracteristici de interes necesare luarii unor decizii formeaza obiectul prelucrarii si analizei
imaginilor.
Ca si n cazul semnalelor unidimensionale, o buna parte din tehnicile de prelucrare si
analiza a imaginilor sunt bazate pe abordarea statistica, abordare ce presupune consider-
area unei imagini ca ind o realizare particulara a unui semnal aleator cu suport bidimen-
sional (numit camp aleator) care este caracterizat de marimi statistice.

In multe cazuri,
din cauza faptului ca nu dispunem de sucient de multe imagini apart inand aceleiasi
clase, trebuie sa facem ipoteza de ergodicitate a campului aleator, ipoteza ce permite
determinarea marimilor respective pe baza valorilor pixelilor dintr-o singura imagine.
Marimea statistica cel mai des folosita este densitatea de probabilitate de ordinul
unu a campului aleator. Datorita discretizarii valorilor pixelilor din imagine, dupa cum
am aratat n paragraful 3.4, densitatea de probabilitate cautata este nula peste tot cu
except ia punctelor ce corespund valorilor cuantizate ale pixelilor, 0, 1, . . . , M 1.

In
12.1. Introducere 155
aceste puncte, funct ia de densitate de probabilitate acumuleaza probabilitat ile de aparit ie
ale valorilor corespunzatoare, probabilitat i ce trebuie estimate conform (2.1).

In ipoteza
ca valorile pixelilor dintr-o imagine sunt independente statistic, atunci respectivele prob-
abilitat i pot estimate folosind valorile pixelilor din imagine. Funct ia rezultata, care are
semnicat ia de densitate de probabilitate de ordinul unu determinata experimental, se
numeste histograma imaginii, si este data de:
h(i) =
N
i
L C
i = 0, 1, . . . , M 1, (12.1)
unde N
i
este numarul de pixeli din imagine ce au nivelul de gri i, iar L si C reprezinta
dimensiunile imaginii (respectiv numarul de linii si de coloane ale matricii imagine).
Evident, dupa modul n care a fost denita, histograma oricarei imagini verica
condit ia de normare:
M1

i=0
h(i) = 1. (12.2)
ceea ce este normal, ind vorba de o funct ie asimilabila unei densitat i de probabilitate.

In gura 12.2 sunt prezentate histogramele imaginilor din gura 12.1.


0 50 100 150 200 250 300
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0 50 100 150 200 250 300
0
0.002
0.004
0.006
0.008
0.01
0.012
0.014
Figura 12.2: Histogramele imaginilor din gura 12.1. Abscisele i ale gracelor reprezinta
nivelul de gri, iar ordonatele h(i) sunt probabilitat ile de aparit ie a nivelelor de gri i.
Gracele au fost reprezentate presupunand variat ia continua a nivelelor de gri.
Histograma imaginii ofera informat ii asupra cont inutului acesteia: gama de variat ie
a valorilor, calitatea perceptuala a imaginilor, numarul de tipuri de obiecte cont inute n
scena. Fiind nsa o distribut ie de ordinul unu, histograma nu descrie asezarea spat iala a
valorilor pixelilor, ind astfel posibil ca imagini cu cont inut vizual extrem de diferit sa e
descrise de histograme asemanatoare.

In cele ce urmeaza vom prezenta cateva metode ce utilizeaza histograma imaginii


(deci densitatea de probabilitate de ordinul unu a valorilor pixelilor) pentru realizarea
mbunatat irii imaginii si a segmentarii (binarizarii) imaginii.
156 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
12.2

Imbunatat irea imaginilor

Imbunatat irea imaginilor este o sintagma generala ce se refera la o clasa larga de operat ii
al caror scop este marirea vizibilitat ii componentelor (sau part ilor) imaginii, n sensul
percept iei vizuale umane. Ca urmare, criteriile de evaluare ale calitat ii unei imagini vor
subiective (depinzand de utilizatorul imaginii) si specice aplicat iei din care provine
imaginea. Se poate face analogia operat iilor de mbunatat ire a imaginilor cu reglajul
tonalitat ii muzicii ascultate; astfel, n funct ie de ascultator, se pot favoriza componentele
nalte sau joase, sau nici unele.

In principiu mbunatat irea imaginilor se poate face f ara
a lua n considerare nici o informat ie asupra imaginii originale sau asupra procesului de
degradare care a determinat ca imaginea data sa necesite ombunatat ire. Conform acestui
punct de vedere chiar si o imagine originala (nedegradata) poate mbunatat ita, obt inand
o imagine falsicata (n sensul diferent elor fat a de original), dar subiectiv preferabila (un
contrast mai mare, muchii si frontiere mai accentuate, regiuni uniforme mai netede).
Prin mbunatat ire, unei imagini nu i se adauga nici o informat ie noua fat a de cea
existenta init ial; cont inutul original este nsa prezentat diferit. Desi la o examinare su-
perciala armat ia este corecta, putem gasi macar doua obiect ii (sau contraexemple) la
aceasta formulare:
din punctul de vedere al utilizatorului, informat ia, chiar daca exista, nu poate
folosita, deci este asimilabil nula. Acesta este cazul imaginilor obt inute n condit ii
extreme de iluminare, ce prezinta un contrast foarte slab (imagini subexpuse sau
supraexpuse);
din punctul de vedere al teoriei informat iei, informat ia din imagine poate asimilata
entropiei procesului aleator ale carui realizari particulare sunt valorile de gri ale
pixelilor; entropia se modica nsa la orice transformare ce afecteaza distribut ia
nivelelor de gri din imagine.
12.2.1 Egalizarea de histograma
Majoritatea imaginilor prezinta o distribut ie neuniforma a nivelelor de gri n orice ima-
gine exista nivele de gri predominante si exista nivele de gri put in prezente sau absente.
Operat iile de mbunatat ire a imaginilor (pentru mbunatat irea percept iei vizuale) au ca
scop redistribuirea nivelelor de gri din imagine, astfel ncat acestea sa ocupe ntreaga
gama de de valori disponibile [0, M 1]. Daca se impune condit ia ca noua distribut ie a
nivelelor de gri sa e uniforma, operat ia ce realizeaza aceasta cerint a se numeste egalizare
de histograma.
Scopul egalizarii de histograma este deci obt inerea unei distribut ii uniforme a nivelelor
de gri; imaginea rezultata va prezenta cea mai mare mbunatat ire a contrastului, contrast
distribuit regulat n ntreaga gama de valori posibile a nivelelor de gri. Din punct de
vedere matematic, egalizarea de histograma nseamna transformarea unei distribut ii oare-
cari (descrisa de histograma imaginii init iale) ntr-o distribut ie uniforma. Implementarea
12.3. Segmentarea imaginilor 157
egalizarii de histograma presupune deci determinarea acestei funct ii scalare de o variabila
(care modica valorile nivelelor de gri).
Dupa cum s-a aratat n exemplul de la pagina 27, pentru orice variabila aleatoare
(avand deci orice distribut ie) funct ia sa de repartit ie o transformantr-o variabila aleatoare
distribuita uniform n intervalul [0, 1].

In ceea ce priveste funct ia de repartit ie de ordinul
unu al imaginii, aceasta se calculeaza, conform proprietat ii 2 a densitat ilor de probabili-
tate, dupa relat ia:
H(i) =
i

j=0
h(j) i = 0, 1, . . . , M 1. (12.3)
si se numeste histograma cumulativa .
Astfel, egalizarea de histograma se obt ine modicand valoarea ecarui pixel din ima-
gine printr-o funct ie ce se obt ine prin rescalarea valorilor histogramei cumulative a ima-
ginii (12.3) din intervalul [0, 1] n toata gama de nivele de gri ale imaginii, [0, M 1].
Rezumand, putem scrie expresia funct iei de realocare a nivelelor de gri F(i) cu care se
implementeaza operat ia de egalizare de histograma ca:
F(i) =
_
H(i) H(0)
1 H(0)
(M 1)
_
, i = 0, 1, ...M 1. (12.4)
unde cu | am notat operatorul de rotunjire la cel mai apropiat ntreg. Figurile 12.3
prezinta efectul egalizarii de histograma asupra unor imagini naturale.
Egalizarea de histograma este deci o metoda automata (nu necesita stabilirea de
parametri) si adaptiva de mbunatat ire a aspectului vizual al imaginilor. Discut ia asupra
limitarilor si decient elor acestei metode depaseste nsa cadrul acestui material citi-
torul interesat ind invitat a se referi la un curs dedicat prelucrarii si analizei imaginilor,
precum [6].
12.3 Segmentarea imaginilor
Operat ia de segmentare
3
urmareste extragerea din imagine a zonelor (regiunilor) ocupate
de diferitele obiecte prezente n scena. Un obiect se deneste ca o entitate caracterizata de
un set de parametri ale caror valori nu se modica n diferitele puncte ce apart in entit at ii
considerate. Mai simplu, putem spune ca obiectul are proprietatea de uniformitate a
parametrilor de denit ie.
Unul dintre cei mai simpli parametri de denit ie este chiar nivelul de gri. Dupa cum
am ment ionat, nivelul de gri corespunde n scena unei proprietat i zice ce este preluata
de senzorul de imagine.

In acest caz, histograma imaginii reecta distribut ia n scena
a proprietat ii zice nregistrate. Daca nivelul de gri (respectiv proprietatea zica pe
care acesta o reprezinta) caracterizeaza n mod sucient obiectele din scena, histograma
imaginii va prezenta o structura de moduri dominante - intervale disjuncte de nivele de
3

In acest material ne vom referi numai la metode de segmentare zise orientate pe regiuni si nu la
extragerea contururilor obiectelor din imagini.
158 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
Figura 12.3: Coloana din stanga: imagini cu nivele de gri; coloana din dreapta: imagini
dupa egalizarea de histograma.
gri ce apar cu probabilitate mai mare. Fiecare asemenea mod (maxim al histogramei) va
reprezenta o anumita categorie de obiecte si vom numi clasa intervalul de nivele de gri
alocat unui anume tip de obiect.
Ca exemple imediate putem ment iona imaginile obt inute prin scanarea documentelor
scrise si a tipariturilor (folosite de programe de tip OCR - Optical Character Recognition),
imaginile n infrarosu (nivelul de gri al unui pixel este asociat temperaturii punctului
respectiv, astfel ncat mai alb are semnicat ia de mai cald) sau imaginile n care
exista o categorie de obiecte de interes si un fundal uniform. Pentru toate aceste tipuri
de imagini histograma este de tipul celei prezentate n gura 12.4.

In general, imaginile
reale (zise naturale) nu prezinta o asemenea structura clara de moduri (dupa cum arata
si exemplele din gura 12.2).
Segmentarea pe histograma (numita si praguire sau thresholding) urmareste deter-
12.3. Segmentarea imaginilor 159
0 50 100 150 200 250 300
0
0.005
0.01
0.015
0.02
0.025
0.03
Figura 12.4: Exemplu de imagine cu nivele de gri avand o histograma bimodala, cu
moduri bine separate.
minarea unor nivele de gri ce separa modurile histogramei. Apoi, tuturor punctelor din
imagine al caror nivel de gri corespunde aceluiasi mod, li se asociaza o eticheta comuna,
a carei semnicat ie este de apartenent a a punctului la obiectul respectiv. Pentru e-
xemplele prezentate anterior, problema este una de segmentare n doua clase (respectiv
mpart irea pixelilor imaginii n caractere scrise/zone albe, obiecte erbint i/obiecte reci,
obiect/fundal) operat ie ce necesita determinarea unui singur nivel de gri de separat ie T,
numit prag de segmentare. Acest prag de segmentare poate ales pe minimul histogramei
ce separa modurile acesteia (daca separat ia este evidenta). Astfel, pornind de la imaginea
init iala f, imaginea etichetata g va data de:
g(m, n) =
_
E
0
daca 0 f(m, n) < T
E
1
daca T f(m, n) < M
(12.5)
Imaginea etichetata g rezultatul transformarii va descrisa de cele doua etichete:
eticheta E
0
pentru punctele al caror nivel de gri este mai mic decat pragul T si eticheta
E
1
pentru punctele al caror nivel de gri este mai mare decat pragul T. Etichetele E
0
si
E
1
pot valori numerice (0 si 1, sau 0 si 255) sau pot siruri de simboluri. Acest tip de
segmentare se numeste binarizare, ntrucat imaginea rezultat este caracterizata de numai
doua valori.

In cazul general al existent ei mai multor obiecte n imagine, trebuie ales un numar
corespunzator de praguri de segmentare T
k
, segmentarea ind descrisa de:
g(m, n) = E
k
daca T
k
f(m, n) < T
k+1
(12.6)
unde T
0
= 0 , T
C
= M si k = 0, 1, ..., C 1. Pragurile T
k
pot alese manual, prin
inspect ia histogramei, n minimele locale ale acesteia.
Una din cerint ele de baza n majoritatea aplicat iilor din prelucrarile de imagine este
ca acestea sa lucreze n mod automat, fara intervent ia din exterior a utilizatorului (care
160 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
Figura 12.5: Imagini segmentate (binarizate): stanga varianta binarizata cu un prag
T = 110 a imaginii cu nivele de gri din gura 12.4; dreapta varianta binarizata cu un
prag T = 190 a imaginii cu nivele de gri din gura 12.3.d. Eticheta E
0
este reprezentata
cu negru, iar eticheta E
1
este reprezentata cu alb.
nu este, n general, de specialitate). Se pune, deci, problema alegerii automate a pragu-
lui(urilor) de segmentare T
k
, pe baza analizei automate a histogramei imaginii si a even-
tualelor cunostint e a priori asupra cont inutului imaginilor.

In paragrafele urmatoare, vom
prezenta doua abordari posibile pentru binarizarea automata a unei imagini.
12.3.1 Segmentarea imaginilor ca problema de cuantizare
Dupa cum am aratat n capitolul 11, cuantizarea unor valori implica nlocuirea valo-
rilor respective cu cea mai apropiata valoare dintr-o mult ime nita de valori (mult imea
valorilor cuantizate). Operat ia de cuantizare este o aproximare a valorilor init iale prin val-
orile cuantizate, mai exact, aproximarea tuturor valorilor cuprinse n intervalul (x
i
, x
i+1
]
cu valoarea cuantizata y
i
.

In cuantizarea optimala Lloyd-Max (prezentata n paragra-
ful 11.3) valorile cuantizate si intervalele de cuantizare sunt determinate astfel ncat media
patratica a erorii induse de aproximarea valorilor init iale cu cele cuantizate sa e minima
pentru un numar de nivele de cuantizare dat.
Dupa cum s-a demonstrat (v. relat ia (11.21)), valorile cuantizate care minimizeaza
eroarea patratica medie de aproximare sunt mediile statistice ale valorilor din intervalul
de cuantizare respectiv. Altfel spus, cuantizarea optimala nseamna alegerea intervalelor
de cuantizare sunt astfel ncat valorile din ecare interval sa e cat mai apropiate de media
lor, adica variant a valorilor din ecare interval de cuantizare sa e minima. Eroarea de
cuantizare va atunci variant a medie corespunzatoare tuturor intervalelor de cuantizare
alese.

Intr-adevar, nlocuind (11.21) n (11.14) putem scrie eroarea patratica medie ca:
12.3. Segmentarea imaginilor 161
=
L

i=1
x
i+1
_
x
i
_
x [x
i
x
i+1

_
2
w

(x)dx =
=
L

i=1
x
i+1
_
x
i
w

(z)dz
. .
P(x
i
x
i+1
)
x
i+1
_
x
i
_
x [x
i
x
i+1

_
2 w

(x)
x
i+1
_
x
i
w

(z)dz
. .
w
|{x
i
x
i+1
}
. .

2
|{x
i
x
i+1
}
dx.
=
L

i=1
P(x
i
x
i+1
)
2
[x
i
x
i+1

(12.7)

In calculul de mai sus am folosit rezultatul (3.10).

In cazul binarizarii, problema (care fusese init ial formulata doar ca alegere a pragului
de segmentare T care separa modurile histogramei ce corespund celor doua obiecte din
imagine) poate reformulata n sensul cuantizarii astfel: dorim cuantizarea optimala a
valorilor pixelilor imaginii cu L = 2 nivele, ceea ce revine la determinarea pragului T
astfel ncat prin mpart irea gamei de nivele de gri disponibile [0, M1] n doua subinter-
vale, [0, T] si [T, M 1], si prin aproximarea ecarui pixel dintr-un subinterval cu media
acestuia, eroarea patratica medie sa e minima. Astfel, conform (12.7), pragul T cu care
facem binarizarea trebuie sa minimizeze expresia:
= P
0

2
0
+ P
1

2
1
, (12.8)
unde P
0
si P
1
sunt probabilitat ile ca nivelul de gri al unui pixel sa apart ina intervalelor
[0, T 1], respectiv [T, M 1]:
P
0
=
T1

i=0
h(i), (12.9a)
P
1
=
M1

i=T
h
i
= 1 P
0
, (12.9b)
iar
2
0
si
2
1
sunt variant ele nivelelor de gri corespunzatoare acelorasi intervale:

2
0
=
T1

i=0
i
2
h(i)
T1

i=0
h(i)

_
_
_
_
T1

i=0
ih(i)
T1

i=0
h(i)
_
_
_
_
2
, (12.10a)

2
1
=
M1

i=T
i
2
h(i)
M1

i=T
h(i)

_
_
_
_
_
M1

i=T
ih(i)
M1

i=T
h(i)
_
_
_
_
_
2
. (12.10b)
162 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
Acest mod de denire a binarizarii este cunoscut n domeniul prelucrarii si analizei
imaginilor drept metoda de segmentare Otsu.
Dupa cum am aratat, pragul cautat T este media aritmetica a mediilor statistice ale
valorilor de cuantizat din cele doua intervale de cuantizare alese; t inand seama ca nivelele
de gri din imagine sunt (deja) valori discrete, expresia (11.17) se poate scrie ca:
T =
1
2
_
_
_
_
_
_
_
_
_
T1

i=0
ih(i)
T1

i=0
h(i)
. .

0
+
M1

i=T
ih(i)
M1

i=T
h(i)
. .

1
_
_
_
_
_
_
_
_
_
. (12.11)
Aceasta ecuat ie nu se poate rezolva analitic. Putem gasi totusi valoarea T cautata,
care minimizeaza pe (12.8) calculand valorile unei forme modicate ale funct iei (12.8)
pentru toate valorile posibile ale lui T 0, 1, . . . , M 1. Pentru aceasta, 12.8 se poate
rescrie ca:
=
M1

i=0
i
2
h(i)
_
P
0

2
0
+ P
1

2
1
_
. (12.12)
Minimizarea lui (12.8) revine la maximizarea lui P
0

2
0
+P
1

2
1
, cu
0
si
1
mediile nivelelor
de gri pe cele doua intervale. O simplicare a calculului se poate obt ine prin considerarea
relat iilor iterative prin care mediile si probabilitat ile de aparit ie pe intervale, calculate
pentru pragul T + 1 depind de aceleasi marimi calculate pentru pragul imediat anterior,
T. De exemplu avem:
P
0
(T + 1) = P
0
(T) + h(T + 1) (12.13)

0
(T + 1) =
P
0
(T)
0
(T) + (T + 1)h(T + 1)
P
0
(T + 1)
. (12.14)
Relat ii analoage exista pentru marimile P
1
si
1
.
12.3.2 Segmentarea imaginilor ca problema de decizie
Binarizarea unei imagini cu nivele de gri poate interpretata si ca o problema de decizie
trebuie hotarata clasa (tipul de obiect) careia i apart ine ecare punct din imagine.
Decizia se reduce, desigur, la calculul pragului de segmentare T, cu care se compara
nivelele de gri ale pixelilor din imagine, astfel ncat clasicarea pixelilor n clase sa e cat
mai corect a din punctul de vedere al unui criteriu de eroare. Pragul astfel determinat
va optim n sensul criteriului de eroare folosit, segmentarea numindu-se segmentare cu
prag optim.

In cazul binarizarii trebuie determinat deci un unic prag T ce separa modurile din
histogram a ce corespund celor doua obiecte din imagine: obiecte O
0
, caracterizate de
nivele de gri mai mici decat pragul T, si obiecte O
1
, ale caror nivele de gri sunt mai mari
12.3. Segmentarea imaginilor 163
decat pragul T. Binarizarea se poate formula ntr-un cadru specic proceselor de decizie,
considerand ca pentru ecare pixel al imaginii se ia decizia D
0
(respectiv se decide ca
pixelul apart ine unui obiect O
0
) daca nivelul sau de gri este mai mic decat pragul T, sau
decizia D
1
(pixelul apart ine unui obiect de tip O
1
) daca nivelul de gri al pixelului este
mai mare decat pragul T. Dupa cum se poate remarca, observat ia pe baza careia lu am
decizia este un scalar, si anume nivelul de gri al pixelului respectiv.
Criteriul ce se urmareste optimizat este minimizarea probabilitat ii de clasicare
eronata a punctelor din imagine. Presupunand cunoscute funct iile de densitate de pro-
babilitate a nivelelor de gri ce descriu ecare dintre cele doua tipuri de componente din
imagine, w
0
(i) si w
1
(i) si probabilitat ile lor de aparit ie n imagine, P
0
si P
1
, putem exprima
probabilitatea de clasicare eronata ca:
P
E
(T) = P
0
+
_
T
w
0
(x)dx
. .
P(D
1
[O
0
)
+ P
1
T
_

w
1
(x)dx
. .
P(D
0
[O
1
)
(12.15)

In mod evident se presupune ca cele doua tipuri de obiecte ocupa complet imaginea
(P
0
+ P
1
= 1). Histograma imaginii (adica distribut ia nivelelor de gri la nivelul ntregii
imagini) este evident mixtura distribut iilor individuale ale celor doua tipuri de obiecte si
se poate scrie ca:
h(i) = P
0
w
0
(i) + P
1
w
1
(i), i = 0, 1, . . . , M 1. (12.16)
Figura 12.6 prezinta o ilustrare graca a erorii.
Pragul optim va minimiza eroarea de segmentare a pixelilor. Minimizarea erorii (12.15)
conduce la rezolvarea ecuat iei n necunoscuta T:
P
E
(T)
T
= 0, (12.17)
ceea ce conduce la relat ia:
P
0
w
0
(T) + P
1
w
1
(T) = 0, (12.18)
ce poate rescrisa ca:
w
1
(T)
w
0
(T)
=
P
0
P
1
. (12.19)
Forma (12.19) se poate compara cu forma nala a criteriului de decizie Bayes data
de (6.14). Constatam astfel ca ne aam ntr-un cadru de alegere simetrica a costurilor
de decizie (ambele erori de decizie au acelasi cost, ambele decizii corecte au acelasi cost),
astfel ncat pragul testului Bayes este dat de raportul probabilitat ilor a priori de aparit ie
a celor doua tipuri de obiecte.
Presupunerea ca distribut ia nivelelor de gri a diferitelor tipuri de obiecte este de tip
normal (Gaussian) este relativ des ntalnita.

In aceste condit ii, distribut iile w
0
(x) si w
1
(x)
164 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
T
i
h(i)
P
0
w
0
(i)
P
1
w
1
(i)
Figura 12.6: Eroarea de clasicare corespunzatoare separarii a doua moduri Gaussiene
prin pragul T corespunde ariei hasurate din gura. Histograma imaginii, data de (12.16),
este gurata cu linie punctata.
sunt distribut ii normale, ^(m
0
,
0
) si ^(m
1
,
1
), iar ecuat ia (12.19) devine:
1

2
exp
_

(Tm
1
)
2
2
2
1
_
1

2
exp
_

(Tm
0
)
2
2
2
0
_ =
P
0
P
1
(12.20)
Prin logaritmare, se obt ine o ecuat ie de gradul doi prin a carei rezolvare se determina
pragul necunoscut T:
T
2
_
1

2
0

2
1
_
2T
_
m
0

2
0

m
1

2
1
_
+
_
m
2
0

2
0

m
2
1

2
1
_
2 ln
P
0
P
1

0
= 0. (12.21)
Pentru cazul particular
0
=
1
not
= , ecuat ia (12.21) devine o ecuat ie de gradul unu,
a carei solut ie este:
T =
m
0
+ m
1
2


2
m
0
m
1
ln
P
0
P
1
(12.22)
Metoda se poate extinde si pentru imagini ce cont in mai mult de doua tipuri de obiecte;
n acest caz este nsa necesara o presupunere suplimentara de localizare a modurilor, asfel
ncat sa se poata considera ca inuent a ecarui mod este limitata la intervale nesuprapuse
de nivele de gri si deci eroarea de clasicare a pixelilor imaginii se va referi doar la perechi
de moduri vecine.
12.4 Compresia imaginilor cu transformate
Compresia imaginilor nseamna reprezentarea acestora ntr-o forma simplicata, care
necesita un spat iu mai mic de stocare sau o durata mai mica de transmisie. Dorim
12.4. Compresia imaginilor cu transformate 165
reprezentarea aceluiasi cont inut vizual ntr-o forma mai compacta; noua reprezentare tre-
buie sa permita refacerea identica (sau aproape identica) a cont inutului imaginii init iale
vom spune ca avem de-a face, n cele doua cazuri, cu o compresie fara pierderi (respectiv
cu pierderi).
Posibilitatea de a stoca/transmite datele comprimat provine din redundant a existenta
n succesiunea valorilor semnalului ce se comprima/ compacteaza/ codeaza, redundant a
ce are dou a cauze:
Semnalele reale sunt corelate, ceea ce este echivalent cu faptul ca valori apropiate
ale semnalului depind una de alta. Astfel, prin codarea ecarei valori independent
de valorile alatuate se induce n semnal o redundant a care este cu atat mai mare cu
cat corelat ia este mai puternica.
Pentru majoritatea semnalelor, valorile acestora nu au o distribut ie uniforma: anu-
mite valori sunt mai probabile decat altele, fapt de care nu se t ine n general cont,
toate esantioanele semnalului ind codate cu acelasi numar de bit i, desi, dupa cum
se stie din teoria codarii, prin alocarea unui cod mai scurt valorilor mai probabile se
poate reduce cantitatea globala de date necesare pentru stocarea ntregului semnal.
Dintre tehnicile de baza de compresie bazate pe exploatarea corelat iei din semnale, cele
mai comune sunt compresia cu transformate (discutata n capitolul 10) si cea predictiva
(ment ionata n capitolul 9)
4
. Pentru eliminarea celei de-a doua cauze a redundant ei, se
foloseste codarea entropica, de tip Human.
Ecient a unei metode de compresie se masoara prin doi parametri: raportul de com-
presie, care este un indicator al reducerii cantitat ii de informat ie necesare pentru stocarea
imaginii, si factorul de calitate, care este o masura a reducerii calitat ii imaginii induse de
compresie. Ca n multe alte probleme ingineresti, cele doua cerint e sunt antagoniste (cu
cat raportul de compresie este mai mare, cu atat factorul de calitate este mai scazut, si
vice-versa) proiectarea metodelor de compresie trebuind sa asigure un compromis rezon-
abil ntre cele doua.
Imaginile, n general, sunt semnale caracterizate de o corelat ie foarte puternica ntre
valori vecine. Acest fapt se datoreaza existent ei, n majoritatea imaginilor naturale, a
unor zone uniforme extinse, zone caracterizate de valori similare ale pixelilor. Astfel, este
de asteptat de la o metoda de compresie de imagini o reducere semnicativa a cantitat ii
de date, pentru factori de calitate mari.
Standardul de compresie JPEG, pe care-l vom prezenta schematic n continuare, face
apel la toate tipurile de metode de compresie ment ionate mai sus (cu transformate, pre-
dictiva, entropica)
Compresia cu transformate a imaginilor se bazeaza pe proprietat ile de conservare si
compactare a energiei (si, implicit, de decorelare a componentelor) pe care le prezinta
majoritatea transformarilor unitare discutate n capitolul 10. Atata vreme cat cea mai
4
Pentru imagini exista multe alte tehnici specice de compresie, dintre care citam cuantizarea vecto-
riala, compresia cu fractali etc.
166 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
mare parte a energiei este distribuita dupa transformarea valorilor originale ale imaginii n
numai cateva componente transformate, toate celelalte valori transformate pot ignorate;
astfel memoria necesara reprezentarii este mult mai mica. Aplicarea practica a compresiei
cu transformate are deci n vedere trei aspecte: alegerea transformatei bidimensionale,
stabilirea numarului de valori ce se pastreaza si, n ne, cuantizarea acestora.
Dupa cum am discutat, exista impedimente de ordin practic pentru utilizarea transfor-
matei optimale Karhunen-Lo`eve, drept pentru care n practica se folosesc aproximari ale
acesteia.

In condit iile n care majoritatea imaginilor naturale pot aproximate printr-un
model Markov de ordin unu puternic corelat (exprimand dependent a puternica a valorii
pixelilor de valorile vecinilor lor imediat i), transformata cosinus discreta (prezentata pen-
tru cazul unidimensional n paragraful 10.3) s-a dovedit cea mai buna alegere si a fost
adoptata de standardul de compresie JPEG
5
. Transformarea cosinus discreta a unei ima-
gini (deci bidimensionala) se reduce la aplicarea succesiva a transformarii unidimensionale
pe ecare dintre liniile imaginii si apoi pe ecare coloana a matricii rezultate intermediar
(pentru mai multe detalii vezi referint a [6]).
Standardul de compresie JPEG
6
(identicat de siere imagine cu extensia .jpg sau
.jpeg) a fost denit n 1992 (ISO/ IEC 10928-1, ITU-T Rec. T-81). Imaginea este di-
vizata n blocuri adiacente de 8 x 8 pixeli, iar ecarui bloc i se aplica o transformata
cosinus bidimensionala
7
. Cei 64 de coecient i ai transformarii sunt aranjat i ntr-un sir
unidimensional prin baleierea elementelor matricii de 8 x 8 elemente ntr-o ordine presta-
bilita (un zig-zag pe diagonale paralele cu diagonala secundara) care face ca valorile cele
mai semnicative cantitativ sa ocupe primele pozit ii n vectorul rezultant. Coecient ii
sunt apoi cuantizat i cu pasi de cuantizare diferit i n funct ie de pozit ia lor n sir, pasi
prestabilit i prin standard.

In mare, primele componente sunt cuantizate cu o precizie
mai mare (deci cu un pas de cuantizare mai mic), n timp ultimele componente (cele
mai put in semnicative) sunt cuantizate grosier, cu cuante mari (ceea ce deseori duce la
anularea completa a acestora). Calitatea compresiei este data de calitatea cuantizarii,
ntrucat pierderile totale introduse de compresia JPEG provin numai din cuantizarea va-
lorilor transformate. Calitatea compresiei poate reglata de utilizator prin setarea unui
factor de calitate Q care este un scalar cu valori ntre 1 si 100 cu care se scaleaza valorile
pasilor de cuantizare standardizate.

In mod evident pentru Q = 1 se obt ine calitatea cea
mai buna (si compresia minima), n timp ce pentru Q 100 se obt ine calitatea cea mai
slaba (si compresia maxima).

In gura 12.7 este prezentat rezultatul compresiei aceleiasi
imagini prin standardul JPEG pentru doua valori ale factorului de calitate.

In continuare, valorile transformate si cuantizate ce corespund primei pozit ii din ecare


bloc de imagine (corespunzand valorii medii a nivelelor de gri din blocul respectiv) sunt
5

In standardul de compresie JPEG2000, transformata cosinus discreta a fost nlocuita cu transformata


wavelet, cu performant e sporite
6
Acronim pentru Joint Photographic Experts Group
7
Calculul transformatei pe blocuri n loc de ntreaga imagine a fost dictat de rat iuni ce t in de com-
plexitatea algoritmului de codare si de obt inerea unei statistici a valorilor cat mai apropiate de modelul
markovian de ordinul unu.
12.4. Compresia imaginilor cu transformate 167
Figura 12.7: Variante de compresie JPEG a imaginii cu nivele de gri din gura 12.4;
imaginea din stanga este comprimata cu un factor de calitate mediu (Q = 75) la un raport
de compresie de 35:1, iar imaginea din dreapta este comprimata cu un factor de calitate
scazut (Q = 95) ce corespunde unui raport de compresie de 48:1.
codate predictiv printr-o tehnica de tip DPCM (acronim pentru Dierential Pulse Code
Modulation
8
).

In cele din urma, sirul unidimensional de valori rezultat prin concatenarea
vectorilor 64dimensionali corespunzatori ecarui bloc de imagine de dimensiune 8 8
este codat entropic printr-o tehnica de codare Human.
Factorii de compresie ce rezulta sunt cuprinsi n mod tipic ntre 10 si 100. Aspectul
de compresie cu pierderi (diferent ele fat a de imaginea originala) se manifesta prin efectul
de blocking: sublinierea frontierelor de separat ie a blocurilor de baza (efect observabil si
n gura 12.7).
8
Modulat ia diferent iala a impulsurilor n cod este o tehnica de codare predictiva simplicata a
valorilor unui semnal: n locul ecarui esantion al semnalului este ret inuta/transmisa diferent a ntre
esantionul respectiv si cel anterior, ceea ce este echivalentul unui predictor de ordinul unu, caracterizat
de

(n + 1) = (n).
168 CAPITOLUL 12. APLICAT II

IN PRELUCRAREA SI ANALIZA IMAGINILOR
Anexa A
Impulsul Dirac
Sa presupunem funct ia f(x) avand expresia
f(x) =
_

_
E
1
daca x < x
1
E
2
E
1
x
2
x
1
(x x
1
) + E
1
daca x
1
x x
2
E
2
daca x > x
2
. (A.1)
Gracul funct iei f este prezentat n gura A.1.(a). Derivata funct iei, prezentata n
gura A.1.(b), este nula pe intervalele pe care funct ia e constanta, si este constanta pe
intervalul pe care funct ia creste liniar:
f
t
(x) =
_
0 daca x < x
1
sau x > x
2
E
2
E
1
x
2
x
1
daca x
1
x x
2
. (A.2)
Sa presupunemn continuare ca nivelele celor doua paliere ale funct iei f(x), si anume
E
1
si E
2
sunt constante.

In schimb, sa presupunem ca facem sa varieze limitele intervalului
de crestere liniara a funct iei, si anume x
1
si x
2
. Se observa ca indiferent de cat de apropiate
(saundepartate) sunt x
1
si x
2
una de cealalta, aria de sub gracul derivatei f
t
(x) a funct iei
(aria hasurata n gura A.1.(b)) este constanta, de valoare A = E
2
E
1
.
f(x)
x
x
1
x
2

E
1

E
2

f(x)
x
x
1
x
2

(E
2
E
1
)/(x
2
x
1
)
A=E
2
E
1

(a) (b)
Figura A.1: Funct ia f(x) si derivata ei.
169
170 ANEXA A. IMPULSUL DIRAC
Consideram acum forma aceleiasi funct ii si a derivatei sale n cazul limita x
2
x
1
.

In
acest caz, funct ia f(x) efectueaza un salt brusc de la nivelul E
1
la E
2
n punctul x
1
(v.
gura A.2.(a)). Pe masura ce x
2
se apropie de x
1
, intervalul [x
1
, x
2
] se micsoreaza, dar
valoarea derivatei pe intervalul respectiv creste. La limita, derivata f
t
(x) capata o valoare
innita, ntr-un singur punct, dar continua sa aiba arie constanta. Cu alte cuvinte, cand
x
2
x
1
, n derivata funct iei apare un impuls Dirac n punctul x
1
de arie E
2
E
1
(v.
gura A.2.(b)).
f(x)
x
x
2
x
1

E
1

E
2

f(x)
x
x
2
x
1

(E
2
E
1
)(xx
1
)
(a) (b)
Figura A.2: Funct ia f(x) si derivata ei n cazul limita x
2
x
1
.
Rezulta din cele de mai sus ca impulsul Dirac, notat cu (x), este un semnal avand
valoare innita ntr-un singur punct
1
, dar care are arie nita (aleasa prin convent ie egala
cu unitatea):
(x) =
_
daca x = 0
0 n rest
, (A.3)
cu

(x)dx = 1. (A.4)
Referitor la impulsul Dirac, se poate demonstra urmatoarea relat ie importanta:

f(x)(x x
0
)dx =
x
0
+
_
x
0

f(x)(x x
0
)dx

f(x
0
)
x
0
+
_
x
0

(x x
0
)dx
. .
1
= f(x
0
). (A.5)
Concluzia nala pe care o tragem n urma acestei expuneri este urmatoarea: daca o
funct ie prezinta un salt (are o discontinuitate) ntr-un punct x
0
, atunci n derivata funct iei,
n punctul x
0
va aparea un impuls Dirac de arie egala numeric cu amplitudinea saltului
efectuat de funct ie.
1
Este evident ca din punct de vedere strict matematic, o astfel de denit ie a unui semnal care ia valori
innite este incorecta. Totusi, vom pastra denit ia ca atare, ntrucat ea ne permite sa eludam trecerea
la limita cand x
2
x
1
de ecare data.
Bibliograe
[1] V. Buzuloiu. Teoria transmisiunii informat iei. Note de curs.
[2] A. Spataru. Teoria transmisiunii informat iei. Editura Didactica si Pedagogica, Bu-
curesti, 1983.
[3] A. Papoulis. Probability, random variables and stochastic processes. McGrawHill,
New York, NY, 3
rd
edition, 1991.
[4] S. Haykin. Adaptive lter theory. Prentice Hall, Englewood Clis, NJ, 2
nd
edition,
1991.
[5] A. K. Jain. Fundamentals of digital image processing. Prentice Hall, Englewood Clis,
NJ, 1989.
[6] C. Vertan. Prelucrarea si analiza imaginilor. Editura Printech, Bucuresti, 1999.
[7] A. Spataru. Fondements de la theorie de la transmission de linformation. Presses
Polytechniques et Universitaires Romandes, Lausanne, 1987.
[8] C. Vertan, I. Gavat, si R. Stoian. Variabile si procese aleatoare: principii si aplicat ii.
Editura Printech, Bucuresti, 1999.
[9] R. Boite si M. Kunt. Traitement de la parole. Presses Polytechniques Romandes,
Lausanne, 1987.
171