Documente Academic
Documente Profesional
Documente Cultură
PRELUCRAREA STATISTIC
A A
SEMNALELOR
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
0 20 40 60 80 100 120 140 160 180 200
3
2
1
0
1
2
3
4
0 20 40 60 80 100 120 140 160 180 200
2
1
0
1
2
3
Editura MatrixRom
2005
Cuvant nainte
Aceasta lucrare reprezinta baza cursului de Teoria transmisiunii informat iei 2, curs de
tradit ie al Facultat ii de Electronica, Telecomunicat ii si Tehnologia Informat iei din Uni-
versitatea Politehnica Bucuresti, obligatoriu pentru tot i student ii anului III, indiferent
de specializarea pe care o urmeaza. Structura prezentarii urmareste, deci, del structura
cursului, ale carui baze au fost puse de domnul profesor Alexandru Spataru si sunt expuse
n lucrarea [2].
In plus, se presupune ca cititorii sunt deja familiarizat i cu o serie de not iuni (precum al-
gebra liniara, integrale multidimensionale, analiza Fourier, teoria sistemelor liniare, teoria
informat iei) care sunt dobandite la cursurile urmate n primii doi ani de studiu (Algebra
liniara, Analiza, Matematici speciale, Semnale, circuite si sisteme, Teoria Transmisiunii
Informat iei 1). De asemenea, se presupune ca cititorii sunt familiarizat i cu not iunea de
probabilitate, (not iune esent iala pentru aceasta lucrare) despre care sunt doar reamintite
pe scurt elementele de baza.
Dorim sa mult umim D-lui Vasile Buzuloiu, profesor la Catedra de Electronica Apli-
cata si Ingineria Informat iei a Facultat ii de Electronica, Telecomunicat ii si Tehnologia
Informat iei. Prezent a continua a Domniei Sale alaturi de noi de-a lungul ultimilor zece
ani a contribuit esent ial la formarea noastra (stiint ica si umana) astfel ncat contribut ia
Domniei Sale la aceasta lucrare este cu mult mai importanta decat ajutorul direct dat la
redactarea si revizuirea ei.
De asemenea, dorim sa mult umim D-rei Lavinia Darlea si D-lui Bogdan Ionescu, doc-
toranzi la Laboratorul de Analiza si Prelucrarea Imaginilor, care au avut bunavoint a si
rabdarea de a parcurge minut ios materialul, ajutand, astfel, substant ial la mbunatat irea
formei lui.
Aprilie 2005,
Autorii
i
ii
Cuprins
1 Introducere 1
2 Not iuni de teoria probabilitat ii 3
2.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Axiomele probabilitat ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Camp de evenimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Probabilitat i condit ionate. Evenimente independente . . . . . . . . . . . . 7
3 Variabile aleatoare 9
3.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Evenimente generate de variabile aleatoare . . . . . . . . . . . . . . . . . . 10
3.3 Funct ia de repartit ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Densitatea de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Distribut ii condit ionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.6 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.7 Tipuri de distribut ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.7.1 Distribut ia uniforma . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.7.2 Distribut ia gaussiana (normala) . . . . . . . . . . . . . . . . . . . . 20
3.7.3 Distribut ia Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.8 Funct ii de o variabila aleatoare . . . . . . . . . . . . . . . . . . . . . . . . 20
3.9 Teorema de medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Perechi de variabile aleatoare 31
4.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Funct ia de repartit ie de ordinul doi . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Densitatea de probabilitate de ordinul doi . . . . . . . . . . . . . . . . . . 33
4.4 Distribut ii condit ionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5 Variabile aleatoare independente . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 O funct ie de doua variabile aleatoare. Teorema limita centrala. . . . . . . . 37
4.7 Teorema de medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.8 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.9 Dreapta de regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.9.1 Coecientul de corelat ie . . . . . . . . . . . . . . . . . . . . . . . . 46
iii
iv CUPRINS
4.10 Distribut ia gaussiana de ordinul doi . . . . . . . . . . . . . . . . . . . . . . 47
5 Semnale aleatoare 49
5.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Caracterizarea statistica a semnalelor aleatoare . . . . . . . . . . . . . . . 49
5.2.1 Caracterizarea de ordinul unu a semnalelor aleatoare . . . . . . . . 50
5.2.2 Caracterizarea de ordinul doi a semnalelor aleatoare . . . . . . . . . 50
5.3 Semnale stat ionare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3.1 Stat ionaritate n sens strict . . . . . . . . . . . . . . . . . . . . . . 51
5.3.2 Stat ionaritate n sens larg . . . . . . . . . . . . . . . . . . . . . . . 53
5.4 Proprietat ile funct iei de autocorelat ie . . . . . . . . . . . . . . . . . . . . . 53
5.5 Funct ia de intercorelat ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.6 Semnale ergodice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.6.1 Medii temporale ale semnalului . . . . . . . . . . . . . . . . . . . . 55
5.6.2 Ergodicitate n sensul mediei si n sensul autocorelat iei . . . . . . . 56
5.6.3 Teorema ergodicitat ii mediei . . . . . . . . . . . . . . . . . . . . . . 56
5.7 Densitatea spectrala de putere . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.8 Teorema WienerHincin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.9 Densitatea spectrala de putere de interact iune . . . . . . . . . . . . . . . . 66
5.10 Zgomotul alb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.11 Trecerea semnalelor aleatoare prin ltre liniare . . . . . . . . . . . . . . . . 67
5.11.1 Sisteme liniare invariante n timp . . . . . . . . . . . . . . . . . . . 68
5.11.2 Relat ii ntre marimile statistice la trecerea prin ltre liniare . . . . . 70
5.11.3 Trecerea semnalelor aleatoare prin FTJ ideal . . . . . . . . . . . . . 71
5.11.4 Trecerea semnalelor aleatoare prin FTB ideal . . . . . . . . . . . . 74
5.12 Filtrul adaptat la semnal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.12.1 Maximizarea RSZ prin ltrare liniara . . . . . . . . . . . . . . . . . 80
6 Detect ia semnalelor 83
6.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2 Criteriul de decizie Bayes: cazul observat iilor discrete . . . . . . . . . . . . 85
6.2.1 Statistica sucienta . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.2.2 Criteriul Bayes pentru zgomot alb gaussian . . . . . . . . . . . . . . 90
6.3 Criteriul Bayes: cazul observat iilor continue . . . . . . . . . . . . . . . . . 93
6.3.1 Cazul zgomotului alb gaussian . . . . . . . . . . . . . . . . . . . . . 95
7 Estimarea parametrilor 99
7.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.2 Estimarea n sensul costului mediu minim . . . . . . . . . . . . . . . . . . 100
7.2.1 Estimarea n sensul funct iei de cost patratul erorii . . . . . . . . . . 101
7.2.2 Estimarea n sensul funct iei de cost uniforme . . . . . . . . . . . . . 102
7.2.3 Estimarea unui parametru gaussian n zgomot alb, gaussian . . . . 104
CUPRINS v
7.2.4 Estimarea n absent a unui model statistic a priori . . . . . . . . . . 109
7.3 Evaluarea calitat ii unui estimator . . . . . . . . . . . . . . . . . . . . . . . 109
8 Semnale aleatoare n timp discret 111
8.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.2 Matricea de autocorelat ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Modele stochastice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8.3.1 Modelul AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.3.2 Modelul MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.3.3 Modelul ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.3.4 Ecuat iile YuleWalker . . . . . . . . . . . . . . . . . . . . . . . . . 118
9 Filtrarea optimala a semnalelor 123
9.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
9.2 Principiul ortogonalitat ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
9.3 Ecuat iile WienerHopf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
9.3.1 Ecuat iile WienerHopf pentru ltru de tip FIR . . . . . . . . . . . 126
9.4 Aplicat ii ale ltrarii optimale a semnalelor . . . . . . . . . . . . . . . . . . 127
9.4.1 Atenuarea zgomotului . . . . . . . . . . . . . . . . . . . . . . . . . 128
9.4.2 Predict ia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
10 Transformate unitare 133
10.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
10.2 Transformata KarhunenLo`eve . . . . . . . . . . . . . . . . . . . . . . . . 136
10.3 Aproximari practice ale transformatei KL . . . . . . . . . . . . . . . . . . . 139
10.3.1 Transformata cosinus discreta . . . . . . . . . . . . . . . . . . . . . 140
10.3.2 Transformata sinus discreta . . . . . . . . . . . . . . . . . . . . . . 143
11 Cuantizarea semnalelor 145
11.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
11.2 Cuantizarea uniforma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
11.3 Cuantizarea optimala LloydMax . . . . . . . . . . . . . . . . . . . . . . . 148
11.4 Compandarea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
12 Aplicat ii n prelucrarea si analiza imaginilor 153
12.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.2
Imbunatat irea imaginilor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2.1 Egalizarea de histograma . . . . . . . . . . . . . . . . . . . . . . . . 156
12.3 Segmentarea imaginilor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.3.1 Segmentarea imaginilor ca problema de cuantizare . . . . . . . . . . 160
12.3.2 Segmentarea imaginilor ca problema de decizie . . . . . . . . . . . . 162
12.4 Compresia imaginilor cu transformate . . . . . . . . . . . . . . . . . . . . . 164
vi CUPRINS
A Impulsul Dirac 169
Bibliograe 171
Capitolul 1
Introducere
Spre deosebire de abordarea determinista a prelucrarii semnalelor, n care ecare semnal
este considerat o entitate de sine statatoare, n prelucrarea statistica se ia n considerare
faptul ca un semnal purtator de informat ie apart ine unei anumite clase de semnale (spre
exemplu, semnal vocal etc.) clasa ce poate caracterizata prin anumit i parametri statis-
tici. Scopul teoriei statistice a semnalelor este denirea acestor parametri si utilizarea lor
pentru o prelucrare ecienta a semnalelor.
Prima parte a acestei lucrari este dedicata denirii marimilor care caracterizeaza statis-
tic semnalele aleatoare.
In capitolul 2 sunt reluate pe scurt elementele de baza ale teoriei
probabilitat ii, pe care le vom utilizan capitolul 3 pentru introducerea not iunii de variabila
aleatoare: sunt denite marimile statistice ce caracterizeaza variabilele aleatoare (funct ie
de repartit ie, densitate de probabilitate, momente) si este discutata n detaliu problema
modicarii acestora prin aplicarea unei funct ii cunoscute variabilei aleatoare. Capitolul 4
trateaza problema caracterizarii statistice comune a unei perechi de variabile aleatoare, cu
ajutorul careia se pot trage concluzii referitoare la gradul si tipul de dependent a statistica
ntre acestea.
Toate marimile denite si toate rezultatele obt inute pentru variabilele aleatoare vor
servi n capitolul 5 pentru caracterizarea statistica a semnalelor aleatoare. Sunt denite
not iunile, extrem de importante, de stat ionaritate si ergodicitate a semnalelor. De aseme-
nea, se denesc marimi statistice care sa caracterizeze semnalele din punct de vedere
spectral si este demonstrata o teorema fundamentala n prelucrarea semnalelor (teorema
WienerHincin) care face legatura ntre marimile statistice temporale si spectrale. De
asemenea, este studiata modicarea marimilor statistice la trecerea semnalelor prin sis-
teme liniare, invariante n timp.
Partea a doua a lucrarii prezinta problema prelucrarii semnalelor aleatoare folosind
caracteristicile statistice denite n prima parte. Capitolele 6 si 7 trateaza probleme
de decizie statistica: detect ia semnalelor si estimarea parametrilor.
In primul caz, este
vorba despre identicarea cat mai precisa, n prezent a zgomotului, a unui semnal dintr-o
mult ime nita de semnale cunoscute (cu aplicat ie n extragerea informat iei n transmisiuni
digitale), n timp ce n al doilea caz, problema este de a estima cat mai precis (de aseme-
nea, n prezent a zgomotului) a unui parametru necunoscut al unui semnal cunoscut.
In
1
2 CAPITOLUL 1. INTRODUCERE
capitolul 8 se introduce reprezentarea n timp discret a semnalelor aleatoare si se discuta
not iunea de model aleator pentru generarea semnalelor de interes. Capitolul 9 prezinta
problema estimarii optimale a formei semnalelor prin ltrare liniara, si sunt prezentate
doua aplicat ii de interes practic ridicat: reducerea de zgomot si predict ia.
In capitolul 10
este tratata problema reprezentarii semnalelor n alte coordonate, cu aplicat ii imediate
pentru analiza si compresia datelor.
In sfarsit, n capitolul 11 este discutata problema
cuantizarii semnalelor, adica a transformarii naturii valorilor semnalelor din continuu n
discret.
A treia parte a lucrarii (capitolul 12) propune o incursiune interesanta n lumea unei
clase particulare de semnale aleatoare, si anume imaginile. Mai precis, sunt prezentate
cateva aplicat ii ale prelucrarii statistice a semnalelor n domeniul, extrem de actual, al
prelucrarii si analizei imaginilor digitale. Scopul principal al acestei part i este de a-i da
cititorului, pe exemple concrete, o not iune despre utilitatea tehnicilor descrise n aceasta
lucrare, not iune care, datorita ariditat ii prezentarii (ce nu poate ocolita pe alocuri) risca
sa treaca altminteri neobservata...
Capitolul 2
Not iuni de teoria probabilitat ii
2.1 Introducere
Probabilitat ile sunt instrumentul matematic de baza pentru prezenta lucrare, drept pentru
care vom relua n acest capitol elementele de baza din teoria probabilitat ii ce ne vor
de folos n continuare. Trebuie sa precizam ca nu avem intent ia de a face o prezentare
exhaustiva a teoriei probabilitat ilor, pentru aceasta cititorul ind rugat sa apeleze la una
dintre numeroasele lucrari de referint a din domeniu (spre exemplu [3]).
Asupra probabilitat ii unui eveniment exista o accept iune foarte evidenta venita dinspre
practica. Daca repetam un experiment de N ori, iar evenimentul A se produce de N
A
ori,
atunci probabilitatea P(A) de producere a evenimentului A este:
P(A) = lim
N
N
A
N
. (2.1)
Din pacate, aceasta descriere intuitiva a probabilitat ii unui eveniment, desi adevarata,
este insucient de precisa pentru a putea permite o construct ie matematica pe seama ei,
datele ind astfel imposibil de manipulat. Aceasta construct ie matematica a teoriei pro-
babilitat ilor, de care avem nevoie n continuare, se face pornind de la trei proprietat i pe
care le acceptam fara demonstrat ie (axiome). Trebuie sa remarcam ca desi abordarea e
diferita, totusi exista o potrivire perfecta a realitat ii practice, descrise de relat ia (2.1), pe
ntregul esafodaj matematic construit pe baza celor trei axiome.
Sa ncepem prin a stabili terminologia folosita n teoria probabilitat ilor. Fie =
1
,
2
, . . . mult imea tuturor rezultatelor posibile ale unui experiment.
In teoria proba-
bilitat ii, elementele
i
se numesc realizari experimentale, submult imile A se numesc
evenimente, mult imea se numeste evenimentul sigur, mult imea vida se numeste eveni-
mentul imposibil, iar submult imile formate din cate un singur element
i
se numesc
evenimente elementare. Doua evenimente A si B se numesc incompatibile daca AB = .
Daca la o desfasurare a experimentului s-a observat ca rezultat al acestuia elementul
i
,
atunci se spune ca evenimentul A s-a produs (sau a avut loc) daca
i
A. De asemenea,
daca
i
, B, se spune ca evenimentul B nu s-a produs.
In acest sens, este evident ca
evenimentul se produce la ecare desfasurare a experimentului, iar evenimentul nu
3
4 CAPITOLUL 2. NOT IUNI DE TEORIA PROBABILIT
AT II
se produce niciodata. De asemenea, doua evenimente incompatibile nu se pot produce
simultan niciodata.
Din denit iile date mai sus, rezulta ca la o desfasurare a experimentului se produc concomitent
mai multe evenimente.
Intr-adevar, dac a se observa
i
, se produc toate evenimentele A
i
. Sa
exemplicam acest lucru pe experimentul care consta n aruncarea zarului.
In acest caz, este
mult imea tuturor celor sase fet e ale zarului = f
1
, f
2
, . . . , f
6
. Daca zarul cade, la o aruncare,
pe fat a f
2
, atunci se produc n acelasi timp evenimentele distincte A = fat a para = f
2
, f
4
, f
6
,
B = fat a cu numar 3 = f
1
, f
2
, f
3
, C = f
2
, f
3
, n timp ce evenimentele D = fat a impara =
f
1
, f
3
, f
5
, E = fat a cu numar 4 = f
4
, f
5
, f
6
etc. nu se produc
1
.
Un alt exemplu n acelasi sens este urmatorul: consideram o cutie ce cont ine mai multe forme
geometrice, caracterizate de culori, forme si dimensiuni diferite. De exemplu: sfera mica si rosie,
cub mare si verde, tetraedru mare si albastru etc.
In acest caz =mult imea tuturor pieselor
din cutie. Daca la extragerea la ntamplare a unei forme din cutie se scoate, sa zicem, sfera mare
si galbena, atunci au loc concomitent evenimentele A =sfera=mult imea tuturor formelor de forma
sferica, B =galben=mult imea tuturor formelor de culoare galbena si C =mare=mult imea tu-
turor formelor de dimensiune mare, n timp ce evenimentele D=albastru si E=tetraedru nu se
produc.
2.2 Axiomele probabilitat ii
Probabilitatea P este o masura care se asociaza evenimentelor A si care satisface
urmatoarele axiome:
1. Probabilitatea oricarui eveniment este un numar pozitiv:
P(A) 0 A.
2. Probabilitatea evenimentului sigur este egala cu unitatea:
P() = 1.
3. Daca doua evenimente sunt incompatibile, atunci probabilitatea reuniunii celor doua
evenimente este egala cu suma probabilitat ilor evenimentelor:
A B = P(A B) = P(A) + P(B).
Observat ie. Prin extinderea axiomei 3, se poate calcula P(AB C) = P(A) +
P(B) +P(C) pentru trei evenimente incompatibile doua cate doua si tot asa pentru
patru s.a.m.d., cu alte cuvinte, axioma 3 poate extinsa pentru orice numar nit de
evenimente A
i
, i = 1 . . . , N. Axioma 3 nu se mai poate extinde, nsa, cand N ;
deci ea trebuie completata pentru a ngloba si cazul unui numar numarabil de
mult imi. Introducem, deci, si axioma 3a.
1
In total, sunt 2
5
= 32 evenimente distincte care se produc si tot 2
5
= 32 evenimente care nu se produc
simultan, la o singura aruncare a zarului.
2.2. Axiomele probabilitat ii 5
(a) Pentru orice mult ime numarabila de evenimente incompatibile doua cate doua
A
1
, A
2
, A
3
, . . ., cu A
i
A
j
= , daca i ,= j, avem:
P
_
_
i
A
i
_
=
i
P(A
i
).
Proprietat ile probabilitat ii
Pe baza celor trei axiome se mai pot demonstra urmatoarele proprietat i ale probabilitat ii
pe care le vom numerota n continuarea axiomelor.
4. P() = 0.
Demonstrat ie. Avem A = A , A. Pe de alta parte A = , A. Aplicand
axioma 3, obt inem:
P(A) = P(A )
ax.3
= P(A) + P(),
de unde rezulta, evident, proprietatea enunt ata.
5. P((A)) = 1 P(A), cu (A) =
_
i
, A
_
.
Demonstrat ie. Avem A (A) = si A (A) = , de unde rezulta:
P()
. .
1
= P(A (A))
ax.3
= P(A) + P((A)).
6. P(A) 1, A.
Demonstrat ie. Conform proprietat ii 5, P(A) = 1 P((A)), iar din axioma 2,
P((A)) 0.
7. Pentru doua evenimente oarecare A si B, avem:
P(A B) = P(A) + P(B) P(A B)
Demonstrat ie. Putem scrie:
A = A = A (B (B)) = (A B) (A (B)),
si ntrucat (A B) (A (B)) = rezulta, aplicand axioma 3, ca:
P(A) = P(A B) + P(A (B)). (2.2)
Pe de alta parte, avem: AB = (A(B))B (vezi gura 2.1), cu (A(B))B = ,
de unde:
P(A B) = P(A (B)) + P(B). (2.3)
Eliminandu-l pe P(A (B)) din ecuat iile (2.2) si (2.3), obt inem relat ia cautat a.
6 CAPITOLUL 2. NOT IUNI DE TEORIA PROBABILIT
AT II
A C(B)
B
Figura 2.1: Ilustrarea graca a relat iei A B = (A (B)) B.
2.3 Camp de evenimente
In general, nu suntem interesat i (n unele cazuri nici macar nu este posibil) sa dam proba-
bilitat i tuturor evenimentelor ce se pot forma pe . Desigur, alocarea unei probabilitat i
pentru ecare eveniment nu este o problema atunci cand , de exemplu, e o mult ime cu
sase elemente, caz n care T() are 2
6
= 64 de elemente distincte
2
. Problema nsa se
complica pentru avand componente din ce n ce mai numeroase ( poate , evident, o
mult ime cu o innitate de elemente).
Dorim, deci, sa alocam probabilitat i unei mult imi reduse de evenimente. Dorim, nsa,
ca mult imea respectiva de submult imi ale lui sa e nchisa la operat iunile elementare
cu mult imi, cum ar reuniunea, intersect ia si complementarea. Aceasta necesitate vine
din faptul ca daca stim P(A) si P(B), atunci n general ne intereseaza sa putem calcula
si P(A B), si P((A)), P(A B) etc, cu alte cuvinte, daca A si B sunt n mult imea
restransa de submult imi ale lui carora li se aloca probabilitat i, atunci A B, (A),
A B etc. trebuie sa e tot n acea mult ime. Ajungem, astfel, la not iunea de camp de
evenimente.
Denit ie. Fie / T() o mult ime de evenimente denite pe . / se numeste camp
de evenimente daca:
1. A / (A) /;
2. A, B / A B /.
Vom demonstra n continuare ca un camp de evenimente astfel denit are urmatoarele
proprietat i:
3. A, B / A B /.
2
Pentru o mult ime oarecare A, mult imea part ilor lui A, care se noteaza cu T(A) reprezinta mult imea
tuturor submult imilor ce se pot forma cu elemente din A.
2.4. Probabilitat i condit ionate. Evenimente independente 7
Demonstrat ie. Avem: A, B / (A), (B) / (A) (B) /
((A) (B)) = A B /
4. /.
Demonstrat ie. Avem: A / (A) / A (A) = /.
5. /.
Demonstrat ie. Avem: A / (A) / A (A) = /.
Denit ie. Mult imea / T() se numeste camp Borel de evenimente daca este un
camp de evenimente pentru care denit ia 2 este valabila pentru o innitate numarabila
de mult imi, deci se nlocuieste cu:
2
t
. A
i
/ cu i N, avem
i
A
i
/.
Pentru xarea not iunii de camp de evenimente, sa consideram un exemplu practic. Sa presupunem
ca dorim sa construim campul de evenimente minimal /
1
pe = f
1
, . . . , f
6
, care sa cont ina eveni-
mentul A =fat a para=f
2
, f
4
, f
6
. Conform proprietat ilor 4 si 5 ale unui camp de evenimente, /
1
trebuie sa cont ina n afara de A si pe si . De asemenea, el trebuie sa-l cont ina si pe (A) =fat a im-
para=f
1
, f
3
, f
5
. Se observa ca /
1
= , , f
2
, f
4
, f
6
, f
1
, f
3
, f
5
reprezinta un camp de evenimente,
ntucat orice operat ie elementara cu mult imi cu una sau doua elemente din /
1
conduce tot la un element
din /
1
.
Campul minimal /
2
care cont ine evenimentele elementare B = f
1
si C = f
2
este /
1
=
, , f
1
..
B
, f
2
..
C
, f
1
, f
2
. .
BC
, f
1
, f
3
, f
4
, f
5
, f
6
. .
(C)
, f
2
, f
3
, f
4
, f
5
, f
6
. .
(B)
, f
3
, f
4
, f
5
, f
6
. .
(BC)
.
AT II
Probabilitatea de mai sus reprezinta probabilitatea de producere a evenimentului A con-
siderand ca evenimentul B s-a produs.
Exemplu. Consideram experimentul ce consta n aruncarea zarului. Fie evenimentele
A = f
2
, respectiv B = fat a para = f
2
, f
4
, f
6
. Evident, avem P(A) =
1
6
, P(B) =
1
2
.
Astfel, putem scrie:
P(A[B) =
P(A B)
P(B)
=
P(A)
P(B)
=
1
6
1
2
=
1
3
.
Rezultatul de mai sus era de asteptat, ntrucat P(A[B) reprezinta probabilitatea ca zarul
sa cada pe fat a f
2
in ipoteza producerii evenimentului B, adica stiind faptul ca zarul a
cazut pe o fat a para. Invers, putem scrie:
P(B[A) =
P(A B)
P(A)
=
P(A)
P(A)
= 1,
ceea ce iarasi e normal, ntrucat P(B[A) reprezinta probabilitatea ca zarul sa cada pe o
fat a para n ipoteza ca el a cazut pe fat a f
2
.
Denit ie. Doua evenimente A si B se numesc independente daca:
P(A B) = P(A)P(B). (2.5)
T inand cont de (2.4), rezulta ca daca A si B sunt independente, avem:
P(A[B) =
P(A)P(B)
P(B)
= P(A), (2.6)
respectiv
P(B[A) =
P(A)P(B)
P(A)
= P(B), (2.7)
ceea ce justica denit ia (2.5). Relat iile de mai sus se interpreteaza n sensul ca daca
doua evenimente sunt independente, atunci producerea oricaruia dintre ele nu inuent eaza
probabilitatea de producere a celuilalt.
Capitolul 3
Variabile aleatoare
3.1 Introducere
Prin denit ie, o variabila aleatoare este o funct ie care asociaza ecarui element
i
un numar real. Vom nota variabilele aleatoare cu litere grecesti: , , , . . . Putem, deci,
scrie ca:
: R. (3.1)
De ecare data cand se desfasoara experimentul si observam ca rezultat al acestuia pe
k
, valoarea asociata (
k
)
not
=
(k)
se numeste realizarea particulara a lui .
Exemple.
1. pentru experimentul care consta n aruncarea zarului, putem deni pe =
f
1
, . . . , f
6
mai multe variabile aleatoare, ca de exemplu:
(f
i
) = i, i 1, . . . , 6, variabila aleatoare care asociaza ecarei fet e a
zarului numarul de pe ea;
(f
i
) =
_
0 daca i = 2k
1 daca i = 2k + 1
, variabila aleatoare care ia valoarea 0 n cazul
n care cade fat a para, si 1 pentru fat a impara.
2. pentru experimentul care consta n alegerea la ntamplare a unui rezistor
dintr-o cutie de N rezistoare r
i
iesite de pe aceeasi linie de fabricat ie, atunci
= r
1
, . . . , r
N
, pe care se pot deni, de asemenea, mai multe variabile de in-
teres practic, cum ar :
(r
i
) = R(r
i
), adica este valoarea rezistent ei electrice a rezistorului r
i
;
(r
i
) = C(r
i
), adica este valoarea capacitat ii parazite a rezistorului r
i
.
9
10 CAPITOLUL 3. VARIABILE ALEATOARE
3.2 Evenimente generate de variabile aleatoare
x
1
(
i
) x
2
_
. (3.2)
Spre exemplu, pentru denita la exemplul 1, putem scrie:
2, 5 =
_
f
i
(f
i
) 2, 5
_
= f
3
, f
4
, f
5
, f
6
2 < 4 =
_
f
i
2 < (f
i
) 4
_
= f
3
, f
4
< 0, 5 =
_
f
i
(f
i
) < 0, 5
_
=
5 8, 3 =
_
f
i
5 (f
i
) 8, 3
_
= f
1
, . . . , f
6
=
Se observa ca pentru orice x
1
, x
2
R, x
1
< x
2
, < x
1
, x
2
etc. nu sunt
altceva dec at submult imi ale lui , ceea ce justica denirea lor ca evenimente.
Inseamna
ca putem aa probabilitatea acestor evenimente, n masura n care stim probabilitat ile
asociate evenimentelor denite pe . Avem, deci, dreptul sa vorbim de probabilitatea ca
o variabila aleatoare sa ia valori ntr-un interval oarecare din R, sau, prin extensie, ntr-o
reuniune nita sau numarabila de intervale din R.
Este evident ca pe R se pot deni submult imi A R care sa nu e intervale sau
reuniuni de intervale, dar n majoritatea cazurilor nu este de interes practic determinarea
probabilitat ii P( A) pentru aceste submult imi (si dam numai un exemplu ilustrativ
pentru aceasta: A = R Q), lasand la o parte faptul ca n unele cazuri respectivele
probabilitat i nici nu pot calculate.
Ne mult umim, deci, cu determinarea probabilitat ilor P( A), cu A 1, unde
1 =mult imea tuturor intervalelor din R nchise, deschise, sau semideschise si
a tuturor reuniunilor unui numar nit sau numarabil de intervale. Este evident
ca 1 reprezinta un camp de evenimente, ind nchis la complementare si reuniune.
Desi o astfel de descriere probabilistica a variabilelor aleatoare pare extrem de compli-
cata, ea nu este asa. Vom arata n paragraful urmator ca toate probabilitat ile ment ionate
3.3. Funct ia de repartit ie 11
mai sus pot deduse pornind de la expresia unei singure funct ii, numita funct ie de
repartit ie a variabilei aleatoare.
3.3 Funct ia de repartit ie
Fie o variabila aleatoare. Se deneste funct ia ei de repartit ie F
: R [0, 1] cu expresia
data de:
F
(x)
= P( x) (3.3)
Proprietat ile funct iei de repartit ie
1. F
() = P( ) = 0.
2. F
() = P( ) = 1.
3. F
e o funct ie crescatoare: x
1
, x
2
R, x
1
< x
2
F
(x
1
) F
(x
2
).
Demonstrat ie. F
(x
2
) = P( x
2
) = P(( x
1
) (x
1
< x
2
)). Avand n
vedere ca evenimentele x
1
si x
1
< x
2
sunt incompatibile, putem scrie
ca:
F
(x
2
) = P( x
1
) + P(x
1
< x
2
) = F
(x
1
) + P(x
1
< x
2
)
. .
0
,
ceea ce completeaza demonstrat ia.
4. P(x
1
< x
2
) = F
(x
2
) F
(x
1
).
Aceasta relat ie nu este decat relat ia nala din demonstrat ia proprietat ii 3 pusa sub
o alta forma. O ment ionam, nsa, separat, pentru ca este relat ia care justica cele
armate mai sus, cum ca funct ia de repartit ie ofera sucienta informat ie pentru a
calcula P( A), A 1. Este evident ca pentru orice interval sau reuniune de
intervale poate scrisa o relat ie de genul celei de mai sus, care face apel numai la
valorile funct iei de repartit ie n capetele intervalului(elor) respectiv(e).
Exemplu. Sa calculam spre exemplicare funct ia de repartit ie a variabilei aleatoare
denite n exemplul 1 de la nceputul capitolului. Avand n vedere natura discreta a
lui (care poate lua, conform denit iei, numai valorile 1, 2, . . . , 6), vom trata problema
12 CAPITOLUL 3. VARIABILE ALEATOARE
calculului funct iei de repartit ie pe intervale. Astfel:
x (, 1), F
(x) = P( x) = P() = 0
x [1, 2), F
(x) = P( x) = P(f
1
) =
1
6
x [2, 3), F
(x) = P( x) = P(f
1
, f
2
) =
2
6
x [3, 4), F
(x) = P( x) = P(f
1
, f
2
, f
3
) =
3
6
x [4, 5), F
(x) = P( x) = P(f
1
, f
2
, f
3
, f
4
) =
4
6
x [5, 6), F
(x) = P( x) = P(f
1
, f
2
, f
3
, f
4
, f
5
) =
5
6
x [6, ), F
(x) = P( x) = P() = 1
Gracul funct iei de repartit ie este prezentat n gura 3.1
)
)
)
)
)
)
[
[
[
[
[
[
F
(x)
x
1/6
2/6
3/6
4/6
5/6
1
1 2 3 4 5 6
Figura 3.1: Funct ia de repartit ie a variabilei aleatoare numarul de pe fat a zarului.
Denit ie. O variabila aleatoare se numeste continua daca funct ia ei de repartit ie este
continua pe R, se numeste discreta daca funct ia ei de repartit ie este o funct ie n trepte,
de genul celei din gura 3.1, si se numeste mixta daca funct ia ei de repartit ie prezinta
discontinuitat i, fara a , totusi, o funct ie n trepte.
3.4 Densitatea de probabilitate
Se deneste densitatea de probabilitate w
(x)
=
dF
(x)
dx
. (3.4)
3.4. Densitatea de probabilitate 13
Daca explicitam derivata n relat ia de mai sus, obt inem:
w
(x) = lim
x0
F
(x + x) F
(x)
x
= lim
x0
P(x < x + x)
x
. (3.5)
In calculul de mai sus am t inut cont de proprietatea 4 a funct iei de repartit ie. Se poate,
deci, scrie:
w
(x)x
x
P(x < x + x), (3.6)
relat ie care justica denumirea de densitate de probabilitate data funct iei w
.
Intr-adevar,
se observa ca valoarea funct iei w
(x)
x x+ x
w
(x)xP(x<x+x)
Figura 3.2: Probabilitatea este data de aria de sub gracul densitat ii de probabilitate.
Necesitatea utilizarii funct iei de densitate de probabilitate este dictata de faptul ca,
n cazul n care variabila aleatoare n discut ie e continua, avem P( = x) = 0 x R
1
.
Proprietat ile densitat ii de probabilitate
1. w
(x) 0
Demonstrat ie. w
(x) =
x
_
(u)du.
Demonstrat ie. Se t ine cont de faptul ca F
, si ca F
() = 0.
1
Pentru justicarea acestei armat ii, sa ne imaginam un zar cu N = 20 fet e simetrice (facand abstract ie
de faptul ca o astfel de gura geometrica nu exista n realitate).
In acest caz, probabilitatea de aparit ie
a ecarei fet e este
1
20
. Pe masura ce N creste, scade probabilitatea ecarei fet e. La limita, cand N ,
zarul se transforma ntr-o sfera, fat a devine punct, iar probabilitatea ecarei fet e este
1
, adica 0.
14 CAPITOLUL 3. VARIABILE ALEATOARE
3. Condit ia de normare:
(x)dx = 1.
Demonstrat ie. Se scrie proprietatea 2 n punctul x = .
4. Pentru x
1
, x
2
R, avem
x
2
_
x
1
w
(x)dx = P(x
1
< x
2
).
Demonstrat ie. Se utilizeaza proprietatea 2 a densitat ii de probabilitate si propri-
etatea 4 a funct iei de repartit ie.
Aceasta relat ie ne arata ca aria de sub gracul densitat ii de probabilitate delimitata
de un interval reprezinta probabilitatea ca variabila aleatoare sa ia valori n intervalul
respectiv.
Exemplu. Sa calculam densitatea de probabilitate a variabilei a carei funct ie de
repartit ie este ilustrata n gura 3.1.
Dupa cum se observa, funct ia de repartit ie este constanta peste tot n R, mai put in n
punctele x = 1, . . . , 6, unde are salturi bruste.
In derivata funct iei de repartit ie, respectiv
n densitatea de probabilitate w
(x) =
6
i=1
1
6
(x i).
w
(x)
x
1 2 3 4 5 6
1/6(x1)
1/6(x6)
Figura 3.3: Densitatea de probabilitate a variabilei aleatoare numarul de pe fat a zaru-
lui.
Dupa cum este discutat n detaliu n anexa A, semnicat ia practica a unui impuls
Dirac este aceea de arie nenula concentrata ntr-un singur punct. Asadar, aparit ia
2
Pentru mai multe detalii despre impulsul Dirac, a se consulta anexa A a acestei lucrari.
3.5. Distribut ii condit ionate 15
unui impuls Dirac de arie A ntr-un punct x
0
al unei funct ii densitate de probabilitate
w
(b) F
(a)
. (3.9)
Pentru x < a, avem x a < b = , si deci:
F
[a<b
(x) = 0.
Pentru x (a, b] avem x a < b = a < x, iar (3.9) se scrie:
F
[a<b
(x) =
P(a < x)
F
(b) F
(a)
=
F
(x) F
(a)
F
(b) F
(a)
.
Pentru x > b, avem x a < b = a < b, de unde:
F
[a<b
(x) =
P(a < b)
F
(b) F
(a)
= 1.
Cat despre densitatea de probabilitate condit ionata, aplicand (3.8), avem:
w
[a<b
(x) =
_
_
0 daca x < a
w
(x)
F
(b)F
(a)
daca a < x b
0 daca x > b.
(3.10)
16 CAPITOLUL 3. VARIABILE ALEATOARE
a b
x
F
|{a<b}
(x)
F
(x)
1
w
(x)
w
|{a<b}
(x)
a
b
x
Figura 3.4: Distribut ii condit ionate.
In gura 3.4 sunt ilustrate funct ia de repartit ie si densitatea de probabilitate condit ionate
pentru o forma arbitrara a lui F
(x).
Sa observam din exemplul prezentat ca atat funct ia de repartit ie condit ionata cat
si densitatea de probabilitate condit ionata respecta toate proprietat ile unei funct ii de
repartit ie (descrise n paragraful 3.3) respectiv ale unei densitat i de probabilitate (para-
graful 3.4). Aceasta observat ie poate demonstrata pentru cazul general, pornind de la
denit iile (3.7) si (3.8).
3.6 Momente
Fie variabila aleatoare avand distribut ia w
4
. Se deneste momentul necentrat de ordin
k al variabilei aleatoare si se noteaza cu m
(k)
sau cu
k
valoarea integralei:
m
(k)
not
=
k
=
x
k
w
(x)dx k = 1, 2, . . . . (3.11)
Facem precizarea ca pentru anumite variabile aleatoare, ncepand cu un anumit ordin
k, momentele de ordin mai mare decat k pot innite
5
.
3
Aceasta justica denit ia variabilelor aleatoare discrete de la pagina 12: daca funct ia de repartit ie e
n trepte, atunci densitatea de probabilitate e o succesiune de impulsuri Dirac, deci este posibil numai
un numar nit sau numarabil de valori pentru variabilele aleatoare respective.
4
In restul lucrarii, vom folosi termenul distribut ie pentru a desemna o densitate de probabilitate.
5
De exemplu, pentru variabila aleatoare cu distribut ia.
w
(x) =
_
1
x
2
daca x 1
0 n rest
chiar si momentul de ordin unu este innit.
3.6. Momente 17
De o mare important a n studiul variabilelor aleatoare sunt momentele necentrate de
ordin unu si doi. Astfel, momentul necentrat de ordin unu, dat de:
=
xw
(x)dx (3.12)
se numeste media variabilei aleatore.
Momentul necentrat de ordin doi:
2
=
x
2
w
(x)dx (3.13)
se numeste media patratica a variabilei aleatoare.
Consideram utila n acest punct o discut ie referitoare la formulele de denit ie a mediei si mediei
patratice de mai sus.
In general, exista o accept iune foarte clara asupra not iunii de medie a unei variabile
aleatoare, ca ind media aritmetica a unui numar (de preferint a cat mai mare) de realizari particulare
ale variabilei aleatoare respective. Dupa cum vom arata n exemplul urmator, aceasta accept iune nu
contravine n nici un fel formulei (3.12). Revenind la experimentul 2 descris n paragraful 3.1 sa pre-
supunem ca dorim sa estimam valoarea mediei a rezistent ei electrice a rezistoarelor din cutia respectiva.
In acest sens, masuram toate valorile rezistent elor, si calculam valoarea medie aritmetica a acestora R
med
.
Sa presupunem ca, dispunand de un ohmmetru nu foarte precis, nu ret inem decat valoarea ntreaga a
rezistent elor (desi, teoretic, valoarea respectiva este de natura continua). Sa presupunem ca masuram
urmatoarele valori pentru ntreg setul de N = 1825 rezistoare:
Valoare rezistent a R
i
19 20 21 22 23 24 25
Numar rezistoare 89 211 432 501 342 171 79
Deci, valoarea medie a rezistent ei R
med
este:
R
med
=
1
N
N
i=1
R(r
i
) =
89 19 + 211 20 +. . . + 79 25
1825
= 19
89
1825
+ 20
211
1825
+. . . + 25
79
1825
.
(3.14)
Rapoartele puse n evident a n relat ia de mai sus reprezinta probabilitat ile diverselor valori posibile ale
rezistent ei electrice determinate experimental, pe setul de date disponibil (vezi relat ia (2.1)). Cu alte
cuvinte P(19)
89
1825
, P(20)
211
1825
etc. Putem, deci, rescrie pe (3.14) ca:
R
med
25
R
i
=19
R
i
P(R
i
). (3.15)
Considerand valoarea rezistent ei continua (cum, de fapt, si este) si nu discreta (cum am fost fort at i sa
o consideram din lipsa de mijloace materiale sucient de sensibile), variabila discreta R
i
se transforma
n R, continua, apoi suma
R
i
devine o integrala
_
R
, iar probabilitat ile P(R
i
) se nlocuiesc cu w(R)dR.
Putem, deci, scrie pe (3.15) ca:
R
med
_
R
Rw(R)dR. (3.16)
18 CAPITOLUL 3. VARIABILE ALEATOARE
Relat ia (3.16) arata faptul ca media aritmetica a unui numar de realizari particulare nu este altceva decat
un estimat al valorii medii (3.12), pe care-l facem n absent a cunostint elor despre marimile statistice
(densitate de probabilitate, etc.) ale variabilei aleatoare respective!
Se denesc, de asemenea, momentele centrate de ordin k ale variabilei aleatoare, notate
cu M
(k)
, ca ind:
M
(k)
not
=
_
_
k
=
(x )
k
w
(x)dx k = 2, 3, . . . . (3.17)
Momentul centrat de ordinul doi:
M
(2)
not
=
_
_
2
=
(x )
2
w
(x)dx (3.18)
se numeste variant a variabilei aleatoare, iar radacina patrata a acestuia se noteaza cu
=
_
M
(2)
. (3.19)
Dispersia unei variabile aleatoare (numita de asemenea si abatere medie patratica)
masoara gradul de mprastiere al valorilor variabilei aleatoare fat a de valoarea medie.
Cu cat dispersia este mai mica (sau mai mare), cu atat scade (respectiv creste) probabili-
tatea ca o realizare particulara a variabilei aleatoare sa ia o valoare care sa difere puternic
de valoarea medie
not
=
2
. (3.20)
Pornind de la formula variant ei (3.18), se poate demonstra o relat ie simpla ntre aceasta
pe de-o parte si media si media patratica a variabilei aleatoare pe de alta parte:
_
x
2
2x +
2
_
w
(x)dx
=
x
2
w
(x)dx
. .
2
2
xw
(x)dx
. .
+
2
(x)dx
. .
1
=
2
2
2
+
2
=
2
2
.
(3.21)
3.7 Tipuri de distribut ii
.
In acest paragraf, vom prezenta pe scurt diverse tipuri de distribut ii des ntalnite n
prelucrarea semnalelor:
3.7. Tipuri de distribut ii 19
3.7.1 Distribut ia uniforma
O variabil a aleatoare are o distribut ie uniforma n intervalul [a, b] daca densitatea ei de
probabilitate este de forma:
w
(x) =
_
1
ba
daca a x b
0 n rest.
. (3.22)
w
(x)
x
a
b
1/(ba)
w
(x)
x
m
2
>
1
(a) (b)
(x)
x
(c)
Figura 3.5: Tipuri de distribut ii ale variabilelor aleatoare: (a) uniforma, (b) normala,
(c) Rayleigh.
Gracul densitat ii de probabilitate uniforme este prezentat n gura 3.5.(a). Forma
distribut iei indica faptul ca o variabila aleatoare uniforma poate lua cu aceeasi probabili-
tate orice valoare n intervalul [a, b], dar nu poate lua nici o valoare n exteriorul acestuia.
Prin calcul direct, se arata ca media si dispersia distribut iei uniforme sunt: =
a+b
2
si
=
ba
2
3
.
Distribut ia uniforma modeleaza destule fenomene reale de interes (cum ar , spre
exemplu, eroarea obt inuta la cuantizarea uniforma cu un numar sucient de mare de
nivele).
20 CAPITOLUL 3. VARIABILE ALEATOARE
3.7.2 Distribut ia gaussiana (normala)
Se zice ca o variabila aleatoare este distribuita dupa o lege normala (sau gaussiana) de
parametri m R si > 0 (si se noteaza : ^(m, )) daca densitatea ei de probabilitate
este data de:
w
(x) =
1
2
exp
_
(x m)
2
2
2
_
. (3.23)
Gracul distribut iei gaussiene (cunoscut si sub numele de clopotul lui Gauss) este
prezentat n gura 3.5.(b) pentru doua valori diferite ale parametrului . Se observa ca
pe masura de creste, clopotul se aplatizeaza si, n acelasi timp, se lat este.
Prin calcul, se determina ca media si dispersia distribut iei normale sunt = m, res-
pectiv
(x) =
_
x
2
exp
_
x
2
2
2
_
daca x 0
0 n rest.
. (3.24)
si este ilustrata n gura 3.5.(c).
Media si dispersia variabilei distribuite dupa o lege Rayleigh sunt =
_
2
, respectiv
=
_
4
2
.
3.8 Funct ii de o variabila aleatoare
Fie o variabila aleatoare cu distribut ie w
cunoscuta, si e g : R R o funct ie de
asemenea cunoscuta. Aplicand funct ia g variabilei , obt inem o alta variabila aleatoare,
pe care-o notam = g(). Problema pe care ne propunem sa o rezolvamn acest paragraf
este calculul densitat ii de probabilitate a variabilei aleatoare transformate w
pe baza
cunostint elor pe care le avem despre distribut ia variabilei init iale w
si despre funct ia de
transformare g.
6
Se poate ilustra aici armat ia enunt ata anterior despre semnicat ia dispersiei: cu cat creste, cu atat
clopotul este mai plat, deci creste probabilitatea ca variabila sa devieze mult n stanga si dreapta mediei.
Invers, pe masura ce scade, clopotul se ngusteaza, deci probabilitatea ca sa ia valori puternic deviate
fat a de medie scade. S-a calculat ca pentru distribut ia gaussiana, probabilitatea ca variabila aleatoare
sa devieze cu mai mult de 3 fat a de valoarea medie este de 0, 3%: P(m3 m+ 3) = 99, 7%
indiferent de .
3.8. Funct ii de o variabila aleatoare 21
Sa ilustram la nceput problema pe un exemplu oarecare. Fie funct ia g(x) avand
gracul prezentat n gura 3.6. Variabila aleatoare ia valori pe axa Ox, n timp ce
= g() pe axa Oy.
y
1
x
1
y
1
x
1
x
2
x
3
g(x)
x
Figura 3.6: Exemplicarea problemei funct iilor de o variabila aleatoare.
Se observa, pentru valorile din gura ca, spre exemplu:
F
(y
t
1
) = P( y
t
1
) = P( x
t
1
) = F
(x
t
1
)
g(x
1
)=y
1
F
(y
1
) = P( y
1
) = P
_
( x
1
) (x
2
x
3
)
_
= F
(x
3
) F
(x
2
) + F
(x
1
)
g(x
1
)=g(x
2
)=g(x
3
)=y
1
Astfel, se vede ca pentru y R, valoarea funct iei de repartit ie a lui n punctul
respectiv F
cunoscuta, si e = g(), cu
g(x) o funct ie cunoscuta. Atunci, pentru y R cu proprietatea ca ecuat ia g(x) = y are
un numar nit sau cel mult numarabil de solut ii, pe care le notam cu x
1
, x
2
, . . ., are loc
relat ia:
w
(y) =
k
w
(x
k
)
[g
t
(x
k
)[
(3.25)
22 CAPITOLUL 3. VARIABILE ALEATOARE
Demonstrat ie. Sa revenim la exemplul considerat anterior. Se observa din gura 3.7 ca
ecuat ia g(x) = y
1
admite trei solut ii: x
1
, x
2
, x
3
. Sa consideram n continuare valoarea
y
1
+dy
1
. Ecuat ia g(x) = y
1
+dy
1
admite si ea trei solut ii, pe care le notam x
1
+dx
1
, x
2
+
dx
2
, x
3
+ dx
3
(vezi gura 3.7).
y
1
x
1
x
2
x
3
g(x)
x
x
1
+dx
1
x
2
+dx
2
x
3
+dx
3
y
1
+dy
1
Figura 3.7: Ecuat ia g(x) = y
1
are solut iile x
1
, x
2
si x
3
.
In aceasta presupunere intervine necesitatea ca numarul solut iilor ecuat iei g(x) = y sa e nit, sau
cel mult numarabil.
In caz contrar, de exemplu, daca solut ia ecuat iei g(x) = y ar un ntreg interval
[a, b], atunci nu s-ar mai putea face ipoteza nesuprapunerii intervalelor (x
i
, x
i
+ dx
i
] oricat de mic s-ar
face dx
i
.
3.8. Funct ii de o variabila aleatoare 23
avem:
P(y
1
< y
1
+ dy
1
) = P(x
1
< x
1
+ dx
1
) + P(x
2
+ dx
2
< x
2
) + . . .
. . . + P(x
3
< x
3
+ dx
3
). (3.27)
Cand dy
1
, putem aplica formula (3.6), si, n consecint a, relat ia (3.27) devine:
w
(y
1
)dy
1
= w
(x
1
)dx
1
+ w
(x
2
) [dx
2
[ + w
(x
3
)dx
3
. (3.28)
Este evidenta necesitatea de a-l lua pe dx
2
n modul n relat ia de mai sus, ntrucat termenul
respectiv trebuie sa e pozitiv (reprezinta o probabilitate).
Pe de alta parte, cum x
1
,x
2
si x
3
sunt solut iile ecuat iei g(x) = y
1
, putem scrie:
y
1
= g(x
1
) = g(x
2
) = g(x
3
), (3.29)
de unde, prin diferent iere, obt inem:
dy
1
= g
t
(x
1
)dx
1
= g
t
(x
2
)dx
2
= g
t
(x
3
)dx
3
. (3.30)
Inlocuind dx
i
cu
dy
1
g
(x
i
)
n ecuat ia (3.28) si simplicand pe dy
1
, obt inem:
w
(y
1
) =
w
(x
1
)
g
t
(x
1
)
+
w
(x
2
)
[g
t
(x
2
)[
+
w
(x
3
)
g
t
(x
3
)
. (3.31)
care, t inand cont ca atat g
t
(x
1
) cat si g
t
(x
3
) sunt pozitive, deci pot nlocuite cu modulul
lor, reprezinta exact relat ia ce trebuia demonstrata!
Trebuie sa observam ca rat ionamentul poate reluat n mod identic pentru orice forma
a gracului funct iei g(x), ceea ce face ca demonstrat ia de mai sus sa e valabila n cazul
general.
Exemplu. Sa se calculeze distribut ia variabilei aleatoare = a +b, cu a, b R, a ,= 0,
n funct ie de distribut ia variabilei aleatoare .
Rezolvare. Funct ia de trecere ntre cele doua variabile este funct ia g(x) = ax + b.
Pentru y R, ecuat ia g(x) = y admite o singura solut ie, si anume x
1
=
yb
a
. Cum
g
t
(x) = a, relat ia (3.25) se scrie:
w
(y) =
w
(x
1
)
[g
t
(x
1
)[
=
1
[a[
w
_
y b
a
_
. (3.32)
In particular, daca are o distribut ie uniforma sau gaussiana, rezulta din relat ia de
mai sus ca si are acelasi tip de distribut ie, dar cu parametri modicat i.
Exemplu. Sa se calculeze distribut ia variabilei aleatoare = cos(), unde este o
variabila aleatoare distribuita uniform n intervalul [0, 2].
24 CAPITOLUL 3. VARIABILE ALEATOARE
x
1
y
g(x)=cos(x)
x
x
2
x
2
1
1
x
0
x
1
(y) = 0.
Pentru y [1, 1], nsa, ecuat ia g(x) = y admite o innitate numarabila de solut ii (v.
gura 3.8), date de
8
:
x
k
=
_
arccos(y) + k pentru k = 2l
arccos(y) + (k + 1) pentru k = 2l + 1
. (3.33)
Observ and, n plus, ca g
t
(x) = sin(x), relat ia (3.25) poate scrisa:
w
(y) =
kZ
w
(x
k
)
[ sin(x
k
)[
. (3.34)
Mai ramane de calculat valoarea densitat ii de probabilitate w
n toate punctele x
k
date
de (3.33). Conform (3.22), distribut ia lui este data de:
w
(x) =
_
1
2
daca x [0, 2]
0 n rest
. (3.35)
Deci, trebuie sa identicamn continuare acele valori x
k
din intervalul [0, 2], interval pe
care valoarea funct iei w
(x
k
) = 0 pentru k , 0, 1, relat ia (3.34)
devine:
w
(y) =
w
(x
0
)
[g
t
(x
0
)[
+
w
(x
1
)
[g
t
(x
1
)[
=
w
(arccos(y))
[sin(arccos(y))[
+
w
(2 arccos(y))
[sin(2 arccos(y))[
. (3.36)
8
Relat ia de mai jos poate scrisa mai compact, dar mai put in riguros matematic, sub forma
x
k
= arccos(y) + 2k, cu k Z
3.8. Funct ii de o variabila aleatoare 25
T inand, n plus, cont ca sin(arccos y) =
_
1 y
2
, avem:
w
(y) =
1
2
_
1 y
2
+
1
2
_
1 y
2
=
1
_
1 y
2
. (3.37)
(y) =
_
1
1y
2
pentru x [1, 1]
0 n rest
. (3.38)
Gracul funct iei (3.38) este dat n gura 3.9.
1
1
y
w
(y)
1/
Figura 3.9: Gracul funct iei w
In continuare, ne vom ocupa cu discut ia cazului n care teorema (3.25) nu poate aplicata,
respectiv cazul acelor y
i
R pentru care ecuat ia g(x) = y
i
are ca solut ie unntreg interval
din R: x [a, b], g(x) = y
i
.
Situat ia va discutata pe un exemplu. Fie = g(), cu g(x) data de
g(x) =
_
_
_
a daca x < a
x daca a x a
a daca x > a
. (3.39)
si ilustrata n gura 3.10. Presupunem ca are o distribut ie w
.
Se poate constata cu usurint a urmarind gracul funct iei g din gura 3.10 ca:
y < a, F
(y) = P( y) = 0
y = a, F
(a) = P( a) = P( a) = F
(a)
y (a, a), F
(y) = P( y) = P( y) = F
(y)
y = a, F
(a) = P( a) = P( ) = 1
y > a, F
(y) = P( y) = P( ) = 1
Sintetizand, avem:
F
(y) =
_
_
_
0 daca y < a
F
In coloana din stanga a gurii 3.11 sunt prezentate grac funct ia de repartit ie a lui
(de o forma arbitrara) si cea a lui . Scopul acestei reprezentari grace este ilustrarea
aparit iei unor discontinuitat i n funct ia de repartit ie a variabilei transformate F
exact n
punctele speciale y
1
= a si y
2
= a.
3.8. Funct ii de o variabila aleatoare 27
1
F
(y)
y
a a
w
(y)
y
a a
1
F
(y)
y
)
)
[
[
a
a
F
(a)
F
(a)
w
(y)
y
a a
F
(a)(x+a) (1F
(a))(xa)
Figura 3.11: Funct iile de repartit ie si densitat ile de probabilitate ale lui si = g(x).
Aceste discontinuitat i din funct ia de repartit ie vor conduce, dupa cum am discutat n
detaliu n paragraful 3.4, la aparit ia n densitatea de probabilitate w
a unor impulsuri
Diracn punctele respective, de arie egala cu amplitudinea saltului facut de F
. Densitat ile
de probabilitate ale lui si sunt prezentate n coloana din dreapta din gura 3.11. Se ob-
serva ca ariile celor doua impulsuri Dirac sunt F
(a) = P( a) = P( (, a])
pentru cel localizat n punctul y
1
= a, respectiv 1 F
(a) = P( a) = P( [a, ))
pentru impulsul din y
2
= a. Din toate acestea, putem trage urmatoarea concluzie:
Pentru acei y
i
R pentru care solut ia ecuat iei g(x) = y
i
este un interval [a, b], n
densitatea de probabilitate a variabilei transformate w
(b) F
(a).
Cu alte cuvinte, devine nenula P( = y
i
), ceea ce e normal: ntrucat g(x) = y
i
x
[a, b], atunci = y
i
cu aceeasi probabilitate cu care [a, b]!
Exemplu. Sa se arate ca aplicand unei variabile aleatoare continue oarecare nsasi
funct ia ei de repartit ie F
() are distribut ie
uniforma n [0, 1] pentru orice forma a funct iei de repartit ie F
(y) = 0.
Pentru y [0, 1], trebuie determinat numarul de solut ii ale ecuat iei F
(x) = y. Ne
vom reaminti ca funct ia de repartit ie a oricarei variabile aleatoare este crescatoare pe
R (proprietatea 3). Daca F
(x) = y
1
x [a, b] P( [a, b]) = F
(b) F
(a) = y
1
y
1
= 0.
Or, sa nu uitam ca noi aplicam funct ia F
(x)
x
x
1
x
2
x
3
x
4
F
(x)
1
x
x
1
x
2
x
3
x
4
Figura 3.12: O funct ie de densitate de probabilitate w
: ([x
1
, x
2
] [x
3
, x
4
]) [0, 1].
Astfel denita, funct ia de repartit ie e strict crescatoare.
3.9. Teorema de medie 29
Intrucat am decis asupra faptului ca funct ia de trecere este strict crescatoare, ea este
bijectiva, deci y
1
[0, 1], !x
1
astfel ncat y
1
= F
(x
1
). Aplicand relat ia (3.25), avem:
w
(y
1
) =
w
(x
1
)
F
t
(x
1
)
=
w
(x
1
)
[w
(x
1
)[
=
w
(x
1
)
w
(x
1
)
= 1.
In dezvoltarea de mai sus, am folosit faptul ca derivata funct iei de repartit ie este ns asi
densitatea de probabilitate, si ca aceasta este pozitiva, deci este egala cu modulul ei.
Sintetizand, am aratat ca:
w
(y) =
_
1 daca y [0, 1]
0 n rest
,
ceea ce termina demonstrat ia noastra.
3.9 Teorema de medie
Teorema de medie pe care o vom enunt a si demonstra n acest paragraf permite calculul
mediei variabilei aleatoare transformate fara a-i mai calcula acesteia distribut ia, ci di-
rect din distribut ia variabilei int iale si din funct ia de trecere dintre cele doua variabile
aleatoare.
Teorema. Fie = g(). Atunci, media lui poate calculata ca:
=
g(x)w
(x)dx. (3.41)
Demonstrat ie. Sa revenim la situat ia ilustrata n gura 3.7.
Inmult ind relat ia (3.28) cu
y
1
, si t inand cont de (3.29), avem:
y
1
w
(y
1
)dy
1
= g(x
1
)w
(x
1
)dx
1
+ g(x
2
)w
(x
2
) [dx
2
[ + g(x
3
)w
(x
3
)dx
3
. (3.42)
Valoarea medie a lui poate scrisa:
j
dy
j
=R
y
j
w
(y
j
)dy
j
dy
j
0
yw
(y)dy, (3.43)
cu alte cuvinte, valoarea se obt ine sumand toate cantitat ile de tip y
j
w
(y
j
)dy
j
pentru
dy
j
baleind ntreaga axa reala Oy. Dar suma tuturor cantitat ilor y
j
w
(y
j
)dy
j
poate
scrisa, conform relat iei (3.42) cu o suma de cantitat i de tip g(x
i
)w
(x
i
)dx
i
.
Intrucat g
este o funct ie, care, prin denit ie, aloca ecarui x un y si numai unul, putem arma ca
n suma respectiva de cantitat i de tip g(x
i
)w
(x
i
)dx
i
, ecare va aparea o data si numai
o data. Cu alte cuvinte, cand dy
j
va baleia axa Oy, dx
i
va baleia axa Ox! Chiar daca
30 CAPITOLUL 3. VARIABILE ALEATOARE
unei cantit at i y
j
w
(y
j
)dy
j
i pot corepunde nici una, una sau mai multe cantitat i de tipul
g(x
i
)w
(x
i
)dx
i
, invers, putem spune ca unei cantitat i g(x
i
)w
(x
i
)dx
i
i va corespunde o
singura cantitate y
i
w
(y
i
)dy
i
si numai una! Deci, putem scrie:
j
dy
j
=R
y
j
w
(y
j
)dy
j
i
dx
i
=R
g(x
i
)w
(x
i
)dx
i
, (3.44)
de unde, prin trecere la limita:
=
yw
(y)dy =
g(x)w
(x)dx. (3.45)
Observat ie. Desi demonstrat ia teoremei s-a facut n ipoteza particulara a unui numar
cel mult numarabil de solut ii ale ecuat iei g(x) = y, relat ia (3.41) este valabila pentru orice
funct ie g(x).
Exemplu. Sa se calculeze media lui = a +b cu a, b R. Conform teoremei de medie,
putem scrie:
=
(ax + b)w
(x)dx = a
xw
(x)dx
. .
+ b
(x)dx
. .
1
= a + b. (3.46)
Spre exemplu, pentru b = 0, se poate scrie:
a = a, (3.47)
ceea ce se interpreteaza n sensul ca nmult irea cu o constanta comuta cu medierea statis-
tica (altfel spus, constantele ies n afara operat iei de mediere). De-a lungul acestei
lucrari, vom face de mai multe ori apel la acest rezultat.
Capitolul 4
Caracterizarea unei perechi de
variabile aleatoare
4.1 Introducere
: R
2
[0, 1], cu expresia data de:
F
(, y) = F
(x, ) = 0.
31
32 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
y
DR
2
x
x
0
y
0
Figura 4.1: Domeniul de valori al punctului (, ).
Aceasta proprietate este evidenta, avandn vedere ca evenimentele , respec-
tiv sunt de probabilitate zero.
2. F
(, ) = 1.
Iarasi, o proprietate evidenta: conform denit iei, F
(, ) reprezinta probabili-
tatea ca si sa ia concomitent valori n R, ceea ce reprezinta evenimentul sigur.
3. F
(x, ) = F
(x), respectiv F
(, y) = F
(y).
Demonstrat ie. F
(x, ) = P (( x) ( )) = P( x) = F
(x).
Aceasta proprietate este foarte importanta, ntrucat demonstreaza ceea ce am
enunt atn introducere, si anume faptul ca marimile statistice de ordinul unu specice
ecareia dintre variabilele aleatoare pot obt inute ca un caz particular al marimilor
de ordinul doi ale perechii de variabile aleatoare.
4. P((x
1
< x
2
)(y
1
< y
2
)) = F
(x
2
, y
2
)F
(x
1
, y
2
)F
(x
2
, y
1
)+F
(x
1
, y
1
).
Demonstrat ie. Avem
P((x
1
< x
2
) (y
1
< y
2
)) =
= P((x
1
< x
2
) ( y
2
)) P((x
1
< x
2
) ( y
1
))
Apoi, observam ca ecare dintre cei doi termeni de mai sus poate la randul sau
4.3. Densitatea de probabilitate de ordinul doi 33
descompus:
P((x
1
< x
2
) ( y
2
)) = P(( x
2
) ( y
2
)) P((x
1
< ) ( y
2
))
= F
(x
2
, y
2
) F
(x
1
, y
2
),
respectiv
P((x
1
< x
2
) ( y
1
)) = P(( x
2
) ( y
1
)) P((x
1
< ) ( y
1
))
= F
(x
2
, y
1
) F
(x
1
, y
1
).
Apoi, prinnlocuirea relat iilor de mai sus, obt inem rezultatul ce trebuia demonstrat.
4.3 Densitatea de probabilitate de ordinul doi
Se deneste densitatea de probabilitate de ordinul doi a perechii de variabile aleatoare
(, ) ca:
w
(x, y) =
2
F
(x, y)
xy
. (4.2)
Explicitand formula derivatei, putem scrie:
F
(x, y)
x
= lim
x0
F
(x + x, y) F
(x, y)
x
,
dupa care:
w
(x, y) =
2
F
(x, y)
xy
=
_
F
(x,y)
x
_
y
=
_
lim
x0
F
(x+x,y)F
(x,y)
x
_
y
= lim
x0
F
(x+x,y)
y
F
(x,y)
y
x
= lim
x0
lim
y0
F
(x+x,y+y)F
(x+x,y)
y
lim
y0
F
(x,y+y)F
(x,y)
y
x
= lim
x0
lim
y0
F
(x + x, y + y) F
(x + x, y) F
(x, y + y) + F
(x, y)
xy
,
adica, t inand cont de proprietatea 4 a funct iei de repartit ie de ordinul doi, putem scrie:
w
(x, y) = lim
x0
lim
y0
P (( (x, x + x]) ( (y, y + y]))
xy
. (4.3)
Relat ia (4.3) poate rescrisa ca:
w
(x, y)xy
x,y
P
_
( (x, x + x]) ( (y, y + y])
_
. (4.4)
Relat ia (4.4) poate interpretata la fel ca si n cazul unidimensional: cu ajutorul
densitat ii de probabilitate de ordinul doi w
(x, y) 0, (x, y) R
2
.
2. Pentru orice domeniu D R
2
care reprezinta un eveniment, P
_
(, ) D
_
=
__
D
w
(x, y)dxdy.
Demonstrat ie. Orice domeniu plan D poate descompus ca o reuniune de sub-
domenii innitezimale dreptunghiulare nesuprapuse (x
i
, x
i
+ x
i
] (y
j
, y
j
+ y
j
],
dupa cum este aratat n gura 4.2.
x
y
DR
2
[x
i
,x
i
+ x
i
] [y
j
,y
j
+ y
j
]
Figura 4.2: Descompunerea unui domeniu plan ntr-o reuniune de subdomenii innitez-
imale nesuprapuse.
Atunci, se poate scrie:
P((, ) D) P
_
(, )
_
i
_
j
([x
i
, x
i
+ x
i
] [y
j
, y
j
+ y
j
])
_
=
j
P
_
( [x
i
, x
i
+ x
i
]) ( [y
j
, y
j
+ y
j
])
_
,
(4.5)
ceea ce, t inand cont de (4.4), devine:
P((, ) D)
j
w
(x
i
, y
j
)x
i
y
j
.
Facand x
i
0 si y
j
0 n relat ia de mai sus, se obt ine, evident, relat ia pe care
trebuia sa o demonstram.
3. Condit ia de normare a densitat ii de probabilitate de ordinul doi:
__
R
2
w
(x, y)dxdy = 1
4.3. Densitatea de probabilitate de ordinul doi 35
.
Demonstrat ie. Se scrie proprietatea 2 pentru D = R
2
.
4. F
(x, y) =
x
_
y
_
(u, v)dudv.
Demonstrat ie. Se scrie proprietatea 2 pentru D = (, x] (, y] si se t ine
cont de (4.1).
5. Calculul densitat ilor de probabilitate de ordinul unu (numite, n acest context, den-
sitat i marginale), n funct ie de densitatea de probabilitate de ordinul doi:
w
(x) =
(y) =
(x) = F
(x, ) =
x
_
(x) =
dF
(x)
dx
=
d
dx
x
_
(u, v)dudv =
In deducerea relat iei de mai sus s-a t inut cont de faptul ca, pentru o funct ie oarecare
f(x), are loc relat ia
d
dx
x
_
a
f(u)du = f(x). (4.9)
Aceasta proprietate ne arata clar cat de multa informat ie suplimentara ne aduce
caracterizarea de ordinul doi a perechii de variabile aleatoare fat a de caracterizarea
de ordinul unu a ecareia dintre variabile. Practic, interpretarea relat iilor (4.6a)
si (4.6b) este aceea ca densitat ile de probabilitate marginale se obt in prin proiect ia
funct iei densitate de probabilitate de ordinul doi pe ecare dintre cele doua axe.
Este clar ca doua funct ii unidimensionale obt inute prin proiect ie nu pot cont ine la
fel de multa informat ie ca funct ia bidimensionala care a fost proiectata. Rezulta ca,
n general, nu se poate determina densitatea de probabilitate de ordinul doi pornind
de la cele doua distribut ii de ordinul unu!
36 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
4.4 Distribut ii condit ionate
In foarte multe situat ii din practica, este de interes cunoasterea distribut iei lui atunci
cand ia o anumita valoare x, respectiv w
[=x
(y). Aplicarea directa a denit iei (3.8)
nu este posibila, ntrucat n general, dupa cum am aratat n capitolul 3, P( = x) = 0.
Totusi, densitatea respectiva poate denita printr-o trecere la limita. Sa consideram
mai ntai evenimentul A = x
1
< x
2
. Conform (3.7), avem:
F
[x
1
<x
2
(y) =
P
_
( y) (x
1
< x
2
)
_
P(x
1
< x
2
)
=
F
(x
2
, y) F
(x
1
, y)
F
(x
2
) F
(x
1
)
. (4.10)
In relat ia de mai sus, am aplicat proprietatea 4 a funct iei de repartit ie de ordinul doi.
Prin derivare dupa y, obt inem:
w
[x
1
<x
2
(y) =
dF
[x
1
<x
2
(y)
dy
=
F
(x
2
,y)
y
F
(x
1
,y)
y
F
(x
2
) F
(x
1
)
. (4.11)
T inand cont de proprietatea 4 a densitat ii de probabilitate de ordinul doi si de relat ia (4.9),
putem scrie:
F
(x, y)
y
=
x
_
y
_
(u, v)dudv
y
=
x
_
(y) =
x
2
_
(u, y)du
x
1
_
(u, y)du
F
(x
2
) F
(x
1
)
=
x
2
_
x
1
w
(u, y)du
F
(x
2
) F
(x
1
)
. (4.13)
Alegand x
1
= x, respectiv x
2
= x + x, putem rescrie pe (4.13) sub forma:
w
[x<x+x
(y) =
x+x
_
x
w
(u, y)du
F
(x + x) F
(x)
x
w
(x, y)x
w
(x)x
. (4.14)
Putem, deci, scrie ca:
w
[=x
(y) =
w
(x, y)
w
(x)
. (4.15)
Pentru un x
1
xat, funct ia w
(x
1
, y) este o curba ce reprezinta intersect ia ntre
suprafat a w
(x, y) cu planul x = x
1
(dupa cum este ilustrat n gura 4.3). Interpretarea
relat iei (4.15) este ca densitatea de probabilitate w
[=x
1
(x
1
), astfel ncat sa devina de arie unitara.
Evident, relat ia (4.15) poate scrisa n mod similar si pentru cealalta variabila
aleatoare. Putem, deci, scrie ca:
w
(x, y) = w
[=y
(x)w
(y) = w
[=x
(y)w
(x). (4.16)
interpretarea funct iei w
[=y
ind de intersect ie a suprafet ei w
(x, y) cu planul y =
constant.
4.5. Variabile aleatoare independente 37
w
(x,y)
x
y
x
y
x
1
w
(x
1
,y)
Figura 4.3: O densitate de probabilitate de ordinul doi si intersect ia ei cu planul x = x
1
.
4.5 Variabile aleatoare independente
Prin denit ie, doua variabile aleatoare si sunt independente daca evenimentele x
si y sunt independente pentru orice x si y n R. Reamintindu-ne denit ia a doua
evenimente independente (2.5), avem:
F
(x, y) = P
_
( x) ( y)
_
= P( x)P( y) = F
(x)F
(y), (4.17)
de unde, prin derivare dupa x si y, obt inem:
w
(x, y) = w
(x)w
(y). (4.18)
Evident, n ipoteza de independent a, relat iile (4.16) si (4.15) devin:
w
[=y
(x) = w
(x), (4.19)
w
[=x
(y) = w
(y). (4.20)
Trebuie remarcat faptul ca independent a este singura ipoteza n care cunoasterea celor
doua distribut ii de ordinul unu este sucienta pentru determinarea distribut iei de ordinul
doi a perechii de variabile aleatoare.
4.6 O funct ie de doua variabile aleatoare. Teorema
limita centrala.
Presupunem ca avem doua variabile aleatoare si , avand distribut ia de ordinul doi
w
(z) = P( z) = P
_
(, ) D
z
_
, (4.22)
cu
D
z
=
_
(x, y) R
2
g(x, y) z
_
. (4.23)
Trebuie, deci, determinat domeniul D
z
din (4.23), dupa care relat ia (4.22) poate
scrisa (t in and cont de proprietatea 2 a densitat ii de probabilitate de ordinul doi):
F
(z) =
__
D
z
w
(z) =
dF
(z)
dz
=
d
dz
__
D
z
w
x + y z
_
este cel prezentat n gura 4.4.
(z) =
__
D
z
w
(x, y)dxdy =
zy
_
(z) =
d
dz
zy
_
(x, y)dxdy =
_
_
d
dz
zy
_
(x, y)dx
_
_
dy
=
(z y, y)dy.
(4.28)
(z) =
(z y)w
(y)dy = w
() w
(). (4.29)
Rezultatul de mai sus, care arma ca densitatea de probabilitate a sumei a doua
variabile aleatoare independente se obt ine prin convolut ia celor doua distribut ii, este foarte
important, ntrucat sta la baza demonstrat iei unei teoreme fundamentale n statistica, si
anume teorema limita centrala care se enunt a astfel:
Teorema. Fie
1
,
2
, . . . ,
N
variabile aleatoare avand distribut ii oarecare, satisfacand
doar urmatoarele condit ii:
1. oricare doua dintre variabile,
i
si
j
, sunt independente,
2. nici una dintre variabile nu are o valoare preponderenta fat a de celelalte, ceea ce
e echivalent cu a spune ca variant a ecareia dintre ele este neglijabila n raport cu
suma variant elor celorlalte:
2
i
N
i=1
i,=j
2
j
.
Atunci, variabila aleatoare =
1
+
2
+. . . +
N
are o distribut ie gaussiana atunci c and
N .
40 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
0 0.2 0.4 0.6 0.8 1
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
i = 1
0 0.5 1 1.5 2
0
0.2
0.4
0.6
0.8
1
i = 2
0 1 2 3
0
0.2
0.4
0.6
0.8
i = 3
0 1 2 3 4
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 4
0 1 2 3 4 5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 5
0 2 4 6
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
i = 6
Figura 4.5: Distribut iile variabilelor aleatoare obt inute prin convolvarea a i distribut ii
uniformen [0,1] (i = 1, . . . , 6) reprezentate cu linie continua si distribut iile gaussiene
avand aceleasi medie si dispersie cu linie punctata.
Nu vom da o demonstrat ie a acestei teoreme, ci ne vom margini doar la argumenta
ca distribut ia lui , conform relat iei (4.29), se obt ine prin N operat ii de convolut ie a
distribut iilor variabilelor
i
.
Sa consideram, spre exemplu, un caz particular, si anume sa facem ipoteza ca
i
au
toate o distribut ie uniforma n intervalul [0, 1].
In gura 4.5 sunt prezentate funct iile
rezultate prin convolvarea succesiva a i = 2, 3 . . . distribut ii uniforme. Se observa ca pe
masura ce i creste, distribut ia rezultata variaza din ce n ce mai put in de la i la i + 1,
tinzand la o funct ie invarianta la convolut ie. Aceasta funct ie este funct ia clopot a lui
Gauss. Se poate demonstra cu usurint a ca prin operat ia de convolut ie ntre doua funct ii
clopot ale lui Gauss (3.23) se obt ine tot o funct ie clopot a lui Gauss, ceea ce justica
rezultatul enunt at de teorema limita centrala.
Nu putem ncheia discut ia fara a mai face doua observat ii pe tema teoremei limita
centrala:
din cele discutate mai sus, rezulta ca suma oricator variabile aleatoare gaussiene
este fara nici un fel de aproximare tot o variabila aleatoare gaussiana;
desi teoretic distribut ia sumei se apropie de gaussiana doar pentru N , se
observa ca, practic, distribut ia rezultata prin sumarea a N variabile aleatoare inde-
pendente este aproximata destul de bine gaussiana chiar si pentru N mic: se observa
din gura 4.5 ca diferent a corespunzatoare lui N = 6 este absolut nesemnicativa.
4.7. Teorema de medie 41
4.7 Teorema de medie
La fel ca si n cazul unidimensional, se poate enunt a si aici o teorema de medie (pe
care-o vom accepta fara demonstrat ie), care permite calculul mediei variabilei aleatoare
transformate direct din distribut ia de ordinul doi a perechii init iale w
si din funct ia
de trecere g.
Teorema. Media variabilei aleatoare = g(, ), indiferent de funct ia g si de distribut ia
w
(x, y)dxdy
=
__
R
2
xw
(x, y)dxdy +
__
R
2
yw
(x, y)dxdy
=
x
_
_
(x, y)dy
_
_
. .
w
(x)
dx +
y
_
_
(x, y)dx
_
_
. .
w
(y)
dy
=
xw
(x)dx
. .
yw
(y)dy
. .
= +
(4.31)
Rezultatul obt inut mai sus, conform caruia media sumei a doua variabile aleatoare
este egala cu suma mediilor, indiferent de gradul de (in)dependent a al acestora, este un
rezultat important, pe care l vom folosi intensiv n restul lucrarii.
4.8 Momente
Dupa modelul de la capitolul 3, se pot deni momente care sa caracterizeze o pereche de
variabile aleatoare. Astfel, se denesc momentele necentrate de ordin (k, l) ale perechii
de variabile aleatoare (, ) ca ind media statistica a produsului
k
l
:
m
(k,l)
=
k
l
=
__
R
2
x
k
y
l
w
:
m
(1,1)
=
not
= R
=
__
R
2
xyw
=
_
_
k
( )
l
=
__
R
2
_
x
_
k
(y )
l
w
:
_
_
( )
not
= K
=
__
R
2
_
x
_
(y ) w
=
_
_
( ) = +
= + = + = = R
.
(4.36)
In calculul de mai sus s-au folosit doua rezultate obt inute anterior: media sumei este
suma mediilor, respectiv constantele ies n afara operat iei de mediere (motiv pentru care,
de exemplu, = ).
Denit ie. Doua variabile aleatoare se numesc decorelate atunci cand covariat ia dintre
ele este nula:
K
= 0. (4.37)
Proprietate. Daca doua variabile aleatoare sunt independente, atunci ele sunt si decore-
late. Reciproca nu este n general valabila.
Demonstrat ie. Daca si sunt independente, avem:
=
__
R
2
xyw
(x, y)dxdy =
__
R
2
xyw
(x)w
(y)dxdy
=
xw
(x)dx
. .
yw
(y)dy
. .
= ,
(4.38)
si, deci:
K
= = 0.
4.9. Dreapta de regresie 43
Vom arata n paragraful urmator ca gradul de corelare ntre doua variabile aleatoare
(masura data atat de corelat ia, cat si de covariat ia ntre cele doua variabile) reprezinta
gradul de dependent a liniara ntre cele doua variabile, adica masura n care dependent a
dintre cele doua variabile poate aproximata printr-o relat ie liniara de tip = a + b.
4.9 Dreapta de regresie
In acest paragraf vom arata faptul ca momentele mixte de ordinul doi ale unei perechi de
variabile aleatoare (corelat ia, covariat ia) sunt o masura a gradului de dependent a liniara
ntre cele doua variabile.
Sa presupunem urmatorul exemplu: ne intereseaza studiul dependent ei statistice ntre
doua variabile aleatoare.
In absent a cunostint elor statistice despre si , se acumuleaza
prin experimentari succesive cat mai multe realizari particulare (
(i)
,
(i)
) ale perechii de
variabile aleatoare, iar punctele rezultate se aseaza pe un grac bidimensional.
Din forma norului de puncte rezultat se pot trage concluzii referitoare la tipul de
dependent a ntre si . Astfel, cu cat forma norului seamana mai pronunt at cu o dreapta
(ca n gura 4.6.(a)) cu atat nseamna ca ntre cele doua variabile exista o dependent a
liniara mai puternica, cu alte cuvinte, aproximarea uneia din cealalta printr-o relat ie
liniara este mai buna. Daca forma norului este haotica (ca n gura 4.6.(b)), nseamna ca
si sunt independente, si ncercarea de a o aproxima pe vreuna din cealalta dupa o relat ie
oarecare (nu neaparat liniara) este sortita esecului. Pot exista cazuri n care norul de
puncte nu este haotic, dar forma dupa care se orienteaza nu este liniara (v. gura 4.6.(c));
n acest caz, variabilele aleatoare sunt independente liniar (ceea ce e echivalent cu faptul
ca ele sunt decorelate, dupa cum vom arata n continuare) dar nu sunt independente!
6 4 2 0 2 4 6
5
4
3
2
1
0
1
2
3
4
5
3 2 1 0 1 2 3 4
3
2
1
0
1
2
3
1.5 1 0.5 0 0.5 1 1.5
1
0.5
0
0.5
1
(a) (b) (c)
Figura 4.6: Exemplicarea tipurilor de dependent a ntre variabile aleatoare. Diagrama
(, ) pentru diverse cazul (a) si corelate; (b) si independente; (c) si decorelate,
dar dependente.
Sa presupunem n continuare ca ne aam n situat ia n care forma norului de puncte
(
(i)
,
(i)
) este cat de cat liniara; se poate pune, deci, problema aproximarii acestuia cat
mai bune cu o dreapta. Dreapta respectiva (numita dreapta de regresie) ar aproxima pe
cu o funct ie liniara de (vezi gura 4.7).
44 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
10 5 0 5 10
4
2
0
2
4
6
8
10
12
14
16
Figura 4.7: Problema aproximarii liniare: norul de puncte (
(i)
,
(i)
) si, cu linie punctata,
dreapta de regresie.
Astfel, trebuie cautate numerele a, b R astfel ncat estimarea liniara a lui din ,
notata cu si data de:
= a + b (4.39)
sa se e cat mai apropiata posibil de valoarea reala a lui . Acest deziderat trebuie
tradus matematic, printr-un criteriu de eroare, pe care-l alegem criteriul erorii patratice
medii minime. Aceasta alegere este justicata n principal prin faptul ca acest criteriu
conduce la o solut ie matematica ce poate exprimata analitic. Se deneste, deci, eroarea
patratica medie ca ind:
= ( )
2
(4.40)
cu ajutorul careia denim matematic problema ca:
a, b =? astfel ncat =
min
(4.41)
Problema este una de aare a minimului unei funct ii n funct ie de doua argumente.
Avand n vedere faptul ca funct ia e patratica n oricare din cele doua argumente, se poate
arata ca problema se poate trata separat, ca doua probleme de minimizare unidimen-
sionala. Asadar, valorile lui a si b care-l minimizeaza pe se obt in facand:
b
= 0 b
o
(4.42a)
a
= 0 a
o
(4.42b)
unde a
o
si b
o
reprezinta valorile optimale ale parametrilor a si b. Avand n vedere ca
poate scrisa ca
= ( )
2
= ( a b)
2
, (4.43)
4.9. Dreapta de regresie 45
relat ia (4.42a) devine
b
=
( a b)
2
b
= 2( a b) = 0, (4.44)
de unde rezulta valoarea lui b:
b
o
= a (4.45)
a
=
_
( ) a( )
_
2
a
= 2
_
( ) a( )
_ _
_
= 2
_
( )( ) a
_
_
2
_
= 2
_
K
a
2
_
= 0,
(4.47)
de unde rezulta valoarea lui a care-l minimizeaza pe :
a
o
=
K
. (4.48)
( ) + . (4.49)
Am notat valoarea optima a lui cu
o
.
Prima observat ie importanta pe care o facem este ca daca si sunt decorelate, adica
daca K
= 0, atunci avem
o
= , adica cea mai buna aproximare liniara a lui n
funct ie de nu depinde de acesta. Altfel spus, ntre doua variabile decorelate nu exista
nici un fel de dependent a liniara!
A doua observat ie, nu mai put in importanta, este urmatoarea: daca K
,= 0 atunci
singurul lucru ce poate armat este ca si nu sunt decorelate, ntre ele exist a o
anumita dependent a liniara. Ce nu se poate evalua, nsa, pe baza valorii efective a lui
K
este cat de puternica este dependent a respectiva, cu alte cuvinte, cat de apropiat este
norul de puncte (
(i)
,
(i)
) de o dreapta. Aceasta masura poate studiata numai studiind
valoarea erorii obt inute prin aproximarea lui cu
o
.
46 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
4.9.1 Coecientul de corelat ie
Scriind formula erorii patratice medii minime obt iute, avem:
min
= (
o
)
2
=
_
( )
K
( )
_
2
= ( )
2
. .
2
K
( )( )
. .
K
+
K
2
_
_
2
. .
=
2
2
K
2
+
K
2
=
2
K
2
=
2
_
1
_
K
_
2
_
.
(4.50)
Termenul pus n evident a n expresia nala a erorii patratice medii minime se noteaza cu
=
K
. (4.51)
Coecientul de corelat ie
min
=
2
_
1
2
_
, (4.52)
se observa ca
[ 1. (4.53)
Mai mult, se observa ca pe masura ce [
[ = 1
min
= 0 =
o
,
cu alte cuvinte, daca modulul coecientului de corelat ie este egal cu unu, ntre si
exista o dependent a liniara funct ionala (norul de puncte (
(i)
,
(i)
) este o dreapta)
1
.
O ultima observat ie la acest capitol este legata de semnicat ia unei valori negative a
coecientului de corelat ie. Faptul ca
0 !
.
1
Daca media patratica a unei variabile aleatoare este nula, atunci variabila aleatoare respectiva (n
cazul nostru
o
) este determinist egala cu 0.
4.10. Distribut ia gaussiana de ordinul doi 47
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4
=1
4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4
=0.8
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4
=0.4
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4
=0
5 4 3 2 1 0 1 2 3 4
4
3
2
1
0
1
2
3
4
=0.8
5 4 3 2 1 0 1 2 3 4 5
4
3
2
1
0
1
2
3
4
=1
Figura 4.8: Forma norului de puncte (
(i)
,
(i)
) pentru diverse valori ale coecientului de
corelat ie.
4.10 Distribut ia gaussiana de ordinul doi
Variabilele aleatoare si se zice ca au o distribut ie gaussiana (sau normala) de ordinul doi
de parametri m
1
, m
2
,
1
,
2
, r (si se noteaza (, ): ^ (m
1
, m
2
,
1
,
2
, r)) daca densitatea
lor de probabilitate de ordinul doi este data de:
w
(x, y) =
1
2
1
1 r
2
exp
_
1
2(1 r
2
)
_
(x m
1
)
2
2
1
2r
(x m
1
)(y m
2
)
2
+
(y m
2
)
2
2
2
__
, (4.54)
cu m
1
si m
2
oarecare,
1
> 0,
2
> 0 si [r[ 1.
Prin calcul direct, folosind proprietatea 5 a densitat ii de probabilitate de ordinul doi,
se poate arata ca daca perechea (, ) are o distribut ie gaussiana de ordinul doi, atunci
si si au o distribut ie gaussiana de ordinul unu, mai precis : ^(m
1
,
1
), respectiv
: ^(m
2
,
2
).
Reciproca armat iei de mai sus nu e valabila. Cu alte cuvinte, faptul ca atat cat si
au ecare o distribut ie gaussiana de ordinul unu nu garanteaza faptul ca perechea (, )
are o distribut ie gaussiana de ordinul doi!
Am vazut mai sus ca primii patru parametri ai gaussienei de ordinul doi au semnicat ia
de medii, respectiv dispersii, ale celor doua variabile aleatoare. Cat despre al cincilea
parametru, respectiv r, se arata prin calcul direct ca acesta reprezinta coecientul de
48 CAPITOLUL 4. PERECHI DE VARIABILE ALEATOARE
corelat ie ntre si :
=
K
= = r. (4.55)
Deci, forma clopotului lui Gauss bidimensional va mai mult sau mai put in elongata
n funct ie de cat de apropiat este [r[ de 1 (respectiv de 0).
In gura 4.9 se arata forma
funct iei (4.54) pentru doua valori ale lui r.
(a) (b)
Figura 4.9: Forma distribut iei gaussiene de ordinul doi pentru: (a) r = 0, 3 si (b) r = 0, 8.
Din faptul ca
(x, y) =
1
2
1
2
exp
_
1
2
_
(x m
1
)
2
2
1
+
(y m
2
)
2
2
2
__
=
1
2
exp
_
(x m
1
)
2
2
2
1
_
1
2
exp
_
(y m
2
)
2
2
2
2
_
= w
(x)w
(y).
(4.56)
Altfel spus, daca doua variabile aleatoare cu distribut ie gaussiana de ordinul doi sunt
decorelate, atunci ele sunt si independente!
Capitolul 5
Semnale aleatoare
5.1 Introducere
Dupa ce am studiat caracterizarea statistica a variabilelor aleatoare si a perechilor de
variabile aleatoare, este momentul sa mergem mai departe. Vom aborda n continuare
problema semnalelor aleatoare, care pot vazute precum colect ii de variabile aleatoare
cu desfasurare n timp. Practic, vom vedea cum se aplica toate rezultatele obt inute n
capitolele anterioare pentru caracterizarea statistica a semnalelor aleatoare, care sunt
obiectul principal de studiu al acestei lucrari.
Semnalele aleatoare sunt semnale guvernate, e si part ial, de legi probabilistice. Cu
alte cuvinte, valoarea unui semnal aleator la un moment dat este, cel put in part ial, impre-
dictibila. Din punct de vedere matematic, un semnal aleator este o funct ie denita atat
pe spat iul esantioanelor cat si pe R:
: R R. (5.1)
Daca xam
k
, atunci avem de-a face cu o realizare particulara a semnalului aleator,
(
k
, t)
not
=
(k)
(t), care este ceea ce convent ional numim un semnal, adica o funct ie de timp.
Este momentul sa atragem atent ia, pentru a evita confuziile si a xa not iunile, asupra
faptului ca termenul de semnal aleator se refera la o clasa de semnale caracterizate de
aceleasi proprietat i statistice, si nu la vreun semnal n parte, acesta din urma numindu-se,
asa cum am precizat mai sus, realizare particulara a semnalului aleator. Aceasta este
ilustrata n gura 5.1.
5.2 Caracterizarea statistica a semnalelor aleatoare
Daca xam un moment de timp oarecare t
1
, valoarea semnalului la momentul respec-
tiv de timp este o variabila aleatoare (t
1
) : R. Aceasta observat ie ne nlesneste
descrierea statistica a semnalului aleator folosind marimile statistice introduse n capi-
tolele anterioare pentru caracterizarea variabilelor aleatoare sau a perechilor de variabile
aleatoare.
49
50 CAPITOLUL 5. SEMNALE ALEATOARE
t
Figura 5.1: Diverse realizari particulare ale unui semnal aleator.
5.2.1 Caracterizarea de ordinul unu a semnalelor aleatoare
Se deneste funct ia de repartit ie de ordinul unu a semnalului aleator (t) ca ind:
F
(x
1
, t
1
)
= P((t
1
) x
1
) (5.2)
Se observa ca denit ia (5.2) este similara celei din (3.3), cu diferent a ca, n cazul sem-
nalelor, funct ia de repartit ie depinde si de timp. Acest lucru este normal, ntrucat funct ia
de repartit ie trebuie sa caracterizeze ntreg semnalul, adica variabilele aleatoare (t
1
)
pentru orice moment de timp t
1
R.
Apoi, se deneste densitatea de probabilitate de ordinul unu a semnalului, dupa:
w
(x
1
, t
1
) =
F
(x
1
, t
1
)
x
1
, (5.3)
pe baza careia se pot calcula momentele statistice ale semnalulului, printre care si media,
media patratica si variant a acestuia:
(t
1
) =
x
1
w
(x
1
, t
1
)dx
1
, (5.4)
2
(t
1
) =
x
2
1
w
(x
1
, t
1
)dx
1
, (5.5)
(t
1
) =
2
(t
1
) (t
1
)
2
. (5.6)
Toate aceste marimi statistice de ordinul unu permit caracterizarea completa a com-
portamentului statistic al semnalului la orice moment de timp. Ceea ce nu poate evaluat,
nsa, cu ajutorul acestor marimi este interdependent a statistica ntre valorile semnalului
la doua momente de timp diferite. Pentru aceasta este nevoie de marimi statistice de
ordinul doi, pe care le vom discuta n paragraful urmator.
5.2.2 Caracterizarea de ordinul doi a semnalelor aleatoare
Se deneste funct ia de repartit ie de ordinul doi a semnalului aleator (t) ca ind funct ia
de repartit ie de ordinul doi a variabilelor aleatoare (t
1
) si (t
2
):
F
(x
1
, x
2
, t
1
, t
2
)
= P (((t
1
) x
1
) ((t
2
) x
2
)) . (5.7)
5.3. Semnale stat ionare 51
Ca si pentru ordinul unu, funct ia de repartit ie de ordinul doi depinde si de momentele de
timp t
1
si t
2
. Se poate deni apoi densitatea de probabilitate de ordinul doi a semnalului:
w
(x
1
, x
2
, t
1
, t
2
) =
2
F
(x
1
, x
2
, t
1
, t
2
)
x
1
x
2
, (5.8)
care permite calculul momentelor mixte ale acestuia. Se deneste, deci, funct ia de
autocorelat ie a semnalului ca ind corelat ia dintre (t
1
) si (t
2
), t
1
, t
2
R:
R
(t
1
, t
2
)
= (t
1
)(t
2
) =
__
R
2
x
1
x
2
w
(x
1
, x
2
, t
1
, t
2
)dx
1
dx
2
. (5.9)
Facem observat ia ca, desi n spiritul notat iilor utilizate pana n acest punct, funct ia de
autocorelat ie ar trebui notata cu R
, considerand ca aceasta
simplicare a notat iei nu introduce nici un echivoc.
(t
1
, t
2
)
=
_
(t
1
) (t
1
)
__
(t
2
) (t
2
)
_
= (t
1
)(t
2
) (t
1
) (t
2
). (5.10)
Descrierea statistica a semnalelor aleatoare ar putea continua prin denirea densitat ilor
de probabilitate de ordin superior lui doi. Evident, cu cat ordinul este mai mare, cu atat
descrierea semnalului este mai completa. Pe de alta parte, cu cat ordinul este mai mare,
cu atat devin mai greu de estimat n mod practic marimile respective. Din aceste motive,
majoritatea aplicat iilor n prelucrarea statistica a semnalelor folosesc marimile de ordin
cel mult doi (medie, funct ie de autocorelat ie, etc.). Exista, totusi, si aplicat ii mai speciale
ale prelucrarii semnalelor, n care este necesara folosirea marimilor statistice de ordin trei
si patru, numite statistici de ordin superior, pentru a obt ine rezultate ce nu pot extrase
folosind marimile de ordinul unu si doi.
5.3 Semnale stat ionare
In acest paragraf, vom introduce o not iune foarte importanta n teoria statistica a sem-
nalelor, si anume stat ionaritatea semnalelor aleatoare. Exista doua feluri de stat ionaritate,
n sens strict si n sens larg, dupa cum vom arata n paragrafele urmatoare.
5.3.1 Stat ionaritate n sens strict
Un semnal aleator (t) se zice ca este stat ionar n sens strict de ordinul n daca densitatea
sa de probabilitate de pana la ordinul n este invarianta la o translat ie oarecare n timp:
w
. .
n
(x
1
, . . . , x
n
, t
1
, . . . , t
n
) = w
. .
n
(x
1
, . . . , x
n
, t
1
+ , . . . , t
n
+ ), R. (5.11)
Evident, relat ia de mai sus este valabila pentru orice n
t
< n, ntrucat densitatea de
ordin n
t
se obt ine ca densitate marginala a celei de ordin n.
52 CAPITOLUL 5. SEMNALE ALEATOARE
In particular, un semnal stat ionar n sens strict de ordinul doi este un semnal pentru
care:
w
(x
1
, t
1
) = w
(x
1
, t
1
+ ), R (5.12)
w
(x
1
, x
2
, t
1
, t
2
) = w
(x
1
, x
2
, t
1
+ , t
2
+ ), R (5.13)
Daca alegem = t
1
n relat ia (5.12), obt inem:
w
(x
1
, t
1
) = w
(x
1
, 0) = w
(x
1
), (5.14)
cu alte cuvinte, prima consecint a directa a stat ionaritat ii unui semnal este faptul ca
densitatea sa de probabilitate de ordinul unu nu depinde de timp: la orice moment de
timp t, variabila aleatoare (t) are aceeasi densitate de probabilitate. Consecint a imediata
a acestui fapt este si faptul ca media, media patratica si dispersia semnalului au aceeasi
proprietate.
Intr-adevar, daca nlocuim (5.14) n relat iile, (5.4)(5.6), obt inem:
(t
1
) = , (5.15)
2
(t
1
) =
2
, (5.16)
(t
1
) =
2
. (5.17)
Daca, n plus, alegem = t
2
n ecuat ia (5.13), obt inem:
w
(x
1
, x
2
, t
1
, t
2
) = w
(x
1
, x
2
, t
1
t
2
, 0) = w
(x
1
, x
2
, t
1
t
2
), R. (5.18)
Relat ia (5.18) ne arata ca densitatea de probabilitate de ordinul doi a semnalului stat ionar
n sens strict de ordinul doi nu depinde de cele doua momente de timp ca atare, ci numai
de diferent a ntre ele. Altfel spus, oricare doua valori ale semnalului localizate la acelasi
ecart temporal una fat a de cealalta vor avea aceeasi distribut ie de ordinul doi, indiferent
de localizarea lor absoluta pe axa timpului. Evident, acest lucru se va rasfrange asupra
momentelor mixte ale semnalului, adica funct iile de autocorelat ie si autocovariat ie, care
vor avea si ele aceeasi proprietate de a nu depinde de cele doua argumente ca atare, ci
numai de diferent antre ele. Astfel, introducand (5.18) n relat iile (5.9) si (5.10), obt inem:
R
(t
1
, t
2
) = R
(t
1
t
2
), (5.19)
K
(t
1
, t
2
) = K
(t
1
t
2
), (5.20)
cu
R
() = (t)(t + ) t R, (5.21)
K
() = R
()
2
. (5.22)
Se observa din relat ia (5.22) ca n ipoteza stat ionaritat ii, funct iile de autocorelat ie si
autocovariat ie difera numai printr-o constanta. Daca, n plus, semnalul este de medie
nula, atunci cele doua funct ii coincid.
5.4. Proprietat ile funct iei de autocorelat ie 53
5.3.2 Stat ionaritate n sens larg
Stat ionaritatean sens strict este o ipoteza greu de vericat n practica pentru majoritatea
semnalelor reale, chiar si pentru valori mici ale lui n.
In practica, se foloseste o ipoteza
simplicata, si anume cea de stat ionaritate n sens larg, care implica invariant a la o
translat ie n timp nu a densitat ilor de probabilitate, ci a momentelor semnalului de ordinul
unu si doi.
Un semnal se numeste stat ionar n sens larg daca:
1. media lui este independenta de timp (relat ia (5.15));
2. funct ia lui de autocorelat ie depinde doar de diferent a ntre cele doua argumente ale
sale (relat ia (5.19)).
Se poate arata ca din (5.15) si (5.19) se pot deduce si relat iile de invariant a la o
translat ie n timp a celorlalte momente de interes, cu alte cuvinte ca si relat iile (5.16),
(5.17) si (5.20) sunt adevarate n ipoteza stat ionaritat ii n sens larg.
In cele ce urmeaza, ne vom referi pe scurt la semnalele stat ionare n sens larg ca ind
semnale stat ionare.
Dupa cum spuneam, clasa semnalelor stat ionare ocupa un loc foarte important n
studiul statistic al semnalelor. Majoritatea semnalelor reale sunt e stat ionare, e pot
aproximate pe durate mai lungi sau mai scurte cu semnale stat ionare, ceea ce explica
interesul aratat pentru acest tip de semnale.
In continuarea acestei lucrari, vom considera
stat ionaritatea semnalelor studiate ca ind o ipoteza de lucru .
5.4 Proprietat ile funct iei de autocorelat ie
In acest paragraf, vom stabili cateva proprietat i importante ale funct iei de autocorelat ie
a semnalelor aleatoare stat ionare data de (5.21).
1. Funct ia de autocorelat ie este para.
R
() = R
() R. (5.23)
Demonstrat ie. Pornind de la (5.21) si alegand = t
1
t, obt inem R
() =
(t
1
)(t
1
) = R
().
Este evident ca asa si trebuie sa e: R
() si R
() masoara,
de fapt, acelasi lucru, si anume corelat ia dintre variabilele aleatoare (t
1
) si (t
2
),
deci trebuie obligatoriu sa e egale!
54 CAPITOLUL 5. SEMNALE ALEATOARE
2. Funct ia de autocorelat ie este maxima n origine.
R
(0) [R
()[ R. (5.24)
Demonstrat ie. Calculam media patratica a diferent ei (t) (t + ):
((t) (t + ))
2
=
2
(t) 2(t)(t + ) +
2
(t + )
=
2
(t)
..
R
(0)
2(t)(t + )
. .
R
()
+
2
(t + )
. .
R
(0)
= 2 (R
(0) R
()) .
(5.25)
Cum media patratica este obligatoriu pozitiva, rezulta ca R
(0) R
(). Repetand
rat ionamentul de mai sus pornind de la (t)+(t+), va rezulta ca R
(0) R
(),
ceea ce completeaza demonstrat ia relat iei (5.24).
Relat ia (5.24) are si ea o interpretare evidenta: valoarea funct iei de autocorelat ie
n 0 reprezinta corelat ia dintre valoarea semnalului la un moment de timp dat si ea
nsasi. Este evident ca aceasta corelat ie (care e perfecta) nu poate mai mica decat
corelat ia respectivei valori cu alta valoare a semnalului, decalata cu un oarecare.
3.
In ipoteza ca n semnal nu exista componente periodice sau deterministe, valoarea
funct iei de autocorelat ie la innit este egala cu patratul mediei semnalului.
R
() =
2
. (5.26)
Demonstrat ie. Revenind la (5.21) observam ca atunci cand , avem de-a
face cu doua valori care, desi provin din acelasi semnal, datorita ecartului tempo-
ral ntre ele, este verosimil sa nu mai e legate statistic una de alta, adica sa e
independente.
In acest caz, media produsului devine egala cu produsului mediilor,
care sunt egale, si deci, relat ia (5.26) este demonstrata. Evident, presupunerea de
independent a statistica ntre doua valori ale semnalului foarte ndepartate temporal
una de cealalta nu mai e valabila daca, de exemplu, n semnal exista o componenta
periodica.
4. Media patratica si variant a semnalului se obt in din funct ia de autocorelat ie astfel:
2
= R
(0) (5.27)
= R
(0) R
() (5.28)
Demonstrat ie. Relat ia (5.27) nu este altceva decat exprimarea relat iei (5.21)
pentru = 0, t inand n plus cont de (5.16), n timp ce relat ia (5.28) decurge resc
din ecuat iile (5.27) si (5.26).
5. Daca semnalul aleator este periodic, atunci si funct ia lui de autocorelat ie este peri-
odica, avand aceeasi perioada ca si semnalul.
(t) = (t + T) t R R
() = R
( + T) R. (5.29)
5.5. Funct ia de intercorelat ie 55
Demonstrat ie. Scriem ca
R
( + T) = (t)
..
(t+T)
(t + + T) = (t + T)(t + + T) = R
(). (5.30)
Interpretarea relat iei (5.29) este de asemenea imediata. Daca semnalul este periodic,
daca valorile sale se repeta identic dupa o durata T, este logic sa se ntample acelasi
lucru si cu funct ia sa de autocorelat ie: R
( + T).
5.5 Funct ia de intercorelat ie
Fie (t) si (t) doua semnale stat ionare. Se pot deni funct iile de intercorelat ie si
intercovariat ie ntre cele doua semnale prin analogie cu funct iile similare ce caracteri-
zeaza un singur semnal. Astfel, pornind de la relat ia (5.21) se poate scrie funct ia de
intercorelat ie ntre (t) si (t) precum:
R
() = (t)(t + ) t R, (5.31)
si, n mod similar, se poate scrie si funct ia de intercovariat ie:
K
() =
_
(t) (t)
__
(t + ) (t + )
_
= R
() , t R (5.32)
Se observa din modul de denire ca funct ia de intercorelat ie nu mai este o funct ie
para.
In schimb, reluand demonstrat ia de la proprietatea 1 a funct iei de autocorelat ie, se
poate arata ca funct ia de intercorelat ie este caracterizata de:
R
() = R
() (5.33)
().
5.6 Semnale ergodice
In acest paragraf, vom introduce o noua clasa de semnale, mai restrictiva decat clasa
semnalelor stat ionare, si anume semnalele ergodice. Pentru aceasta, nsa, este necesara
denirea mediilor temporale ale semnalului.
5.6.1 Medii temporale ale semnalului
Fie
(k)
(t) o realizare particulara a semnalului aleator stat ionar (t). Se deneste media
temporala a realizarii particulare ca ind:
(k)
= lim
T
1
T
T
2
_
T
2
(k)
(t)dt. (5.34)
56 CAPITOLUL 5. SEMNALE ALEATOARE
(k)
(t
1
, t
2
) = lim
T
1
T
T
2
_
T
2
(k)
(t + t
1
)
(k)
(t + t
2
)dt. (5.35)
Facand schimbarea de variabila t +t
2
= n ecuat ia (5.35), se observa ca, prin nsusi
modul ei de denit ie, funct ia de autocorelat ie temporala depinde numai de diferent a ntre
cele doua argumente ale ei:
R
t
(k)
(t
1
, t
2
) = R
t
(k)
(t
1
t
2
). (5.36)
5.6.2 Ergodicitate n sensul mediei si n sensul autocorelat iei
Un semnal aleator stat ionar (t) se numeste ergodic n sensul mediei daca media temporala
a oricarei realizari particulare ale sale aceeasi si este egala cu media statistica:
=
(k)
k. (5.37)
Un semnal aleator stat ionar (t) se numeste ergodic n sensul funct iei de autocorelat ie
daca funct ia sa de autocorelat ie calculata pe oricare realizare particulara a sa este identica
cu funct ia de autocorelat ie statistica:
R
() R
t
(k)
() k. (5.38)
In al doilea rand, este util de precizat faptul ca ergodicitatea este o ipoteza facuta de
multe ori din lipsa de suciente date, si nu ntotdeauna vericata n practica. Ea permite
calculul marimilor statistice ale semnalului pornind de la o singura realizare particular a a
acestuia, si este invocata ori de cate ori avem nevoie de marimile respective n condit iile
n care dispunem de un numar de realizari particulare ale semnalului insucient pentru o
estimare precisa a acestora.
In paragraful urmator, vom demonstra o teorema care ne arata condit ia pe care trebuie
sa o satisfaca funct ia de covariat ie a unui semnal stat ionar pentru ca el sa e si ergodic
n sensul mediei.
5.6.3 Teorema ergodicitat ii mediei
Fie
(k)
(t) realizarea particulara a semnalului aleator stat ionar (t) denita mai sus. Fie
(k)
T
() media temporala a realizarii particulare trunchiate pe intervalul
_
T
2
,
T
2
:
5.6. Semnale ergodice 57
(k)
T
() =
1
T
T
2
_
T
2
(k)
(t)dt. (5.39)
Evident, media temporala denita mai sus este o variabila aleatoare, ntrucat ia n con-
siderare un interval nit pentru integrare, si deci, va varia de la o realizare particulara
(k)
la alta. Media statistica a lui
(k)
T
() este data de:
(k)
T
() =
1
T
T
2
_
T
2
(k)
(t)dt =
1
T
T
2
_
T
2
(k)
(t)
. .
dt =
1
T
t
T
2
T
2
= . (5.40)
In dezvoltarea de mai sus, am folosit ipoteza de stat ionaritate a semnalului prin fap-
tul ca media statistica este invarianta n timp. De asemenea, am t inut cont de faptul
(demonstrat n capitolul capitolul 4) ca operat ia de mediere statistica comuta cu operat ia
de sumare (integrare); n plus constantele (n cazul de fat a raportul
1
T
) iesn afara operat iei
de mediere.
Semnalul (t) se este ergodic n sensul mediei daca:
lim
T
_
(k)
T
()
_
2
= 0. (5.41)
Intr-adevar, relat ia de mai sus este echivalenta cu denit ia (5.37): ea arma ca variant a
variabilei aleatoare
(k)
T
() tinde la 0 atunci cand T . Or, faptul ca variant a unei
variabile aleatoare este nula este echivalent cu a spune ca variabila respectiva este de-
terminista, egala cu media ei. Altfel spus, media temporala pe R a oricarei realiz ari
particulare a semnalului este egala cu media statistica a acestuia.
Dezvoltand termenul din relat ia (5.41), obt inem:
_
(k)
T
()
_
2
=
_
_
_
1
T
T
2
_
T
2
(k)
(t)dt
_
_
_
2
=
_
_
_
1
T
T
2
_
T
2
(k)
(t)dt
1
T
T
_
_
_
2
=
_
_
_
1
T
T
2
_
T
2
_
(k)
(t)
_
dt
_
_
_
2
=
_
_
_
1
T
T
2
_
T
2
_
(k)
(t
1
)
_
dt
1
_
_
_
_
_
_
1
T
T
2
_
T
2
_
(k)
(t
2
)
_
dt
2
_
_
_
=
1
T
2
__ T
2
T
2
_
(k)
(t
1
)
_ _
(k)
(t
2
)
_
dt
1
dt
2
=
1
T
2
__ T
2
T
2
_
(k)
(t
1
)
_ _
(k)
(t
2
)
_
. .
K
(t
1
,t
2
)
dt
1
dt
2
=
1
T
2
__ T
2
T
2
K
(t
1
t
2
)dt
1
dt
2
.
(5.42)
58 CAPITOLUL 5. SEMNALE ALEATOARE
t
1
t
2
t
2
__
= det
__
1 1
0 1
__
= 1. (5.45)
Astfel, ecuat ia (5.42) poate scrisa n noile coordonate astfel:
_
(k)
T
()
_
2
=
1
T
2
__
D
K
()dd, (5.46)
unde D este domeniul bidimensional reprezentat n gura 5.2.(b).
In ecuat ia (5.46), facem
mai ntai integrarea dupa variabila . Se poate observa ca limitele de variat ie ale lui
depind de . Astfel, daca [0, T] (corespunzator jumatat ii paralelogramului situate
deasupra axei absciselor), [
T
2
,
T
2
]. Pentru [T, 0], nsa (jumatatea inferioara
a paralelogramului D) avem [
T
2
,
T
2
].
In cele expuse anterior, s-a t inut cont
ca ecuat iile celor doua drepte oblice ale paralelogramului D sunt + =
T
2
, respectiv
5.6. Semnale ergodice 59
+ =
T
2
. Astfel, ecuat ia (5.46) devine:
_
(k)
T
()
_
2
=
1
T
2
_
_
_
T
_
0
T
2
T
2
K
()dd +
0
_
T
T
2
_
T
2
()dd
_
_
_
=
1
T
2
_
_
T
_
0
K
()
_
_
_
T
2
T
2
d
_
_
_
. .
T
d +
0
_
T
K
()
_
_
_
T
2
_
T
2
d
_
_
_
. .
T+
d
_
_
=
1
T
2
_
_
T
_
0
(T )K
()d +
0
_
T
(T + )K
()d
_
_
=
1
T
2
_
T
T
(T [[)K
()d =
1
T
_
T
T
_
1
[[
T
_
K
()d.
(5.47)
T inand cont de relat ia (5.41), ajungem la forma nala a teoremei erodicitat ii mediei,
T/2
T/2
T/2
T/2
t
1
t
2
T
T
T/2
T/2
T/2
T/2
(a) (b)
Figura 5.2: (a) Domeniul de integrare n coordonate (t
1
, t
2
); (b) Domeniul de integrare
n coordonate (, )
.
60 CAPITOLUL 5. SEMNALE ALEATOARE
care arm a ca un semnal este ergodic n sensul mediei daca:
lim
T
1
T
_
T
T
_
1
[[
T
_
K
()d = 0. (5.48)
Se observa ca daca semnalul este decorelat la innit, adica daca
0
R astfel ncat
K
() = 0 pentru
0
(ipoteza cat se poate de verosimila pentru majoritatea sem-
nalelor reale, conform discut iei purtate n contextul demonstrat iei proprietat ii 3 a funct iei
de autocorelat ie) atunci:
_
T
T
_
1
[[
T
_
K
()d
= M < , T R,
si, deci limita din (5.48) este 0, semnalul ind ergodic n sensul mediei. Sa mai preciz am
ca aceasta ipoteza a decorelarii a semnalului la innit reprezinta o condit ie sucienta,
nu si necesara, relat ia (5.48) putand ndeplinita si de alte semnale (printre care si cele
asimptotic decorelate).
Sa mai remarcam, n nal, ca demonstrat ia de mai sus se poate relua si pentru funct ia
de autocorelat ie, pornind, n loc de media (5.39) calculata nu pentru semnalul (t), ci
pentru
(t) = (t)(t + ):
(k)
T
(
) =
1
T
T
2
_
T
2
(k)
(t)
(k)
(t + )dt. (5.49)
Rezultatul nal ar face, nsa, sa apara funct ia de covariat ie a lui
Intr-adevar, daca un semnal este stat ionar, atunci el este obligat sa aiba suport spat ial
innit
1
(ceea ce implica faptul ca, n realitate, nu exista semnale pur stat ionare), si:
[(t)[dt = . (5.50)
1
Daca nu ar asa, daca semnalul ar avea un suport temporal nit, sa zicem, (t) = 0 pentru t , [T
1
, T
2
],
atunci mediile semnalului nu ar invariante n timp. De exemplu,
2
(t
1
) = 0 pentru t
1
, [T
1
, T
2
], n
timp ce
2
(t
2
) ,= 0 pentru t
2
[T
1
, T
2
] si, deci, semnalul nu ar stat ionar.
5.7. Densitatea spectrala de putere 61
Aceasta implica, mai departe, faptul ca nu putem calcula transformata Fourier a
vreunei realizari particulare a semnalului, stiut ind ca una din condit iile de existent a a
transformatei Fourier a unui semnal este integrabilitatea modulului acestuia.
Pentru a deni, totusi, o masura care sa caracterizeze spectral semnalul, vom recurge
la urmatoarea construct ie. Consideram, mai ntai, o realizare particulara a semnalului,
(k)
, si consideram, mai departe, o varianta trunchiata a acesteia, pe care o notam
(k)
T
si
pe care o denim astfel:
(k)
T
(t) =
_
(k)
(t) daca [t[
T
2
0 n rest
. (5.51)
Datorita limitarii suportului temporal, varianta trunchiata este de modul integrabil
si, deci, transformata Fourier a acesteia exista si o vom nota cu X
(k)
T
:
X
(k)
T
() = T
_
(k)
T
(t)
_
() =
(k)
T
(t) exp(jt)dt. (5.52)
Evident, semnalul original
(k)
T
poate recuperat din echivalentul sau spectral prin
transformare Fourier inversa:
(k)
T
(t) = T
1
_
X
(k)
T
()
_
(t) =
1
2
X
(k)
T
() exp(jt)d. (5.53)
Energia realizarii particulare trunchiate a semnalului este data de:
E
(k)
T
=
(k)
T
_
2
dt =
(k)
T
(k)
T
dt
=
(k)
T
_
_
1
2
X
(k)
T
() exp(jt)d
_
_
dt
=
1
2
X
(k)
T
()
_
_
(k)
T
exp(jt)dt
_
_
d
=
1
2
X
(k)
T
()X
(k)
T
()d =
1
2
X
(k)
T
()
2
d,
(5.54)
unde prin ()
(k)
T
=
E
(k)
T
T
=
1
2T
X
(k)
T
()
2
d. (5.55)
62 CAPITOLUL 5. SEMNALE ALEATOARE
Astfel, am reusit sa denim o marime, respectiv valoarea
X
(k)
T
()
2
, care sa reprezinte
o caracteristica spectrala a semnalului. Ea, nsa, caracterizeaza o singura realizare par-
ticulara, si aceea trunchiata, a acestuia. Pentru a obt ine o masura care sa caracterizeze
semnalul aleator n ansamblul lui, si nu o realizare particulara oarecare a acestuia, trebuie
sa efectuam o mediere statistica. Astfel, se deneste puterea medie a semnalului trunchiat
T
ca ind media statistica a puterii P
(k)
T
:
P
T
= P
(k)
T
=
1
2
X
(k)
T
()
2
T
d =
1
2
X
(k)
T
()
2
T
d. (5.56)
In sfarsit, ultima operat iune pe care o efectuam este trecerea la limita cand T
a relat iei (5.56), pentru a elimina efectul trunchierii. Se deneste, deci, puterea medie a
semnalului netrunchiat ca ind:
P
= lim
T
P
T
=
1
2
lim
T
X
(k)
T
()
2
T
d. (5.57)
Trebuie ment ionat ca faptul ca semnalul este de energie innita este o consecint a a
duratei sale innite; puterea lui este nita, deci limita de mai sus exista!
Integrandul din ecuat ia (5.57) se noteaza cu q
() = lim
T
X
(k)
T
()
2
T
. (5.58)
Se observa ca puterea medie a semnalului se scrie ca
P
=
1
2
()d, (5.59)
ceea ce justica ntru totul denumirea data marimii q
() = lim
T
X
(k)
T
()
2
T
= lim
T
X
(k)
T
()X
(k)
T
()
T
, (5.60)
Pornind de la (5.52), avem:
X
(k)
T
() =
(k)
T
(t
1
) exp (jt
1
) dt
1
=
T
2
_
T
2
(k)
(t
1
) exp (jt
1
) dt
1
, (5.61)
si observand ca
X
(k)
T
() =
T
2
_
T
2
(k)
(t
2
) exp (jt
2
) dt
2
, (5.62)
rezulta ca ecuat ia (5.60) poate scrisa ca:
q
() = lim
T
1
T
__ T
2
T
2
(k)
T
(t
1
)
(k)
T
(t
2
) exp (j(t
1
t
2
)) dt
1
dt
2
= lim
T
1
T
__ T
2
T
2
(k)
T
(t
1
)
(k)
T
(t
2
)
. .
R
(t
1
,t
2
)
exp (j(t
1
t
2
)) dt
1
dt
2
= lim
T
1
T
__ T
2
T
2
R
(t
1
t
2
) exp (j(t
1
t
2
)) dt
1
dt
2
(5.63)
Reluand pasii demonstrat iei teoremei ergodicitat ii mediei din paragraful 5.6.3, mai
precis trecerea de la integrala bidimensionala din (5.42) la cea unidimensionala din (5.47),
rezulta ca, pornind de la (5.63), putem scrie densitatea spectrala de putere ca:
64 CAPITOLUL 5. SEMNALE ALEATOARE
q
() = lim
T
1
T
T
_
T
(T [[)R
() exp(j)d
= lim
T
T
_
T
R
() exp(j)d lim
T
T
_
T
[[
T
R
() exp(j)d
=
() exp(j)d lim
T
T
_
T
[[
T
R
() exp(j)d
(5.64)
Se poate observa cu usurint a faptul ca primul termen din ecuat ia (5.64) reprezinta
exact transformata Fourier a funct iei de autocorelat ie a semnalului (t). Pentru ca
demonstrat ia sa e completa, mai trebuie, deci, demonstrat ca al doilea termen al
ecuat iei (5.64) este nul, cu alte cuvinte, ca:
lim
T
T
_
T
[[
T
R
() exp(j)d = 0. (5.65)
Pentru aceasta, trebuie sa folosim ipoteza de integrabilitate a modulului funct iei de
autocorelat ie a semnalului, ipoteza n absent a careia nici nu se pune problema calculului
transformatei Fourier a acesteia (v. discut ia purtata n paragraful 5.7). Vom presupune,
deci, ca:
[R
_
T
[R
()[ d = 0. (5.67)
, astfel ncat
_
T
[R
T
_
T
[[
T
R
() exp(j)d
T
_
T
[[
T
R
() exp(j)
d =
T
_
T
[[
T
[R
()[ d (5.69)
5.8. Teorema WienerHincin 65
T
|R
()|
A
T
Figura 5.3: O funct ie de modul integrabil.
Apoi, observam ca pentru T sucient de mare (T > T
), putem scrie:
T
_
T
[[
T
[R
()[ d =
T
_
T
. . . d +
T
_
T
. . . d +
T
_
T
. . . d. (5.70)
In relat ia de mai sus, integranzii celor trei integrale din partea dreapta sunt identici
cu cel din stanga, si au fost omisi din motive de simplitate a scrierii.
In continuare, vom
considera separat ecare din cele trei integrale din relat ia de mai sus, si vom arata ca
ecare dintre ele poate facuta mai mica decat . Astfel, pentru termenul din mijloc
putem scrie:
T
_
T
[[
T
[R
()[ d =
1
T
T
_
T
[[ [R
()[ d
. .
constant
< pt. T suf. de mare (5.71)
In relat ia (5.71) s-a folosit faptul ca integrala este una pe un domeniu nit dintr-o funct ie
nita, si, deci, este constanta.
In continuare, pentru al treilea termen, avem:
T
_
T
[[
T
[R
()[ d <
T
_
T
[R
()[ d <
_
T
[R
_
T
[[
T
[R
In concluzie, introducand relat iile (5.71) (5.72) si (5.73) n ecuat ia (5.70), si, suplimentar,
t inand cont de relat ia (5.69), putem arma ca pentru > 0, T sucient de mare astfel
66 CAPITOLUL 5. SEMNALE ALEATOARE
ncat:
T
_
T
[[
T
R
() exp(j)d
< 3, (5.74)
ceea ce este echivalent cu a spune ca relat ia (5.65) este demonstrata, ceea ce, mai departe,
face ca relat ia (5.64) sa devina:
q
() =
() exp(j)d. (5.75)
Cu alte cuvine, demonstrat ia teoremei WienerHincin, care arma ca densitatea spec-
trala de putere si funct ia de autocorelat ie a semnalelor aleatoare stat ionare n sens larg
fac pereche Fourier, este terminata!
5.9 Densitatea spectrala de putere de interact iune
() = lim
T
X
(k)
T
()Y
(k)
T
()
T
(5.76)
Din relat ia (5.76) este evident ca se poate deni similar si densitatea reciproca q
care
este legata de q
prin:
q
() = q
() (5.77)
Densitatea de putere de interact iune ntre doua semnale nu mai are semnicat ia zica
de putere propriu-zisa, si este denumita astfel numai prin analogie cu densitatea de putere
a unui semnal (dealtfel, se poate observa cu usurint a ca q
() = T R
() () =
() exp(j)d (5.78)
5.10 Zgomotul alb
Un semnal aleator stat ionar se numeste zgomot de banda larga daca densitatea sa spec-
trala de putere poate considerata cu buna aproximat ie constanta ntr-o banda larga de
5.11. Trecerea semnalelor aleatoare prin ltre liniare 67
frecvent e. Se poate, deci, scrie:
q
()
_
K daca [[
T
0 n rest
. (5.79)
unde
T
este o frecvent a foarte mare (mult mai mare decat frecvent ele celorlalte semnale
considerate n aplicat ia respectiva).
In teorie, acest tip de semnal este modelat cu un
semnal ce are densitatea spectrala de putere constanta n toata gama de frecvent e. Acest
semnal se numeste zgomot alb, denumire ce provine din analogia cu lumina alba, care are
componente n toata gama de frecvent e vizibile.
Deci, zgomotul alb are
q
() = K, , (5.80)
si, drept urmare, are funct ia de autocorelat ie
R
() = T
1
q
()
K()
()
K
Figura 5.4: Funct ia de autocorelat ie si densitatea spectrala de putere ale zgomotului
alb.
Din (5.81), rezulta ca zgomotul alb este un semnal aleator pur decorelat: ntrucat
R
(t
1
) = 0 t
1
,= 0, rezulta ca oricare doua valori ale semnalului, oricat de apropiate n
timp una de cealalta, sunt decorelate.
In acelasi timp, din (5.80), rezulta ca el este de
putere innita. Evident, acest semnal este o idealizare, nu poate exista n realitate, dar
serveste cu buna aproximat ie de model pentru multe din semnalele perturbatoare reale.
5.11 Trecerea semnalelor aleatoare prin sisteme
liniare invariante n timp
In acest paragraf vom aborda problema ltrarii liniare a semnalelor aleatoare stat ionare.
Sistemele liniare invariante n timp (pe scurt, ltrele liniare) sunt de o important a aparte
68 CAPITOLUL 5. SEMNALE ALEATOARE
n studiul prelucrarii de semnale, ind de departe subiectul cel mai studiat n acest dome-
niu. Este de interes, deci, studierea comportamentului semnalelor aleatoare la trecerea
prin astfel de ltre. Mai precis, ne intereseaza sa gasim legatura ntre marimile statistice
ale semnalelor de la intrarea si iesirea ltrelor. Pentru nceput, n paragraful urmator,
vom face o scurta trecere n revista a not iunilor de baza referitoare la sistemele liniare,
invariante n timp.
5.11.1 Sisteme liniare invariante n timp
Un sistem se numeste liniar daca, aplicand la intrare o combinat ie liniara a doua semnale
ax
1
(t) +bx
2
(t) cu a, b R, semnalul de iesire poate scris sub forma ay
1
(t) +by
2
(t), unde
y
1
(t) si y
2
(t) sunt raspunsurile sistemului la x
1
(t), respectiv x
2
(t). (v. gura 5.5).
invariant in timp
ax
1
(t)+bx
2
(t) ay
1
(t)+by
2
(t)
Sistem liniar
ax
1
(tt
0
)+bx
2
(tt
0
)
ay
1
(tt
0
)+by
2
(tt
0
)
Figura 5.5: Sistem liniar invariant n timp.
Sistemul se numeste invariant n timp daca act iunea sa asupra unui semnal x(t) este
aceeasi indiferent de momentul cand este aplicat semnalul respectiv la intrarea sistemului.
Se stie din teoria sistemelor ca sistemele liniare invariante n timp (pe care le vom
numi, pe scurt, ltre liniare) au ca funct ii proprii semnalele sinusoidale. Altfel spus, daca
aplicam la intrarea unui ltru liniar un semnal sinusoidal de frecvent a
0
, semnalul de
iesire va tot o sinusoida de frecvent a
0
(cu amplitudinea si faza modicate fat a de
sinusoida de intrare). Un ltru liniar va , deci, complet caracterizat de o funct ie care sa
descrie modicarea amplitudinii si a fazei sinusoidelor pentru ecare frecvent a
0
, funct ie
care se numeste funct ie de transfer si se noteaza H().
Spre exemplu, sa consideram ltrul liniar format dintr-o celula RC prezentat n gura 5.6. Daca
tensiunea de intrare este sinusoidala, x(t) = X cos (
0
t +
X
), atunci putem scrie tensiunea de iesire
sub forma y(t) = Y cos (
0
t +
Y
). Relat ia dintre amplitudinile si fazele semnalelor de intrare si iesire
poate exprimata simplu, considerand reprezentarea semnalelor sub forma complexa. Astfel, daca avem
X = X exp(j
X
) si Y = Y exp(j
Y
), atunci putem scrie:
Y =
1
j
0
C
R +
1
j
0
C
X =
1
1 +j
0
RC
X.
Cantitatea
1
1+j
0
RC
este exact valoarea funct iei de transfer a ltrului pentru frecvent a
0
:
H(
0
)
not
=
1
1 +j
0
RC
.
Putem, deci, scrie ca:
Y = H(
0
)X. (5.82)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 69
R
C x(t)
y(t)
Figura 5.6: Celula RC.
In cazul n care semnalul x(t) aplicat la intrarea ltrului liniar nu este sinusoidal,
putem explica forma semnalului de iesire y(t) tot prin reducere la cazul sinusoidal. Acest
lucru este posibil ntrucat stim, de la analiza Fourier a semnalelor, ca orice semnal de
modul integrabil x(t) poate descompus ca o suma (innita) de semnale pur sinusoidale.
_
0
[X()[ cos(t +())d, (5.85)
ceea ce justica armat ia de mai sus. Modulul [X()[ si faza () ale cantitat ii complexe X() sunt
amplitudinea, respectiv faza cosinusoidei de frecvent a ce intra n component a semnalului x(t). Cu alte
cuvinte, cantitatea X() este tocmai reprezentarea sub forma complexa a sinusoidei respective.
Apoi, pentru ecare componenta sinusoidala de frecvent a din semnal, putem calcula
faza si amplitudinea la iesire n funct ie de cele la intrare (vezi relat ia (5.82)) precum:
Y () = H()X() , (5.86)
70 CAPITOLUL 5. SEMNALE ALEATOARE
dupa care recompunem semnalul de iesire sumand toate sinusoidele Y ():
y(t) =
1
2
Y () exp(jt)d. (5.87)
T inand cont de proprietatea transformatei Fourier privind produsul de convolut ie,
relat ia (5.86) poate scrisa direct n domeniul temporal, considerand transformata Fourier
inversa a funct iei de transfer, notata h(t) si numita funct ie pondere:
h(t) = T
1
H()(t) =
1
2
h()x(t )d =
In paragraful urmator vom arata cum inuent eaza trecerea prin ltre liniare marimile
statistice ce caracterizeaza semnalele aleatoare.
5.11.2 Relat ii ntre marimile statistice la trecerea prin ltre
liniare
Considerand ca la intrarea unui ltru liniar aplicam un semnal aleator stat ionar (t),
la iesire vom obt ine un semnal aleator, pe care-l vom nota cu (t). Se poate arata cu
usurint a c a si semnalul de la iesire este stat ionar.
In continuare, vom determina legaturantre marimile statistice ale celor doua semnale.
Rescriind relat ia (5.89), obt inem pentru orice realizare particulara a acestora:
(t) = h(t) (t) =
Inmult ind relat ia (5.90) cu (t ) si aplicand operat ia de mediere statistica, obt inem:
(t)(t ) =
h()(t )(t )d =
() =
h()R
( )d = h() R
(), (5.92)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 71
ceea ce, n domeniul frecvent ial, devine:
q
() = H()q
(). (5.93)
Pe de alta parte, daca nmult im relat ia (5.90) cu (t ), obt inem:
(t)(t ) =
h()(t )(t )d =
() =
h()R
( )d =
h()R
( )d = h() R
(). (5.95)
Rescriind relat ia (5.95) n frecvent a, obt inem:
q
() = H()q
(). (5.96)
Folosind n continuare relat ia (5.77), si nlocuind pe q
() = H()q
() = H()H
()q
() = [H()[
2
q
(), (5.97)
de unde, t inand cont de faptul ca densitatea spectrala de putere a unui semnal e o funct ie
reala, rezulta:
q
() = [H()[
2
q
(). (5.98)
Relat ia (5.98) este cea cautata, care stabileste legatura ntre marimile statistice ale
semnalelor aleatoare aate la intrarea si iesirea ltrului liniar. Evident, funct ia de
autocorelat ie a semnalului de la iesire poate scrisa:
R
() =
1
2
() exp(j)d =
1
2
[H()[
2
q
() exp(j)d (5.99)
0
0
|H()|
0
0
()
Figura 5.7: Modulul si faza unui ltru trecejos ideal.
respectiv,
() =
_
t
0
daca [[
0
0 n rest
, (5.101)
Frecvent a
0
se numeste frecvent a de taiere a ltrului si reprezinta frecvent a maxima
din semnalul de intrare care este lasata sa treaca de ltru, iar t
0
se numeste timp de
ntarziere de grup, si reprezinta ntarzierea indusa de ltru n semnal.
Funct ia pondere a ltrului h(t) se obt ine aplicand transformata Fourier inversa funct iei
de transfer:
h(t) = T
1
H() (t) =
1
2
_
0
0
Aexp(jt
0
) exp(jt)d
=
A
2
1
j(t t
0
)
exp
_
j(t t
0
)
_
0
=
A
2
1
j(t t
0
)
2j sin(
0
(t t
0
))
=
A
0
sinc (
0
(t t
0
)) .
(5.102)
unde am folosit relat ia sin(x) =
exp(jx)exp(jx)
2j
, iar sinc(x) este funct ia sinus cardinal,
denita ca:
sinc(x)
=
sin(x)
x
. (5.103)
Se observa ca h(t) ,= 0 pentru t < 0, de unde rezulta ca ltrul nu este cauzal
2
, si, deci, nu
poate implementat n timp real.
Daca la intrarea ltrului se aplica un semnal aleator stat ionar (t) avand densitatea,
spectrala de putere q
() =
_
A
2
q
() daca [[
0
0 n rest
, (5.104)
2
Un ltru se numeste cauzal daca semnalul de iesire apare ca rezultat al aplicarii semnalului de intrare
la intrarea ltrului. Aceasta este echivalenta cu condit ia ca h(t) = 0 t < 0.
Intr-adevar, t inand cont de
prima egalitate din relat ia (5.89), observam ca daca
1
< 0 pentru care h(
1
) ,= 0, atunci n expresia lui
y(t) va aparea x(t
1
) care este valoarea lui x la un moment de timp ulterior lui t.
5.11. Trecerea semnalelor aleatoare prin ltre liniare 73
n timp ce funct ia lui de autocorelat ie devine:
R
() =
A
2
2
0
_
0
q
() exp(j)d. (5.105)
In cazul particular n care semnalul de intrare este zgomot alb, cu densitatea spectrala
de putere data de relat ia (5.80), atunci funct ia de autocorelat ie a semnalului la iesire
devine:
R
() =
A
2
2
0
_
0
K exp(j)d =
A
2
K
0
sinc(
0
). (5.106)
In obt inerea rezultatului de mai sus am reluat calculul de la (5.102). Forma funct iei de
autocorelat ie a semnalului de la iesirea ltrului trecejos ideal este prezentatan gura 5.8.
R
()
A
2
K
0
/
/
0
/
0
Figura 5.8: Funct ia de autocorelat ie a semnalului de la iesirea ltrului trecejos ideal
avand la intrare un zgomot alb.
Este de remarcat aici un aspect important, si anume acela ca, desi semnalul la intrare
este complet decorelat, prin ltrarea acestuia cu un FTJ, n el se induce o corelat ie.
Mai mult, considerand ntr-o prima aproximat ie, ca numai lobul principal al funct iei
sinc, situat n intervalul [
0
,
0
], are valori importante, si neglijand restul funct iei,
putem arma ca aceasta corelat ie este cu atat mai importanta cu cat banda de trecere a
trului (n cazul de fat a
0
) este mai ngusta. Aceasta concluzie, dupa cum vom vedea n
paragraful urmator, este valabila pentru orice fel de caracteristica frecvent iala a ltrului.
Inducerea corelat iei n semnal este ilustrata n gurile 5.9, 5.10, si 5.11.
In gura 5.9
sunt prezentate versiunile originala (t) si ltrate cu ltre trecejos cu frecvent a de taiere
medie (t), respectiv joasa (t) a unui semnal zgomot alb. Se poate observa ca pe masura
ce frecvent a de taiere scade, cu alte cuvinte, selectivitatea ltrului creste, semnalul este
mai neted, ceea ce nseamna ca este mai corelat. Acest fapt reiese si mai evident din
gura 5.10, care prezinta norul de puncte bidimensional (s(t); s(t + )) pentru = 1
pentru ecare dintre cele trei semnale
3
. Se observa faptul ca semnalul original este perfect
3
S-a presupus ca semnalele sunt ergodice n sensul autocorelat iei.
74 CAPITOLUL 5. SEMNALE ALEATOARE
0 10 20 30 40 50 60 70 80 90 100
2
0
2
0 10 20 30 40 50 60 70 80 90 100
2
0
2
0 10 20 30 40 50 60 70 80 90 100
2
0
2
(t)
(t)
(t)
Figura 5.9: Realizare particulara a unui semnal zgomot alb, notat (t) si versiunile sale
ltrate cu ltre trecejos cu frecvent a de taiere
0
medie, notat (t), respectiv joasa, notat
(t).
decorelat (norul de puncte este perfect haotic) n timp ce ntre esantioanele semnalelor
ltrate exista o corelat ie, fapt indicat de forma liniara a norului de puncte. Mai mult,
corelat ia din semnalul ltrat cu ltrul mai selectiv (t) (gura 5.10.(c)) este mai mare
decat cea indusa de ltrul mai put in selectiv (t) (gura 5.10.(b)).
In gura 5.11 este prezentat norul de puncte bidimensional (s(t), s(t +)) pentru cele
doua semnale ltrate ((t) si (t)) pentru diverse valori ale lui . Corelat ia indusa n (t)
este mai puternica: valori relativ distant ate n timp ale lui (t) nca mai sunt corelate, n
timp ce corelat ia se stinge mai repede n (t).
5.11.4 Trecerea semnalelor aleatoare prin ltrul trecebanda
ideal
Filtrul trecebanda (FTB) ideal este ltrul care lasa sa treaca nealterate armonicile sem-
nalului de intrare situate ntr-un interval de frecvent e dat si elimina complet celelalte
5.11. Trecerea semnalelor aleatoare prin ltre liniare 75
2 0 2
3
2
1
0
1
2
3
(t)
(
t
+
1
)
2 0 2
3
2
1
0
1
2
3
(t)
(
t
+
1
)
2 0 2
3
2
1
0
1
2
3
(t)
(
t
+
1
)
Figura 5.10: Norul de puncte (s(t), s(t + 1)) pentru semnalele din gura 5.9.
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
4
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
4
)
Figura 5.11: Norul de puncte (s(t), s(t + )) pentru semnalul ltrat cu FTJ mai put in
selectiv (r andul de sus), respectiv pentru ltrul mai selectiv (randul de jos) pentru =
1, 2, 3, 4.
76 CAPITOLUL 5. SEMNALE ALEATOARE
armonici. Modulul si faza funct iei de transfer H() sunt date de:
[H()[ =
_
A daca [[ [
0
2
,
0
+
2
]
0 n rest
(5.107)
[()[ =
_
_
_
(
0
)t
0
daca [
0
2
,
0
+
2
]
( +
0
)t
0
daca [
0
2
,
0
+
2
]
0 n rest
(5.108)
unde
0
reprezinta frecvent a centrala a benzii, largimea de banda, iar t
0
timpul de
ntarziere de grup. Modulul si faza ltrului trece banda ideal sunt prezentate n gura 5.12
|H()|
()
Figura 5.12: Modulul si faza unui ltru trecebanda ideal.
Funct ia pondere a FTB ideal este data de:
h(t) = T
1
H() (t) =
A
sinc
_
2
(t t
0
)
_
cos(
0
t), (5.109)
relat ie ce poate obt inuta pornind de la rezultatul din ecuat ia (5.102) si aplicand teorema
convolut iei n frecvent a a transformatei Fourier.
Daca la intrarea FTB ideal se aplica semnalul aleator stat ionar (t), atunci la iesire
vom avea semnalul (t) avand densitatea spectrala de putere si funct ia de autocorelat ie
date de:
q
() =
_
A
2
q
() daca [[ [
0
2
,
0
+
2
]
0 n rest
, (5.110)
R
() = A
2
_
_
_
0
+
2
_
2
q
() exp(j)d +
0
+
2
_
2
q
() exp(j)d
_
_
_
. (5.111)
Daca semnalul de intrare este zgomot alb, caracterizat de (5.80) si (5.81), atunci
funct ia de autocorelat ie a semnalului de iesire devine:
R
() =
A
2
K
sinc
_
2
_
cos(
0
t). (5.112)
5.11. Trecerea semnalelor aleatoare prin ltre liniare 77
0 10 20 30 40 50 60 70 80 90 100
3
2
1
0
1
2
3
0 10 20 30 40 50 60 70 80 90 100
3
2
1
0
1
2
3
(t)
(t)
Figura 5.13: Realizare particulara a unui semnal zgomot alb (t) si versiunea sa ltrata
cu un FTB (t).
Gracul funct iei de autocorelat ie (5.112), realizat n ipoteza
0
este prezentat n
gura 5.14.
In gura 5.13 sunt prezentate versiunile originala si ltrata cu un FTB selectiv (cu
banda de trecere ngusta) a unei realizari particulare a unui semnal zgomot alb. Se poate
usor observa tendint a ltrului de a pastra niste sinusoide de frecvent e relativ apropiate,
semnalul ltrat semanand destul de bine cu o sinusoida, spre deosebire de cel original.
In gura 5.15 este gurat norul de puncte bidimensional [(t); (t +)] pentru diverse
valori ale lui , observandu-se faptul ca n semnal s-a indus o corelat ie pe termen destul de
lung, datorata selectivitat ii ltrului utilizat. Deci, si n cazul FTB putem trage aceleasi
concluzii ca si cele discutate n cazul FTJ, relative la corelat ia suplimentara indusantr-un
semnal aleator prin operat ia de ltrare liniara.
78 CAPITOLUL 5. SEMNALE ALEATOARE
R
()
s((t t
0
)) exp(jt)dt = K
s() exp(j(t
0
))d
= K exp(jt
0
)
s(t) exp(j
0
)d = KS
() exp(jt
0
),
(5.114)
unde S() este transformata Fourier a lui s(t).
In dezvoltarea de mai sus, am facut
schimbarea de variabila (t t
0
) = .
(
t
+
1
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
2
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
3
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
4
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
5
)
3 2 1 0 1 2 3
3
2
1
0
1
2
3
(t)
(
t
+
6
)
Figura 5.15: Norul de puncte (s(t), s(t + )) pentru semnalul ltrat cu FTB (t) din
gura 5.13 pentru = 1, . . . , 6.
s(t)
t
0 T
h(t)
t
t
0
T t
0
(a) (b)
Figura 5.16: Exemplu de ltru adaptat la semnal: (a) semnalul original, (b) funct ia
pondere a ltrului adaptat la semnal.
80 CAPITOLUL 5. SEMNALE ALEATOARE
5.12.1 Maximizarea raportului semnalzgomot prin ltrare
liniara
Dispunem de un semnal rezultat prin perturbarea (aditiva) cu zgomot n(t) a unui semnal
util s(t). Aplicand acest semnal, x(t) = s(t)+n(t), la intrarea unui ltru liniar invariant n
timp avand funct ia pondere h(t), obt inem la iesire un semnal pe care, datorita liniaritat ii
ltrului, l putem interpreta ca ind componenta utila plus componenta remanenta a
zgomotului. Asadar, putem scrie semnalul de la iesirea ltrului sub forma y(t) = s
o
(t) +
n
o
(t), unde s
o
(t) este semnalul ce l-am obt ine la iesire daca la intrare am avea s(t), iar
n
o
(t) este semnalul rezultat prin trecerea prin ltru a lui n(t).
Problema pe care ne-o punem n continuare este cautarea acelui ltru liniar care face
ca raportul semnalzgomot dupa ltrare sa e maxim.
In acest sens, denim raportul
semnalzgomot la un moment de timp xat t
f
ca ind raportul dintre puterea instantanee
a semnalului util la momentul respectiv de timp si puterea medie a zgomotului. Pentru
semnalele de la iesirea ltrului, aceasta se scrie:
RSZ
t
f
=
[s
o
(t
f
)[
2
P
n
o
. (5.115)
T inand cont de faptul ca
s
o
(t
f
) = T
1
S
o
()(t
f
) = T
1
H()S()(t
f
)
=
1
2
H()S() exp(jt
f
)d,
(5.116)
respectiv,
P
n
o
=
1
2
q
n
o
()d =
1
2
[H()[
2
q
n
()d, (5.117)
relat ia (5.115) devine:
RSZ
t
f
=
1
2
H()S() exp(jt
f
)d
[H()[
2
q
n
()d
. (5.118)
A(x)B(x)dx
[A(x))[
2
dx
[B(x)[
2
dx, (5.119)
cu egalitate daca si numai daca
A(x) = kB
(x), x (5.120)
5.12. Filtrul adaptat la semnal 81
unde k este o constanta oarecare
4
. Astfel, alegem
A() = H()
_
q
n
(), (5.121)
respectiv,
B() =
S() exp(jt
f
)
_
q
n
()
. (5.122)
In relat iile (5.121) si (5.122) s-a t inut cont de faptul ca densitatea spectrala de putere
q
n
() este o funct ie pozitiva. Se observa, de asemenea, ca prin alegerea facuta produsul
A()B() reprezinta exact integrandul aat la numaratorul expresiei (5.118). Astfel,
folosind (5.119), obt inem:
RSZ
t
f
1
2
H()
_
q
n
()
2
d
S() exp(jt
f
)
q
n
()
2
d
[H()[
2
q
n
()d
, (5.123)
de unde, prin reducerea primei integrale de la numarator cu cea de la numitor (care sunt
identice), se obt ine:
RSZ
t
f
1
2
S() exp(jt
f
)
_
q
n
()
2
d =
[S()[
2
q
n
()
d (5.124)
Se observa ca integrala care limiteaza superior raportul semnalzgomot nu depinde de
ltrul folosit, ci numai de semnalul util si de puterea zgomotului la intrare, care sunt
date. Rezulta, deci, ca aceasta integrala reprezinta raportul semnalzgomot maxim ce se
poate obt ine prin ltrare liniara:
RSZ
t
f
,max
=
[S()[
2
q
n
()
d. (5.125)
Mai mult, raportul semnalzgomot obt inut si poate atinge valoarea maxima data
de (5.125) daca n ecuat ia (5.124) se obt ine egalitate, cu alte cuvinte, cand este ntrunita
condit ia ca inegalitatea CauchyBuniakovskiSchwartz sa se transforme n egalitate, mai
precis, cand relat ia (5.120) este ndeplinita. T inand cont de (5.121) si (5.122), aceasta
devine:
H()
_
q
n
() = k
_
S() exp(jt
f
)
_
q
n
()
_
, (5.126)
4
Relat iile (5.119) si (5.120) nu reprezinta altceva decat exprimarea n forma continua, pentru valori
complexe, a relat iei cunoscute din liceu, conform careia, pentru orice numere reale a
1
, . . . , a
N
, respectiv
b
1
, . . . , b
N
, are loc inegalitatea
N
i=1
(a
i
b
i
)
2
N
i=1
a
2
i
__
N
i=1
b
2
i
_
, cu egalitate daca si numai daca
a
1
b
1
=
a
2
b
2
= . . . =
a
N
b
N
.
82 CAPITOLUL 5. SEMNALE ALEATOARE
ceea ce, t inand cont ca q
n
() e reala, se scrie:
H() = k
S
() exp(jt
f
)
q
n
()
. (5.127)
Presupunand mai departe ca zgomotul care perturba semnalul este zgomot alb, si deci, q
n
este de forma (5.80), rezulta ca funct ia de transfer a ltrului care maximizeaza raportul
semnalzgomot la iesire devine:
H() = k
1
S
() exp(jt
f
). (5.128)
Readucandu-ne aminte de relat ia (5.114), putem concluziona ca ltrul care maximizeaza
raportul semnalzgomot pentru un semnal util dat este chiar ltrul adaptat la semnalul
util.
Acest rezultat are cateva aplicat ii practice importante, dintre care ment ionam aici pe
scurt numai detect ia semnalelor, unde problema care se pune este de a decide asupra trans-
miterii unui semnal dintr-o mult ime nita de semnale cunoscute n prezent a zgomotului.
Mai multe detalii despre acest subiect vor prezentate n capitolul 6.
Capitolul 6
Detect ia semnalelor
6.1 Introducere
Modelul unui lant de transmisiune cu detect ie pe care l vom lua n considerare n acest
capitol este prezentat n gura 6.1. Sursa S este o sursa discreta de informat ie, care
emite simboluri S
i
dintr-o mult ime cu M simboluri S
0
, S
1
, . . . S
M1
cu probabilit at i
P(S
i
)
not
= P
i
presupuse cunoscute. Pentru ecare simbol S
i
, generatorul de semnal G
genereaza un semnal s
i
(t) pe durata t [0, T], care este transmis pe canal.
In timpul
transmisiunii, semnalul util este afectat de zgomot n(t), care este un semnal aleator per-
turbator de natura aditiva, astfel ncat semnalul recept ionat la iesirea din canal se poate
scrie r(t) = s
i
(t) + n(t) pentru t [0, T]. Problema detect iei, respectiv a implementarii
blocului de decizie D, este ca pe baza semnalului recept ionat r(t) pe o durata [0, T] sa se
decida asupra simbolului emis de sursa. Iesirea blocului de decizie catre utilizatorul nal
U este o decizie D
i
, care semnica faptul ca se decide ca s-a transmis simbolul S
i
(ceea
ce, binent eles, poate corespunde sau nu realitat ii).
S
i
s
i
(t)
r(t)
D
i
S G canal D U
zgomot
n(t)
Figura 6.1: Schema generala a unui lant de transmisiune cu detect ie.
In continuarea acestui capitol, vom discuta despre regula de decizie Bayes n ipoteza
binara simpla, caz n care alfabetul sursei este binar: S
0
, S
1
, iar semnalele s
i
(t) cu
i = 0, 1 sunt deterministe.
6.2 Criteriul de decizie Bayes: cazul observat iilor
discrete
0
si
1
, cu
0
1
= , respectiv
0
1
= R
N
. Astfel, daca vectorul recept ionat
r
0
se decide D
0
, iar daca r
1
se decide D
1
. Canalul de transmisiune astfel obt inut
este un canal binar
1
.
Pentru ilustrarea geometrica a problemei, n scopul nt elegerii acesteia, sa presupunem ca avem
urmatoarele date: s
0
(t) = 0, s
1
(t) = A, pentru t [0, T] si ca la recept ie luam decizia pe baza a N = 2
esantioane, deci r = (r
1
, r
2
).
In absent a zgomotului, avem r(t) = s
o
(t) = 0, daca sursa emite S
0
si,
deci R[S
0
= [0, 0], respectiv r(t) = s
1
(t) = A pentru simbolul S
1
ceea ce conduce la R[S
1
= [A, A].
Situat ia este ilustrata n gura 6.3.(a).
In prezent a zgomotului, avem R[S
0
= [n
1
, n
2
], respectiv R[S
1
=
[A+n
1
, A+n
2
] unde n
1
si n
2
reprezinta valorile zgomotului la cele doua momente alese pentru esantionarea
semnalului r(t). Norii de puncte recept ionate (R
(i)
[S
0
, respectiv R
(i)
[S
1
) obt inut i la transmisiunea unui
numar mare de simboluri n acest caz particular sunt ilustrat i n gura 6.3.(b). S-a considerat n acest
exemplu ca cele doua esantioane de zgomot n
1
si n
2
sunt independente, de unde rezulta structura haotica
a celor doua aglomerari de puncte. Dreapta punctata din gura 6.3.(b)
2
pare cea mai naturala alegere
(dintr-un punct de vedere strict calitativ) pentru mpart irea lui R
2
n cele doua zone de decizie
0
(semiplanul de sub dreapta)si
1
(semiplanul de deasupra dreptei)
3
. Se observa, de asemenea, ca exista
1
S-ar mai putea lua n considerare si mpart irea lui R
N
n trei zone de decizie:
0
,
1
, respectiv
anulare
.
In acest caz, daca r
anulare
, nu se ia nici o decizie asupra simbolului transmis de sursa,
considerandu-se ca o decizie ar prea riscanta. Canalul de transmisiune astfel obt inut devine un canal
cu alfabet binar la intrare si alfabet ternar la iesire, care, se numeste, dupa caz, e canal binar cu anulari,
e canal binar cu erori si anulari.
2
In R
2
, o hipersuprafat a este o curba, n R
3
o suprafat a, etc.
3
Daca s-ar considera pentru acest caz si zona de decizie
anulare
, aceasta ar trebui sa e o banda
delimitata de doua drepte paralele cu dreapta punctata din gura, situate de-o parte si de cealalta a
86 CAPITOLUL 6. DETECT IA SEMNALELOR
puncte clasicate gresit (puncte n
1
, respectiv puncte n
0
, acestea corespunzand unor decizii
gresite.
r
1
r
2
A
A
r
1
r
2
A
A
1
(a) (b)
Figura 6.3: Exemplicare 2D a procesului de decizie. Cu sunt gurate punctele R
(i)
[S
0
,
iar cu punctele R
(i)
[S
1
, n doua cazuri: (a) n absent a zgomotului si (b) n prezent a
zgomotului.
i=0
1
j=0
C
ij
P
i
_
j
w
R[S
i
(r)dr. (6.6)
0
w
R[S
0
(r)dr +
_
1
w
R[S
0
(r)dr =
_
R
N
w
R[S
0
(r)dr = P
_
(R[S
0
) R
N
_
= 1, (6.7)
putem scrie n relat ia (6.6) toate integralele pe domeniul
1
ca niste integrale pe
0
,
dupa:
_
1
w
R[S
i
(r)dr = 1
_
0
w
R[S
i
(r)dr, i = 0, 1. (6.8)
88 CAPITOLUL 6. DETECT IA SEMNALELOR
Astfel, valoarea costului mediu devine:
C = C
00
P
0
_
0
w
R[S
0
(r)dr + C
10
P
1
_
0
w
R[S
1
(r)dr+
+ C
01
P
0
_
_
1
_
0
w
R[S
0
(r)dr
_
_
+ C
11
P
1
_
_
1
_
0
w
R[S
1
(r)dr
_
_
, (6.9)
ceea ce poate rescris mai compact drept:
C = C
01
P
0
+ C
11
P
1
+
_
0
_
P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r)
_
dr. (6.10)
Din punct de vedere matematic, problema minimizarii costului mediu C din (6.10)
este una de minimizare a ariei unui subgrac n funct ie de domeniul ales. Solut ia poate
usor vazut a daca facem o analogie unidimensionala.
In gura 6.4 este prezentat gracul
unei funct ii oarecare f(x). Se observa ca alegand domeniul D
1
ca n gura, respectiv
D
1
=
_
x R
f(x) < 0
_
obt inem
_
D
1
f(x)dx min.
D
1
f(x)
x
Figura 6.4: Exemplicarea 1D a alegerii domeniului care minimizeaza aria de sub gracul
unei funct ii.
P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r) < 0
_
.
(6.11)
Rezulta, deci, ca domeniul
1
care minimizeaza costul mediu este dat de:
1
=
_
r R
N
P
1
(C
10
C
11
)w
R[S
1
(r) P
0
(C
01
C
00
)w
R[S
0
(r) > 0
_
. (6.12)
Avand n vedere ca r
0
D
0
, respectiv r
1
D
1
,relat iile (6.11) si (6.12) pot
scrise mai compact astfel:
P
1
(C
10
C
11
)w
R[S
1
(r)
D
1
D
0
P
0
(C
01
C
00
)w
R[S
0
(r), (6.13)
ceea ce, prin rearanjarea termenilor, conduce la forma nala a criteriului de decizie Bayes:
w
R[S
1
(r)
w
R[S
0
(r)
D
1
D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.14)
Termenul din stanga se noteaza cu (r) si se numeste raport de plauzibilitate:
(r)
not
=
w
R[S
1
(r)
w
R[S
0
(r)
(6.15)
n timp ce termenul din dreapta (care este constant) se noteaza cu K si se numeste pragul
testului:
K
not
=
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.16)
Conform relat iei (6.14), rezulta schema bloc a blocului de decizie D din gura 6.5.
Prima operat ie este extragerea esantioanelor r
i
cu i = 1, . . . , N din semnalul continuu
r(t), pentru t [0, T], apoi se calculeaza raportul de plauzibilitate conform relat iei 6.15,
decizia nala ind data de rezultatul comparat iei acestuia cu pragul testului dat de 6.16.
Esantionare Calcul (r)
r(t)
r (r)
K
D
i
Figura 6.5: Schema bloc a blocului de detect ie D din gura 6.1 conform regulii de decizie
Bayes.
Sa mai ment ionam doar faptul ca, uneori, se prefera exprimarea regulii de decizie Bayes
n forma logaritmica, aceasta conducand la o expresie matematic mai simpla. Avand n
90 CAPITOLUL 6. DETECT IA SEMNALELOR
vedere ca funct ia logaritm natural este strict crescatoare, se poate rescrie relat ia (6.14)
sub forma:
ln (r)
D
1
D
0
ln K, (6.17)
ce reprezinta exprimarea criteriului Bayes n forma logaritmica.
6.2.1 Statistica sucienta
Se poate face ntotdeauna o schimbare de coordonate n R
N
astfel ncat toata informat ia
necesara deciziei sa e cont inuta ntr-o singura coordonata din spat iul transformat. Acea
coordonata se numeste statistica sucienta.
Astfel, daca se face schimbarea de coordonate [R
1
, . . . , R
N
] [L
1
, . . . , L
N
]
. .
L
, astfel
ncat,
w
L
2
,...,L
N
[S
0
(l
2
, . . . , l
N
) = w
L
2
,...,L
N
[S
1
(l
2
, . . . , l
N
), (6.18)
ceea ce, altfel spus, semnica faptul ca coordonatele L
2
, . . . , L
N
nu cont in informat ie
relevanta la decizie, atunci coordonata L
1
este statistica sucienta, iar regula de decizie
Bayes se scrie:
w
L[S
1
(l
1
, . . . , l
N
)
w
L[S
0
(l
1
, . . . , l
N
)
=
w
L
1
[S
1
(l
1
)
w
L
1
[S
0
(l
1
)
D
1
D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.19)
6.2.2 Criteriul Bayes pentru zgomot alb gaussian
In acest paragraf, vom particulariza regula de decizie Bayes pentru una din ipotezele
statistice cel mai des folosite pentru zgomotul de pe canal, si anume vom presupune ca
n(t) este un semnal aleator stat ionar, zgomot alb, avand o distribut ie de ordinul unu
gaussiana: n(t): ^(0,
n
) pentru t [0, T].
Pentru a pastra generalitatea, nu vom particulariza cele doua semnale s
0
(t) si s
1
(t),
marginindu-ne la a le presupune cunoscute.
2
exp
_
(r
i
s
0i
)
2
2
2
n
_
i = 1, . . . , N. (6.21)
Avem, deci, distribut iile de ordinul unu ale tuturor componentelor vectorului R[S
0
.
Pentru a putea aplica, nsa, criteriul Bayes, avem nevoie de distribut ia de ordinul N a tu-
turor componentelor. Or, dupa cum stim din capitolul 4, cunostint ele despre distribut iile
de ordin inferior nu ofera sucienta informat ie pentru calculul distribut iilor de ordin mai
mare, decat ntr-o singura ipoteza: cea de independent a ntre variabilele aleatoare. Cum
n(t) este modelat ca ind zgomot alb, ceea ce, conform discut iei din paragraful 5.10
nseamna ca variabilele n(t
i
) si n(t
j
) sunt decorelate pentru t
i
,= t
j
, si cum, n plus
amandoua sunt gaussiene, putem presupune ca ele sunt si independente statistic
6
. Rezulta
ca si variabilele aleatoare R
i
[S
0
si R
j
[S
0
sunt independente pentru i ,= j, ntrucat ele
rezulta prin sumarea unor constante peste n
i
, respectiv n
j
. Putem, deci, scrie:
w
R[S
0
(r) =
N
i=1
w
R
i
[S
0
(r
i
) =
_
1
2
_
N
exp
_
1
2
2
n
N
i=1
(r
i
s
0i
)
2
_
. (6.22)
Rat ionamentul se poate relua n mod absolut similar si pentru w
R[S
1
(r):
w
R[S
1
(r) =
N
i=1
w
R
i
[S
1
(r
i
) =
_
1
2
_
N
exp
_
1
2
2
n
N
i=1
(r
i
s
1i
)
2
_
. (6.23)
Cu densitat ile de probabilitate deduse, rezulta ca raportul de plauzibilitate se scrie:
(r) =
w
R[S
1
(r)
w
R[S
0
(r)
=
_
1
2
_
N
exp
_
1
2
2
n
N
i=1
(r
i
s
1i
)
2
_
_
1
2
_
N
exp
_
1
2
2
n
N
i=1
(r
i
s
0i
)
2
_
= exp
_
1
2
2
n
N
i=1
_
(r
i
s
1i
)
2
(r
i
s
0i
)
2
_
_
= exp
_
1
2
2
n
N
i=1
_
r
2
i
2r
i
s
1i
+ s
2
1i
r
2
i
+ 2r
i
s
0i
s
2
0i
_
_
= exp
_
1
2
n
N
i=1
r
i
(s
1i
s
0i
)
1
2
2
n
N
i=1
_
s
2
1i
s
2
0i
_
_
.
(6.24)
5
2
n
N
i=1
r
i
(s
1i
s
0i
)
1
2
2
n
N
i=1
_
s
2
1i
s
2
0i
_ D
1
D
0
ln K, (6.25)
care, prin prelucrari elementare, poate scrisa sub forma nala ca:
N
i=1
r
i
(s
1i
s
0i
)
D
1
D
0
2
n
ln K +
1
2
N
i=1
_
s
2
1i
s
2
0i
_
, (6.26)
Observat ie. Termenul din stanga al relat iei (6.26), l
1
not
=
N
i=1
r
i
(s
1i
s
0i
) reprezinta sta-
tistica sucienta n acest caz, respectiv acea coordonata unica ce cont ine toata informat ia
necesara deciziei.
Exemplu. Sa particularizam relat ia (6.26) pentru urmatoarele semnale: s
0
(t) = 0,
s
1
(t) = A pentru t [0, T]. Astfel, avem s
0i
= 0 si s
1i
= A pentru i = 1, . . . , N. Sa mai
presupunem ca P
0
= P
1
=
1
2
(simboluri echiprobabile), C
00
= C
11
(costuri egale pentru
deciziile corecte) si C
01
= C
10
(costuri egale pentru deciziile gresite), ceea ce conduce la
K = 1, respectiv ln K = 0.
In aceste condit ii, relat ia (6.26) se scrie:
N
i=1
r
i
(A 0)
D
1
D
0
1
2
N
i=1
_
A
2
0
_
, (6.27)
ceea ce revine la:
1
N
N
i=1
r
i
D
1
D
0
A
2
. (6.28)
Revenind la exemplul prezentat n gura 6.3.(b), pentru N = 2, relat ia (6.28) se scrie
r
1
+ r
2
D
1
D
0
A, ceea ce corespunde solut iei gasite pe baza argumentelor calitative (ecuat ia
dreptei punctate din gura este r
1
+ r
2
= A).
In acest punct este utila discut ia inuent ei costurilor asupra deciziei. Sa presupunem
ca alegem C
01
> C
10
, ceea ce este un mod de a comunica sistemului de decizie ca
evenimentul S
0
D
1
este mai de nedorit decat S
1
D
0
.
In aceste condit ii, avem K > 1,
respectiv ln K > 0, iar regula de decizie revine r
1
+r
2
D
1
D
0
A+ cu =
2
n
ln K > 0. Altfel
spus, dreapta care separa cele doua zone de decizie se muta n sus cu o cantitate care
e cu atat mai importanta cu cat raportul costurilor
C
01
C
10
este mai mare.
In consecint a,
sistemul va favoriza decizia D
0
n detrimentul deciziei D
1
(pe masura ce dreapta luneca
n sus, din ce n ce mai multe puncte intra n
0
), ceea ce este exact comportamentul
asteptat! Trebuie remarcat ca, n acest caz, probabilitatea globala de eroare va creste,
ceea ce scade, nsa, este valoarea medie a costului.
6.3. Criteriul Bayes: cazul observat iilor continue 93
6.3 Criteriul Bayes: cazul observat iilor continue
In acest paragraf, vom vedea ce devine regula de decizie Bayes (6.14) n cazul n care
consideram spat iul observat iilor ca ind continuu, cu alte cuvinte, luand n considerare
ntregul semnal r(t) pentru t [0, T].
Vom trata problema ntr-un caz special, si anume considerand s
0
(t) = 0 pentru
t [0, T].
In acest caz, vom nota s
1
(t)
not
= s(t), pentru t [0, T], semnal avand ener-
gia:
E =
T
_
0
s
2
(t)dt.
Observat ia pe baza careia se ia decizia, respectiv semnalul r(t), cu t [0, T] poate
vazut ca o realizare particulara a unui vector aleator dintr-un spat iu cu o innitate
nenumarabila de dimensiuni. Vom ncerca sa-l reprezentam pe acesta ca un element
dintr-un spat iu cu un numar numarabil de dimensiuni. Aceasta poate facuta prin des-
compunerea lui r(t) ntr-o baza de funct ii pe [0, T]. Trebuie ales, deci, setul de funct ii
ortonormale v
k
(t)
kN
, pentru t [0, T], astfel ncat sa putem scrie:
r(t) =
k=1
r
k
v
k
(t), t [0, T]. (6.29)
Astfel, odata alese funct iile v
k
(t), va exista o corespondent a biunivoca ntre semnalul r(t)
si mult imea coecient ilor dezvoltarii sale n baza de funct ii aleasa, care este o mut ime
numarabila:
r(t), t [0, T] r
1
, r
2
, r
3
, . . ..
Constr angerea de ortonormalitate pe care o impunem bazei v
k
(t), ceea ce se poate
scrie compact ca:
T
_
0
v
k
(t)v
l
(t)dt =
_
1 daca k = l
0 daca k ,= l
, (6.30)
permite calculul coecient ilor dezvoltarii prin produs scalar ntre semnalul dezvoltat si
funct ia corespunzatoare din baza.
Intr-adevar, putem scrie:
T
_
0
r(t)v
i
(t)dt =
T
_
0
_
k=1
r
k
v
k
(t)
_
v
i
(t)dt =
k=1
r
k
T
_
0
v
k
(t)v
i
(t)dt
. .
=0 pentru k,=i
= r
i
. (6.31)
Considerentele care stau la baza alegerii setului de funct ii v
k
(t) sunt compactarea
cat mai buna a informat iei necesare deciziei. Cu alte cuvine urmarim sa concentr am
aceasta informat ie ntr-un numar cat mai mic de coecient i ai dezvoltarii r
k
, astfel ncat
decizia sa se ia cat mai simplu. Se arata ca, printr-o alegere potrivita a bazei, putem
94 CAPITOLUL 6. DETECT IA SEMNALELOR
face ca ntreaga informat ie aferenta deciziei sa e concentrata ntr-un singur coecient al
dezvoltarii. Astfel, alegem:
v
1
(t) =
1
E
s(t),
iar restul funct iilor v
k
(t) cu k = 2, 3, 4, . . . le alegem arbitrar, sub singura constangere de
ortonormalitate (6.30)
7
.
Cu baza astfel aleasa, avem:
r
1
=
T
_
0
r(t)v
1
(t)dt =
1
E
T
_
0
r(t)s(t)dt, (6.32)
care poate vazut ca o realizare particulara a unei variabile aleatoare notate R
1
.
In
ipoteza transmiterii ecaruia dintre cele doua simboluri, avem:
R
1
[S
0
=
T
_
0
r(t)v
1
(t)dt =
1
E
T
_
0
n(t)s(t)dt
not
= L
1
, (6.33)
R
1
[S
1
=
T
_
0
r(t)v
1
(t)dt =
1
E
T
_
0
(s(t) + n(t))s(t)dt =
=
1
E
T
_
0
s
2
(t)dt
. .
E
+
1
E
T
_
0
n(t)s(t)dt
. .
L
1
=
E + L
1
.
(6.34)
Coecientul r
k
al dezvoltarii pentru k ,= 1 poate vazut la randul sau ca ind o realizare
particulara a unei variabile aleatoare R
k
, a carei densitate de probabilitate poate scrisa,
n ecare dintre cele doua ipoteze, ca:
R
k
[S
0
=
1
E
T
_
0
n(t)v
k
(t)dt
not
= L
k
, (6.35)
R
k
[S
1
=
1
E
T
_
0
(s(t) + n(t))v
k
(t)dt =
=
1
E
T
_
0
s(t)v
k
(t)dt
. .
0
+
1
E
T
_
0
n(t)v
k
(t)dt
. .
L
k
= L
k
.
(6.36)
7
O astfel de baza exista. Judecand ntr-un spat iu cu numar redus de dimensiuni, sa zicem N = 3,
pentru orice vector s R
3
se poate alege o baza ortonormala a lui R
3
, v
1
, v
2
, v
3
, n care unul din
vectori sa e paralel cu s. Astfel, se alege v
1
=
s
s
, iar v
2
si v
3
se aleg n planul perpendicular pe
v
1
, de norma unitara, si perpendiculari unul pe celalalt. Procedeul de construct ie a unei astfel de baze
ortonormale se numste metoda Gram-Schmidt.
6.3. Criteriul Bayes: cazul observat iilor continue 95
D
0
P
0
(C
01
C
00
)
P
1
(C
10
C
11
)
. (6.38)
cu r
1
dat de (6.32).
6.3.1 Cazul zgomotului alb gaussian
Vom particulariza acum relat ia (6.38) n ipoteza unui zgomot alb, gaussian (acelasi model
statistic folosit n paragraful 6.2.2).
Avand n vedere relat iile (6.33) si (6.34), rezulta ca pentru deducerea celor doua
distribut ii din (6.38) trebuie calculata distribut ia lui
L
1
=
1
E
T
_
0
n(t)s(t)dt. (6.39)
Intrucat pentru t [0, T], n(t) este o variabila aleatoare gaussiana, rezulta ca si n(t)s(t)
este o variabila aleatoare gaussiana (rezulta din nmult irea lui n(t) cu o constanta), deci
si suma tuturor acestor variabile aleatoare pentru tot i t [0, T], cu alte cuvinte nsasi
variabila L
1
are si ea o distribut ie gaussiana: L
1
: ^(L
1
,
L
1
). Singurele nedeterminate
sunt media L
1
si dispersia
L
1
, pe care le vom calcula n continuare. Avem:
L
1
=
1
E
T
_
0
n(t)s(t)dt =
1
E
T
_
0
n(t)s(t)dt =
1
E
T
_
0
n(t)
..
0
s(t)dt = 0, (6.40)
respectiv:
L
2
1
=
_
_
1
E
T
_
0
n(t)s(t)dt
_
_
2
=
1
E
T
_
0
T
_
0
n(t
1
)s(t
1
)n(t
2
)s(t
2
)dt
1
dt
2
=
1
E
T
_
0
T
_
0
n(t
1
)n(t
2
)
. .
R
n
(t
1
,t
2
)
s(t
1
)s(t
2
)dt
1
dt
2
=
1
E
T
_
0
T
_
0
R
n
(t
1
t
2
)s(t
1
)s(t
2
)dt
1
dt
2
.
(6.41)
8
r
1
reprezinta statistica sucienta n acest caz.
96 CAPITOLUL 6. DETECT IA SEMNALELOR
Cum, nsa, n(t) este zgomot alb, conform (5.81) funct ia lui de autocorelat ie e data de:
R
n
() =
2
n
(), (6.42)
de unde relat ia (6.41) devine:
L
2
1
=
2
n
E
T
_
0
T
_
0
(t
1
t
2
)s(t
1
)s(t
2
)dt
1
dt
2
=
2
n
E
T
_
0
s(t
2
)
_
_
T
_
0
s(t
1
)(t
1
t
2
)dt
1
_
_
. .
s(t
2
)
dt
2
=
2
n
E
T
_
0
s
2
(t
2
)dt
2
. .
E
=
2
n
.
(6.43)
2
L
1
= L
2
1
L
1
2
=
2
n
, (6.44)
de unde rezulta, n sfarsit, ca L
1
: ^(0,
n
). De aici, t inand cont de (6.33) si (6.34),
rezulta ca R
1
[S
0
: ^(0,
n
), respectiv R
1
[S
1
: ^(
E,
n
), si, deci, raportul de plauzibili-
tate devine:
(r
1
) =
w
R
1
[S
1
(r
1
)
w
R
1
[S
0
(r
1
)
=
1
2
exp
_
(r
1
E)
2
2
2
n
_
1
2
exp
_
r
2
1
2
2
n
_
= exp
_
1
2
2
n
_
(r
1
E)
2
r
2
1
_
_
= exp
_
r
1
2
n
E
2
2
n
_
,
(6.45)
iar relat ia (6.38) se scrie, n forma logaritmica:
r
1
2
n
E
2
2
n
D
1
D
0
ln K, (6.46)
ceea ce, t inand cont de (6.32), se scrie n forma nala ca:
T
_
0
r(t)s(t)dt
D
1
D
0
2
n
ln K +
E
2
, (6.47)
Din punct de vedere practic, blocul de decizie poate implementat folosind un ltru
adaptat la semnalul s(t), dupa cum este ilustrat n gura 6.6.
r()h(t )d =
t
_
0
r()s(t T + )d, (6.48)
6.3. Criteriul Bayes: cazul observat iilor continue 97
r(t)
h(t)=s(Tt)
n
2
lnK+E/2
y(t)
D
i
Figura 6.6: Schema bloc a blocului de detect ie pentru cazul continuu.
de unde:
y(T) =
T
_
0
r()s()d.
Se observ a ca iesirea ltrului la momentul t = T reprezinta exact termenul stang al
relat iei (6.47). La momentul respectiv se ia decizia pe baza comparat iei cu termenul din
dreapta (care este o constanta) dupa care se trece la urmatorul simbol etc.
98 CAPITOLUL 6. DETECT IA SEMNALELOR
Capitolul 7
Estimarea parametrilor
7.1 Introducere
Problema abordata n capitolul anterior, n cadrul detect iei semnalelor, este ca pe baza
masuratorii n zgomot a unui semnal despre care stim ca provine dintr-o mult ime nita
de semnale cunoscute, sa decidem care dintre semnalele posibile a fost emis pe canal.
s(t)
Figura 7.1: Problema estimarii parametrilor.
Informat ia de interes este valoarea necunoscuta , modelata ca ind o realizare parti-
culara a unei variabile aleatoare , de distribut ie w
cunoscuta:
(k)
. (7.1)
Necunoscuta moduleaza n blocul de modulare Mn intervalul de timp [0, T] un semnal
cunoscut s(t). Semnalul masurat la iesirea din canal r(t) este o versiune afectata de
zgomot aditiv n(t) a semnalului s(t, ), care depinde n mod cunoscut de parametrul
necunoscut . Problema blocului de estimare E, pe care o vom dezvolta n continuarea
99
100 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
acestui capitol, este de a calcula un estimat cat mai precis al valorii necunoscute , estimat
pe care-l notam cu
.
Vom discuta problema estimarii numai n cazul observat iilor discrete. Cu alte cuvinte,
calculul estimatului
se va face pe baza vectorului recept ionat r = (r
1
, r
2
, . . . , r
N
) format
din N esantioane ale semnalului recept ionat r(t), dupa cum s-a discutat n detaliu n
paragraful 6.1. Evident, r este o realizare particulara a unui vector aleator Ndimensional,
pe care-l vom nota, ca si n capitolul anterior, cu R = (R
1
, R
2
, . . . , R
N
). De asemenea,
vom pastra notat iile (6.3).
7.2 Estimarea n sensul costului mediu minim
Regula de calcul al estimatului
trebuie facuta n sensul minimizarii unei funct ii de cost
C, care trebuie sa depinda de eroarea de estimare
)
unde
=
.
Evident, pentru ca funct ia C sa ndeplineasca semnicat ia de cost al estimarii, ea trebuie
aleasa crescatoare cu modulul argumentului. Cu alte cuvinte, costul estimarii trebuie sa
creasca atunci cand eroarea de estimare creste n valoare absoluta.
() (7.3)
dupa care costul mediu poate scris, separand integrala N + 1 dimensionala ntr-o inte-
grala unidimensionala dupa , urmata de una N dimensionala dupa r:
C =
_
R
N
w
R
(r)
_
_
C(
)w
[R=r
()d
_
_
dr (7.4)
7.2. Estimarea n sensul costului mediu minim 101
Vom nota integrala dupa cu I, care, evident, este o funct ie atat de vectorul r, cat si de
:
I(r,
)
not
=
C(
)w
[R=r
()d. (7.5)
Costul mediu C devine minim daca pentru ecare observat ie r alegem
astfel ncat
integrala I(r,
) din (7.5) sa e minima.
) =
2
. (7.6)
Alegerea funct iei patratice pentru denirea costului estimarii implica faptul ca vom in-
sera n regula de calcul a estimatului o informat ie conform careia cu cat eroarea de
estimate este mai mare, cu atata costul estimarii este mai important!
_
2
w
[R=r
()d. (7.7)
Valoarea lui
care minimizeaza pe I se obt ine din ecuat ia:
I(r,
)
= 0. (7.8)
Astfel, avem:
I(r,
)
= 2
_
w
[R=r
()d
= 2
w
[R=r
()d
. .
1
2
w
[R=r
()d.
(7.9)
In dezvoltarea de mai sus, s-a t inut cont de cele precizate n paragraful 3.5, conform carora
o densitate de probabilitate condit ionata respecta toate proprietat ile unei densitat i de
probabilitate, deci si condit ia de normare. Astfel, aplicand (7.8) obt inem expresia nala
a estimatului optim n sensul funct iei de cost patratul erorii, numit estimat patratic si
notat
p
:
p
=
w
[R=r
()d (7.10)
102 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Interpretarea relat iei (7.10) este ca estimatul patratic al unui parametru se calculeaza ca
media condit ionata a posteriori a acestuia, respectiv media statistica a parametrului n
condit iile n care vectorul observat este chiar r.
7.2.2 Estimarea n sensul funct iei de cost uniforme
In acest paragraf, vom deduce formula estimatului optim n sensul funct iei de cost uni-
forme, denita ca:
C
u
(
) =
_
0 daca [
[
E
2
1 n rest
. (7.11)
Alegerea funct iei (7.11) pe post de cost al estimarii este echivalenta cu a spune ca nu
ne intereseaza decat ca eroarea de estimare sa e ntre niste limite bine precizate. Atata
vreme cat eroarea este mai mica decat limita respectiva, costul este nul, n timp ce daca
limita a fost depasita, nu ne intereseaza cu cat anume a fost depasita.
Rescriind relat ia (7.11) ca:
C
u
(
) = 1
_
1 daca
E
2
+
E
2
0 n rest
, (7.12)
si nlocuind-o n (7.5), obt inem:
I(r,
) =
w
[R=r
()d
. .
1
+
E
2
_
E
2
w
[R=r
()d, (7.13)
de unde rezulta ca minimizarea lui I este echivalenta cu maximizarea dupa
a integralei:
I
t
(r,
) =
+
E
2
_
E
2
w
[R=r
()d. (7.14)
Problema maximizarii lui I
t
din (7.14) nu poate rezolvata analitic decat printr-o
aproximare suplimentara, si anume facand ipoteza ca lat imea E a intervalului de accep-
tabilitate a erorii de estimare este foarte mica. Atunci, putem scrie:
w
[R=r
()
E
constant = w
[R=r
(
),
_
E
2
,
+
E
2
_
(7.15)
ceea ce conduce la:
I
t
(r,
) w
[R=r
(
+
E
2
_
E
2
d
. .
E
= Ew
[R=r
(
). (7.16)
7.2. Estimarea n sensul costului mediu minim 103
Astfel, maximizarea lui I
t
revine la maximizarea densitat ii de probabilitate w
[R=r
().
Se numeste estimat maximum a posteriori si se noteaza cu
map
estimatul optimn sensul
funct iei de cost uniforme, si este acea valoare a lui care maximizeaza densitatea de
probabilitate a posteriori:
w
[R=r
()
map
= max . (7.17)
In gura 7.2 este ilustrata grac diferent a ntre cei doi estimatori.
w
|{R=r}
()
map
^ ^
Figura 7.2: Diferent a ntre estimatul patratic si cel maximum a posteriori pentru o
distribut ie a posteriori w
[R=r
oarecare.
Relat ia (7.17) poate pusa ntr-o forma n care intervin densitatea de probabilitate
a priori w
R[=
(r) al carei calcul este mai simplu de facut.
In primul rand, exprimam
relat ia (7.17) n forma logaritmica:
ln w
[R=r
()
map
= max, (7.18)
ceea ce este echivalent cu a spune ca:
ln w
[R=r
()
map
= 0 (7.19)
Din (7.3), scriem densitatea a posteriori a lui ca:
w
[R=r
() =
w
R[=
(r)w
()
w
R
(r)
, (7.20)
104 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
de unde (7.19) se scrie:
ln
_
w
R[=
(r)w
()
w
R
(r)
_
map
= 0. (7.21)
T inand cont de proprietatea logaritmului de a transforma produsul n suma, putem scrie
relat ia de mai sus sub forma:
_
ln w
R[=
(r) +
ln w
()
ln w
R
(r)
_
map
= 0, (7.22)
de unde, observand ca ultimul termen din partea stanga a ecuat iei este nul (densitatea
w
R
(r) nu depinde de ) obt inem forma nala a ecuat iei ce permite determinarea lui
map
:
_
ln w
R[=
(r) +
ln w
()
_
map
= 0. (7.23)
cunoscute: : ^(,
w
R,
(r, )d =
w
R[=
(r)w
()d. (7.26)
7.2. Estimarea n sensul costului mediu minim 105
Rezulta, deci, ca:
w
[R=r
() =
w
R[=
(r)w
()
w
R[=
(r)w
()d
, (7.27)
relat ie ce face legatura ntre densitatea de probabilitate a posteriori w
[R=r
() si den-
sitat ile a priori w
R[=
(r), respectiv w
i=1
w
R
i
[=
(r
i
) =
_
1
2
_
N
exp
_
1
2
2
n
N
i=1
(r
i
s
i
)
2
_
. (7.29)
Cum, tot conform ipotezelor init iale,
w
() =
1
2
exp
_
( )
2
2
2
_
, (7.30)
rezulta ca (7.27) se scrie:
w
[R=r
() =
_
1
2
_
N
1
2
exp
_
1
2
2
n
N
i=1
(r
i
s
i
)
2
_
exp
_
()
2
2
2
_
_
1
2
_
N
1
exp
_
1
2
2
n
N
i=1
(r
i
s
i
)
2
_
exp
_
()
2
2
2
_
d
, (7.31)
ceea ce, dupa reduceri si gruparea termenilor, poate scris sub forma compacta ca:
w
[R=r
() =
exp(A
2
+ B C)
exp(A
2
+ B C)d
(7.32)
cu
A
not
=
N
i=1
s
2
i
2
2
n
+
1
2
2
(7.33a)
B
not
=
N
i=1
r
i
s
i
2
n
+
(7.33b)
C
not
=
N
i=1
r
2
i
2
2
n
+
2
2
2
(7.33c)
106 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Punand forma patratica ce constituie argumentul exponent ialei din (7.32) sub forma ei
canonica, avem:
exp(A
2
+ B C) = exp
_
A
_
B
2A
_
2
_
exp
_
B
2
4A
C
_
. .
const
. (7.34)
Astfel, relat ia (7.32) devine:
w
[R=r
() =
exp
_
B
2
4A
C
_
exp
_
A
_
B
2A
_
2
_
exp
_
B
2
4A
C
_
_
exp
_
A
_
B
2A
_
2
_
d
=
1
_
A
exp
_
A
_
B
2A
_
2
_
.
(7.35)
exp
_
(t t
0
)
2
dt =
_
. (7.36)
Confruntand (7.35) cu (3.23), putem scrie:
[R = r: ^
_
B
2A
,
1
2A
_
. (7.37)
Cu alte cuvinte, distribut ia lui a posteriori, t inand cont de informat ia observata si
cont inuta n r, este tot gaussiana, avand media si dispersia date de:
[R = r =
B
2A
=
N
i=1
r
i
s
i
2
n
+
N
i=1
s
2
i
2
n
+
1
, (7.38)
[R=r
=
1
2A
=
1
_
N
i=1
s
2
i
2
n
+
1
. (7.39)
Sa interpretam rezultatul obt inut ntr-un caz particular, si anume s(t) = 1, pentru
t [0, T].
In acest caz, relat ia (7.28) devine:
R
i
[ = = + n
i
, i = 1, . . . , N. (7.40)
Altfel spus, dispunem de N observat ii ale lui afectate de zgomot, din care trebuie sa-l
estimam pe acesta.
In aceasta situat ie particulara, media si dispersia lui [R = r
devin:
[R = r =
N
i=1
r
i
2
n
+
2
n
+
1
=
1
N
N
i=1
r
i
1 +
1
N
2
n
+
1 + N
2
n
(7.41)
[R=r
=
1
_
N
2
n
+
1
. (7.42)
7.2. Estimarea n sensul costului mediu minim 107
() si densitatea
de probabilitate a posteriori w
[R=r
() n doua cazuri diferite, pentru valori numerice
precizate ale parametrilor statistici si ale vectorului observat r. Se observa ca, fat a de
distribut ia a priori w
()
w
|{R=r
1
}
()
w
|{R=r
2
}
()
Figura 7.3: Distribut ia a priori w
() pentru = 5 si
= 2 si distribut ia a posteriori
w
[R=r
() pentru doi vectori recept ionat i r
1
= [1.6; 2.69; 2.82; 2.71; 3.29], respectiv
r
2
= [9.0; 11.57; 5.39; 7.94; 7.53].
Evident, ntrucat w
[R=r
() este un clopot al lui Gauss, valoarea care l maximizeaza
pe acesta coincide cu valoarea medie, deci estimatul patratic este egal cu estimatul ma-
ximum a posteriori (vezi gura 7.2):
p
=
map
= [R = r =
1
N
N
i=1
r
i
1 +
1
N
2
n
+
1 + N
2
n
. (7.43)
Relat ia de mai sus poate interpretata mai usor facand urmatoarele notat ii:
not
=
1
1 +
1
N
2
n
, (7.44a)
not
=
1
1 + N
2
n
. (7.44b)
Se observa apoi ca
+ = 1. (7.45)
108 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Notand, de asemenea, media celor N esantioane ale lui r cu
N
(r):
N
(r)
not
=
1
N
N
i=1
r
i
, (7.46)
si t inand cont de (7.45), relat ia (7.43) se scrie:
p
=
map
not
=
=
N
(r) + (1 ). (7.47)
Rezulta, deci, ca estimatul lui se obt ine ca o combinat ie convexa ntre doi termeni:
primul este media aritmetica a observat iilor lui n zgomot
N
(r), care reprezinta es-
timatul practic al lui , bazat numai pe observat ii, n timp ce al doilea este , care
reprezinta estimatul a priori al lui , bazat numai pe cunostint ele statistice a priori
asupra parametrului necunoscut. Situat ia este ilustrata n gura 7.4.
N
(r)
^
_
1
0
Figura 7.4: Estimatul
este o combinat ie convexa ntre estimatul practic
N
(r) si cel
a priori .
Ponderile celor doi termeni n valoarea nala a lui
depind de trei parametri, si anume
dispersia zgomotului
n
, dispersia cunoscuta a priori a parametrului
si numarul de
observat ii N. Sa analizam pe scurt dependent a ponderilor de ecare din cei trei parametri
(luat n considerare independent de ceilalt i):
N 1
N
(r). Cu alte cuvinte, pe masura ce avem din ce n ce mai
multe masuratori, tindem sa dam o pondere din ce n ce mai mare masuratorii n
detrimentul cunostint elor a priori.
n
0
. Altfel spus, ponderea estimatului a priori creste cu
dispersia zgomotului, care este o masura a puterii acestuia. Acest lucru e normal
ntrucat cu cat zgomotul de masuratoare este mai mare, cu atat observat ia este mai
put in abila.
1
N
(r).
.
In cele doua cazuri limita, putem scrie:
0
, cu alte cuvinte,
masuratoarea nu conteaza, ntrucat stim dinainte ca = , respectiv
N
(r).
Acest din urma caz, respectiv
creste, clopotul w
se aplatizeaza,
apropiindu-se din ce n ce mai mult de o funct ie constanta pe R. Evident, n acest
caz, estimarea se face numai pe baza observat iei.
In paragraful urmator, vom da o
solut ie generala pentru acest caz.
7.3. Evaluarea calitat ii unui estimator 109
7.2.4 Estimarea n absent a unui model statistic a priori
Dupa cum am prezentat n exemplul precedent, faptul ca nu avem nici o cunost int a a
priori asupra modelului statistic al parametrului necunoscut este echivalent cu a spune,
n absent a oricarei masuratori, ca el poate lua orice valoare cu egala probabilitate, altfel
spus:
w
() = constant R (7.48)
inserand (7.48) n (7.23), obt inem relat ia de calcul al estimatului. Se numeste estimat de
maxima plauzibilitate si se noteaza cu
mp
acea valoare a lui care maximizeaza densitatea
de probabilitate a priori w
R[=
(r), sau, altfel spus:
ln w
R[=
(r)
mp
= 0. (7.49)
Este de remarcat faptul ca estimatul de maxima plauzibilitate nu este o alternativ a la
cel patratic sau maximum a posteriori, ci este solut iantr-un caz particular, si anume lipsa
informat iilor statistice a priori asupra parametrului necunoscut. Problema calculului lui
mp
nu se pune daca stim w
()!
7.3 Evaluarea calitat ii unui estimator
Vom prezenta n continuare cateva criterii de evaluare a calitat ii unui estimator. Evident,
estimatul
al valorii date este o variabila aleatoare. Cu alte cuvinte, repetarea estimarii
aceluiasi va conduce de ecare data la valori diferite ale lui
, indiferent de metoda
de calcul aleasa. Valoarea medie a estimatului lui dupa toate realizarile posibile ale
vectorului aleator recept ionat R[ = este data de:
=
_
R
N
(r)w
R[=
(r)dr. (7.50)
Estimatul se numeste nedeplasat daca
= .
In caz contrar, estimatul se numeste de-
plasat. Evident, cu cat diferent a
este mai mare, cu atata calitatea estimatorului
scade.
De asemenea, se poate calcula si variant a estimatului
dupa:
=
_
_
2
=
_
R
N
_
(r)
_
2
w
R[=
(r)dr. (7.51)
Variant a (dispersia) estimatului
este o masura a uctuat iei valorilor acestuia n ju-
rul valorii medii. Evident, cu cat dispersia este mai mica, cu atat calitatea estimatorului
creste.
In general, este de preferat un estimator deplasat cu dispersie mica unuia nede-
plasat dar avand dispersie mare.
110 CAPITOLUL 7. ESTIMAREA PARAMETRILOR
Capitolul 8
Semnale aleatoare n timp discret
8.1 Introducere
In acest capitol, vom ncepe studiul semnalelor aleatoare n timp discret. Acestea sunt
obt inute din semnalele aleatoare n timp continuu prin esantionare, cu o anumita perioada
T
e
, dupa cum este ilustrat n gura 8.1. Conform teoremei esantionarii, pentru ca semnalul
continuu s a poata reconstituit fara nici o pierdere din esantioanele sale, trebuie ca
frecvent a de esantionare sa e de cel put in doua ori mai mare ca frecvent a maxima a
semnalului f
max
:
f
e
=
1
T
e
2f
max
. (8.1)
T
e
t
Figura 8.1: Esantionarea semnalelor
Astfel, semnalele aleatoare n timp discret sunt reprezentate sub forma de secvent a de
numere [. . . , (T
e
), (0), (T
e
), (2T
e
), . . . , (nT
e
), . . . , ] ecare dintre aceste numere ind
o variabila aleatoare continua.
In cele ce urmeaza, vom omite din notat ie perioada de
esantionare, adica vom nota:
(n)
not
= (nT
e
). (8.2)
111
112 CAPITOLUL 8. SEMNALE ALEATOARE
IN TIMP DISCRET
Reprezentarea semnalelor n timp discret este unul din cei doi pasi care fac posi-
bila prelucrarea semnalelor cu calculatorul. Al doilea pas este cuantizarea (subiect pe
care-l vom aborda n detaliu n capitolul 11) care implica transformarea naturii valorilor
esantioanelor (n) din continua n discreta.
Evident, datorita naturii discrete a reprezentarii temporale a semnalului, atat den-
sitat ile de probabilitate de orice ordin cat si momentele semnalului vor si ele reprezentate
tot n timp discret.
In rest, toate considerentele discutate n capitolul 5 raman valabile si
n reprezentarea n timp discret.
In particular, un semnal aleator n timp discret (n) se
numeste stat ionar n sens larg (pe scurt, stat ionar) daca:
(n) = (8.3)
R
(n, k) = (n)(k) = R
(n k). (8.4)
In continuare, vom presupune ipoteza de stat ionaritate pentru toate semnalele n timp
discret considerate.
max
=
e
2
=
T
e
. (8.5)
Deci, t inand cont de convent ia de notat ie T
e
= 1, densitatea spectrala de putere a semnalu-
lui, obt inuta ca ind transformata Fourier n timp discret a funct iei sale de autocorelat ie:
q
() = TR
(k)() =
k=
R
In acest paragraf, vom deni o structura foarte importanta n studiul semnalelor aleatoare
n timp discret, si anume matricea de autocorelat ie. Vom porni prin a deni vectorul
R
N1
ca ind vectorul coloana ce cont ine N esantioane ale unui semnal stat ionar:
=
_
(0) (1) (N 1)
T
. (8.7)
unde prin ()
T
am notat operatorul de transpunere de matrici. Matricea de autocorelat ie
a semnalului, notata cu R
, se deneste ca:
R
=
T
(8.8)
8.2. Matricea de autocorelat ie 113
Explicitand nmult irea si t iand cont de faptul ca funct ia de autocorelat ie a semnalului
este para, avem:
R
=
_
_
(0)
(1)
.
.
.
(N 1)
_
_
_
(0) (1) (N 1)
=
_
_
(0)(0) (0)(1) (0)(N 1)
(1)(0) (1)(1) (1)(N 1)
.
.
.
.
.
.
.
.
.
.
.
.
(N 1)(0) (N 1)(1) (N 1)(N 1)
_
_
=
_
_
R
(0) R
(1) R
(2) R
(N 1)
R
(1) R
(0) R
(1) R
(N 2)
R
(2) R
(1) R
(0) R
(N 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R
(N 1) R
(N 2) R
(N 3) R
(0)
_
_
.
(8.9)
ca ind:
K
=
_
_ _
_
T
= R
T
, (8.10)
care, la fel ca si matricea de autocorelat ie, se poate scrie sub forma:
K
=
_
_
K
(0) K
(1) K
(2) K
(N 1)
K
(1) K
(0) K
(1) K
(N 2)
K
(2) K
(1) K
(0) K
(N 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
K
(N 1) K
(N 2) K
(N 3) K
(0)
_
_
. (8.11)
Se observa imediat din relat iile (8.9) si (8.11) ca atat matricea de autocorelat ie cat si
cea de autocovariat ie sunt simetrice si au o structura de tip Toeplitz
1
.
O alta proprietate importanta a celor doua matrici este aceea ca ele sunt pozitiv
denite. Vom demonstra aceasta armat ie pentru matricea de autocorelat ie, demonstrat ia
pentru matricea de autocovariat ie facandu-se n mod similar. Vom demonstra, deci, ca
x R
N1
, avem
x
T
R
x 0. (8.12)
2
=
T
= x
T
(x
T
)
T
= x
T
T
x = x
T
T
x = x
T
R
x. (8.13)
1
O matrice este de tip Toeplitz daca elementele de pe orice diagonala paralela cu diagonala principala
sunt egale.
114 CAPITOLUL 8. SEMNALE ALEATOARE
IN TIMP DISCRET
In demonstrat ia de mai sus am folosit faptul ca este un scalar, deci el este egal cu
transpusa sa. Cum, prin denit ie,
2
0, rezulta proprietatea enunt ata.
Faptul ca matricea de autocorelat ie (autocovariat ie) este simetrica si pozitiv denita
este echivalent cu a spune ca valorile sale proprii sunt toate pozitive, proprietate la care
vom mai face referire n cele ce urmeaza.
8.3 Modele stochastice
Termenul de model, aici, se refera la ipotezele ce se fac privind modul n care a fost
generat un anumit semnal de interes. Din multitudinea de modele posibile, cele liniare
prezinta un interes deosebit, datorita simplitat ii lor. Problema care se pune, deci, este
de a proiecta un sistem liniar invariant n timp (ceea ce am numit pe scurt ltru liniar)
care sa genereze un semnal cu proprietat i statistice cunoscute (dorite) pornind de la un
semnal av and un model statistic simplu, cum ar , de exemplu, un zgomot alb n timp
discret
2
, adica un semnal (n) de medie nula, avand funct ia de autocorelat ie data de:
R
(n k) = (n)(k) =
_
2
daca k = n
0 daca k ,= n
. (8.14)
Problema este ilustrata n gura 8.2.
Filtru liniar
in timp discret
(n)
(n)
(zgomot alb) (semnal de interes)
Figura 8.2: Model stochastic liniar.
Sa precizam ca problema pe care ne propunem sa o rezolvam nu este noua.
In para-
graful 5.11 s-a discutat, n contextul prelucrarii semnalelor aleatoare continue, despre tre-
cerea semnalelor aleatoare prin ltre liniare, deducandu-se o relat ie de calcul al marimilor
statistice ale semnalului de iesire (densitate spectrala de putere, sau, alternativ, funct ie
de autocorelat ie) n funct ie de cele ale semnalului de intrare si de parametrii sistemului
(presupusi cunoscut i).
In cazul de fat a, avem aceeasi schema generala (un ltru liniar si
doua semnale, de intrare si iesire) numai ca problema pe care ne-o punem este de a de-
termina parametrii ltrului care sa conduca la obt inerea unui semnal de parametri dorit i,
n condit iile n care modelul semnalului de intrare este unul cunoscut.
Exista trei tipuri de modele liniare n timp discret, pe care le vom prezenta pe scurt
n paragrafele urmatoare.
2
Un astfel de semnal, mai exact o secvent a de numere decorelate, este foarte usor de generat cu
calculatorul, prin apelul funct iilor de generare de numere pseudoaleatoare.
8.3. Modele stochastice 115
8.3.1 Modelul AR
Modelul autoregresiv (AR) este caracterizat de urmatoarea relat ie ntre intrare si iesire:
(n) + a
1
(n 1) + a
2
(n 2) + . . . + a
M
(n M) = (n) n = 0, 1, 2, . . . (8.15)
unde constantele a
i
se numesc coecient ii ltrului. Scriind relat ia (8.15) sub forma
(n) = (n)
M
i=1
a
i
(n i), (8.16)
se observan calculul esantionului curent al semnalului de iesire (n) intervin M esantioane
anterioare ale aceluiasi semnal si esantionul curent al semnalului de intrare, ceea ce jus-
tica denumirea modelului. Schema bloc a unui model AR este prezentata n gura 8.3.a.
Daca se considera transformatele Z ale semnalelor, adica N(z) = Z(n)(z), X(z) =
Z(n)(z), si a secvent ei de coecient i:
H
A
(z) = Za
i
(z) =
M
i=0
a
i
z
i
, (8.17)
unde a
0
not
= 1, atunci relat ia (8.15) se scrie n domeniul spectral ca:
H
A
(z)X(z) = N(z), (8.18)
de unde rezulta ca funct ia de transfer a ltrului AR este data de:
H(z) =
X(z)
N(z)
=
1
H
A
(z)
=
1
M
i=0
a
i
z
i
. (8.19)
Pentru ltrele care implica recursie, se pune n mod special problema stabilitat ii. Un
ltru se numeste stabil daca, n condit iile n care semnalul de intrare este marginit, atunci
si semnalul de iesire este de asemenea marginit:
M R astfel ncat [(n)[ M [(n)[ M, n Z. (8.20)
Dupa cum se stie din teoria ltrelor digitale, condit ia necesara si sucienta ca un ltru
sa e marginit este ca polii funct iei de transfer sa e n interiorul cercului unitate. Pentru
cazul de fat a, notand cu p
i
radacinile numitorului funct iei de transfer:
H
A
(p
i
) = 0, i = 1, . . . , M, (8.21)
atunci condit ia de stabilitate este echivalenta cu:
[p
i
[ < 1. (8.22)
Dupa cum este demonstrat n referint a [4], condit ia (8.22) asigura si stat ionaritatea
(asimptotica) a semnalului de iesire.
116 CAPITOLUL 8. SEMNALE ALEATOARE
IN TIMP DISCRET
z
1
z
1
z
1
a
1
a
2
a
M1
a
M
(n)
(n)
(n1)
(n2)
(nM)
+
+
+
+
+
+
+
z
1
z
1
z
1
b
1
b
2
b
L1
b
L
(n)
(n)
(n1)
(n2)
(nL)
+
+
+
+
+
+
+
+
(a) (b)
z
1
z
1
z
1
z
1
z
1
z
1
b
1
b
2
b
L1
b
L
a
M
a
M1
a
1
a
2
(n1)
(n2)
(nL)
(nM)
(n2)
(n1)
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
(n)
(n)
(c)
Figura 8.3: Schemele bloc ale diverselor tipuri de modele stochastice: (a) AR, (b) MA,
(c) ARMA. Blocurile gurate cu z
1
sunt blocuri de ntarziere cu un ciclu de ceas.
8.3. Modele stochastice 117
8.3.2 Modelul MA
Modelul moving average (MA)
3
este caracterizat de relat ia:
(n) = (n) + b
1
(n 1) + b
2
(n 2) + . . . + b
L
(n L) n = 0, 1, 2, . . . (8.23)
Cu alte cuvinte, esantionul curent al semnalului de iesire se calculeaza ca o medie
ponderata a ultimelor L+1 esantioane ale semnalului de intrare cu coecient i constant i,
ceea ce justica denumirea data modelului. Schema bloc a unui ltru MA este desenata
n gura 8.3.b.
Considerand transformata Z a secvent ei de coecient i b
i
:
H
B
(z) = Zb
i
=
L
i=0
b
i
z
i
, (8.24)
unde b
0
not
= 1, relat ia (8.23) se scrie n domeniul spectral ca:
X(z) = H
B
(z)N(z), (8.25)
de unde rezulta ca funct ia de transfer a ltrului MA este data de:
H(z) =
X(z)
N(z)
= H
B
(z) =
L
i=0
b
i
z
i
. (8.26)
Se observa ca funct ia de transfer a ltrului nu are numitor, deci ltrul este n mod inerent
stabil (cum, dealtfel, se poate observa direct din relat ia ce leaga intrarea de iesire n timp).
8.3.3 Modelul ARMA
Modelul ARMA este o combinat ie ntre cele doua modele precedente, ind caracterizat
de relat ia:
(n) + a
1
(n 1) + a
2
(n 2) + . . . + a
M
(n M) =
(n) + b
1
(n 1) + b
2
(n 2) + . . . + b
L
(n L) n = 0, 1, 2, . . . (8.27)
(i) + a
1
R
(i 1) + a
2
R
(i 2) + . . . + a
M
R
(i M) = 0, i = 1, 2, 3, . . . (8.32)
Scriind (8.32) pentru i = 1, . . . , M obt inem un sistem de M ecuat ii cu M necunoscute, care
leaga coecient ii necunoscut i ai ltrului a
i
de valorile cunoscute (dorite) ale funct iei de
autocorelat ie a semnalului de iesire, sistem care poarta numele de ecuat iile YuleWalker:
R
(1) + a
1
R
(0) + a
2
R
(1) + . . . + a
M
R
(M + 1) = 0
R
(2) + a
1
R
(1) + a
2
R
(0) + . . . + a
M
R
(M + 2) = 0
R
(M) + a
1
R
(M 1) + a
2
R
(M 2) + . . . + a
M
R
(0) = 0
(8.33)
T inand cont de faptul ca funct ia de autocorelat ie R
_
R
(0) R
(1) R
(2) R
(M 1)
R
(1) R
(0) R
(1) R
(M 2)
R
(2) R
(1) R
(0) R
(M 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R
(M 1) R
(M 2) R
(M 3) R
(0)
_
_
_
_
a
1
a
2
a
3
.
.
.
a
M
_
_
=
_
_
R
(1)
R
(2)
R
(3)
.
.
.
R
(M)
_
_
.
(8.34)
8.3. Modele stochastice 119
Observand ca matricea sistemului de ecuat ii este chiar matricea de autocorelat ie a sem-
nalului de iesire (8.9), si facand urmatoarele notat ii suplimentare:
a
not
=
_
_
a
1
a
2
a
3
.
.
.
a
M
_
_
, (8.35)
respectiv
r
not
=
_
_
R
(1)
R
(2)
R
(3)
.
.
.
R
(M)
_
_
, (8.36)
solut ia sistemului de ecuat ii YuleWalker se scrie ca:
a = R
1
. (8.37)
Se impun cateva observat ii n legatura cu rezultatul obt inut mai sus. Sa pornim prin
a scrie relat ia (8.30) pentru i = 0.
In acest caz, termenul din dreapta nu mai este zero,
ci, t inand cont de (8.16) poate scris:
(n)(n) = (n)
_
(n)
M
i=1
a
i
(n i)
_
=
2
(n)
. .
i=1
a
i
(n)(n i)
. .
0
=
2
, (8.38)
de unde (8.30) se scrie:
R
(0) + a
1
R
(1) + a
2
R
(2) + . . . + a
M
R
(M) =
2
. (8.39)
Aceasta relat ie ne da modul de calcul al variant ei zgomotului, care, n condit iile modelului
luat n considerare (zgomot alb), este singurul parametru necunoscut al acestuia. Practic,
sistemul de ecuat ii (8.33) mpreuna cu ecuat ia (8.39) formeaza mpreuna un sistem care
leaga n mod biunivoc M + 1 necunoscute (respectiv cei M coecient i a
i
ai ltrului si
variant a zgomotului de intrare
2
(0),
obt inem un sistem de ecuat ii care leaga valorile funct iei de autocorelat ie normalizate
(i) =
R
(i)
R
(0)
(8.40)
de coecient ii ltrului:
a
1
, a
2
, . . . , a
M
(1),
(2), . . . ,
(M). (8.41)
120 CAPITOLUL 8. SEMNALE ALEATOARE
IN TIMP DISCRET
Cu alte cuvinte, coecient ii a
i
determina forma generala a funct iei de autocorelat ie, din
variant a zgomotului
2
(0). (8.42)
O alta observat ie importanta este aceea ca relat ia (8.32) poate scrisa si pentru i > M,
adica:
R
(M + 1) + a
1
R
(M) + a
2
R
(M 1) + . . . + a
M
R
(1) = 0
R
(M + 2) + a
1
R
(M + 1) + a
2
R
(M) + . . . + a
M
R
(2) = 0
(8.43)
Aceste relat ii permit calculul valorilor funct iei de autocorelat ie R
(0), R
(1), . . . , R
In gura 8.4 sunt prezentate doua forme dorite ale funct iei de autocorelat ie, iar
n gura 8.5 sunt prezentate semnalele obt inute la iesirea ltrului AR corespunzatore
funct iilor de autocorelat ie specicate.
0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
(a)
0 1 2 3 4 5 6 7 8 9 10
1
0.5
0
0.5
1
(b)
Figura 8.4: Doua exemple de funct ie de autocorelat ie R
(n)
(n)
e(n)
+
in timp discret
(n)
Filtru liniar
Figura 9.1: Punerea problemei ltrarii optimale a semnalelor.
Datorit a constrangerii pe care o impunem din start sistemului cautat, de a liniar si
invariant n timp, relat ia dintre semnalele de intrare si iesire este data de:
(n) =
k=0
h
k
(n k). (9.2)
123
124 CAPITOLUL 9. FILTRAREA OPTIMAL
A A SEMNALELOR
Relat ia (9.2) nu reprezinta altceva decat adaptarea relat iei (5.89) pentru cazul semnalelor
n timp discret, considerand n plus ltrul cauzal. Valorile h
k
se numesc coecient ii
ltrului si constituie necunoscutele problemei puse. Sunt posibile doua tipuri de structuri
de ltre: cele cu numar nit de coecient i, care se numesc ltre de tip FIR (Finite I mpulse
Response), si cele cu un numar innit de coecient i, care se numesc ltre IIR (I nnite
I mpulse Response)
1
.
Pentru a putea pune problema n ecuat ie, mai trebuie denit un criteriu de eroare,
prin care sa traducem matematic dezideratul enunt at, si anume asemanarea semnalului de
iesire (n) cu cel dorit (n). Alegem, ca dealtfel n majoritatea cazurilor tratate n aceasta
lucrare, minimizarea erorii patratice medii, criteriu de eroare care conduce, n general, la
un sistem de ecuat ii liniare, deci usor rezolvabil. T inand cont de (9.2), semnalul eroare
se scrie ca:
e(n) = (n)
k=0
h
k
(n k) n = 0, 1, 2, . . . (9.3)
iar eroarea medie patratica se deneste ca:
= e(n)
2
, (9.4)
care, datorita stat ionaritat ii semnalelor, este independenta de momentul de timp ales n.
Astfel, problema enunt ata se traduce matematic prin gasirea ponderilor h
k
care mini-
mizeaza pe dat de (9.4). Filtrul optimal astfel obt inut se numeste ltru Wiener.
9.2 Principiul ortogonalitat ii
Valorile ponderilor h
i
care minimizeaza eroarea patratica medie sunt acele valori n care
derivata acesteia este nula. Derivata lui dupa ponderea h
i
se scrie ca:
h
i
=
e
2
(n)
h
i
= 2e(n)
e(n)
h
i
= 2e(n)(n i), i = 0, 1, 2, . . . , (9.5)
de unde rezulta ca:
e
o
(n)(n i) = 0, i = 0, 1, 2, . . . , (9.6)
unde cu e
o
(n) am notat valoarea optima a erorii, adica cea corespunzatoare lui
min
.
Relat ia (9.6) este expresia principiului ortogonalitat ii, si, desi constituie un rezultat in-
termediar, are o interpretare importanta. Principiul ortogonalitat ii arma ca, n cazul
optimal, diferent a ntre ce dorim si ce avem la iesirea ltrului la un moment de timp
dat este decorelata cu toate esantioanele anterioare ale semnalului de intrare! Aceasta
decorelare a erorii fat a de semnalul de intrare semnica faptul ca am extras maximum de
informat ie din acesta, ntrucat nu mai exista nici o legatura statistica
2
ntre semnalul de
1
Din punct de vedere al implementarii practice, ltrele IIR sunt ltre cu recursie, de tipul AR sau
ARMA, n timp ce ltrele de FIR sunt ltre de tip MA.
2
Evident, este vorba despre o legatura statistica de tip liniar, singurul tip de legatura ce poate
evaluat cu ajutorul corelat iei.
9.3. Ecuat iile WienerHopf 125
care dispunem (cel de intrare) si ceea ce mai lipseste semnalului de iesire pentru ca acesta
sa corespunda ntru totul cerint elor noastre (adica sa e egal cu semnalul dorit (n)).
Corelat ia ntre semnalul de iesire si eroarea optimala poate scrisa, t inand cont
de (9.2), ca:
e
o
(n)(n i) = e
o
(n)
_
k=0
h
k,o
(n i k)
_
=
k=0
h
k,o
e
o
(n)(n i k), (9.7)
unde cu h
k,o
am notat ponderile optimale, care minimizeaza pe pe .
Inlocuind (9.6)
n (9.7), rezulta ca
e
o
(n)(n i) = 0, i = 0, 1, 2, . . . , (9.8)
relat ie ce reprezinta corolarul principiului ortogonalitat ii, care arma ca eroarea obt inuta
n cazul optimal este decorelata si cu valorile prezenta si anterioare ale semnalului de
iesire.
9.3 Ecuat iile WienerHopf
In aceast paragraf, vom deduce relat iile de calcul al ponderilor ltrului Wiener. Pornind
de la principiul ortogonalitat ii (9.6), si nlocuind expresia erorii (9.3) n cazul optimal,
obt inem:
_
(n)
k=0
h
k,o
(n k)
_
(n i) = 0, i = 0, 1, 2, . . . (9.9)
de unde, prin calcule elementare, obt inem:
(n)(n i)
. .
R
(i)
=
k=0
h
k,o
(n i)(n k)
. .
R
(ik)
i = 0, 1, 2, . . . . (9.10)
Prin identicarea mediilor din ecuat ia de mai sus cu valorile funct iei de autocorelat ie a
semnalului de intrare R
k=0
h
k,o
R
(i k) = R
(i), i = 0, 1, 2, 3, . . . , (9.11)
Ecuat iile (9.11) poarta numele de ecuat iile WienerHopf, si reprezinta un sistem liniar
de o innitate de ecuat ii cu o innitate de necunoscute, care permite calculul ponderilor
optimale h
k,o
n funct ie de autocorelat ia semnalului de intrare si de intercorelat ia dintre
semnalul de intrare si cel dorit la iesirea ltrului (presupuse cunoscute).
Sa facem urmatoarea observat ie importanta. Solut ia sistemului de ecuat ii Wiener
Hopf poate scrisa n domeniul spectral, observand ca termenul stang al relat iei (9.11)
126 CAPITOLUL 9. FILTRAREA OPTIMAL
A A SEMNALELOR
nu reprezinta altceva decat convolut ia n timp discret ntre funct ia de autocorelat ie a
semnalului de intrare si secvent a h
k,o
kN
a ponderilor ltrului Wiener. Rezulta, deci,
ca relat ia (9.11) poate scrisa n domeniul spectral sub forma:
q
()H
o
() = q
(), [, ], (9.12)
unde H
o
() este funct ia de transfer a ltrului optimal, adica transformata Fourier n timp
discret a secvent ei de coecient i h
k,o
:
H
o
() = T h
k,o
() =
k=0
h
k,o
exp(jk) (9.13)
Ecuat ia (9.12) permite calculul funct iei de transfer a ltrului optimal ca:
H
o
() =
q
()
q
()
. (9.14)
k=0
h
k
(n k). (9.16)
Structura ltrului Wiener de tip FIR, care implementeaza relat ia (9.16) este prezentata
n gura 9.2.
k=0
h
k,o
R
(i k) = R
(i), i = 0, 1, 2, 3, . . . . (9.17)
Scriind relat iile de mai sus pentru i = 0, 1, . . . , M 1, obt inem urmatorul sistem de M
ecuat ii cu M necunoscute, a carui solut ie vor ponderile ltrului optimal h
k,o
:
h
0,o
R
(0) + h
1,o
R
(1) + . . . + h
M1,o
R
(M + 1) = R
(0)
h
0,o
R
(1) + h
1,o
R
(0) + . . . + h
M1,o
R
(M + 2) = R
(1)
h
0,o
R
(M 1) + h
1,o
R
(M 2) + . . . + h
M1,o
R
(0) = R
(M 1)
(9.18)
9.4. Aplicat ii ale ltrarii optimale a semnalelor 127
(n) (n1) (n2) (nM+1)
z
1
(n)
h
M1,o
h
2,o
h
1,o
h
0,o
z
1
z
1
+
+
+
+ +
+
Figura 9.2: Schema bloc a unui ltru optimal cu numar nit de coecient i (ltru de tip
FIR).
T inand cont de faptul ca funct ia de autocorelat ie R
_
R
(0) R
(1) R
(M 1)
R
(1) R
(0) R
(M 2)
.
.
.
.
.
.
.
.
.
.
.
.
R
(M 1) R
(M 2) R
(0)
_
_
. .
R
_
h
0,o
h
1,o
.
.
.
h
M1,o
_
_
=
_
_
R
(0)
R
(1)
.
.
.
R
(M 1)
_
_
. (9.19)
Notand cu h
o
vectorul coloana al ponderilor optimale :
h
o
not
=
_
_
h
0,o
h
1,o
.
.
.
h
M1,o
_
_
, (9.20)
si cu r
vectorul ce cont ine valorile funct iei de intercorelat ie ntre semnalul de intrare si
cel dorit la iesire:
r
not
=
_
_
R
(0)
R
(1)
.
.
.
R
(M 1)
_
_
, (9.21)
putem scrie solut ia sistemului WienerHopf pentru cazul unui ltru de tip FIR ca:
h
o
= R
1
. (9.22)
9.4 Aplicat ii ale ltrarii optimale a semnalelor
In paragrafele urmatoare vom prezenta doua dintre cele mai importante aplicat ii ale l-
trelor optimale, si anume atenuarea zgomotului si predict ia.
128 CAPITOLUL 9. FILTRAREA OPTIMAL
A A SEMNALELOR
9.4.1 Atenuarea zgomotului
Sa presupunem ca semnalul de intrare (n) reprezinta versiunea perturbata cu zgomot
aditiv (n) a unui semnal de interes (n)
(n) = (n) + (n) n = 0, 1, 2, . . . . (9.23)
In acest caz, dorim ca iesirea ltrului sa aproximeze cat mai bine semnalul util. Cu alte
cuvinte, alegem:
(n) (n). (9.24)
Sa presupunem n continuare ca semnalul (n) reprezinta un proces aleator zgomot
alb, independent de semnalul util, de unde rezulta ca funct ia de autocorelat ie a semnalului
de intrare este:
R
(k)
+ (n)(n + k)
. .
0
+ (n + k)(n)
. .
0
+ (n)(n + k)
. .
R
(k)
= R
(k) + R
(k).
(9.25)
(i)
+ (n)(n + i)
. .
0
= R
(i),
(9.26)
de unde rezulta ca vectorul r
:
r
=
_
_
R
(0)
R
(1)
.
.
.
R
(M 1)
_
_
not
= r
(9.27)
T inand cont de (8.14), rezulta ca matricea de autocorelat ie a zgomotului este diag-
onala: R
=
2
I
N
. Prin particularizarea relat iei (9.22) pentru datele deduse mai sus,
rezulta forma nala a coecient ilor ltrului Wiener optimal pentru atenuarea zgomotului:
h
o
=
_
R
+
2
I
N
_
1
r
. (9.28)
In gura de jos, semnalul original (cu linie ntrerupta) si semnalul rezultat prin ltrarea
cu un ltru Wiener cu 20 de coecient i (cu linie continua).
9.4.2 Predict ia
Predict ia este o alta aplicat ie importanta n prelucrarea semnalelor. Scopul predict iei este
ca la ecare moment de timp n sa se estimeze valoarea urmatoare a semnalului de intrare.
Astfel, considerand semnalul de intrare (n), alegem semnalul de iesire dorit al ltrului
Wiener predictor ca ind:
(n) (n + 1). (9.29)
In aceste condit ii, intercorelat ia ntre semnalul de intrare si cel dorit este:
R
(i + 1), (9.30)
ceea ce face ca vectorul r
din (9.21) sa e:
r
=
_
_
R
(1)
R
(2)
.
.
.
R
(M)
_
_
not
= r
. (9.31)
Vectorul ponderilor optimale ale ltrului Wiener predictor este astfel dat de:
h
o
= R
1
. (9.32)
130 CAPITOLUL 9. FILTRAREA OPTIMAL
A A SEMNALELOR
Se impun doua observat ii referitoare la relat ia (9.32). Prima este legata de faptul
ca problema predict iei unui semnal se pune numai n cazul n care ntre esantioanele
semnalului respectiv exista o oarecare corelat ie.
Intr-adevar, daca (n) este complet
decorelat, adica R
In gura 9.4 este prezentat un exemplu de act iune a unui ltru Wiener predictor.
50 100 150 200 250 300 350 400 450 500
50
0
50
100
50 100 150 200 250 300 350 400 450 500
60
40
20
0
20
40
60
80
Figura 9.4: Exemplu de predict ie: n gura de sus, semnalul original (cu linie ntrerupta)
si cel prezis de un ltru Wiener cu 20 de coecient i (cu linie continua).
In gura de jos,
sunt reprezentate semnalul original (cu linie ntrerupta) si eroarea de predict ie (cu linie
continua).
Predict ia este utilizata pentru compresia semnalelor (spre exemplu, semnalul vocal se
9.4. Aplicat ii ale ltrarii optimale a semnalelor 131
codeaza foarte bine prin predict ie liniara). Daca predict ia este buna, deci daca valoarea
prezisa aproximeaza del valoarea reala a semnalului, atunci pe canal se poate transmite
numai diferent a ntre cele doua valori, care, ind n medie mica (vezi gura 9.4), poate
codata pe un numar redus de bit i . Avandn vedere ca regula de predict ie este cunoscuta,
partea predictibila a semnalului poate reprodusa exact la recept ie. Din aceasta, prin
adaugarea erorii transmise pe canal, poate reconstruit ecare esantion al semnalului.
Astfel, se poate face o transmisiune cu compresie a semnalului, practic fara pierderi, pe
baza redundant ei (corelat iei) existente n acesta.
Schema bloc a unui lant de transmisiune cu predict ie, conform celor descrise mai
sus, este prezentata n gura 9.5. Blocul Q este bloc de codare a erorii: ntr-o prima
faza, eroarea este cuantizata iar apoi este codata cu un cod entropic (de tip Human) ce
exploateaz a distribut ia puternic neuniforma a valorilor acesteia: valorile mici au proba-
bilitate de aparit ie mare, n timp ce valorile mari apar rar. Blocul Q
1
reprezinta bloc
de decodare a erorii. Singurele pierderi (diferent a ntre e(n) si e
t
(n)) sunt cele datorate
operat iei de cuantizare
3
.
(n)
(n)
Predictor
e(n) e
q
(n)
Canal
Q Q
1
e
(n)
(n)
(n)
^
+
Predictor
+
+
^
Figura 9.5: Schema bloc a unui lant de transmisiune cu predict ie.
3
Problema cuantizarii semnalelor este tratata n detaliu n capitolul 11.
132 CAPITOLUL 9. FILTRAREA OPTIMAL
A A SEMNALELOR
Capitolul 10
Transformate unitare
10.1 Introducere
Termenul de tranformata unitara se refera la o clasa de matrici unitare folosite pentru
reprezentarea semnalelor. O matrice patratica avand componente complexe A C
NN
se numeste unitara daca:
A
1
= A
T
, (10.1)
unde prin ()
T
,
se deneste transformata lui ca ind vectorul coloana
=
_
(0) (1) (N 1)
T
obt inut ca:
= A. (10.3)
Considerand elementele matricii A = a(k, n)
k,n=0,...,N1
, relat ia (10.3) se poate scrie:
(k) =
N1
n=0
a(k, n)(n), k = 0, 1, . . . , N 1. (10.4)
Transformata inversa, care permite recuperarea vectorului original din cel transformat
se scrie, t inand cont de (10.2):
= A
T
, (10.5)
1
Spre exemplu, transformata Fourier discreta se obt ine cu ajutorul unei matrici A avand elemente
complexe!
133
134 CAPITOLUL 10. TRANSFORMATE UNITARE
sau, element cu element:
(n) =
N1
k=0
a(k, n)(k), n = 0, 1, . . . , N 1. (10.6)
Semnicat ia unei transformate unitare poate nt eleasa scriind matricea A
T
sub forma
A
T
=
_
a
0
a
1
a
N1
, (10.7)
unde a
k
sunt vectori coloana:
a
k
=
_
_
a(k, 0)
a(k, 1)
.
.
.
a(k, N 1)
_
_
. (10.8)
Cu aceste notat ii, relat iile care dau transformata directa (10.4), respectiv pe cea in-
versa (10.5), pot scrise sub forma:
(k) =
T
a
k
= , a
k
) k = 0, 1, . . . , N 1, (10.9)
respectiv:
=
N1
k=0
(k)a
k
, (10.10)
unde cu f, g) a fost notat produsul scalar ntre vectorii coloana f, g R
N1
, denit ca:
f, g)
= f
T
g =
N1
i=0
f(i)g(i). (10.11)
Calculul lui din relat ia (10.10) se interpreteaza ca o descompunere a acestuia ntr-o
alta baza a lui R
N
, si anume cea formata din coloanele matricii A
T
: a
0
, a
1
, . . . , a
N1
.
Coecient ii dezvoltarii lui n aceasta baza sunt chiar componentele (k) ale vectorului
transformat . Conform (10.9), acestia se obt in prin produs scalar ntre vectorul dezvoltat
si axa a
k
, care nu reprezinta altceva decat proiect ia lui pe a
k
.
In plus, noua baza n care se reprezinta semnalul este ortonormala, fapt asigurat de
condit ia (10.2) de unitaritate impusa matricii A.
Intr-adevar, (10.2) se poate rescrie ca:
AA
T
= I
N
, (10.12)
ceea ce, scris explicit n funct ie de vectorii a
k
, devine:
_
_
a
T
0
a
T
1
.
.
.
a
T
N1
_
_
_
a
0
a
1
a
N1
=
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
. (10.13)
10.1. Introducere 135
Din relat ia de mai sus, rezulta ca:
a
i
, a
j
) = a
T
i
a
j
=
_
1 daca i = j
0 n rest
, (10.14)
ceea ce este echivalent cu a spune ca baza a
k
k=0,...,N1
pe care se descompune vectorul
original este ortonormala, ntrucat ecare doi vectori din set sunt perpendiculari, iar
norma ecaruia este unu!
Pentru xarea not iunilor, sa consideram un exemplu pentru care avem o reprezentare geometrica,
respectiv N = 2. Fie vectorul = [5, 2]
T
din gura 10.1. Cele doua componente ale vectorului
reprezinta coecient ii dezvoltarii vectorului n baza canonica
_
e
x
= [1, 0]
T
, e
y
= [0, 1]
T
_
aleasa din ociu
pentru reprezentarea oricarui vector din R
2
. Cu alte cuvinte, = [5, 2]
T
este echivalent cu:
= 5e
x
+ 2e
y
,
cu
, e
x
) = 5
, e
y
) = 2
e
x
e
y
e
y
e
x
5
2
Figura 10.1: Exemplu de schimbare de baza.
Insa e
x
, e
y
nu este singura baza a lui R
2
. Sa consideram, spre exemplu, baza
_
e
x
, e
y
_
obt inuta
printr-o rotat ie a bazei canonice cu un unghi astfel ales ncat versorul e
x
sa devina coliniar cu vectorul
considerat .
In noua baza
_
e
x
, e
y
_
, componentele lui devin:
, e
x
) =
29
, e
y
_
= 0
136 CAPITOLUL 10. TRANSFORMATE UNITARE
iar acesta poate scris ca:
=
29e
x
+ 0e
y
=
_
e
x
e
. .
A
T
_
29
0
_
. .
.
Deci, vectorul transformat = [
29, 0]
T
este noua reprezentare a lui n baza considerata.
Dintre aplicat iile transformatelor unitare, cea mai importanta este compresia de date,
care este posibila datorita proprietat ii transformatelor utilizate n practica de a compacta
energia ntr-un numar redus de coecient i n spat iul transformatei. Sa precizam pentru
nceput ca o transformata unitara conserva energia semnalului.
Intr-adevar:
E
= ||
2
=
T
= (A)
T
A =
T
A
T
A
. .
I
N
=
T
= ||
2
= E
. (10.15)
Desi energia totala se conserva, pentru majoritatea transformatelor utilizate n practica,
aceasta tinde sa e distribuita inegal ntre coecient ii spat iului transformat. Cu alte
cuvinte, energia este concentratantr-un numar redus de coecient i ai transformarii, restul
putand neglijat i, pierderea de informat ie indusa ind extrem de mica.
Problema compresiei optimale cu transformate unitare este tratata n continuarea
acestui capitol.
10.2 Transformata KarhunenLo`eve
Problema care se pune este aceea de calcul al matricii unitare
L =
_
l
0
l
1
l
N1
T
(10.16)
cu ajutorul careia sa compactam cat mai bine energia n spat iul transformatei, cu alte
cuvinte, sa concentram energiantr-un numar minim de coecient i n spat iul transformarii.
Fie transformata vectorului original :
= L =
_
(0) (m1) (m) (N 1)
T
. (10.17)
Din vectorul pastram numai primele m componente, restul nlocuindu-le cu niste con-
stante c
i
. Cu alte cuvinte, l aproximam pe cu dat de:
=
_
(0) (m1) c
m
c
N1
T
. (10.18)
Cu ajutorul vectorului aproximat n spat iul original
= L
T
(10.19)
se deneste eroarea patratica medie indusa de aproximarea n spat iul transformatei ca
ind:
=
_
_
_
_
_
_
2
. (10.20)
10.2. Transformata KarhunenLo`eve 137
Problema din punct de vedere matematic este de determinare a matricii transformarii L
astfel ncat eroarea patratica medie (10.20) sa e minima.
Trecand eroarea patratica medie din (10.20) n spat iul transformatei, avem:
=
_
_
T
_
_
= (L
T
( ))
T
(L
T
( )) = ( )
T
LL
T
..
I
N
( )
= ( )
T
( ) = | |
2
=
N1
i=0
((i) (i))
2
=
N1
i=0
((i) (i))
2
.
(10.21)
T inand cont ca primele m componente ale lui si sunt identice, rezulta ca eroarea
patratica medie poate scrisa ca:
=
N1
i=m
((i) c
i
)
2
. (10.22)
c
k
=
c
k
_
N1
i=m
((i) c
i
)
2
_
= 2 ((k) c
k
) = 0, (10.23)
de unde rezulta:
c
k
= (k) k = m, . . . , N 1. (10.24)
i=m
_
(i) (i)
_
2
. (10.25)
Dar, conform (10.9), avem
(i) =
T
l
i
= l
T
i
, (10.26)
de unde:
=
N1
i=m
_
(i) (i)
__
(i) (i)
_
=
N1
i=m
_
l
T
i
l
T
i
__
T
l
i
T
l
i
_
=
N1
i=m
l
T
i
_
_ _
_
T
l
i
=
N1
i=m
l
T
i
_
_ _
_
T
. .
K
l
i
=
N1
i=m
l
T
i
K
l
i
.
(10.27)
Relat ia (10.27) ne da scrierea cantitat ii de minimizat n funct ie de necunoscutele l
i
.
Nu putem, nsa, trece direct la minimizarea lui fara a t ine cont de constrangerile asupra
vectorilor l
i
de a de norma unitara, ntrucat sunt coloanele unei matrici unitare. Astfel,
minimizarea lui cu constrangerile l
T
i
l
i
= 1 revine la minimizarea expresiei:
=
N1
i=m
_
l
T
i
K
l
i
i
_
l
T
i
l
i
1
__
, (10.28)
138 CAPITOLUL 10. TRANSFORMATE UNITARE
unde
i
R sunt multiplicatorii Lagrange atasat i constrangerilor impuse.
Pentru rezolvarea eleganta, sub forma vectoriala, a problemei minimizarii lui
din (10.28), denim gradientul vectorial al unei expresii scalare. Fie E(v) o funct ie
scalara de vectorul v = [v
1
, . . . , v
N
]
T
. Denim gradientul lui E dupa v ca ind:
v
E =
_
_
E
v
1
.
.
.
E
v
N
_
_
. (10.29)
Evident, vectorul v care minimizeaza pe E se obt ine facand:
v
E = 0. (10.30)
Mai mult, se poate arata prin calcul direct ca pentru orice matrice simetrica (B = B
T
)
avem:
v
_
v
T
Bv
_
= 2Bv. (10.31)
T inand cont ca matricea de covariat ie K
l
k
= 2K
l
k
2
k
l
k
= 0, (10.32)
de unde rezulta ca:
K
l
k
=
k
l
k
. (10.33)
Cu alte cuvinte, coloanele matricii transformatei KarhunenLo`eve (prescurtata n cele
ce urmeaza KL) L
T
, cu ajutorul careia se compacteaza optim energia vectorului original
, sunt vectorii proprii ai matricii de covariat ie ai vectorului respectiv! De asemenea,
multiplicatorii Lagrange
i
sunt valorile proprii atasate vectorilor l
i
.
Sa facem cateva observat ii importante referitoare la rezultatul obt inut.
In primul
rand, nlocuind vectorii l
k
din (10.33) n expresia (10.27), obt inem valoarea minima a
erorii patratice medii:
min
=
N1
i=m
l
T
i
K
l
i
..
i
l
i
=
N1
i=m
i
l
T
i
l
i
..
1
=
N1
i=m
i
. (10.34)
Cu alte cuvinte, eroarea patratica medie obt inuta n cazul optimal este suma valorilor
proprii aferente axelor ale caror componente sunt suprimate. Din aceasta observat ie
deducem ordinea de asezare a coloanelor l
i
n matricea L
T
: daca dorim sa eliminam
componentele vectorului localizate la coada (asa cum am impus la nceput) atunci
vectorii l
k
trebuie ordonat i n sens descrescator al valorilor proprii aferente:
L
T
=
_
l
0
l
1
l
N1
0
1
N1
(10.35)
10.3. Aproximari practice ale transformatei KL 139
= ( ) ( )
T
= L
_
_ _
L
_
__
T
= L
_
_ _
_
T
L
T
= L
_
_ _
_
T
L
T
= LK
L
T
.
(10.36)
T inand cont de (10.33), ecuat ia (10.36) se scrie mai departe:
K
=
_
_
l
T
0
l
T
1
.
.
.
l
T
N1
_
_
. .
L
K
_
l
0
l
1
l
N1
. .
L
T
=
_
_
l
T
0
l
T
1
.
.
.
l
T
N1
_
_
_
K
l
0
K
l
1
K
l
N1
=
_
_
l
T
0
l
T
1
.
.
.
l
T
N1
_
_
_
0
l
0
1
l
1
N1
l
N1
=
_
0
0 0 0
0
1
0 0
0 0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
N1
_
_
.
(10.37)
Semnicat ia rezultatului (10.37) este aceea ca, n noile coordonate, coecient ii dezvolt arii
sunt complet decorelat i! Mai mult, se observa ca
i
=
2
(i)
, (10.38)
adica valorile
i
au semnicat ia de variant a a coecientului descompunerii vectorului
pe axa l
i
, ceea ce justica alegerea facuta mai nainte, de eliminare a componentelor pe
axele cu
i
mic.
Intr-adevar, n lumina relat iei (10.38), aceasta semnica nlocuirea cu
media lor a componentelor de variant a mica, ceea ce este natural.
N
daca k = 0
_
2
N
cos
(2n+1)k
2N
daca k ,= 0
. (10.39)
Se poate demonstra (vezi referint a [5]) ca transformata cosinus discreta poate im-
plementat a printr-un algoritm rapid, de complexitate
2
O(N log N).
(x
n
[x
n1
, x
n2
, x
n3
. . .) = w
(x
n
[x
n1
) (10.40)
unde cu w
(x
n
[x
n1
, x
n2
, x
n3
. . .) am notat densitatea de probabilitate a lui (n)
2
Pentru N = 1000, reducerea complexitat ii de la O
_
N
2
_
la O(N log N) este echivalenta cu cresterea
vitezei de calcul de aproximativ 100 de ori!
10.3. Aproximari practice ale transformatei KL 141
condit ionata de faptul ca valorile anterioare ale semnalului au fost x
n1
, x
n2
, . . .:
w
(x
n
[x
n1
, x
n2
. . .)
not
= w
(n)[(n1)=x
n1
(n2)=x
n2
(x
n
). (10.41)
Relat ia (10.40) se interpreteaza astfel: pentru determinarea statisticii semnalului la
momentul urmator n+1 este sucienta cunoasterea valorii semnalului la momentul prezent
n
3
. Semnalele Markov servesc deseori de model statistic simplicat pentru semnale reale.
Se poate arata ca funct ia de autocovariat ie a unui semnal Markov de ordinul unu este
de forma:
K
(n) =
2
[n[
cu [[ < 1, (10.42)
ceea ce este echivalent cu a spune ca matricea de autocorelat ie a procesului este:
K
=
2
_
1
2
N1
1
N2
2
1
N3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
N1
N2
N3
1
_
_
. (10.43)
Prin calcul direct, se poate demonstra ca inversa matricii de covariat ie din (10.43) este
data de:
K
1
=
_
_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_
_
, (10.44)
cu =
1
1+
2
1
2
si =
1+
2
.
Pe de alta parte, se poate demonstra prin calcul direct ca vectorii coloana ai matricii
C
T
sunt vectorii proprii ai matricii:
M =
_
_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_
_
, (10.45)
3
Un semnal Markov de ordinul unu poate modelat ca ind iesirea unui model AR de ordinul unu:
(n) = a
1
(n 1) +v(n).
142 CAPITOLUL 10. TRANSFORMATE UNITARE
cu R oarecare. Cu alte cuvinte, are loc relat ia:
Mc
k
=
k
c
k
, k = 0, . . . , N 1 (10.46)
unde:
c
k
=
_
c(k, 0) c(k, 1) c(k, N 1)
T
. (10.47)
Prin compararea relat iei (10.44) cu (10.45), se observa ca:
K
1
[[1
M. (10.48)
Altfel spus, t inand cont de (10.46) si de (10.48), vectorii coloana ai matricii C
T
aprox-
imeaza cu buna precizie vectorii proprii ai matricii K
1
4
) atunci cand 1.
Concluzia este cea enunt ata anterior: transformata cosinus discreta aproximeaza foarte
bine transformata optimala KL pentru semnale puternic corelate.
In practica, transfor-
mata cosinus discreta este folosita n standardul de compresie de imagini JPEG (dupa
cum vom prezenta n detaliu n capitolul 12).
In gura 10.3 este prezentat un exemplu
de compresie cu transformata cosinus discreta.
0 200 400 600 800 1000 1200 1400 1600
0
50
100
150
200
250
300
0 200 400 600 800 1000 1200 1400 1600
1500
1000
500
0
500
1000
1500
2000
2500
3000
3500
(a) (b)
Figura 10.3: Exemplu de compresie de semnale cu transformata cosinus discreta: (a)
Semnalul original (cu linie punctata) si cel rezultat n urma eliminarii a 87,5% din
coecient i n spat iul transformatei; (b) Transformata cosinus discreta a semnalului origi-
nal: se observa ca majoritatea coecient ilor au valori neglijabile.
4
S-a folosit rezultatul conform caruia, daca R
N1
este vector propriu al unei matrici oarecare
A R
NN
, atunci el este vector propriu al oricarei matrici A
n
, cu n Z.
Intr-adevar, daca avem
A = , atunci, nmult ind la stanga cu A avem: A
2
= A(A) = A =
2
etc. Pentru puteri
negative, nmult im la stanga cu A
1
si obt inem: A
1
A = A
1
ceea ce, prin mpart ire la , conduce
la A
1
=
1
.
10.3. Aproximari practice ale transformatei KL 143
10.3.2 Transformata sinus discreta
Transformata sinus discreta este data de matricea unitara S = s(k, n)
k,n=0,...,N1
, av and
elementele date de:
s(k, n) =
_
2
N + 1
sin
(k + 1)(n + 1)
N + 1
. (10.49)
La randul ei, si transformata sinus poate implementata prin algoritmi rapizi, de
complexitate O(N log N).
La fel ca si n cazul transformatei cosinus, se poate arata ca vectorii coloana ai matricii
S
T
sunt vectori proprii ai matricii:
N =
_
_
1 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1 0
0 0 0 0 1
0 0 0 0 0 1
_
_
. (10.50)
Prin compararea (10.50) cu (10.44), se poate scrie:
N
[[0,5
K
1
, (10.51)
ceea ce se traduce prin faptul ca transformata sinus discreta reprezinta o buna aproximare
a transformatei optimale KL pentru semnale aleatoare slab corelate.
144 CAPITOLUL 10. TRANSFORMATE UNITARE
Capitolul 11
Cuantizarea semnalelor
11.1 Introducere
Asa dupa cum am enunt at si n capitolele anterioare, cuantizarea, mpreuna cu
esantionarea, reprezinta cei doi pasi prin care un semnal continuu este adus ntr-o forma
n care poate prelucrat cu calculatorul.
In urma operat iei de esantionare, semnalul con-
tinuu este transformat ntr-o secvent a discreta de valori continue. Cuantizarea urmareste
transformarea naturii valorilor esantioanelor semnalului din continuu n discret.
In acest
scop, se foloseste o funct ie de cuantizare Q cu care se aproximeaza valorile continue ale
semnalului cu valori ce provin dintr-o mult ime cu L elemente (deci nita).
Considerand ca gama de valori a semnalului este limitata n intervalul [
min
,
max
] (am-
bele limite ind presupuse cunoscute a priori) funct ia de cuantizare Q este de forma:
y = Q(x) =
_
_
y
L
daca x
L
< x x
L+1
y
L1
daca x
L1
< x x
L
. . .
y
1
daca x
1
x x
2
, (11.1)
unde x
1
min
iar x
L+1
max
. Valorile x
i
se numesc praguri de cuantizare, n timp
ce valorile y
i
se numesc valori cuantizate. Diferent a ntre doua praguri de cuantizare
succesive se noteaza cu
i
not
= x
i
x
i1
si se numeste pas de cuantizare.
In gura 11.1
este prezentata forma generala a gracului unei funct ii de cuantizare.
Astfel, dupa cuantizare, ecare esantion al semnalului cuantizat
i1
Figura 11.1: Gracul unei funct ii de cuantizare Q(x).
0 2 4 6 8 10 12
x
i+2
x
i+1
x
i
x
i1
y
i
y
i+1
y
i1
Figura 11.2: Cuantizarea valorilor unui semnal: cu sunt gurate valorile originale
(k) ale esantioanelor semnalului, n timp ce valorile cuantizate
(k) = Q((k)) sunt
reprezentate cu .
11.2. Cuantizarea uniforma 147
11.2 Cuantizarea uniforma
Cea mai simpla cuantizare este cea uniforma, care rezulta prin alegerea unui pas de
cuantizare uniform pe tot intervalul de valori posibile ale semnalului [
min
,
max
]:
n1
=
n
not
= n = 2, 3, . . . , L. (11.3)
Rezulta, deci, ca
=
max
min
L
, (11.4)
de unde rezulta valoarea pragurilor de cuantizare:
x
n
=
min
+ (n 1), n = 2, . . . , L. (11.5)
Cat despre valorile cuantizate, ele se aleg la mijlocul ecarui interval de cuantizare n
parte:
y
n
=
x
n
+ x
n+1
2
n = 1, 2, . . . , L. (11.6)
Daca se considera eroarea indusa n semnal de operat ia de cuantizare:
e(n) = (n)
(n), (11.7)
atunci aceasta poate scrisa sub forma
e(n) = g((n)), (11.8)
cu funct ia g(x) avand forma:
g(x) = x Q(x) =
_
_
x y
L
daca x
L
< x x
L+1
x y
L1
daca x
L1
< x x
L
. . .
x y
1
daca x
1
x x
2
. (11.9)
Gracul funct iei g corespunzatoare unei cuantizari uniforme este prezentat n gura 11.3.
Aplicand (3.25), rezulta
w
e
(u) =
_
L
i=1
w
(u + y
i
) daca u
_
2
,
2
0 n rest
. (11.10)
Se poate arata ca daca numarul de nivele de cuantizare L este sucient de mare pentru
o gama de valori precizata [
min
,
max
], ceea ce este echivalent cu a spune ca pasul de
cuantizare (11.4) este sucient de mic, distribut ia erorii induse prin cuantizare uniforma
este aproximativ uniforma n intervalul precizat:
w
e
(u)
_
1
daca [u[
2
0 n rest
. (11.11)
Rezulta din (11.11) ca eroarea patratica medie indusa de cuantizarea uniforma, care
nu este altceva decat variant a erorii e(n) este data de:
= e
2
(n) =
2
e
=
2
12
. (11.12)
148 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
g(x)
x
/2
/2
x
1
x
2
x
L+1
y
1
x
L
y
L
Figura 11.3: Funct ia de trecere din n e
11.3 Cuantizarea optimala LloydMax
Cuantizarea uniforma data de relat iile (11.5) si (11.6) este atractiva prin prisma sim-
plitat ii modului de calcul al pragurilor de cuantizare. Totusi ea nu este optimala, ntrucat
nu t ine cont de distribut ia valorilor semnalului de cuantizat w
. Cuantizarea LloydMax
urmareste calculul pragurilor de cuantizare si al valorilor cuantizate n sensul minimizarii
erorii patratice medii induse de cuantizare.
In mare, ideea este de a aloca pasi de cuan-
tizare
i
mici pe intervalele pe care distribut ia w
g
2
(x)w
(x)dx. (11.13)
In dezvoltarea de mai sus am aplicat teorema de medie (3.41) si am t inut cont ca semnalul
(n) este presupus din ociu a stat ionar, deci este caracterizat de aceeasi densitate de
probabilitate w
i=1
x
i+1
_
x
i
(x y
i
)
2
w
(x)dx. (11.14)
Valorile pragurilor x
k
ce minimizeaza pe se obt in din ecuat ia:
x
k
= 0 k = 2, 3, . . . , L, (11.15)
ecuat ie care, t inand cont de (4.9), se scrie:
2(x
k
y
k1
)
2
w
(x
k
) 2(x
k
y
k
)
2
w
(x
k
) = 0. (11.16)
1
Formula este valabila pentru orice lege de cuantizare, adica pentru orice valori ale lui x
i
si y
i
.
11.3. Cuantizarea optimala LloydMax 149
Dupa reduceri si rearanjarea termenilor, obt inem:
x
k
=
y
k1
+ y
k
2
k = 2, . . . , L. (11.17)
Pe de alta parte, valorile cuantizate y
k
ce minimizeaza eroarea patratica medie se
obt in, la randul lor, din ecuat ia:
y
k
= 0 k = 2, 3, . . . , L, (11.18)
care este echivalenta cu:
2
x
k+1
_
x
k
(x y
k
)w
(x)dx = 0. (11.19)
Prin rearanjarea termenilor, obt inem valorile nale ale lui y
k
:
y
k
=
x
k+1
_
x
k
xw
(x)dx
x
k+1
_
x
k
w
(x)dx
k = 1, 2, . . . , L. (11.20)
T inand cont de relat ia (3.10), putem scrie expresia valorilor cuantizate optimale sub
forma:
y
k
=
xw
[x
k
x
k+1
(x)dx = [x
k
x
k+1
(11.21)
Relat iile (11.17) si (11.20) formeaza sistemul de ecuat ii LloydMax, care este un sistem
neliniar de 2L1 ecuat ii cu 2L1 necunoscute prin a carui rezolvare se determina pragurile
de cuantizare si valorile cuantizate ce minimizeaza eroarea patratica medie de cuantizare.
Sa mai spunem ca, n general, nu exista o solut ie analitica a sistemului LloydMax,
si ca aceasta se aa, n general, prin metode numerice. Totusi, dupa cum vom arata n
paragraful 11.4, pentru cazul particular al unui numar de nivele de cuantizare L ridicat,
solut ia sistemului LloydMax poate data n mod analitic cu buna aproximat ie.
Pentru moment, sa ne oprim asupra observat iei ca, n cazul n care semnalul de cuan-
tizat are o distribut ie uniforma n intervalul [
min
,
max
], atunci, t inand cont de (3.22),
ecuat ia (11.20) se scrie:
y
k
=
x
k+1
_
x
k
x
1
max
min
dx
x
k+1
_
x
k
1
max
min
dx
=
x
2
2
x
k+1
x
k
x
x
k+1
x
k
=
x
k
+ x
k+1
2
. (11.22)
(n) = f
1
( (n)) (11.27)
sa se obt in a o cuantizare optimala a semnalului (n). Datorita faptului ca alura funct iei f
rezultate pentru majoritatea distribut iilor ntalnite n practica este aceea a unei funct ii de
compresie a gamei semnalului (vezi gura 11.5), si deci, implicit, funct ia f
1
realizeaza o
expandare, tehnica poarta numele de compandare, termen ce provine din prescurtarea sin-
tagmei compresieexpandare. Schema bloc a cuantizarii prin compandare este prezentata
n gura (11.4).
f()
f
1
()
Cuantizare
uniforma
Compresie
Q
u
()
Expandare
Figura 11.4: Cuantizarea prin compandare.
Cat despre determinarea funct iei f(x), ne vom margini la a da expresia sa aproxi-
mativa, obt inuta n ipoteza unui numar de nivele L sucient de mare ca densitatea de
probabilitate w
(x)
L,,
const = w
(y
k
) x [x
k
, x
k+1
], k = 1, . . . , L. (11.28)
11.4. Compandarea 151
x
f(x)
max
max
min
min
Figura 11.5: Forma funct iei de compresie din relat ia (11.29) pentru o distribut ie w
de tip Gauss.
min
)
_
x
min
[w
(u)]
1
3
du
_
max
min
[w
(u)]
1
3
du
+
min
. (11.29)
Calculul ce permite deducerea relat iei (11.29) este prezentat n referint a [9].
In
gura 11.5 este prezentata forma funct iei f(x) pentru o distribut ie w
gaussiana. Se poate
observa forma funct iei, avand o panta ce scade spre extreme, ceea ce justica denumirea
de funct ie de compresie.
152 CAPITOLUL 11. CUANTIZAREA SEMNALELOR
Capitolul 12
Aplicat ii n prelucrarea si analiza
imaginilor
12.1 Introducere
Unul dintre domeniile cu aplicat ii dintre cele mai spectaculoase ale teoriei si modelelor
statistice prezentate n capitolele anterioare este prelucrarea si analiza digitala a imagi-
nilor. Imaginile, n accept iunea cea mai simpla, sunt semnale bidimensionale funct ii
dependente de doua variabile a caror semnicat ie este de coordonate spat iale. Valo-
rile unei imagini provin din achizit ia din scena reala a unei marimi zice de interes de
catre un senzor adaptat corespunzator. Reprezentarea digitala a imaginilor nseamna
reprezentarea valorilor acestora ntr-o forma utilizabila direct de catre un calculator di-
gital, deci o reprezentare cu un numar nit de bit i, ce rezulta n urma esantionarii si
cuantizarii
1
semnalului continuu preluat de senzor.
Deci, pentru o imagine digitala, valorile posibile sunt n numar nit (n general cores-
punzand reprezentarii valorilor cuantizate ca ntregi, printr-un numar xat de bit i), iar
variabilele ce corespund suportului spat ial (coordonatelen spat iul imaginii, sau variabilele
de care depinde funct ia imagine) au la randul lor valori discrete.
Putem deci considera n cazul cel mai simplu ca o imagine digitala este o matrice
(sau tablou) n care sunt nscrise valorile funct iei imagine. Fiecare element al acestei
matrici, deci o celula situata la intersect ia unei linii si a unei coloane date, se numeste
pixel (termenul folosit n limba romana ind identic cu cel folosit n limba engleza, unde
provine din contragerea termenilor picture element element de imagine). Asadar, o
imagine digitala este alcatuita din pixeli, ecare pixel ind caracterizat de o anumita
pozit ie (coordonate de linie si de coloana corespunzatoare plasamentului sau n matricea
imagine) si de o anumita valoare
2
.
1
De cele mai multe ori cuantizarea este uniforma, numarul sucient de mare de nivele de cuantizare
asigurand precizia necesara (eroarea sucient de mica) de reprezentare.
2
Intereseaza de asemenea forma pixelului (evident patrata n exemplicarea de mai sus, dar putand
avea si alte forme de exemplu hexagonala n aplicat ii mai complexe).
153
154 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
i=0
h(i) = 1. (12.2)
ceea ce este normal, ind vorba de o funct ie asimilabila unei densitat i de probabilitate.
Imbunatat irea imaginilor este o sintagma generala ce se refera la o clasa larga de operat ii
al caror scop este marirea vizibilitat ii componentelor (sau part ilor) imaginii, n sensul
percept iei vizuale umane. Ca urmare, criteriile de evaluare ale calitat ii unei imagini vor
subiective (depinzand de utilizatorul imaginii) si specice aplicat iei din care provine
imaginea. Se poate face analogia operat iilor de mbunatat ire a imaginilor cu reglajul
tonalitat ii muzicii ascultate; astfel, n funct ie de ascultator, se pot favoriza componentele
nalte sau joase, sau nici unele.
In principiu mbunatat irea imaginilor se poate face f ara
a lua n considerare nici o informat ie asupra imaginii originale sau asupra procesului de
degradare care a determinat ca imaginea data sa necesite ombunatat ire. Conform acestui
punct de vedere chiar si o imagine originala (nedegradata) poate mbunatat ita, obt inand
o imagine falsicata (n sensul diferent elor fat a de original), dar subiectiv preferabila (un
contrast mai mare, muchii si frontiere mai accentuate, regiuni uniforme mai netede).
Prin mbunatat ire, unei imagini nu i se adauga nici o informat ie noua fat a de cea
existenta init ial; cont inutul original este nsa prezentat diferit. Desi la o examinare su-
perciala armat ia este corecta, putem gasi macar doua obiect ii (sau contraexemple) la
aceasta formulare:
din punctul de vedere al utilizatorului, informat ia, chiar daca exista, nu poate
folosita, deci este asimilabil nula. Acesta este cazul imaginilor obt inute n condit ii
extreme de iluminare, ce prezinta un contrast foarte slab (imagini subexpuse sau
supraexpuse);
din punctul de vedere al teoriei informat iei, informat ia din imagine poate asimilata
entropiei procesului aleator ale carui realizari particulare sunt valorile de gri ale
pixelilor; entropia se modica nsa la orice transformare ce afecteaza distribut ia
nivelelor de gri din imagine.
12.2.1 Egalizarea de histograma
Majoritatea imaginilor prezinta o distribut ie neuniforma a nivelelor de gri n orice ima-
gine exista nivele de gri predominante si exista nivele de gri put in prezente sau absente.
Operat iile de mbunatat ire a imaginilor (pentru mbunatat irea percept iei vizuale) au ca
scop redistribuirea nivelelor de gri din imagine, astfel ncat acestea sa ocupe ntreaga
gama de de valori disponibile [0, M 1]. Daca se impune condit ia ca noua distribut ie a
nivelelor de gri sa e uniforma, operat ia ce realizeaza aceasta cerint a se numeste egalizare
de histograma.
Scopul egalizarii de histograma este deci obt inerea unei distribut ii uniforme a nivelelor
de gri; imaginea rezultata va prezenta cea mai mare mbunatat ire a contrastului, contrast
distribuit regulat n ntreaga gama de valori posibile a nivelelor de gri. Din punct de
vedere matematic, egalizarea de histograma nseamna transformarea unei distribut ii oare-
cari (descrisa de histograma imaginii init iale) ntr-o distribut ie uniforma. Implementarea
12.3. Segmentarea imaginilor 157
egalizarii de histograma presupune deci determinarea acestei funct ii scalare de o variabila
(care modica valorile nivelelor de gri).
Dupa cum s-a aratat n exemplul de la pagina 27, pentru orice variabila aleatoare
(avand deci orice distribut ie) funct ia sa de repartit ie o transformantr-o variabila aleatoare
distribuita uniform n intervalul [0, 1].
In ceea ce priveste funct ia de repartit ie de ordinul
unu al imaginii, aceasta se calculeaza, conform proprietat ii 2 a densitat ilor de probabili-
tate, dupa relat ia:
H(i) =
i
j=0
h(j) i = 0, 1, . . . , M 1. (12.3)
si se numeste histograma cumulativa .
Astfel, egalizarea de histograma se obt ine modicand valoarea ecarui pixel din ima-
gine printr-o funct ie ce se obt ine prin rescalarea valorilor histogramei cumulative a ima-
ginii (12.3) din intervalul [0, 1] n toata gama de nivele de gri ale imaginii, [0, M 1].
Rezumand, putem scrie expresia funct iei de realocare a nivelelor de gri F(i) cu care se
implementeaza operat ia de egalizare de histograma ca:
F(i) =
_
H(i) H(0)
1 H(0)
(M 1)
_
, i = 0, 1, ...M 1. (12.4)
unde cu | am notat operatorul de rotunjire la cel mai apropiat ntreg. Figurile 12.3
prezinta efectul egalizarii de histograma asupra unor imagini naturale.
Egalizarea de histograma este deci o metoda automata (nu necesita stabilirea de
parametri) si adaptiva de mbunatat ire a aspectului vizual al imaginilor. Discut ia asupra
limitarilor si decient elor acestei metode depaseste nsa cadrul acestui material citi-
torul interesat ind invitat a se referi la un curs dedicat prelucrarii si analizei imaginilor,
precum [6].
12.3 Segmentarea imaginilor
Operat ia de segmentare
3
urmareste extragerea din imagine a zonelor (regiunilor) ocupate
de diferitele obiecte prezente n scena. Un obiect se deneste ca o entitate caracterizata de
un set de parametri ale caror valori nu se modica n diferitele puncte ce apart in entit at ii
considerate. Mai simplu, putem spune ca obiectul are proprietatea de uniformitate a
parametrilor de denit ie.
Unul dintre cei mai simpli parametri de denit ie este chiar nivelul de gri. Dupa cum
am ment ionat, nivelul de gri corespunde n scena unei proprietat i zice ce este preluata
de senzorul de imagine.
In acest caz, histograma imaginii reecta distribut ia n scena
a proprietat ii zice nregistrate. Daca nivelul de gri (respectiv proprietatea zica pe
care acesta o reprezinta) caracterizeaza n mod sucient obiectele din scena, histograma
imaginii va prezenta o structura de moduri dominante - intervale disjuncte de nivele de
3
In acest material ne vom referi numai la metode de segmentare zise orientate pe regiuni si nu la
extragerea contururilor obiectelor din imagini.
158 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
Figura 12.3: Coloana din stanga: imagini cu nivele de gri; coloana din dreapta: imagini
dupa egalizarea de histograma.
gri ce apar cu probabilitate mai mare. Fiecare asemenea mod (maxim al histogramei) va
reprezenta o anumita categorie de obiecte si vom numi clasa intervalul de nivele de gri
alocat unui anume tip de obiect.
Ca exemple imediate putem ment iona imaginile obt inute prin scanarea documentelor
scrise si a tipariturilor (folosite de programe de tip OCR - Optical Character Recognition),
imaginile n infrarosu (nivelul de gri al unui pixel este asociat temperaturii punctului
respectiv, astfel ncat mai alb are semnicat ia de mai cald) sau imaginile n care
exista o categorie de obiecte de interes si un fundal uniform. Pentru toate aceste tipuri
de imagini histograma este de tipul celei prezentate n gura 12.4.
In general, imaginile
reale (zise naturale) nu prezinta o asemenea structura clara de moduri (dupa cum arata
si exemplele din gura 12.2).
Segmentarea pe histograma (numita si praguire sau thresholding) urmareste deter-
12.3. Segmentarea imaginilor 159
0 50 100 150 200 250 300
0
0.005
0.01
0.015
0.02
0.025
0.03
Figura 12.4: Exemplu de imagine cu nivele de gri avand o histograma bimodala, cu
moduri bine separate.
minarea unor nivele de gri ce separa modurile histogramei. Apoi, tuturor punctelor din
imagine al caror nivel de gri corespunde aceluiasi mod, li se asociaza o eticheta comuna,
a carei semnicat ie este de apartenent a a punctului la obiectul respectiv. Pentru e-
xemplele prezentate anterior, problema este una de segmentare n doua clase (respectiv
mpart irea pixelilor imaginii n caractere scrise/zone albe, obiecte erbint i/obiecte reci,
obiect/fundal) operat ie ce necesita determinarea unui singur nivel de gri de separat ie T,
numit prag de segmentare. Acest prag de segmentare poate ales pe minimul histogramei
ce separa modurile acesteia (daca separat ia este evidenta). Astfel, pornind de la imaginea
init iala f, imaginea etichetata g va data de:
g(m, n) =
_
E
0
daca 0 f(m, n) < T
E
1
daca T f(m, n) < M
(12.5)
Imaginea etichetata g rezultatul transformarii va descrisa de cele doua etichete:
eticheta E
0
pentru punctele al caror nivel de gri este mai mic decat pragul T si eticheta
E
1
pentru punctele al caror nivel de gri este mai mare decat pragul T. Etichetele E
0
si
E
1
pot valori numerice (0 si 1, sau 0 si 255) sau pot siruri de simboluri. Acest tip de
segmentare se numeste binarizare, ntrucat imaginea rezultat este caracterizata de numai
doua valori.
In cazul general al existent ei mai multor obiecte n imagine, trebuie ales un numar
corespunzator de praguri de segmentare T
k
, segmentarea ind descrisa de:
g(m, n) = E
k
daca T
k
f(m, n) < T
k+1
(12.6)
unde T
0
= 0 , T
C
= M si k = 0, 1, ..., C 1. Pragurile T
k
pot alese manual, prin
inspect ia histogramei, n minimele locale ale acesteia.
Una din cerint ele de baza n majoritatea aplicat iilor din prelucrarile de imagine este
ca acestea sa lucreze n mod automat, fara intervent ia din exterior a utilizatorului (care
160 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
Figura 12.5: Imagini segmentate (binarizate): stanga varianta binarizata cu un prag
T = 110 a imaginii cu nivele de gri din gura 12.4; dreapta varianta binarizata cu un
prag T = 190 a imaginii cu nivele de gri din gura 12.3.d. Eticheta E
0
este reprezentata
cu negru, iar eticheta E
1
este reprezentata cu alb.
nu este, n general, de specialitate). Se pune, deci, problema alegerii automate a pragu-
lui(urilor) de segmentare T
k
, pe baza analizei automate a histogramei imaginii si a even-
tualelor cunostint e a priori asupra cont inutului imaginilor.
In paragrafele urmatoare, vom
prezenta doua abordari posibile pentru binarizarea automata a unei imagini.
12.3.1 Segmentarea imaginilor ca problema de cuantizare
Dupa cum am aratat n capitolul 11, cuantizarea unor valori implica nlocuirea valo-
rilor respective cu cea mai apropiata valoare dintr-o mult ime nita de valori (mult imea
valorilor cuantizate). Operat ia de cuantizare este o aproximare a valorilor init iale prin val-
orile cuantizate, mai exact, aproximarea tuturor valorilor cuprinse n intervalul (x
i
, x
i+1
]
cu valoarea cuantizata y
i
.
In cuantizarea optimala Lloyd-Max (prezentata n paragra-
ful 11.3) valorile cuantizate si intervalele de cuantizare sunt determinate astfel ncat media
patratica a erorii induse de aproximarea valorilor init iale cu cele cuantizate sa e minima
pentru un numar de nivele de cuantizare dat.
Dupa cum s-a demonstrat (v. relat ia (11.21)), valorile cuantizate care minimizeaza
eroarea patratica medie de aproximare sunt mediile statistice ale valorilor din intervalul
de cuantizare respectiv. Altfel spus, cuantizarea optimala nseamna alegerea intervalelor
de cuantizare sunt astfel ncat valorile din ecare interval sa e cat mai apropiate de media
lor, adica variant a valorilor din ecare interval de cuantizare sa e minima. Eroarea de
cuantizare va atunci variant a medie corespunzatoare tuturor intervalelor de cuantizare
alese.
Intr-adevar, nlocuind (11.21) n (11.14) putem scrie eroarea patratica medie ca:
12.3. Segmentarea imaginilor 161
=
L
i=1
x
i+1
_
x
i
_
x [x
i
x
i+1
_
2
w
(x)dx =
=
L
i=1
x
i+1
_
x
i
w
(z)dz
. .
P(x
i
x
i+1
)
x
i+1
_
x
i
_
x [x
i
x
i+1
_
2 w
(x)
x
i+1
_
x
i
w
(z)dz
. .
w
|{x
i
x
i+1
}
. .
2
|{x
i
x
i+1
}
dx.
=
L
i=1
P(x
i
x
i+1
)
2
[x
i
x
i+1
(12.7)
In cazul binarizarii, problema (care fusese init ial formulata doar ca alegere a pragului
de segmentare T care separa modurile histogramei ce corespund celor doua obiecte din
imagine) poate reformulata n sensul cuantizarii astfel: dorim cuantizarea optimala a
valorilor pixelilor imaginii cu L = 2 nivele, ceea ce revine la determinarea pragului T
astfel ncat prin mpart irea gamei de nivele de gri disponibile [0, M1] n doua subinter-
vale, [0, T] si [T, M 1], si prin aproximarea ecarui pixel dintr-un subinterval cu media
acestuia, eroarea patratica medie sa e minima. Astfel, conform (12.7), pragul T cu care
facem binarizarea trebuie sa minimizeze expresia:
= P
0
2
0
+ P
1
2
1
, (12.8)
unde P
0
si P
1
sunt probabilitat ile ca nivelul de gri al unui pixel sa apart ina intervalelor
[0, T 1], respectiv [T, M 1]:
P
0
=
T1
i=0
h(i), (12.9a)
P
1
=
M1
i=T
h
i
= 1 P
0
, (12.9b)
iar
2
0
si
2
1
sunt variant ele nivelelor de gri corespunzatoare acelorasi intervale:
2
0
=
T1
i=0
i
2
h(i)
T1
i=0
h(i)
_
_
_
_
T1
i=0
ih(i)
T1
i=0
h(i)
_
_
_
_
2
, (12.10a)
2
1
=
M1
i=T
i
2
h(i)
M1
i=T
h(i)
_
_
_
_
_
M1
i=T
ih(i)
M1
i=T
h(i)
_
_
_
_
_
2
. (12.10b)
162 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
Acest mod de denire a binarizarii este cunoscut n domeniul prelucrarii si analizei
imaginilor drept metoda de segmentare Otsu.
Dupa cum am aratat, pragul cautat T este media aritmetica a mediilor statistice ale
valorilor de cuantizat din cele doua intervale de cuantizare alese; t inand seama ca nivelele
de gri din imagine sunt (deja) valori discrete, expresia (11.17) se poate scrie ca:
T =
1
2
_
_
_
_
_
_
_
_
_
T1
i=0
ih(i)
T1
i=0
h(i)
. .
0
+
M1
i=T
ih(i)
M1
i=T
h(i)
. .
1
_
_
_
_
_
_
_
_
_
. (12.11)
Aceasta ecuat ie nu se poate rezolva analitic. Putem gasi totusi valoarea T cautata,
care minimizeaza pe (12.8) calculand valorile unei forme modicate ale funct iei (12.8)
pentru toate valorile posibile ale lui T 0, 1, . . . , M 1. Pentru aceasta, 12.8 se poate
rescrie ca:
=
M1
i=0
i
2
h(i)
_
P
0
2
0
+ P
1
2
1
_
. (12.12)
Minimizarea lui (12.8) revine la maximizarea lui P
0
2
0
+P
1
2
1
, cu
0
si
1
mediile nivelelor
de gri pe cele doua intervale. O simplicare a calculului se poate obt ine prin considerarea
relat iilor iterative prin care mediile si probabilitat ile de aparit ie pe intervale, calculate
pentru pragul T + 1 depind de aceleasi marimi calculate pentru pragul imediat anterior,
T. De exemplu avem:
P
0
(T + 1) = P
0
(T) + h(T + 1) (12.13)
0
(T + 1) =
P
0
(T)
0
(T) + (T + 1)h(T + 1)
P
0
(T + 1)
. (12.14)
Relat ii analoage exista pentru marimile P
1
si
1
.
12.3.2 Segmentarea imaginilor ca problema de decizie
Binarizarea unei imagini cu nivele de gri poate interpretata si ca o problema de decizie
trebuie hotarata clasa (tipul de obiect) careia i apart ine ecare punct din imagine.
Decizia se reduce, desigur, la calculul pragului de segmentare T, cu care se compara
nivelele de gri ale pixelilor din imagine, astfel ncat clasicarea pixelilor n clase sa e cat
mai corect a din punctul de vedere al unui criteriu de eroare. Pragul astfel determinat
va optim n sensul criteriului de eroare folosit, segmentarea numindu-se segmentare cu
prag optim.
In cazul binarizarii trebuie determinat deci un unic prag T ce separa modurile din
histogram a ce corespund celor doua obiecte din imagine: obiecte O
0
, caracterizate de
nivele de gri mai mici decat pragul T, si obiecte O
1
, ale caror nivele de gri sunt mai mari
12.3. Segmentarea imaginilor 163
decat pragul T. Binarizarea se poate formula ntr-un cadru specic proceselor de decizie,
considerand ca pentru ecare pixel al imaginii se ia decizia D
0
(respectiv se decide ca
pixelul apart ine unui obiect O
0
) daca nivelul sau de gri este mai mic decat pragul T, sau
decizia D
1
(pixelul apart ine unui obiect de tip O
1
) daca nivelul de gri al pixelului este
mai mare decat pragul T. Dupa cum se poate remarca, observat ia pe baza careia lu am
decizia este un scalar, si anume nivelul de gri al pixelului respectiv.
Criteriul ce se urmareste optimizat este minimizarea probabilitat ii de clasicare
eronata a punctelor din imagine. Presupunand cunoscute funct iile de densitate de pro-
babilitate a nivelelor de gri ce descriu ecare dintre cele doua tipuri de componente din
imagine, w
0
(i) si w
1
(i) si probabilitat ile lor de aparit ie n imagine, P
0
si P
1
, putem exprima
probabilitatea de clasicare eronata ca:
P
E
(T) = P
0
+
_
T
w
0
(x)dx
. .
P(D
1
[O
0
)
+ P
1
T
_
w
1
(x)dx
. .
P(D
0
[O
1
)
(12.15)
In mod evident se presupune ca cele doua tipuri de obiecte ocupa complet imaginea
(P
0
+ P
1
= 1). Histograma imaginii (adica distribut ia nivelelor de gri la nivelul ntregii
imagini) este evident mixtura distribut iilor individuale ale celor doua tipuri de obiecte si
se poate scrie ca:
h(i) = P
0
w
0
(i) + P
1
w
1
(i), i = 0, 1, . . . , M 1. (12.16)
Figura 12.6 prezinta o ilustrare graca a erorii.
Pragul optim va minimiza eroarea de segmentare a pixelilor. Minimizarea erorii (12.15)
conduce la rezolvarea ecuat iei n necunoscuta T:
P
E
(T)
T
= 0, (12.17)
ceea ce conduce la relat ia:
P
0
w
0
(T) + P
1
w
1
(T) = 0, (12.18)
ce poate rescrisa ca:
w
1
(T)
w
0
(T)
=
P
0
P
1
. (12.19)
Forma (12.19) se poate compara cu forma nala a criteriului de decizie Bayes data
de (6.14). Constatam astfel ca ne aam ntr-un cadru de alegere simetrica a costurilor
de decizie (ambele erori de decizie au acelasi cost, ambele decizii corecte au acelasi cost),
astfel ncat pragul testului Bayes este dat de raportul probabilitat ilor a priori de aparit ie
a celor doua tipuri de obiecte.
Presupunerea ca distribut ia nivelelor de gri a diferitelor tipuri de obiecte este de tip
normal (Gaussian) este relativ des ntalnita.
In aceste condit ii, distribut iile w
0
(x) si w
1
(x)
164 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
T
i
h(i)
P
0
w
0
(i)
P
1
w
1
(i)
Figura 12.6: Eroarea de clasicare corespunzatoare separarii a doua moduri Gaussiene
prin pragul T corespunde ariei hasurate din gura. Histograma imaginii, data de (12.16),
este gurata cu linie punctata.
sunt distribut ii normale, ^(m
0
,
0
) si ^(m
1
,
1
), iar ecuat ia (12.19) devine:
1
2
exp
_
(Tm
1
)
2
2
2
1
_
1
2
exp
_
(Tm
0
)
2
2
2
0
_ =
P
0
P
1
(12.20)
Prin logaritmare, se obt ine o ecuat ie de gradul doi prin a carei rezolvare se determina
pragul necunoscut T:
T
2
_
1
2
0
2
1
_
2T
_
m
0
2
0
m
1
2
1
_
+
_
m
2
0
2
0
m
2
1
2
1
_
2 ln
P
0
P
1
0
= 0. (12.21)
Pentru cazul particular
0
=
1
not
= , ecuat ia (12.21) devine o ecuat ie de gradul unu,
a carei solut ie este:
T =
m
0
+ m
1
2
2
m
0
m
1
ln
P
0
P
1
(12.22)
Metoda se poate extinde si pentru imagini ce cont in mai mult de doua tipuri de obiecte;
n acest caz este nsa necesara o presupunere suplimentara de localizare a modurilor, asfel
ncat sa se poata considera ca inuent a ecarui mod este limitata la intervale nesuprapuse
de nivele de gri si deci eroarea de clasicare a pixelilor imaginii se va referi doar la perechi
de moduri vecine.
12.4 Compresia imaginilor cu transformate
Compresia imaginilor nseamna reprezentarea acestora ntr-o forma simplicata, care
necesita un spat iu mai mic de stocare sau o durata mai mica de transmisie. Dorim
12.4. Compresia imaginilor cu transformate 165
reprezentarea aceluiasi cont inut vizual ntr-o forma mai compacta; noua reprezentare tre-
buie sa permita refacerea identica (sau aproape identica) a cont inutului imaginii init iale
vom spune ca avem de-a face, n cele doua cazuri, cu o compresie fara pierderi (respectiv
cu pierderi).
Posibilitatea de a stoca/transmite datele comprimat provine din redundant a existenta
n succesiunea valorilor semnalului ce se comprima/ compacteaza/ codeaza, redundant a
ce are dou a cauze:
Semnalele reale sunt corelate, ceea ce este echivalent cu faptul ca valori apropiate
ale semnalului depind una de alta. Astfel, prin codarea ecarei valori independent
de valorile alatuate se induce n semnal o redundant a care este cu atat mai mare cu
cat corelat ia este mai puternica.
Pentru majoritatea semnalelor, valorile acestora nu au o distribut ie uniforma: anu-
mite valori sunt mai probabile decat altele, fapt de care nu se t ine n general cont,
toate esantioanele semnalului ind codate cu acelasi numar de bit i, desi, dupa cum
se stie din teoria codarii, prin alocarea unui cod mai scurt valorilor mai probabile se
poate reduce cantitatea globala de date necesare pentru stocarea ntregului semnal.
Dintre tehnicile de baza de compresie bazate pe exploatarea corelat iei din semnale, cele
mai comune sunt compresia cu transformate (discutata n capitolul 10) si cea predictiva
(ment ionata n capitolul 9)
4
. Pentru eliminarea celei de-a doua cauze a redundant ei, se
foloseste codarea entropica, de tip Human.
Ecient a unei metode de compresie se masoara prin doi parametri: raportul de com-
presie, care este un indicator al reducerii cantitat ii de informat ie necesare pentru stocarea
imaginii, si factorul de calitate, care este o masura a reducerii calitat ii imaginii induse de
compresie. Ca n multe alte probleme ingineresti, cele doua cerint e sunt antagoniste (cu
cat raportul de compresie este mai mare, cu atat factorul de calitate este mai scazut, si
vice-versa) proiectarea metodelor de compresie trebuind sa asigure un compromis rezon-
abil ntre cele doua.
Imaginile, n general, sunt semnale caracterizate de o corelat ie foarte puternica ntre
valori vecine. Acest fapt se datoreaza existent ei, n majoritatea imaginilor naturale, a
unor zone uniforme extinse, zone caracterizate de valori similare ale pixelilor. Astfel, este
de asteptat de la o metoda de compresie de imagini o reducere semnicativa a cantitat ii
de date, pentru factori de calitate mari.
Standardul de compresie JPEG, pe care-l vom prezenta schematic n continuare, face
apel la toate tipurile de metode de compresie ment ionate mai sus (cu transformate, pre-
dictiva, entropica)
Compresia cu transformate a imaginilor se bazeaza pe proprietat ile de conservare si
compactare a energiei (si, implicit, de decorelare a componentelor) pe care le prezinta
majoritatea transformarilor unitare discutate n capitolul 10. Atata vreme cat cea mai
4
Pentru imagini exista multe alte tehnici specice de compresie, dintre care citam cuantizarea vecto-
riala, compresia cu fractali etc.
166 CAPITOLUL 12. APLICAT II
IN PRELUCRAREA SI ANALIZA IMAGINILOR
mare parte a energiei este distribuita dupa transformarea valorilor originale ale imaginii n
numai cateva componente transformate, toate celelalte valori transformate pot ignorate;
astfel memoria necesara reprezentarii este mult mai mica. Aplicarea practica a compresiei
cu transformate are deci n vedere trei aspecte: alegerea transformatei bidimensionale,
stabilirea numarului de valori ce se pastreaza si, n ne, cuantizarea acestora.
Dupa cum am discutat, exista impedimente de ordin practic pentru utilizarea transfor-
matei optimale Karhunen-Lo`eve, drept pentru care n practica se folosesc aproximari ale
acesteia.
In condit iile n care majoritatea imaginilor naturale pot aproximate printr-un
model Markov de ordin unu puternic corelat (exprimand dependent a puternica a valorii
pixelilor de valorile vecinilor lor imediat i), transformata cosinus discreta (prezentata pen-
tru cazul unidimensional n paragraful 10.3) s-a dovedit cea mai buna alegere si a fost
adoptata de standardul de compresie JPEG
5
. Transformarea cosinus discreta a unei ima-
gini (deci bidimensionala) se reduce la aplicarea succesiva a transformarii unidimensionale
pe ecare dintre liniile imaginii si apoi pe ecare coloana a matricii rezultate intermediar
(pentru mai multe detalii vezi referint a [6]).
Standardul de compresie JPEG
6
(identicat de siere imagine cu extensia .jpg sau
.jpeg) a fost denit n 1992 (ISO/ IEC 10928-1, ITU-T Rec. T-81). Imaginea este di-
vizata n blocuri adiacente de 8 x 8 pixeli, iar ecarui bloc i se aplica o transformata
cosinus bidimensionala
7
. Cei 64 de coecient i ai transformarii sunt aranjat i ntr-un sir
unidimensional prin baleierea elementelor matricii de 8 x 8 elemente ntr-o ordine presta-
bilita (un zig-zag pe diagonale paralele cu diagonala secundara) care face ca valorile cele
mai semnicative cantitativ sa ocupe primele pozit ii n vectorul rezultant. Coecient ii
sunt apoi cuantizat i cu pasi de cuantizare diferit i n funct ie de pozit ia lor n sir, pasi
prestabilit i prin standard.
In mare, primele componente sunt cuantizate cu o precizie
mai mare (deci cu un pas de cuantizare mai mic), n timp ultimele componente (cele
mai put in semnicative) sunt cuantizate grosier, cu cuante mari (ceea ce deseori duce la
anularea completa a acestora). Calitatea compresiei este data de calitatea cuantizarii,
ntrucat pierderile totale introduse de compresia JPEG provin numai din cuantizarea va-
lorilor transformate. Calitatea compresiei poate reglata de utilizator prin setarea unui
factor de calitate Q care este un scalar cu valori ntre 1 si 100 cu care se scaleaza valorile
pasilor de cuantizare standardizate.
In mod evident pentru Q = 1 se obt ine calitatea cea
mai buna (si compresia minima), n timp ce pentru Q 100 se obt ine calitatea cea mai
slaba (si compresia maxima).
In gura 12.7 este prezentat rezultatul compresiei aceleiasi
imagini prin standardul JPEG pentru doua valori ale factorului de calitate.
_
E
1
daca x < x
1
E
2
E
1
x
2
x
1
(x x
1
) + E
1
daca x
1
x x
2
E
2
daca x > x
2
. (A.1)
Gracul funct iei f este prezentat n gura A.1.(a). Derivata funct iei, prezentata n
gura A.1.(b), este nula pe intervalele pe care funct ia e constanta, si este constanta pe
intervalul pe care funct ia creste liniar:
f
t
(x) =
_
0 daca x < x
1
sau x > x
2
E
2
E
1
x
2
x
1
daca x
1
x x
2
. (A.2)
Sa presupunemn continuare ca nivelele celor doua paliere ale funct iei f(x), si anume
E
1
si E
2
sunt constante.
In schimb, sa presupunem ca facem sa varieze limitele intervalului
de crestere liniara a funct iei, si anume x
1
si x
2
. Se observa ca indiferent de cat de apropiate
(saundepartate) sunt x
1
si x
2
una de cealalta, aria de sub gracul derivatei f
t
(x) a funct iei
(aria hasurata n gura A.1.(b)) este constanta, de valoare A = E
2
E
1
.
f(x)
x
x
1
x
2
E
1
E
2
f(x)
x
x
1
x
2
(E
2
E
1
)/(x
2
x
1
)
A=E
2
E
1
(a) (b)
Figura A.1: Funct ia f(x) si derivata ei.
169
170 ANEXA A. IMPULSUL DIRAC
Consideram acum forma aceleiasi funct ii si a derivatei sale n cazul limita x
2
x
1
.
In
acest caz, funct ia f(x) efectueaza un salt brusc de la nivelul E
1
la E
2
n punctul x
1
(v.
gura A.2.(a)). Pe masura ce x
2
se apropie de x
1
, intervalul [x
1
, x
2
] se micsoreaza, dar
valoarea derivatei pe intervalul respectiv creste. La limita, derivata f
t
(x) capata o valoare
innita, ntr-un singur punct, dar continua sa aiba arie constanta. Cu alte cuvinte, cand
x
2
x
1
, n derivata funct iei apare un impuls Dirac n punctul x
1
de arie E
2
E
1
(v.
gura A.2.(b)).
f(x)
x
x
2
x
1
E
1
E
2
f(x)
x
x
2
x
1
(E
2
E
1
)(xx
1
)
(a) (b)
Figura A.2: Funct ia f(x) si derivata ei n cazul limita x
2
x
1
.
Rezulta din cele de mai sus ca impulsul Dirac, notat cu (x), este un semnal avand
valoare innita ntr-un singur punct
1
, dar care are arie nita (aleasa prin convent ie egala
cu unitatea):
(x) =
_
daca x = 0
0 n rest
, (A.3)
cu
(x)dx = 1. (A.4)
Referitor la impulsul Dirac, se poate demonstra urmatoarea relat ie importanta:
f(x)(x x
0
)dx =
x
0
+
_
x
0
f(x)(x x
0
)dx
f(x
0
)
x
0
+
_
x
0
(x x
0
)dx
. .
1
= f(x
0
). (A.5)
Concluzia nala pe care o tragem n urma acestei expuneri este urmatoarea: daca o
funct ie prezinta un salt (are o discontinuitate) ntr-un punct x
0
, atunci n derivata funct iei,
n punctul x
0
va aparea un impuls Dirac de arie egala numeric cu amplitudinea saltului
efectuat de funct ie.
1
Este evident ca din punct de vedere strict matematic, o astfel de denit ie a unui semnal care ia valori
innite este incorecta. Totusi, vom pastra denit ia ca atare, ntrucat ea ne permite sa eludam trecerea
la limita cand x
2
x
1
de ecare data.
Bibliograe
[1] V. Buzuloiu. Teoria transmisiunii informat iei. Note de curs.
[2] A. Spataru. Teoria transmisiunii informat iei. Editura Didactica si Pedagogica, Bu-
curesti, 1983.
[3] A. Papoulis. Probability, random variables and stochastic processes. McGrawHill,
New York, NY, 3
rd
edition, 1991.
[4] S. Haykin. Adaptive lter theory. Prentice Hall, Englewood Clis, NJ, 2
nd
edition,
1991.
[5] A. K. Jain. Fundamentals of digital image processing. Prentice Hall, Englewood Clis,
NJ, 1989.
[6] C. Vertan. Prelucrarea si analiza imaginilor. Editura Printech, Bucuresti, 1999.
[7] A. Spataru. Fondements de la theorie de la transmission de linformation. Presses
Polytechniques et Universitaires Romandes, Lausanne, 1987.
[8] C. Vertan, I. Gavat, si R. Stoian. Variabile si procese aleatoare: principii si aplicat ii.
Editura Printech, Bucuresti, 1999.
[9] R. Boite si M. Kunt. Traitement de la parole. Presses Polytechniques Romandes,
Lausanne, 1987.
171