Documente Academic
Documente Profesional
Documente Cultură
Variabile aleatoare
Variabila aleatoare sau intamplatoare este legata de experimente
aleatoare, care desfasurate in timp conduc la procese aleatoare. In
cadrul teoriei statistice a semnalelor, procesul (semnalul) aleator este
un model mai realist decat semnalul determinist pentru o serie
intreaga de semnale atat utile (date, imagini, sunete) cat si
perturbatoare (zgomote) din sistemele de prelucrare si transmitere a
informatiei. Teoria statistica a semnalelor este strans legata de teoria
probabilitatilor si de teoria multimilor, care impreuna permit
introducerea notiunii de spatiu probabilistic.
1. Spatiu probabilistic
Baza pentru definirea variabilei aleatoare este spatiul probabilistic
= (H, $, P), numit de unii autori si model statistic. Acesta este
compus din trei elemente: multimea esantioanelor H, campul
evenimentelor $, si masura probabilistica P.
• multimea esantioanelor H: multimea tuturor rezultatelor
posibile ale unui experiment aleator.
Exemplu: numerele corespunzatoare apelurilor sosite la o anumita
centrala de comutatie, fetele aparute la aruncarea zarului, durata de
viata a unei anumite componente a unui sistem, tensiunea retelei
masurat la bornele unei prize.
• campul evenimentelor $ multimea nevida, continand
submultimi ale multimii H, avand urmatoarele proprietati:
a) H ∈ $
b) Din A ∈ rezulta A∈ $
∞
c) Din A1, A2, ... ∈ $ rezulta * Ai ∈ $ .
i =1
In aceasta definitie se noteaza cu A complementul mutimii A, adica
toate elementele multimii H care nu sunt in A. In consecinta, un
rezultat ηi ∈ H poate fi element al mai multor evenimente.
Exemplu: la aruncarea zarului, multimea rezultatelor este H = {1,
2,..., 6} unde i = aparitia fetei i si un camp posibil de evenimente
este $ = {∅, { 1}, { 1, 2}, { 2, 3, 4, 5, 6}, ..., H}
2
• Masura probabilistica P: o masura speciala care se
poate asocia elementelor campului evenimentelor, o
functie care se poate defini pe acest camp $. Domeniul
valorilor ei este intervalul {0, 1} al numerelor reale; se
poate spune ca functia P este o aplicatie a campului $ pe
intervalul {0, 1}. Proprietatile lui P sunt definite prin trei
axiome (Kolmogorov):
a) P(A) ≥ 0
b) P(H) = 1
n n
c) P( * Ai ) = ∑ P( Ai ) unde Ai sunt disjuncte doua
1 1
cate doua.
Definitiile probabilitatii:
nA
• ca frecventa relativa: P( A) = lim unde un experiment
n→∞ n
aleator este repetat de n ori si evenimentul A apare de nA
ori
N
• in sens clasic: P( A) = A unde N este numarul total de
N
rezultate ale experimentului (numarul elementelor din H
finit), din care evenimentul A intervine de NA ori.
a) { X (η ) ≤ x} ∈ $ pentru fiecare x ∈ IR
η 1 2 3 4 5 6
X(η) 0 0 5 10 10 100
Proprietatile ei sunt:
a) Fx ( −∞) = 0
b) Fx ( +∞) = 1
c) Fx ( x ) creste monoton
dFx ( x)
f x ( x) =
dx
x
Fx (x) = ∫ fx(u)du.
−∞
Exemple:
Fx(x) Fx(x)
1
1,0
(x/tmax)2
0,5
x x
tmax
fx(x) fx(x)
2/tmax
0,5
x x
tmax
ai = P ({ X (η ) = xi })
Introducan d cele doua relatii in expresia lui F ( x ) se obtine :
x
x
Fx ( x ) = ∫ f x (u ) du = ∑ P ({ X (η ) = xi })
−∞ xi ≤ x
• Momente de ordin n
(n) +∞
X = E{[ X (η )] } = ∫ x n f x ( x )dx = mx(n)
n
−∞
∞
E{g ( X ( η))} = ∫ g ( x )dFx ( x )
−∞
Daca desitatea de probabilitate fx(x) exista, atunci:
∞
E{g ( X ( η))} = ∫ g ( x ) f x ( x )dx
−∞
Operatorul de mediere este un operator liniar:
+∞
( X − X ) ( n ) = E{[ X (η ) − X ]n } = ∫ ( x − X ) n f x ( x)dx
−∞
( n)
= x
Pentru n = 2 (varianta):
(2) +∞
(X − X ) = ∫ ( x − X )2 f x ( x )dx pentru variabile continue
−∞
Var{X(` 1x
2
; 1x este dispersia (deviatia standard) a v.a.
Var{X(`
( 2)
1x
2
=X − {( X ) }2
δ2 Fxy ( x, y )
f xy ( x, y ) = .
δxδy
respectiv{Y() ` LD
HYHQLPHQWHO LPSRVLELO ^X() - `
respectiv{Y() - `
9
Rezulta astfel pentru ansamblul de doua v.a. urmatoarele
Proprietati ale functiei de repartitie de ansamblu, FXY (x,y):
f XY ( x, y ) = f X ( x ). fY ( y ) .
10
Rezulta pentru functiile de repartitie relatia:
FXY ( x, y ) = FX ( x ). FY ( y ) .
• Moment de ordin k, m
+∞ +∞
= E{ X (η )Y (η )} = ∫ ∫ x k y m f XY ( x, y )dxdy
( k ,m ) k m
mxy
−∞ −∞
+∞ +∞
= ∫ ∫ ( x − m X )k ( y − m y )m f XY ( x, y )dxdy
(1) (1)
−∞ −∞
−∞ −∞
Coeficient de corelatie
µ XY E{( X (η ) − m X )(Y (η ) − mY )}
(1,1) (1) (1)
ρ XY = =
σ X σ Y | E{( X (η ) − m X (1) )2 } ⋅ E{(Y (η ) − mY (1) )2 } |
limitele domeniului de variatie ale coeficientului sunt :
- 1 ≤ ρ XY ≤ 1
Demonstratie:
X (η ) − m (1) Y (η ) − m (1) 2
E X
± Y ≥0
σX σY
valoarea medie a partii din stanga a relatiei este :
1 ± 2 ρ XY + 1 ≥ 0
care este valabila pentru ambele semne numai pentru | ρ XY |≤ 1
FX ( x / B ) = P({ X (η ) ≤ x} / B )
dFX ( x / B )
f X ( x / B) =
dx
Pentru B = { X (η ) ≤ a}
P({ X (η ) ≤ x} ∩ { X (η ) ≤ a})
FX ( x / B ) =
P ({ X (η ) ≤ a})
x ≥ a → P ({ X (η ) ≤ x} ∩ { X (η ) ≤ a}) = P ({ X (η ) ≤ a})
⇒ FX ( x / B ) = 1
x ≤ a → P ({ X (η ) ≤ x} ∩ { X (η ) ≤ a}) = P ({ X (η ) ≤ x})
FX ( x )
⇒ FX ( x / B ) =
FX ( a )
f X ( x) f X ( x)
= a pentru x ≤ a
F
X ( a )
∫ f X (u )du
dFX ( x / B ) −∞
f X ( x / B) = =
dx 0 pentru x ≥ a
Pentru B = {Y (η ) ≤ y}
FXY ( x, y )
FX ( x / B ) =
FY ( y )
f XY ( x, y )
f X ( x / B) =
fY ( y )
13
7. Densitati de probabilitate uzuale
Distributii discrete
• Uniforma, cand rezultatele experimentului aleator sunt egal
probabile: P ( X = xi ) = 1 / n i = 1,2,3,..., n
• Binomiala, cand intereseaza probabilitatea de aparitie a unui
eveniment A de probabilitate p de k ori in sirul de n repetitii
ale experimentului:
P ( X = k ) = Cnk p k (1 − p )n − k , k = 1,2,...n unde :
n!
Cnk = si m ! = m(m − 1)( m − 2)...( 3)( 2)(1); 0 ! = 1
k! ( n − k )!
Exemplu: Probabilitatea de eronare a k simboluri intr-un
cuvant de lungime n
• Poisson, cand intereseaza numarul k al rezultatelor pozitive
ale unui experiment intr-un interval de timp de lungime T :
λk − λ
P ( X = k ) = e , k = 0, 1, 2,...
k!
λ = λ ' T unde λ ' este numarul rezultatelor pozitive
cu
care apar in unitatea de timp.
Exemplu: Numarul apelurilor primite de o centrala telefonica
sau numarul electronilor emisi de un catod fierbinte.
Distributii continue:
• Distributia uniforma
1 /(b − a ), a ≤ x ≤ b
f x ( x) =
0 in rest
Media si varianta varibilei aleatoare uniforme sunt:
b+a
mx =
2
(b − a ) 2
σx =2
12
Exemplu: Eroarea de cuantizare
• Distributia normala (gaussiana) unidimensionala
14
Este cea mai utilizata, avand o forma analitica simpla; are
multiple aplicatii ca urmare a teoremei limita centrala.
fx(x)
1 ( x − mx ) 2
f x ( x) = exp −
2πσ x
2
2σ x2
Aria = 1/2
Aria = P(X > mx + y σx) = Q(y)
x 1 ( x − mx )2
P( X > a ) = ∫ exp −
a 2πσ x
2
2σ x2
x
mx mx + yσx
Pentru schimbarea de variabila :
z = (x – mx)/σx, integrala precedenta devine:
x 1
P( X > a ) = ∫ exp( − z 2 / 2)dz
(a −mx ) /σ x 2π
O medoda de calcul a acestei integrale se bazeaza pe integrala
tabulata Q(y):
1 x
Q( y ) = ∫ exp( − z / 2)dz, y > 0
2
2π y
P ( X > a ) = Q[( a − mx ) / σ x ]
Deasemenea se poate calcula:
P ( X ≤ a ) = 1 − Q ( y ) sau:
P ( X ≤ 0) = 1 / 2
[1-2Q(a)]
P(X a) =
Q(a) Q(a)
1-Q(a)
0 a -a a
0 a
15
• Distributia normala bidimensionala
x − m 2 y − m
2
X
+ Y
−
1 − 1 σ X σ Y
f xy ( x, y ) =
exp
2πσ X σ Y 1 − ρ 2 2 (1 − ρ 2
) 2 ρ ( x − m X )( y − mY )
σ Xσ Y
X Y X
g(X)
g: R :5
∀y ∈ R, ∃xi ∈ R ⇒ g ( xi ) = y
⇓
x
f x ( xk )
fY ( y ) = ∑
dy 1 2 3 4 5 6
dx xk = g −1 ( y )
16
Cazul bidimensional:
x2 y2
x
x2+dx2 y2+dy2
x2 y2 y1
x1 x1+dx1 x1 y1 y1+dy1
y1 = g1 ( x1, x2 )
X → Y :
g1 g 2
2
y = g 2 1 2
( x , x )
ϕϕ x1 = ϕ1 ( y1, y2 )
Y → X :
1 2
2
x = ϕ (
2 1 y , y 2
)
∆y
f x1x2 ( x1 x2 ) ⋅ ∆x = f y1y2 ( y1 y2 ) ⋅ ∆y ⇒ f y1y2 ( y1 y2 ) = f x1x2 ( x1 x2 ) ⋅
∆x
∆y
→ Jacobianul transformarii
∆x
∂y1 ∂y2
∂x1
∆y ∆( y1 y2 ) ∂x1 ⇒ f y y ( y1 y2 ) = f x x ( x1 x2 ) ⋅ 1
lim = =
∆x − >0 ∆x ∆ ( x x
1 2 ) ∂y1 ∂y2 1 2 1 2
∆
∂x ∂x2
2
x2
! \1
x2
\2
x1 x1
∂y1 ∂y2
∂x ∂x1 cos( y2 ) sin( y2 )
∆ y→x = 1 = = y1 = x12 + x22
∂y1 ∂y2 − y1 sin( y2 ) y1 cos( y2 )
∂x ∂x2
2
∆x 1
f x1x2 ( x1 x2 ) = f y1 y2 ( y1 y2 ) ⋅ = ⋅ f y1 y2 ( y1 y2 )
∆y ρ
f y1 y2 ( y1 y 2 ) = ρ ⋅ f x1x2 ( x1 x 2 )
x1 x2
Fx1x2 ( x1 x2 ) = ∫∫f
− ∞− ∞
x1x2 (u , v ) dudv
y1 y2
Fy1 y2 ( y1 y 2 ) = ∫∫f
−∞ −∞
y1 y2 (u , v) dudv
E ( X1 )
E( X )
m X = E(X ) = 2
...
E ( X )
m
σ X i σ X j = σ ij = 0, ∀i ≠ j
si independente daca:
m
f X 1 , X 2 ,..., X m ( x1 , x2 ,..., xm ) = ∏ f X i ( xi )
i =1
Φ X ( jω ) = ∫ e jωx f X ( x )dx
20
• Proprietati:
Φ X ( jω ) = ) * { f X ( x)}
1 ∞
∫ Φ X ( jω )e dω
− jω x
f X ( x) =
2π −∞
• Legatura cu momentul unei variabile aleatoare
Daca se diferentiaza functia caracteristica:
dΦ X ( jω ) ∞
= j ∫ xe jωx f X ( x )dx
dω −∞
dΦ X ( jω ) ∞
= j ∫ x f X ( x )dx = jE{ X }
dω ω =0 −∞
nd
n
Φ X ( jω )
E{ X } = ( − j )
n
dω n ω =0
∞ d n Φ X ( jω ) ωn
Φ X ( jω ) = ∑
n =0 dω n ω =0
n!
∞ ( jω )n ∞ ( jω )n
Φ X ( jω ) = ∑ E{ X } n
= ∑ mn
n =0 n! n =0 n!
1
X (ηi , t ) GL ^ IDPLOL ] \
G ada X (η , t ) (vezi figura).
IXQF
experiment
aleatoriu
X(ηi, t)
* * ηi
*** *
egfih j kmlonqp t1 t2 t
rezultatelor H
2
)LHFUH r YDORU r η rdr s X(η ,t), notata Xv (t),
FRUHVSXQG sut IXQF L
'DF | HVW} ~
FXQRVFX
SURFHVX |
DOHDWR SUL PXO LPH UHDOL]ULOR
aleatoare Xt(η
,
FRQVHFLQ D
GXS FX YDULD] FH GR SDUDPHWU
η si tGHRVHEL
XUPWRDUHO D]XUL
IDPLOL G UHDOL]U SDUWLFXODUH
Xi(t)
X1(t)
Xi(t) t
t
t = ti
Fig. a2
XN(t)
Fig. a1
T
q
T
t t
Fig. b1 Fig. b2
3. )XQF L ² ³ G UHSDUWL L ´ µ
V GHQVLWDW µ ´ G SUREDELOLWDW ´ DO ´
semnalelor aleatoare in timp continuu
• )XQF L¶¸·º¹ UHSDUWL L »½¼¾ UREDELOLWDWLOR¿ G » RUGLQX À se
GHILQHúW Á Â
F SHQWU ÃÅÄÇÆ DULDELO Â DOHDWRDU Á FRQWLQX Â RE LQXW Â
din semnalul aleator la un moment oarecare de timp:
FX ( x, t ) = P( X (η , t ) ≤ x )
• Densitatea de probabilitate de ordinul 1 V Á GHILQHúW Á WRÈ
ca pentru o variabila aleatoare continua si este:
∂F ( x, t )
f X ( x, t ) = X
∂x
• )XQF L¼ ɺ» UHSDUWL L » G » RUGLQX À Q se refera la n v.a.
continue, considerate la n momente de timp diferite:
FX 1 , X 2 ,...., X n ( x1, x2 ,...., xn ; t1, t2 ,...., tn ) = P ( X 1 ≤ x1,..., X n ≤ xn )
unde am notat X i = X (η , ti ).
FXY ( x , y ; t1 , t2 ) = P ( X (η , t1 ) ≤ x , Y (η , t2 ) ≤ y )
• Densitatea de probabilitate a ansamblului de doua
semnale aleatoare continue in timp mai sus considerat
este:
∂ 2 FXY ( x, y; t1, t2 )
f XY ( x, y; t1, t2 ) =
∂x∂y
'DF Ý GRX Ý VHPQDO Þ VXQ ß GHILQLW Þ S Þ Ý FHODú Ù VSD L Ú D Û
HúDQWLRDQHORU à DWXQF Ù V Þ SRDW Þ YHULILF Ý GDF Ý VXQ ß VWDWLVWL á
independente.
4. Semnale aleatoare statistic independente
'HILQL LH: Doua semnale aleatoare X(W) si Y(W) definite pe
X(η4 t)
t
X(η5 t)
t
+∞
m(x2 ) (t ) = E{ X 2 (η , t )} = ∫ x 2 f X ( x, t )dx
−∞
• Varianta
+∞
σ X2 (t ) = E{( X (η , t ) − m X (t )) } = ∫ ( x − m x (t ))2 f X ( x, t )dx
2
−∞
6
• )XQF L G DXWRFRUHODWLHFDU PVRDU OHJWXU
DU H[LVW
intre valorile semnalului aleator la momente de timp diferite
∞ +∞
RX 1 X 2 (t1 , t2 ) = E{ X (η , t1 ) X (η , t2 )} = ∫ ∫ x1 x2 f X 1 X 2 ( x1 x2 ; t1, t2 )dx1dx2
−∞ −∞
∫ ∫ (x
− ∞− ∞
1 −m x (t 1))( x2 − m x (t2 )) f X1 X 2 ( x1 x 2 ; t1 , t2 )dx1dx2
∫ ∫ ( x −m (t ))( y − m
− ∞− ∞
x 1 y (t 2 )) f XY ( x, y; t1 , t2 )dxdy
σ 2 ( n ) = E [ X 2 ] − ( E [ X ])2
• Momentul de ordinul n
m(xn )( n ) = E [ X n ( η , n )] = ∑ akn Pk ( n )
k
• Functia de autocorelatie
N N
Rxx ( n1 , n2 ) = E [ X ( η , n1 ) X ( η , n2 )] = ∑ ∑ ai a j Pij ( n1 , n2 )
i =1 j =1
Pij ( n1 , n2 ) = P( X ( η , n1 ) = ai , X ( η , n2 ) = a j )
unde ai, i=[1,N], sunt valorile posibile ale lui X ( η , n1 ) iar bj,
j=[0,N], sunt valorile posibile ale lui Y ( η , n2 ) .
• Functia de autovariatie
C xx ( n1 , n2 ) = Rxx ( n1 , n2 ) − m x ( n1 )mx ( n2 )
• Functia de covariatie a doua semnale X ( η ,t ) si
Y ( η ,t )
C xy ( n1 , n2 ) = Rxy ( n1 , n2 ) − m x ( n1 )m y ( n2 )
• Momentul de ordinul 2
M z ( t1 ,t2 ) = E [ Z ( η ,t1 )Z ( η ,t 2 )]
• Functia de autocorelatie continua
Rzz ( t1 ,t 2 ) = E [ Z ( η ,t1 )Z * ( η ,t 2 )]
• Functia de autocorelatie discreta
Rzz ( n1 , n2 ) = E [ Z ( η , n1 )Z * ( η , n2 )]
cu proprietatile:
M z ( t1 ,t 2 ) = M z ( t 2 ,t1 ), ∀t1 ,t 2
simetrie hermitica Rzz ( t1 ,t2 ) = R* zz ( t 2 ,t1 ), ∀t1 ,t 2
• Momentul de ordinul n
T
1 2
[ Xη ( t )] n = lim ∫ [ X ( η ,t )] dt = [ X η ( t0 + t )]
n n
T →∞ T T
−
2
• Functia de autocorelatie
Depinde de diferenta dintre momentele de timp considerate.
Rxx ,η ( t1 ,t 2 ) = Xη ( t1 + t ) Xη ( t 2 + t ) =
T
2
= lim ∫ X ( η ,t1 + t ) X ( η ,t2 + t )dt = Rxx ,η ( t 2 − t1 )
T →∞ T
−
2
• Functia de corelatie mutuala
Rxy ,η ( t1 ,t 2 ) = Xη ( t1 + t )Yη ( t 2 + t ) =
T
2
= lim ∫ X ( η ,t1 + t )Y ( η ,t2 + t )dt = Rxy ,η ( t 2 − t1 )
T →∞ T
−
2
Se poate demonstra ca: Rxy ,η ( τ ) ≠ Rxy ,η ( −τ )
Rxy ,η ( τ ) = R yx ,η ( −τ ); τ = t 2 − t1
• Functia de autovariatie
C xx ,η ( t1 ,t 2 ) = [ Xη ( t1 + t ) − m x ][ Xη ( t 2 + t ) − mx ] = C xx ,η ( t 2 − t1 )
• Functia de covariatie
C xy ,η ( t1 ,t 2 ) = [ X η ( t1 + t ) − mx ][ Yη ( t 2 + t ) − m y ] = C xy ,η ( t 2 − t1 )
11
N /2
1
m (n)
Xη = lim ∑ X n (η 0 , i )
N + 1 i=− N / 2
N →∞
• Functia de autocorelatie
N
1 2
Rxx ,η0 ( m ) = lim ∑ X ( η0 ,i ) X ( η0 ,i + m )
N →∞ N + 1 N
=− i
2
N
1 2
Rxy ,η0 ( h ) = lim ∑ ak bk + h
N →∞ N + 1 N
k =−
2
♦ Corelatiile temporale de ordinul n depind de realizarea
particulara aleasa prin parametrul η si de n variabile
τ 1 ,τ 2 ,...,τ n −1 reprezentand diferentele dintre momentele de
timp considerate :
τ i = ti +1 − ti , i = 1,..., n
10. Stationaritate
- E [ X ( η ,t )] independenta de t
- E [| X ( η ,t ) |2 ] < ∞
- Rxx ( t1 ,t 2 ) = Rxx ( t 2 − t1 )
- continuitatea in origine a functiei de autocorelatie
care asigura continuitatea realizarilor particulare in
medie patratica.
15
11. Ergodicitate
Stationaritatea este o proprietate a unui semnal aleator care
DW I GHWHUPLQDW GHFk GL
PXO LPH WXWXUR HDOL]ULOR
particulare. Din punct de vedere practic, interesant este cazul in
care o singura realizare particulara poate fi luata drept model
pentru întregul proces aleator.
8 DVHPHQH
D UHSUH]LQW VHPQDOHO DOHDWRDU VWD LRQDU
DO FUR PHGL VWDWLVWL !#" VXQ $ HJDO " !&% PHGLLO " WHPSRUDO "
FRUHVSXQ]WRDU '(' IHFWXDW ' S '*) VLQJXU + UHDOL]DU ' SDUWLFXODUD , '
G
convergenta in probabilitate:
m X (t ) = E [X (η , t )]
m Xη (η ) = X (η , t )
T →∞
{
lim P m Xη (η ) − m X (t ) < ε = 1 }
ceea ce implica anularea variantei variabilei aleatoare m Xη (η ) .
Deoarece demonstrarea ergodicitatii este, in general, anevoioasa,
adesea in practica este suficienta considerarea ergodicitatii in
raport cu media liniara (de ordinul întâi), care poate fi numita
erodicitate practica.
'HILQL L L HUJRGLFLWDW L SUDFWLF M V MON P L UDSRU Q N F PHGL M
liniara) R 8S VHPQDT DOHDWRU VWD LRQDU V V QXPHúWV SUDFWL WXV UJRGL W
daca varianta mediei temporale este nula:
16
[
var m Xη (η ) ] = σ m2 Xη =0
m Xη (η ,Tn )
mX
T
0 T1 T2 Tn → ∞
Figure 0
Fig.1. Reprezentarea fenomenului de ergodicitate practica.
Punctele indica valori ale variabilelor aleatoare m Xη (η ,Tn )
oscilând in jurul mediei m X , varianta tinzând la zero pentru
n → ∞.
rezulta:
{[
σ m2 Xη = E m Xη (η ) − m X ]2 }= E{[m Xη (η )]2 }− (m X )2
1 T /2 T /2
= lim ∫ X (η , v) X (η , u )dvdu − (m X )
2
∫
T → ∞ T 2 − T / 2 −T / 2
cu schimbarea de variabile
v − u =τ ⇒ v = u +τ ,
v = v,
se trece de la planul ( v ,u ) la planul ( v ,τ ) . Domeniul de integrare
in planul ( v ,u ) din fig.2a se transforma in domeniul de intregrare
din fig2b, limitele obtinandu-se din:
T T
u= ⇒ v =τ + ,
2 2
T T
u = − ⇒ v =τ − .
2 2
Cu aceasta, integrala dubla din ultima expresie a lui σ m2 Xη
se transforma in integrala simpla, deoarece elementul de VXSUDID c
( dvdu ) din planul ( v ,u ) se transforma in elementul ( T − | τ |)dτ
din planul ( v ,τ ) :
dvdu → ( T − | τ |)dτ
18
v v
T
2 T
T T 2
−
2 2 -T
u 2
0 0 T T
2
T T
− −
2 2
a) b)
v v =| τ |
T
2
2 2
-T T -T T
T
−
2
a) b)
T
T T T
Rezulta deci: 2 ∫ dτ − ∫ | τ | dτ = ∫ ( T − | τ |)dτ
−T 2 −T −T
19
T T
2 2
in loc de ∫ ∫ dvdu
T T
− −
2 2
lim C XX (τ) = 0 ,
τ →∞
atunci semnalul X ( η ,t ) este practic ergodic.
'HPRQVWUD LH
2EVHUYD LH
semnale
aleatoare
semnale
stationare
in sens
larg
semnale
stationare
in sens
strict
semnale
ergodice
in sens
semnale larg(slab)
ergodice in
sens
strict(tare)
4 A1 sin( ω 1t + ϕ 1 ) Ai sin( ω i t + ϕ i )
-2
-4
0 2 4 6 8 10 12
t
Fig.5. Realizari particulare sinusoidale ale unui semnal aleator
cu amplitudinea, frecventa si faza aleatoare.
1 2π
m (X1) (0) = m (X1) { A sin ϕ} = m (A1) { A}mϕ(1) {sin ϕ} = A ∫ sin ϕdϕ = 0
2π 0
c) Functia de autocovarianta, egala cu functia de
autocorelatie deoarece valoarea medie este nula, se
calculeaza dupa cum urmeaza:
C XX (t , s ) = R XX (t , s) = E[ A2 sin(ωt + ϕ) sin(ωs + ϕ)] =
1
= {E[ A2 cos ω(t − s )] − E[ A2 cos(ωt + ωs + 2ϕ)]}
2
Notand densitatea de probabilitate a lui ω prin f ( ω ) , rezulta:
∞
E[ A2 cos ω(t − s ) = A2 E[cos ω(t − s )] = A2 ∫ f (ω) cos ω(t − s )dω
0
Similar, se deduce:
E[ A2 cos(ωt + ωs + 2ϕ) = E[ A2 ]E[cos(ωt + ωs + 2ϕ)] =
= A2 E[cos(ωt + ωs ) E[cos 2ϕ]] − A2 E[sin(ωt + ωs ) E[sin 2ϕ]] = 0
S-a tinut cont ca E [cos 2ϕ ] = E [sin 2ϕ ] = 0
Datorita faptului ca ϕ este v.a. uniform repartizata pe intervalul
[ 0 ,2π ] .
23
Rezulta, prin urmare:
1 2 2π
C XX (t , s ) = C XX (t − s) = A ∫ f (ω) cos ω(t − s)dω,
2 0
ceea ce confirma stationaritatea semnalului.
In cazul densitatii de probabilitate particulare de forma
(GLVWULEX &DXFK\
2 1
f (ω) = u (ω) ,
π 1 + ω2
unde u( ω ) HVW IXQF L WUHDSW XQLWDWHV RE LQH
1 ∞ cos ωt 1 2 −|t|
C XX (t ) = C XX (t ,0) = R XX (t ,0) = A2 ∫ d ω = Ae
π 0 1 + ω2 2
)XQF L
G XWRFRUHODWL
VW UHSUH]HQWDW L ILJ
V HVW WLSL #
SHQWU m
URFH
DOHDWR VWD LRQDU
R XX (t ) = C XX (t )
1 2
A
2
t
0
−∞ −T / 2
care este tot proces aleator. Energia normata (pe R = 1 Ω) este :
ETη
∞
= ∫ [ η
]
2 Parseval
X T (t ) dt ⇒ ∫
[
1 ∞ X Tη (ω) dω ]
2
−∞ 2π − ∞
si este de asemenea proces aleator. Energia medie normata este :
[ ]
∞ 2 1 ∞ η 2
ET = ∫ X Tη (t ) dt = ∫ X ( ω) dω
−∞ 2π − ∞ T
Puterea medie normata este :
P = lim
1 ∞ η 2
T
∫ T
T →∞ −∞
X (t ) dt [
= lim
T →∞ 2 πT
]
1 ∞ η
∫ T
X ( ω)
2
dω =
−∞
1 ∞ 1 η 2 1 +∞
= ∫ X ( ω) dω = ∫ q XX (ω)dω unde
2π − ∞ T T 2π − ∞
1 η 2
q XX (ω) = lim X T (ω) este densitatea spectrala de putere
T →∞ T
• Teorema Wiener – Hincin
Teorema: pentru un semnal aleator stationar in sens larg, densitatea
spectrala de putere qXX(ω) este transformata Fourier a functiei de
autocorelatie RXX(τ) .
25
1 ∞ η ∞
= lim ∫ X T (t1 ) exp( jωt1 )dt1 ∫ X Tη (t 2 ) exp(− jωt 2 ) dt 2 =
T →∞ T −∞ −∞
1 ∞ ∞ η η
lim ∫ ∫ X T (t1 ) X T (t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2 =
T →∞ T −∞ − ∞
1 T /2 T /2 η
= lim ∫ ∫ X T (t1 ) X Tη (t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2 =
T → ∞ T −T / 2 −T / 2
1 T /2 T /2
= lim ∫ ∫ R XX (t1 , t 2 ) exp(− jω(t 2 − t1 ))dt1dt 2
T
T → ∞ −T / 2 −T / 2
Daca semnalul este stationar in sens larg, R XX (t1 , t 2 ) = R XX (t 2 − t1 )
Daca se noteaza ϕ(t 2 − t1 ) = R XX (t 2 − t1 ) exp(− jω(t 2 − t1 )) rezulta
1 T /2 T /2
q XX (ω) = lim ∫ ∫ ϕ(t 2 − t1 )dt 2 dt1
T → ∞ T −T / 2 −T / 2
Cu schimbarea de variabila t 2 − t1 = τ,
1 T T τ
q XX (ω) = lim ∫ ϕ( τ)[T − τ ]
d τ = lim ∫ XX
R ( τ) exp( − jωτ )
T dτ =
1 −
T → ∞ T −T T → ∞ −T
∞
= ∫ R XX (τ) exp(− jωτ)dτ = F{R XX ( τ)}
−∞
Densitatea spectrala de putere de interactiune (mutuala).
X (η, t ) Y (η, t )
↓ ↓
Fie doua semnale aleatoare: X Tη (t ) YTη (t )
↓ ↓
X Tη (ω) YTη (ω)
26
1
q XY (ω) = lim { [ X Tη (ω)]* ⋅ YTη (ω)} = F{R XY (τ)}
T →∞ T
1
qYX (ω) = lim { X Tη (ω) ⋅[YTη (ω)]*} = F{RYX (τ)}
T →∞ T
RXX(τ) RXX(τ)
(mX)2 τ (mX)2 τ
2. R XX (0) = m (X2) = P
{
lim R XX (τ) = E{X (η, t ) ⋅ X (η, t} = E X (η, t ) = m X
2
}
( 2)
τ→0
1 ∞
lim R XX (τ) = ∫ q XX (ω)dω = P
τ→0 2π − ∞
3. σ 2X = m (X2) − (m X )2 = R XX (0) − lim R XX (τ)
τ→∞
4. R XX (0) ≥ R XX (τ) ∀τ : fctia de autocorelatie este maxima in 0
[X (η, t ) − X (η, t + τ)]2 ≥ 0
X 2 (η, t ) + X 2 (η, t + τ) − 2 X (η, t ) X (η, t + τ) ≥ 0
⇒ 2 X 2 (η, t ) − 2 X (η, t ) X (η, t + τ) ≥ 0
⇒ R XX (0) − R XX (τ) ≥ 0
⇒ R XX (0) ≥ R XX (τ), ∀τ
28
5. R XX (τ) = R XX (− τ) fctia de autocorelatie este para
1 ∞ 1 ∞
R XX (τ) = ∫ XX
q ( ω) exp( jωτ ) dτ = ∫ q XX (ω) cos(ωτ)dτ
2π − ∞ 2π − ∞
6. functia de autocorelatie a unui semnal periodic este un semnal periodic
de aceeasi perioada T0 = 2π / ω0
∞
X (t ) = ∑ C (nω0 ) exp( jnω0t )
n = −∞
Parseval ∞ 2
P = ∑ C ( nω 0 )
n = −∞
∞ 2
⇒ q XX (ω) = 2π ∑ C ( nω0 ) ⋅ δ(ω − nω0 ) un spectru de linii
n = −∞
∞ 2
⇒ R XX (τ) = F −1
{q XX (ω)} = ∑ C (nω0 ) ⋅ cos(nω0t )
n = −∞
∞
2πBech ⋅ q XX (0) = ∫ q XX (ω )dω qXX(ω)
−∞
∞
q (ω )dω
1 −∫∞ XX Bech ω /2π
Bech = ⋅
2π q XX (0)
• Timp de corelatie τc
∞
τ c ⋅ RXX (0) = ∫ RXX (τ )dτ
−∞
∞ RXX(τ)
∫ RXX (τ )dτ
τ c = −∞
RXX (0)
τc τ
Daca RXX (τ ) = F ( q XX (ω ))
-1
atunci
q XX (0) 1
τc = ∞
=
2πBech
∫ q XX (ω )dω
−∞
pentru ρ XY
2
(ω0 ) = 0 semnalele sunt incoerente la frecventa ω0
pentru ρ XY
2
(ω0 ) = 1 semnalele sunt coerente la frecventa ω 0
30
RXX(τ)
13. Exemple de func §§ ¨
G DXWRFRUHOD LH
a) R XX (τ) = A cos ω0 τ A
τ
T0/2
q XX (ω) =
A
[δ(ω − ω0 ) + δ(ω + ω0 )] qXX(ω)
2 A2δ(ω-ω0)/2
ω
RXX(τ)
-2πf0 2πf0
1 − τ T , pentru τ < T
b) R XX (τ) = τ
0, pentru rest -T qXX(ω)T
2
sin ωτ / 2
q XX (ω) = T ⋅ ω
ωτ / 2
-4π/T -2π/T 2π/T 4π/T
qXX(ω) RXX(τ)
c) R XX (τ) = A exp(−α | τ |)
ω
2 Aα τ
q XX (ω) =
α + (ω)
2 2
qXX(ω)
N0/2 ω
N0
d) q XX (ω) = ∀ω real Bech → ∞ RXX(τ)
2 δ(τ) N0/2
τ
N
R XX (τ) = 0 δ(τ) τc → 0 qXX(ω)
2
ω
ω A
e) q XX (ω) = A ∀ ω ≤ ω0 Bech = 0
2π RXX(τ)
Aω0 π τ0
R XX (τ) = sinc ω0 τ τc = τ0 = τ
π ω0 qXX(ω)
B ω B B ω
f) q XX (ω) = A ∀ B fc − ≤ ≤ B f c + ⋅ -2πf A
2 2π 2 c 2πfc
cosωcτ RXX(τ)
B Bτ τ0
R XX (τ) = ⋅ Asinc ⋅ cos 2πf c τ τ
2π 2
31
RXX(τ)
RSS(τ) RNN(τ)
τ τ τ
[
⇒ lim X 2 (η, t + τ) + X 2 (η, t ) − 2 X (η, t + τ) ⋅ X (η, t )
τ→0
]
⇒ lim [2 R XX (0) − 2 R XX (τ)] = 0 ⇒ lim [R XX (0) − R XX (τ)] = 0
τ→0 τ→0
deci daca functia sa de autocorelatie este continua in origine.
1 T /2
unde RYX(η,τ) = ∫ X (η, t + τ)Y (η, t )dt
T −T / 2
Pentru semnale digitale
1 M −1
RYX(η, l) = ∑ X (η, k + l )Y (η, k )
M k =0
valori l
X(η,k) RYX(η,l)
.... Multiplicator
+ 1/M
Y(η,k)
z-1
dupa M-1 tacte
33
1 ∞
RYY (τ) = F −1{qYY (ω)} =
2
∫ q XX (ω) ⋅ H (ω) exp( jωτ)dω
2π − ∞
{ }
E y (t ) = RYY (0) =
2 1 ∞ 2
∫ q XX (ω) ⋅ H (ω) dω
2π − ∞
34
q XY (ω) = q XX (ω) ⋅ H (ω) ⇒ R XY (τ) = R XY (τ) ∗ h(τ)
qYX (ω) = q XX (ω) ⋅ H * (ω) ⇒ RYX (τ) = R XX (τ) ∗ h(− τ)
qYY (ω) = qYX (ω) ⋅ H (ω) = q XY (ω) ⋅ H * (ω) ⇒ RYY (τ) = R XX (τ) ∗ h(− τ) ∗ h(τ)
q XX (ω) ⋅ H (ω) H * (ω) = qYY (ω)
r(t) t
Di 1 d. eronata1 1 0
2
In detectia binara avem doua simboluri (S0 si S1) si doua ipoteze (H0
si H1):
H0: a fost transmis 0 (S0)
H1: a fost transmis 1 (S1)
Se urmareste gasirea unui criteriu de stabilire a ipotezei corecte, pe
baza unei singure observatii asupra R. Se presupun cunoscute
densitatile de probabilitate ale R in cele doua ipoteze:
f R| H 0 ( r | H 0 ) úL f R| H1 (r | H1 ). Dac P( H i | r ) cu i = 0,1
reprezinta probabilitatea ipotezei Hi la receptia r:
se alege H 0 dac P ( H 0 | r ) > P ( H1 | r )
se alege H1 dac P ( H1 | r ) > P( H 0 | r ) sau, concis :
H1
P ( H1 | r ) >
<
1
P( H 0 | r )
H0
• Criteriul de decizie MAP (maximum a posteriori
probability). Criteriul dedecizie duce la partitia spatiului
observatiilor in doua regiuni R0 si R1 si se alege H0 daca r
este continut in R0 si H1 daca r este continut in R1. Cu regula
Bayes se poate scrie:
3
f R| H1 (r | H i ) P( H i )
P( H i | r ) = úL atunci criteriul de
f R (r )
mai sus se rescrie :
H1
f R | H 1 ( r | H 1 ) P ( H1 )
> 1 sau :
<
f R| H 0 (r | H 0 ) P ( H 0 ) H0
H1
f R | H 1 ( r | H1 ) P( H 0 )
> sau :
<
f R| H 0 (r | H 0 ) H0 P ( H1 )
H1
Λ(r ) >
< K
H0
f R| H 0 (r | H 0 ) f R | H 1 ( r | H1 )
accept H0 accept H1
0 K 1 r
C = C00 P ( D0 | H 0 ) P( H 0 ) + C10 P ( D1 | H 0 ) P ( H 0 ) +
+ C01P ( D0 | H1 ) P ( H1 ) + C11P ( D1 | H1 ) P ( H1 ) =
= C00 P( H 0 ) ∫R f R| H 0 ( r | H 0 )dr + C10 P( H 0 ) ∫R f R| H 0 (r | H 0 )dr +
0 1
0
(r | H 0 ) }dr
Cea mai mica valoare a costului mediu se obtine cand integrandul
ecuatiei de mai sus este negativ pentru toate valorile lui r ∈ R0. Se
poate accepta ipoteza H0 daca:
5
P( H1 )(C01 − C11 ) f R| H1 (r | H1 ) < P( H 0 )(C10 − C00 ) f R| H 0 (r | H 0 )
sau concis :
H1
f R | H 1 ( r | H1 ) > P( H 0 )(C10 − C00 )
Λ(r ) = <
=K
f R| H 0 (r | H 0 ) P ( H1 )(C01 − C11 )
H0
Se vede ca pentru C10 - C00 = C01 - C11, criteriul Bayes devine
criteriul MAP.
Se poate arata ca daca: C00 = C11= 0 si C10 = C01 =1, atunci criteriul
Bayes minimizeaza probabilitatea deciziilor eronate.
6
3. Detectia binara (i = 0, 1) cu observatii multiple pe simbol
(daca r > 0 ⇒ 1, daca r < 0 ⇒ 0)
Si 0 1 1 0
T
s(t) t
s0(t) s1(t)
r(t)
t
Di 0 1 1 0
dispare decizia eronata
t
1 2............N
momentele
observatiilor
f (r1 , r2 ,..., rN / H1 ) = f R| H ( r / H1 )
1
pentru Bayes :
f R | H ( r | H1 ) P( H 0 ) C10 − C00
Λ(r ) = 1
K= ⋅
f R| H (r | H 0 ) P( H1 ) C01 − C11
0
Daca se noteaza cu
f Ri | H 0 (ri | H 0 ) si f Ri | H 0 (ri | H 0 ) densitatile de probabilitate
ale observatiei ri in ipotezele H 0 , H1 si daca observatiile sunt
statistic independente, avem :
N
f R| H ( r |H 0 ) = ∏ f Ri | H 0 (ri | H 0 )
0 i =1±
N
f R| H (r |H1 ) = ∏ f Ri | H1 (ri | H1 )
1 ±
i =1
1
1
f Ri | H 0 (ri | H 0 ) = exp − 2 (ri − a0 si ) 2 ⇐ H 0
2πσ2 2σ
1 1
f Ri | H1 (ri | H1 ) = exp − 2 (ri − a1si ) 2 ⇐ H1
2πσ2 2σ
densitatea de probabilitate pentru vectorul receptionat este :
1 N 1
f R| H (r | H 0 ) = ( ) ∏ exp − 2 (ri − a0 si ) 2
N
⇐ H0
0
2πσ2 i ²=1 2σ
1 N 1
f R | H ( r | H1 ) = ( ) N ∏ exp − 2 (ri − a1si ) 2 ⇐ H1
1
2πσ2 i ²=1 2σ
sau :
1 1 N
f R| H (r | H 0 ) = ( ) N exp − 2 ∑ (ri − a0 si ) 2 ⇐ H 0
0
2πσ2 2σ i ²=1
1 N
1
f R | H ( r | H1 ) = ( ) N exp − 2 ∑ (ri − a1si ) 2 ⇐ H1
1
2πσ2 2σ i ²=1
raportul de plauzibilitate este :
[ ]
f R | H ( r | H1 ) 1 N
Λ(r ) = 1
= exp− 2 ∑ (ri − a1si ) 2 − (ri − a0 si ) 2
f R| H (r | H 0 ) 2σ i ²=1
0
²i =1[ ]
1 N
ln Λ (r ) = ∑ (ri − a1si ) − ( ri − a0 si ) =
2 2
2σ 2
9
1 N N
2
= (a − a ) − 2 ∑ r s + (a + a ) ∑ s
i µ=1 i µ=1
0 1 i i 0 1 i
2σ 2
Criteriul plauzibilitatii maxime se poate scrie :
H1
´>
lnΛ(r ) ³< ln K = ln 1 = 0
H0
N ´>
H1
a0 + a1 N 2
∑ ri si
µ ³< ∑ si
i =1 2 i µ=1
H0
pentru a0 = 0, a1 = 1, si = s
1 N ´>
H1
s ´>
H1
s
∑ ri ³< si daca N = 1 r ³<
N i µ=1 2 2
H0 H0
pentru a0 = −1, a1 = 1, si = s
1 N ´>
H1
´>
H1
∑ ri ³< 0 si pentru N = 1 : r ³< 0
N i µ=1
H0 H0
Probabilitatea de eroare este :
Pe = P( D0 , H1 ) + P ( D1 , H 0 ) =
P( H1 ) ∫R f R| H (r | H1 )dr + P ( H 0 ) ∫R f R| H ( r | H 0 ) dr
0 1 1 0
θM
s(t,θ)
θ
θm tn tn+1M t
H 0 ⇒ r (t ) = s0 (t , θ) + n(t ) = n(t )
H1 ⇒ r (t ) = s1 (t , θ) + n(t )
unde θ este un parametru care ia valori in domeniul Π = (θm , θ M )
in timp ce semnalul s1 (t , θ) este cuprins in domeniul Σ1
{ }
P s1 ∈ Σ1 = P{θ ∈ Π}
f R| H (r | H1 ) = f R|θ (r | θ)
1
= ∫Π f R|θ (r | θ) f Θ (θ)dθ
Raportul de plauzibilitate este :
f R | H ( r | H1 ) ∫Π f R|θ (r | θ) f Θ (θ)dθ
Λ(r) = 1
=
f R| H (r | H 0 ) f R| H (r | H 0 )
0 0
daca se noteaza :
1 x 1 2 θ−r
F ( x) = ∫ exp − u du ; x= atunci raportul devine :
2 π º− ¹∞ 2 σ
2πσ2 n 2 θM − r θ − r
Λ(r ) = exp 2 ⋅ F − F m
θM − θm 2σ σ σ
iar daca pragul testului este K = 1, atunci testul Bayes este :
2πσ2 n 2 θM − r θ − r ¸>
H1
exp 2 ⋅ F − F m ·< 1
θM − θm 2σ σ σ H0
12
5. Detectia secventiala
Daca este necesar sa reducem timpul de decizie, se lucreaza cu un
numar m de observatii variabil, cautandu-se reducerea acestuia.
Pentru vectorul rm = (r1 ,..., rm ) raportul de plauzibilitate este :
fR (rm |H1 )
m | H1
Λ(rm ) =
fR (rm |H 0 )
m |H 0
fR (rm | H1 )
m | H1
Λ(rm ) = ≥ A sau fR (rm | H1 ) ≥ Af R (rm | H 0 )
fR (rm | H 0 ) m | H1 m |H 0
m |H 0
13
• daca se ia decizia D0 avem:
fR ( rm | H1 )
m | H1
Λ( rm ) = ≤ B sau fR ( rm | H1 ≤ Bf R (rm | H 0 )
fR (rm | H 0 ) m | H1 m |H 0
m |H 0
1. Introducere
Prin estimare se determina valoarea estimata θ̂ a unui parametru θ
(purtator de informatie) al semnalului afectat de perturbatie.
Schema bloc care modeleaza procesul de estimare a unui parametru si
graful prelucrarii semnalelor sunt date mai jos.
r(t,θ)
Sursa Receptor
mesaje
Modulator Canal
Estimare θ̂
s(t,θ)
m(θ)
n(t)
mesaj purtatoare perturbatie criterii de parametru
estimare estimat
Exemple de aplicatii:
• in receptia semnalelor: estimarea intarzierilor, a amplitudinilor
de semnal, a deviatiilor de frecventa;
• in sisteme de comunicatii: estimarea functiilor de transfer, a
functiilor pondere, a rapoartelor semnal / zgomot in canale de
comunicatii;
• in sisteme de masura si comanda la distanta: estimarea
marimii comandate (acceleratie, viteza, pozitie, temperatura,
debit, etc)
• in prelucrari de semnale: estimarea unor parametri statistici ai
semnalului (medii, variante)
Obs.: in aceste aplicatii se estimeaza parametri continui sau discreti,
constanti sau variabili in timp; estimarea parametrilor discreti face
legatura cu domeniul detectiei semnalelor (deciziei statistice) iar
estimarea parametrilor variabili in timp face legatura cu estimarea formei
semnalelor. Estimarea se poate face prin observare discreta sau prin
observare continua.
2
2. Observarea discreta a unui parametru aleator
Semnalul receptionat este:
r (t ) = s (t , θ) + n(t )
unde θ este un parametru aleator scalar, continand informatia. In intervalul
0 ≤ t ≤ T se fac N observatii r1 ,...., rN , constituite in vectorul r . Se folosesc
G
C (ε θ ) = ε θ
εθ
Å− Ä∞ Å− Ä∞ θ
• pentru functia de cost uniforma:
Èθˆ + E / 2
^ ^ ^
θ - E/2 θ θ + E/2
exponentiala; ca urmare :
∂
ln f Θ| RÆ (θ | r ) |θÇ= θˆ =
G
∂θ MAP
∂ ∂
ln f Θ (θ) |θÇ= θˆ + ln f RÆ |Θ (r | θ) |θ Ç= θˆ =0
G
∂θ MAP ∂θ MAP
f Θ| RÆ (θ | r ) ⋅ f RÆ (r )
= f RÆ |Θ (r | θ)
G G
daca se are in vedere
G
f Θ (θ)
unde θMAP este estimatul maximum a posteriori.
4
• Pentru functia de cost modulul erorii:
Ë+ É∞
I (θˆ , r ) = ∫ θ − θˆ M f Θ / R (θ / r )dθ si pentru minimizarea ei :
G G
Ê− É∞
∂ ˆ G
I (θ, r ) = 0, respectiv :
∂θˆ
∂ + ∞Ì
Í ∂ θM
ˆ
∫ (θ − θ M ) f Θ / R (θ / r )dθ −
ˆ ∫ (θ − θˆ M ) f Θ / R (θ / r )dθ = 0
G G
∂θˆ θˆ M ∂θˆ Ê− É∞
Rezulta pentru calculul estimatului θˆ M
Í + ∞Ì θM ˆ
∫ f Θ / R (θ / r )dθ = ∫ f Θ / R (θ / r )dθ
G G
θˆ M Ê− É∞
θˆ M se numeste estimatul de eroare minima.
θ
θ
Î
θˆ MAP = θˆ p = θˆ M Î θ̂ MAP θˆ p θˆ M
1
Estimarea formei semnalului
Ipotezele de lucru:
• estimarea este liniara;
• semnalul receptionat si zgomotul sunt stationare in sens larg;
• criteriul de optim: minimul erorii medii patratice.
[ε(t )]2 = (d (t ) − dˆ (t ) )
2
Ò∞
dˆ (t ) = ∫ h(τ)r (t −τ)dτ = L [r (t )]
Ó− Ò∞
[εo (t )]2 = (d (t ) − dˆo (t ) )
2
Ò∞
d o (t ) = ∫ ho (τ)r (t −τ)dτ = L0 [r (t )]
ˆ
Ó− Ò∞
[εo (t )]2 = min [ε(t )]2
2
[ε (t )]2 = (d − dˆ ) [( ) ( )] = [ε (t )] + δ −
2
= d − dˆo − dˆ − dˆo
2
o
2 2
[ ]
r ⋅ ε o (t ) = d (t ) − dˆo (t ) r = 0 de unde :
do r
∞
d (t )r (u ) = dˆo (t )r (u ) ∀t , u si deoarece dˆo = ∫ hon (τ )r (t − τ )dτ
−∞
∞
cdr (t − u ) = ∫ hon (τ ) r (t − τ )r (u )dτ sau :
−∞
∞
cdr (t − u ) = ∫ hon (τ )crr (t − τ − u )dτ sau, introducand variabila θ = t − u :
−∞
∞
cdr (θ ) = ∫ hon (τ )crr (θ − τ )dτ care este ecuatia Wiener - Hopf;
−∞
qss (ω)
H on (ω) =
qss (ω) + qnn (ω)
qss (ω)
H on (ω) = exp(− jωα )
qss (ω) + qnn (ω)
qss (ω)
H on (ω) = exp(+ jωα )
qss (ω) + qnn (ω)
qss (ω) 2 AB
H on (ω) = exp(− jωα ) = 2 exp(− jωα ) cu
qss (ω) + qnn (ω) B + ω2
1 q s qs 1 q
A= , B= 1+ s
2a q0 qs + q0 a q0
hon (τ) = A exp(− B τ − α )
hon hon
τ τ
α
α intarziere predictie
4
Filtru optimal realizabil
Daca se fac schimbarile de variabile t – u →τ, τ → t, avem:
Õ∞ × Ö
cdr (τ) = ∫ hon (t )crr ( τ − t )dt = + cdr (τ) + − cdr (τ)
Ö− Õ∞
× Õ∞
+
cdr ( τ) = ∫ hon (t )crr (τ − t )dt =
0
c (τ), τ ≥ 0
= dr
0 τ<0 -
cdr(τ) +
cdr(τ)
Ö− c 0
dr ( τ) = ∫ hon (t )crr (τ − t )dt =
Ö− Õ∞
c (τ), τ < 0 τ
= dr
0 τ≥0
Ø+
Filtrul optimal realizabil (cauzal) poate fi obtinut numai din
cdr (τ) . Functia de transfer se obtine prin transformarea Fourier
inversa a acestuia:
∞
H o (ω ) ⋅ q + rr (ω ) = ∫ + cdr (τ ) exp(− jωτ ) dτ = + qdr (ω )
−∞
+
qdr (ω )
H o (ω ) =
qrr (ω )
r (t ) = z (t )
N0 N
crr (τ ) = c zz (τ ) = δ (t ); daca se considera 0 = 1 :
2 2
∞ ∞
cdr (τ ) = ∫ how (t ) crr (τ − t )dt = ∫ how (t ) δ (τ − t )dt = how (τ ) = cdz (τ )
0 0
h(t) = h1(t)
w-1(t) h(t)
Exemplu: fie schema din figura de mai jos, in care variabila de stare
este tensiunea la bornele condensatorului, vc(t).
Se cere:
R vc(0) = V
1. modelul matematic, respectiv
ecuatia de stare a circuitului
v(t) C 2. structura sistemului dinamic
generator al semnalului s(t) = vc(t)
3. s (t) pentru v(t) = 0 si vc(0) =V= v.a.
4. structura sistemului dinamic generator al semnalului s(t) = vc(t) in
cazul (3).
5. sa se arate ca in cazul (3) s(t) este un proces aleator nestationar
6. functia de transfer a sistemului dinamic generator pentru vc(0) = V= 0
si v(t) = z(t), adica zgomot alb
7. sa se arate ca s(t) obtinut in conditiile de la (6) este un proces aleator
stationar; care este relatia dintre D.S.P. a lui v(t) = z(t) si varianta σy2
Solutie:
1. vR (t ) + vC (t ) = v(t )
x(t ) = vC (t ) = s (t )
dx(t ) 1 1
=− x(t ) + v(t )
dt RC RC
y (t ) = s (t )
1 1
A= − ; B= ; C=1
RC RC
1 1 1 1
2. X ( s ) = − X ( s ) + x(0) + V (s)
RC s RC s
dx/dt x(0) = V
v(t) y(t) = x(t) = s(t)
1/RC + -
-
Σ ∫ dt -1
(B) - + +
- -
- 1/RC
- x(0) = V
(A)
- x(t)
3 . s ( t ) = y (t ) = x (t ) = 4. ∫ dt
+
1
= V exp − t
RC 1/RC
9
k
6. H ( s ) = unde : k = 1 / RC
s+k
7.
qvv ( s ) = N 0 / 2
k 2 N0 / 2 k 2 N0 / 2
q yy ( s ) = H ( s ) H (− s ) qvv ( s ) = 2 2 q yy (ω ) = 2
k −s k +ω2
Obs. : deoarece q yy (ω ) este o fractie rationala patratica, y(t) este proces
aleator stationar.
kN 0 / 4
Daca se ia partea realizabila a lui q yy ( s ) care este : + q yy ( s ) =
k+s
σ y2 = R(0) − R (∞) = lim s ⋅+ q yy ( s ) − lim s ⋅+ q yy ( s ) = kN 0 / 4 − 0 = kN 0 / 4
s →∞ s →0
E[u(t )] = u (t )
E[n(t )] = n (t )
Avem urmatoarele relatii pentru covariante (u(t ) si n(t ) sunt zgomote albe) :
[
− x 0 ][ − x 0 ] = cεε 0
T
Se propune solutia:
11
= Axˆ (t ) + B u (t ) + c ÛÚÛ (t )CT P −1 [y (t ) − n (t ) − Cxˆ (t )]
dxˆ (t )
dt
xˆ (t0 ) = x 0
sau, pentru E[n(t)] = 0 = E[u(t) si sistem invariant in timp:
= Axˆ (t ) + K [y (t ) − Cxˆ (t )]
dxˆ (t )
dt
xˆ (t0 ) = x 0
unde K = c ÛÚÛ CT P −1 se numeste castigul filtrului in regim permanent iar
c ÜÚÜ se determina din ecuatia Riccati1 pentru regimul permanent:
dc ÜÚÜ
Ac ÜÚÜ + c ÜÚÜ A T + BQB T − c ÜÚÜ CT P −1Cc ÜÚÜ = =0
dt
Schema fluxului de semnal la filtrul optimal Kalman-Bucy se da mai jos:
ßξ n E[n]= 0 E[u]= 0
B
0 ^
Ý Ý
x + y x
ÞÞ
u
B ∫dt C
s
K=cεεCTP-1 ∫dt
+ _ +
A A
1
Pentru justificarea ecuatiei Riccati vezi NOTA
12
2
cεε
2 Acεε − + B 2Q = 0 este ecuatia Riccati, solutia pozitiva fiind :
P
cεε opt = AP + A2 P 2 + B 2QP ;
Filtrul Kalman este :
dxˆ (t ) B 2Q B 2Q
= A +
2
xˆ (t ) + A + A +
2
y (t )
dt P P
Exemplu: prin canalul cu zgomot aditiv n(t), avand cnn = N 0 / 2 (zgomot
alb) se transmite un semnal s (t ) = x(t ), avand:
2a
qss (ω ) = 2 si sistemul dinamic generator al s (t ) = x(t ), are functia
a +ω2
1 1
de transfer: H (ω ) = sau H ( s ) = rezulta:
a + jω a+s
q xx (ω ) = qss (ω ) = qvv (ω ) H (ω ) de unde qvv (ω ) = 2a iar modelul de
2
Modelul dinamic al
castigului filtrului
âξ n E[n]= 0 E[u]= 0
B
0 ^
à à
x + y x
áá
u
B ∫dt C
s
K=cεεCTP-1 ∫dt
+ _ +
A A