Sunteți pe pagina 1din 9

TDCR 6.1.

Introducere

• Pentru doua semnale de energie finită , se poate defini produsul scalar

∫ x(t ) y (t )dt
*
x, y =
Cap. 6 −∞

PRINCIPIILE RECEPTIEI X ,Y = ∫ X (ω )Y (ω )dω


−∞
*

OPTIMALE

2
• Energia semnalului: E x = x, x = ∫ x(t )
−∞
dt

1 1
• Relaţia lui Parceval: x, y = X , Y ; E x = x, x = X,X
2π 2π

• cele 2 semnale se numesc ortogonale dacă x, y = 0 ; în acest caz


E x+ y = E x + E y

6.1. Introducere 6.1. Introducere

• O familie de funcţii , {ϕi (t ); i ∈ J} J finită sau numărabilă, reprezintă un set ∞ ∞


~

~ ~
∫ [x(t ) − x (t )]⋅ [x (t ) − x (t )]dt
2
Ee = ∫ e 2 (t )dt = ∫ x(t ) − x (t ) dt = * *

de funcţii ortogonale dacă ϕ i , ϕ j = Eiδ ij −∞ −∞ −∞

dacă în plus , Ei = 1; (∀) i ∈ J setul se numeşte ortonormat. ∞ ∞  


*

= E x + E ~x −  ∫ x(t )~
x * (t )dt +  ∫ x(t )~
x * (t )dt   =
• Se doreşte reprezentarea unui semnal prin găsirea unei combinaţii liniare  −∞  −∞  

între elementele setului de funcţii ortonormate = E x + E ~x − 2 Re{ x, ~ x }=
~
x (t ) = ∑ ciϕ i (t )  
= E x + ∑ ci − 2 Re∑ ci x,ϕ i  =
2
i∈J
i∈J  i∈J 
2 2
care să aproximeze cât mai bine pe . Criteriul de aproximare este = E x + ∑ ci − x, ϕ i − ∑ x, ϕ i
{ i∈J
minimizarea energiei semnalului eroare. fixat 144244 3 1i∈J
4243
variabil fixat

e(t ) = x(t ) − ~
x (t ) = x(t ) − ∑ ciϕ i (t )
i∈J
Ee,min = 0

6.1. Introducere 6.1. Introducere

⇒ condiţia de minimizare a energiei semnalului eroare se reduce la cea de • Dacă pentru orice semnal dintr-un set dat este îndeplinită condiţia Ee ,min = 1
anulare a celui de-al doilea termen din expresia de mai sus ⇒

⇒ se spune că setul {ϕi (t ); i ∈ J} formează o bază pentru setul dat
ci = x, ϕ i = ∫ x(t )ϕ (t )dt
−∞
i ⇒ • Interpretare geometrică: dacă {ϕi (t ); i ∈ J} este o bază ortonormată reală
x(t ) = ∑ ciϕ i (t )
Ee,min = E x − ∑ ci = E x − E ~x
2 i∈J

i∈J x(t ) poate fi reprezentat prin vectorul x = [c1 , c2 , ... , c N ]

se observă că dacă Ee,min = 0 ⇒ E x = ∑ ci ⇒ E x − E ~x ⇒ aproape


2

i∈J
peste tot; există un număr finit de intervale de timp pentru care x(ti ) ≠ ~x (ti )

5.2. Ortogonalizarea Gramm Schmidt 5.2. Ortogonalizarea Gramm Schmidt

• se dă setul de semnale {x , i = 1, M }
i Pasul K.
Pasul 1. • se construieşte semnalul
• se construieşte semnalul d1 (t ) = x1 (t ) k −1
d k (t ) = xk (t ) − ∑ ϕi (t ) xk , ϕi ; d k , ϕ j = 0 (∀) j = 1, ... , k − 1
• se obţine primul element al bazei prin normarea lui d1 (t ) i =1

• se determina elementul k al bazei prin normare


d1 (t )

ϕ1 (t ) = ; d1 , d1 = ∫ d12 (t )dt
d ,d d k (t )
Pasul 2. 1 1 −∞ ϕ k (t ) =
dk , dk
• se construieşte semnalul d 2 (t ) = x2 (t ) − ϕ1 (t ) x2 , ϕ1
• cum d 2 , ϕ1 = 0 se obţine al2lea element al bazei prin normarea lui d 2 (t )
• Procedeul continuă până când sunt epuizate toate cele M elemente ale
d 2 (t )

setului {xi (t ); i = 1, M } ⇒după eliminarea elementelor nule şi re-numerotare
ϕ 2 (t ) = ; d 2 , d 2 = ∫ d 22 (t )dt
d2 , d2 −∞ rezultă baza {ϕ i (t ); i = 1, N }, N ≤ M
5.2. Ortogonalizarea Gramm Schmidt 5.2. Ortogonalizarea Gramm Schmidt

• Observaţii: • Constelaţia de semnal asociată semnalelor {xi (t ); i = 1, M } în spaţiul N


– dimensiunea bazei deci a spaţiului vectorial căruia îi aparţine setul de dimensional definit de baza {ϕ i (t ); i = 1, N } este mulţimea vectorilor
vectori {xi (t ); i = 1, M } este N, N≤M
x i = [ci1 , ci 2 , ... , ciN ], i ∈1, M
– dacă N=M, setul de funcţii {xi (t ); i = 1, M } este liniar independent ;
– fiecare element se poate reprezenta printr-un vector
x1 = [ci1 , ci 2 , ... , ciN ], i ∈ 1, M
ciK = xi , ϕ k , k ∈ 1, N
∞ N

- energia semnalului este E x = xi , xi = ∫ xi (t )dt = ∑ ci


2 2
i
−∞ i =1
- baza depinde de ordinea aleasă la ortogonalizarea Gramm Schmidt.
Energia semnalului nu se schimbă ⇒ lungimea vectorului este invariantă
la alegerea bazei

5.3. Detecţia optimală a M semnale reale 5.3. Detecţia optimală a M semnale reale
în ZAGA în ZAGA
• Ipoteze: Problema detecţiei ⇒ decizia între M ipoteze {H i : s − a transmis s i (t ) }
– se transmite unul din cele M semnale reale, diferite,
⇒ y (t ) = si (t ) + n(t )
{s (t );
i }
i = 1, M , supp{si (t )} = [0, T ], (∀)i = 1, M
⇒ sau, vectorial
N
– canalul este afectat doar de ZAGA, cu W (ω ) = 0 y = [ y1 , y 2 , ... y N , y N +1 , ...] = [si1 + n1 , si 2 + n2 , ... siN + n N , n N +1 , ...]
2

• Semnalul recepţionat este y (t ) = si (t ) + n(t ) supp{y (t )} = [0, T ] Componentele ale zgomotului în raport cu baza sunt v.a. de medie nulă
şi varianţă 2 N 0
• Pentru σ =
2
setul de semnale {si (t ); i = 1, M } ⇒ se poate construi baza ortonormată ∞ →T

Demonstraţie: n(t ) = ∑ nk ϕ k (t ) , nk = n,ϕ i = ∫ n(t )ϕ (t )dt


{ϕ (t ); i = 1, N }
i k ≥1 − ∞ →0
i

T 
semnalul recepţionat y (t ) ⇒ se poate construi baza ortonormată ; E{nk } = E ∫ niϕ i (t )dt  = 0
0 
{ϕi (t ); i ≥ N}
5.3. Detecţia optimală a M semnale reale 5.3. Detecţia optimală a M semnale reale
în ZAGA în ZAGA
 T   T T
2
N
T
N • densitatea de probabilitate de ordin N pentru vectorul n = [n1 , n2 , ... n N ]
E {nk2 } = E  ∫ niϕi (t )dt   = ∫∫ E{n(t )n(τ )}ϕi (t )ϕ j (τ )dtdτ = 0 ∫ ϕi2 (t )dt = 0 = σ 2 este
14243 2 2
 0   0 0 N 0 0
δ (t −τ ) 1  n 2 + n22 + ... + nN2 
2
pn (n ) = exp − 1 
( πN )0
N
 N0 
⇒ funcţia de corelaţie între nj şi nk este
T T T T
rjk = E {n j nk } = ∫ ∫ E{n(t )n(τ )}ϕi (t )ϕk (τ )dtdτ =
N0 • Ipoteza {H i : s − a transmis s i (t ) } se scrie vectorial
2 ∫∫ δ (t − τ )ϕ (t )ϕ (τ )dtdτ =
i k
0 0 0 0 {H i : y = s i + n }; s i = [s i 1 , s i 2 , ... s iN
]
T
N N
= 0 ∫ ϕi (t )ϕk (t )dt = 0 δ ik y = [ y 1 , y 2 , ... y N ]
2 0 2 n = [n 1 , n 2 , ... nN ]
⇒ nj şi nk sunt v.a. Gaussiene, necorelate, ⇒ independente
⇒ cum y N +1 = nN +1 , y N + 2 = n N + 2 … sunt independente ⇒ nu aduc nici o ⇒ în spaţiul N dimensional se construiesc regiuni de decizie disjuncte
informaţie în procesul de decizie ⇒ {y1 , y2 , .... y N } reprezintă o statistică {S i i = 1, M } asociate celor M semnale ⇒ {H i : y ∈ S i }
suficientă pentu semnalul recepţionat;

5.3.1. Criteriul Maximului de probabilitate


5.3. Detecţia optimală a M semnale reale
aposteriori (Maximum Aposteriori Probability-
în ZAGA MAP)
• Probabilitatea de eroare • Dacă z = fixat şi max
k
{p k f y | H (z | H k )} = p i f y | H (z | H i ) ⇒ se stabileşte
k i

M
Pe = 1 − Pc = 1 − ∑ P {H }∫ f H i (z | H i ) dz {H i : y ∈ S i }
i =1
i
Si
1y | 42 43 P {H k } f y | H (z | H k ) p k f y | H k (z | H k )
dens de prob cond de ip H i
• dar, cf. Bayes ⇒ P {H k | z } = = k

f y (z ) f y (z )
în ipoteza Hi ⇒ vectorul z s-ar putea sa nu aparţină regiunii Si datorită zgomotului
• pentru z fixat f y (z ) = const → max
k
{p k f y | H (z | H k )} = max
k
{P {H k | z }}
k

∫ f y | H i (z | H i )d z ≤ 1
Si • determinarea faptului că z ∈ S i ⇒ maximizarea probabilităţii aposteriori
max {P {H i | z }} ⇒ realizată pentru k=i ⇒ se deduce ipoteza în funcţie de
k
Daca toate integralele ar fi nule ⇒Pe=0 vectorul recepţionat
• Regula de decizie: pe baza vectorului recepţionat z se deduce regiunea de decizie
căreia îi aparţine z ∈ S i pe baza maximizării probabilităţilor aposteriori ⇒
se consideră adevărată ipoteza Hi
5.3.2. Criteriul Maximului de Plauzibilitate (Maximum 5.3.2. Criteriul Maximului de Plauzibilitate (Maximum
Likelyhood- ML) Likelyhood- ML)

• Problema: de cele mai multe ori nu se cunosc probabilităţile aposteriori Aplicarea criteriului ML ⇒ algoritm
P {H i | z } • Pas 1: Se introduce, pentru normare, ipoteza suplimentara ⇒ semnalul
1 recepţionat provine numai din zgomot
• Se consideră semnalele echiprobabile P {s i } = p i = , i = 1, M
M {H o :y = n }
• Pas 2: Se definesc rapoartele de plauzibilitate
• Pentru maximizarea Pe ⇒ se stabilesc regiunile de decizie Si a.i.
f y | H k (y | H k )
max
k
{f y |H k
(z | H k )} = p i f y | H i (z | H i ) ⇒ {H i : y ∈ S i } Λ k (y ) =
f y |H 0 (y | H 0 )

⇒trebuie calculată funcţia de plauzibilitate pentru toate ipotezele Hi, • Pas 3: Conform criteriului MP: dacă
i=1,2, ... , M şi determinată valoarea maximă max {Λ k (y )} = Λ i (y ) ⇒ se alege Hi
k

5.3.2. Criteriul Maximului de Plauzibilitate (Maximum 5.3.2. Criteriul Maximului de Plauzibilitate (Maximum
Likelyhood- ML) Likelyhood- ML)
 N 2 
• Dar  ∑ ( y m − sim )  => Este mai simplu de calculat logaritmul functiei de plauzibilitate
1  
f y|H i (y | H i ) = exp − m =1
2 1
  N N
πN 0

N0
 λi (y ) = ln(Λ i ) =
N0
∑y s −
m im
N0
∑s 2
im
  m =1 m =1
 N

 ∑ y m2  Cu acestea criteriul ML devine
1
f y|H 0 (y | H 0 ) = exp − m=1  ⇒
πN 0  N0 
  max {λ k (y )} = λ i (y ) ⇒ se alege ipotza Hi
  k

 2 N
1 N
 T
∑y ∑s
N
Λ i (y ) = exp 2

 N0 m =1
s −
m im
N0 m =1
im

in plus ∑y
m =1
m im s = y ,s i = ∫ y (t )si (t )dt
0

N T

∑s
m =1
2
im = Ei = ∫ si2 (t )dt
0
T T
⇒ 2 1 2  1  2
N 0 ∫0 N 0 ∫0
λi (y ) = y (t )si (t )dt − si2 (t )dt = y , s i − Ei  = li
N 0  2  N0
5.4. Implementarea receptoarelor coerente 5.4. Implementarea receptoarelor coerente
optimale optimale
• Pe baza acestor relaţii se poate implementa receptorul optimal • Implementarea receptorului optimal cu corelator, folosind setul semnalelor

T
1
• Valorile li (y ) = ∫ y (t )si (t )dt + ei ; ei = − 2 Ei sunt o statistică suficientă
0
pentru semnalul recepţionat y(t) ⇒ conform criteriului ML se urmăreşte
maximizarea li (y ) ;

5.4. Implementarea receptoarelor coerente 5.4. Implementarea receptoarelor coerente


optimale optimale
• Implementarea receptorului optimal cu filtru adaptat, folosind setul Justificare:
semnalelor • pentru semnalul s k (t ) ⇒filtrul adaptat are funcţia pondere

hk (t ) = s k (t 0 − t ) ⇔ S k (ω )e − jωt0

unde se alege t0=T


• semnalul la ieşirea filtrului adaptat


y e ,k (t ) = y (t ) * hk (t ) = ∫ y (τ )s (T − t + τ )dτ
−∞
k

∞ T
y e ,k (T ) = y (t ) * hk (t ) t =T = ∫ y (τ )s (τ )dτ
−∞
k =
supp {sk (t )}=[0 ,T ] ∫ y (τ )s (τ )dτ
0
k
5.4. Implementarea receptoarelor coerente 5.4. Implementarea receptoarelor coerente
optimale optimale
Implementarea receptorului optimal folosind vectorii bazei • operaţia de multiplicare a matricilor este realizată de multiportul – matrice
• folosind reprezentarea semnalelor folosind vectorii bazei de ponderare
M ~ e1
sk (t ) = ∑ skiϕ i (t ), k = 1, M , ski = sk , ϕ i y1 l1
ϕ1 (T − t )
i =1
~ e2
l2
M 
T T
M y2 Multiport –
lk (y ) = ∫ y (t )∑ skiϕ i (t ) dt + ei = ∑ ski ∫ y (t )ϕ i (t )dt + ei ϕ 2 (T − t ) Matrice de
0  i =1  i =1 0
1 4243 y(t) ponderare Detector
yi de
144
42~
4 44
3 [si,k]MxN maxim
lk

=>in reprezentare vectoriala eM


~

s i = [s i 1 , s i 2 , ... s iN ]
T [~l ]
k Mx 1 = [s ki ]MxN [ y i ]Nx 1
ϕ M (T − t )
yN lM

y = [ y 1 , y 2 , ... y N ]
T ⇒ [l k ] = ~lk + [e k ]
[]

5.4. Implementarea receptoarelor coerente


5.5. Interpretarea geometrică a regulii de decizie
optimale
• structura poate fi implementată şi folosind un banc de filtre adaptate la • Se defineşte distanţa euclidiană dintre doi vectori d (y | s i ) =>
vectorii bazei.
criteriul ML devine
~ e1
y1 l1 min {d (y | s k )} = d (y | s i ) ⇒ se alege ipotza Hi
ϕ1 (T − t ) k

~
y2 Multiport – l2
e2
⇒decizia optimală pe baza principiului ML corespunde determinării
ϕ 2 (T − t ) Matrice de semnalului celui mai apropiat (în sensul distanţei euclidiene)
y(t) ponderare Detector
de
[si,k]MxN maxim • regiunile de decizie ⇒ Ri =locul geometric al punctelor din plan mai
apropiate de si decât de oricare alt semnal

yN
~
lM
eM { k
}
R i = z | d (z , s i ) = min (d (z, s k ))
ϕ M (T − t )

• Regula de decizie: t ∈ [0, T ], y ∈ R i ⇒ sˆ = s i


Observaţie: Dacă dimensiunea bazei este mult mai mică decât numărul
semnalelor aceste structuri se justifică; dacă însă diferenţa este mică nu
5.5. Interpretarea geometrică a regulii de decizie 5.5. Interpretarea geometrică a regulii de decizie

• Exemplu: constelaţia de semnal pentru QPSK Funcţionarea detectorului optimal ce utilizează criteriul ML ⇒ etape:
1. pornind de la setul de semnale transmise se determină o bază
ortonormată;
2. se reprezintă semnalele în funcţie de elementele bazei; se construieşte
constelaţia de semnal;
3. se calculează distanţele euclidiene dintre semnalul recepţionat şi fiecare
semnal din setul de semnale posibil a fi transmise;
4. se determină minimul acestei distanţe sau regiunea de decizie căreia
vectorul asociat semnalului recepţionat îi aparţine ⇒ se decide semnalul
transmis ca cel corespunzător distanţei minime ;

5.6. Determinarea probabilităţii de eroare pe 5.6. Determinarea probabilităţii de eroare pe


baza constelaţiei de semnal baza constelaţiei de semnal
1
• În condiţiile de valabilitate ale criteriului ML P {s = s i } = p i = , i = 1, M ⇒ densitatea de probabilitate condiţionată pentru vectorul recepţionat y (z),
M
⇒ probabilitatea de eroare este ştiind că s-a transmis semnalul ce corespunde vectorului si este
1 M
1  ( z − s i 1 )2 + ( z 2 − s i 2 )2 + ... + ( z 2 − s i 2 )2 
Pe = 1 − Pc = 1 − ∑ P {y ∈ R i | s = si} f z | s i (z | s i ) = f n (z | s i ) = N
exp  − 1
N0
=

M j =1 (π N 0 ) 2  

⇒ o eroare apare ori de cate ori semnalul recepţionat y = s j + n , provenit din s j 1  z − si


2

= exp  − 
nu aparţine regiunii de decizie asociate; această probabilitate este N
 N0 
(π N 0 ) 2  
P {y ∈ R i | s = s i } = P {s i + n ∈ R i | s = s i } = ∫
R
f z | s i (z | s i )d z ⇒ probabilitatea de eroare devine
i

1  z − si
2

Componentele yk ,k=1,2, ... N ale vectorului y sunt v.a. gaussiene cu P {y ∈ R i | s = s i } = ∫ exp  − dz =
N
 N0 
- media E {y k } = s ik R (π N 0 )
i 2  
1  ( z 1 − s i1 )2 2 2
+ ( z 2 − s i 2 ) + ... + ( z 2 − s i 2 ) 
- dispersia σ = ∫ exp  −  dz 1 dz 2 .. dz N
2
{ }− s
= E y 2
k
2
ik {
= E (s ik + n k
2
) }− s 2
ik {
= E (n k )
2
} =
N0
2 R i (π N 0 )
N
2  N0 

5.6. Determinarea probabilităţii de eroare pe 5.6. Determinarea probabilităţii de eroare pe
baza constelaţiei de semnal baza constelaţiei de semnal
• Observaţii: • Evaluarea probabilităţii de eroare pentru regiuni de decizie
1. valoarea medie a energiei semnalelor este M dreptunghiulare: considerăm o constelaţie ce poate fi reprezentată într-o

2
E = s i bază bidimensionala ⇒ pentru orice semnal si avem regiune de decizie de
i =1
tipul
şi este de dorit să fie minimă ⇒ constelaţia de semnal să fie
simetrică faţă de axe. Rotaţia şi translaţia constelaţiei în spaţiul ϕ2

semnalelor modifică energia medie a constelaţiei; b1

r2 r Ri
2. probabilitatea de eroare nu se modifică dacă se roteşte sau se si2 si
translatează constelatia;
b1
ϕ1
a1 si1 r1 a2

5.6. Determinarea probabilităţii de eroare pe 5.6. Determinarea probabilităţii de eroare pe


baza constelaţiei de semnal baza constelaţiei de semnal
• si = vectorul corespunzător semnalului ⇒ de coordonate [si1, si2] Pci = P {z ∈ R i } = P {s i + n ∈ R i } = P {a 1 ≤ r1 ≤ a 2 ; b1 ≤ r2 ≤ b 2 } =
• limitele regiunii de decizie Ri sunt = P {a 1 ≤ s i 1 + n1 ≤ a 2 ; b1 ≤ s i 2 + n 2 ≤ b 2 } =
– [a1, a2] pe axa ϕ1; = P {a 1 − s i 1 ≤ n1 ≤ a 2 − s i 1 ; b1 − s i 2 ≤ n 2 ≤ b 2 − s i 2 } =
– [b1, b2] pe axa ϕ2; a 2 − s i1 b 2 − s i 2
1  n 2 + n 22 
• r = vectorul corespunzător semnalului ⇒ de coordonate [r1, r2]
= ∫ ∫
a 1 − s i 1 b1 − s i 2
πN 0
exp  − 1
 N0
 dn 1 dn 2 =

N0 2
a 2 − s i1 b2 − si2 =σ
1  n2  1  n2  2

 r1 = s i 1 + n1
r = si + n ⇒ 
= ∫
a1 − s i1 πN 0
exp  − 1  dn 1
 N0 

b1 − s i 2 πN 0
exp  − 2  dn 2
 N0 
=

 r2 = s i 2 + n 2
  a − s i1   a − s i 1     b1 − s i 1   b − si2  
= Q  1  − Q 2   ⋅ Q   − Q 2 
  σ   σ    σ   σ 

∞ u2
1 −
unde Q( x ) = ∫
2π x
e 2 du

S-ar putea să vă placă și