Documente Academic
Documente Profesional
Documente Cultură
Noţiuni introductive
1.1. Introducere
Debutul telecomunicaţiilor electrice se face în secolul XIX, în
contextul expansiunii industriale şi al modernizării mijloacelor de transport.
Transmisia numerică (telegraful) a precedat, în general, transmisia analogică,
cu mult mai delicată. Foarte curând, mijloacele de telecomunicaţii străbat
frontiere, traversează oceane şi unesc continente. Vehicularea informaţiei
devine de importanţă planetară. Istoria telecomunicaţiilor este o adevărată
aventură umană.
1
Teoria transmisiei datelor
2
Noţiuni introductive
Sputnik 1
3
Teoria transmisiei datelor
1.3. Terminologie
Pentru a se evita eventualele neînţelegeri ce ar putea rezulta din
utilizarea unor termeni care sunt folosiţi în literatură cu mai multe accepţiuni
este necesar să se facă unele precizări asupra sensului în care aceşti termeni
sunt utilizaţi în continuare.
Informaţie. Pentru a introduce noţiunea de informaţie, se presupune că
într-o situaţie oarecare pot avea loc N evenimente diferite, independente,
egal probabile, probabilitatea unui eveniment fiind p=1/N. Prin realizarea
unui eveniment din cele N posibile se obţine informaţie. Aceasta este cu
atât "mai mare" cu cât evenimentul realizat este mai imprevizibil, respectiv
cu cât posibilitatea lui de apariţie este mai mică.
4
Noţiuni introductive
S Canal R
Sursa Receptor
P
Perturbaţii
5
Teoria transmisiei datelor
Sursa Receptor
Semnal
purtător P
Perturbaţii
Semnal emis
Mesaj
Sursa
Semnal
purtător P
Perturbaţii
Semnal
recepţionat
Mesaj
reconstituit
Demodulator Decodificator R
Receptor
6
Noþiuni introductive
2
ε(t) = [s(t) − r(t)] (1.1)
X = {x 1 , x 2 , . . . x n } (1.2)
n
ín care x i = E , E fiind evenimentul sigur çi x i ∩ x j = ∅, ∀i ≠ j . Fiecárui
i=1
element al mulþimii X íi este asociatá o probabilitate:
Y = {y 1 , y 2 , . . . y n } (1.7)
U(xi/yj)=0 (1.10)
çi respectiv:
x i = x i1 x i2 (1.14)
çi
x i1 x i2 = ∅ (1.15)
sau:
U(xi ) = U(xi1 ) + U(xi2 ) (1.17)
Rezultá:
respectiv
p(x i /y j )
I(x i , y j ) = λ log (1.24)
p(x i )
__________________________ 10 ___________________________
Noþiuni introductive
1.9. Entropia
1.9.1. Noþiuni introductive
Se considerá o sursá staþionará ergodicá, fárá memorie care are
alfabetul:
X={x1 , x2 , . . . xn } (1.33)
cu setul de probabilitáþi:
Px={ p 1 , p2 . . . pn } (1.34)
__________________________ 11 ___________________________
Teoria transmisiei datelor
Ni =Np i (1.37)
respectiv:
p(Xn )= (p 1 p1 p 2 p2 . . . pn pn )N (1.38)
__________________________ 12 ___________________________
Noþiuni introductive
∂Φ
= 0, i = 1, n (1.45)
∂p i
adicá :
∂Φ
= −log p j − log e + λ = 0 (1.46-a)
∂p j
∂Φ
= −log p i − log e + λ = 0 (1.46-b)
∂p i
de unde rezultá:
__________________________ 13 ___________________________
Teoria transmisiei datelor
p 1 = p2 = . . . = pn (1.48)
H(p , 1-p )
1 1
1
0 0.5 1 P1
Fig. 1.4.
Dacá p 1 → 0, rezultá cá p 2 → 1, deci H(X) = 0 deoarece se
anuleazá ambii termeni. Ín acest caz incertitudinea a priori este nulá fiindcá
se çtie cu siguranþá (probabilitate unu) cá se va reliza evenimentul x2 , ín
consecinþá informaþia este nulá. Acelaçi lucru se íntímplá dacá p 2 → 0,
respectiv p 1 → 1. Incertitudinea este maximá, deci çi informaþia este
maximá cínd p 1 = p 2 = 1/2. Ín acest caz se obþine o cantitate de informaþie
de 1 bit.
∆ H(X)
H τ (X) = (1.51)
τ
__________________________ 14 ___________________________
Noþiuni introductive
x1 y 1 x 1 y 2 ... x 1 y m
x2 y 1 x 2 y 2 ... x 2 y m
{XY} =
(1.56)
... ... ... ...
xn y 1 x n y 2 ... x n y m
{X} {Y}
x y1
1
x y
2 2
x3 y
3
yj
xn ym
Fig. 1.5.
Valoarea medie a acestei incertitudini, respectiv entropia asociatá
cu recepþionarea simbolului yj este:
__________________________ 17 ___________________________
Teoria transmisiei datelor
n n
H(X / yj ) = Σ p(xi / yj )U(xi / yj ) = -Σ p(xi / yj )log p(xi / yj ) (1.66)
i=1 i=1
{ X } { Y }
x y1
1
x y
2 2
x3 y
3
xi
xn ym
Fig. 1.6
__________________________ 18 ___________________________
Noþiuni introductive
çi rezultá cá:
respectiv:
1.9.8. Transinformaþia
Dupá cum s-a vázut, informaþia obþinutá asupra evenimentului xi
cínd la ieçirea din canal se observá evenimentul yj este conform relaþiei:
p(x i /y j )
I(xi yj )=log (1.80)
p(x i )
C=maxI(XY)=max[H(X)-H(X/Y)]=max[H(Y)-H(Y/X)] (1.88)
__________________________ 20 ___________________________
Noþiuni introductive
C max I(XY)
Cτ = = (1.89)
τ τ
unde τ este durata medie a unui simbol iar I(XY)/τ este transinformaþia pe
unitatea de timp, respectiv debitul de transinformaþie. Capacitatea canalului
definitá de Cτ se másoará ín biþi pe secundá.
Redundanþa canalului, prin analogie cu redundanþa sursei este
definitá ca fiind diferenþa íntre capacitatea canalului çi transinformaþie
(informaþia transmisá):
Rc = C - I(XY) (1.90)
Redundanþa relativá este egalá cu redundanþa Rc ímpárþitá la
capacitatea canalului:
ρc = 1 - I(XY)/C (1.91)
Eficienþa canalului este definitá ca fiind raportul íntre
transinformaþie çi capacitatea canalului:
ηc = I(XY)/C (1.92)
Eficienþa canalului aratá cít de mult se índepárteazá transinformaþia
de valoarea ei maximá.
__________________________ 21 ___________________________
Teoria transmisiei datelor
p(y1 /x 1 ) p(y 2 /x 1 )
P(Y/X) = (1.93)
p(y1 /x 2 ) p(y 2 /x 2 )
Canalul binar simetric este reprezentat prin graful din fig. 1.7. Dacá acest
canal este simetric, atunci avem:
p(y1 /x 1 )=1-p ; p(y2 /x 1 )=p (1.94)
1 - p
x1 y1
p p
x2 y2
1 - p
Fig. 1.7.
1 −p p
P= (1.96)
p 1−p
__________________________ 22 ___________________________
Noþiuni introductive
Rezultá:
H(Y/X) = - [p(x1 ) + p(x2 )][p log p + (1-p)log(1-p)]
(1.101)
Dar:
[p(x1 ) + p(x2 )] = 1 (1.102)
-- * --
__________________________ 23 ___________________________