Documente Academic
Documente Profesional
Documente Cultură
Curs TTI
Curs TTI
INTRODUCERE
n anii 40, comunitatea stiinific credea c mrind cantitatea de informaie transmis
printr-un canal, crete i probabilitatea eronrii ei. Shannon a surpris lumea tiintifica, artnd
c transmisia poate fi fcut corect, cu condiia ca rata de transmisie s nu depeasc
capacitatea canalului ; capacitatea canalului se poate calcula din caracteristicile zgomotului
existent n canal.
Shannon a artat c datele reprezentnd procese aleatoare ca muzica sau vorbirea, nu pot
fi compresate sub o anumit limit pe care a numit-o entropie, un termen folosit deja n
termodinamic ; apoi a artat c dac entropia este mai mic dect capacitatea canalului,
atunci transmisia datelor se poate face far erori.
CoS
CoC
CANAL
DecC
DecS
dm
m
P
S
sursa de mesaje
CoS Codor de surs (compresia datelor)
CoC Codor de canal (protecie contra perturbaiilor)
M
modulator
CANAL
Canal de comunicaie
P
Perturbaii
DecC Decodor de canal
DecS Decodor de surs
U
Utilizator
Aceasta este o schem complet; n funcie de de aplicaie, unele bolcuri pot lipsi.
Nf
Np
na
unde na este numrul de
n
apariii ale evenimentului i n este numrul total de experimente.
p (E i ) = lim
2.3.Variabil aleatoare
Variabila aleatoare este o notiune folosit pentru a descrie evenimentele rezultate n
urma unui experiment aleator.
Definitie: Variabila aleatoare (v.a.) este o funcie care asociaz fiecarui eveniment o valoare
numeric.
Notam cu X v.a.
X : R
Exemplu:
Zarul X : = [E1 ,K, E6 ] [1,2,3,4,5,6]
Observaie:
a) Oricarei submultimi a multimii valorilor lui X ii corespunde un eveniment
b) 1,2,3,4,5,6 se numesc realizari particulare a le v.a. X .
Exemplu:
Zarul : multimea valorilor lui X este discreta
Temperatura ia valori intr-un interval.
dF
dx
Exemplu:
Zarul: Funcia de repartiie este o funcie n scar
Densitatea de probabilitate este o serie de funcii Dyrac
x (x )
/ 2 2
unde este
x [0 a ]
in _ rest
e x
f (x ) =
0
x0
in _ rest
Definiia 2 (tipul v.a.) : O v.a. este discret daca are o funcie de repartitie n scar; o v.a. este
continu daca are o funcie de repartiie continu.
p (E i / M ) =
p (E i , M )
p(M )
este
se realizeze.
Observaie: E i si M pot fi evenimente ale aceluiai experiment (aceeai v.a.) sau pot fi
evenimente a dou experimente diferite (2 v.a.).
p (xi / x j ) =
p (xi / y j ) =
p (xi , x j )
p (x j )
(aceeai v.a.)
p (xi , y j )
p(y j )
p ( y j / x i ) p (x i )
p(y j )
p( xi ) = p( xi / y1 ) p( y1 ) + p( xi / y 2 ) p( y 2 ) + K + p( xi / y N ) p( y N )
Unde y1 , y 2 ,K , y N constituie o partitie a multimii valorilor v.a. Y .
Observaii:
a) Funcia de repartiie i densitatea de probabilitate se definesc i pentru v.a. conditionate
F (x M ) = p{X x M }
f (x M ) =
dF (x M )
dx
b) Funcia de repartiie i densitatea de probabilitate se definesc i pentru 2 sau mai multe v.a.
F ( x, y ) = p{X x, Y y}
f ( x, y ) =
dF ( x, y )
dxdy
3. SURSE DE INFORMAIE
3.1. Informaia
Definiie : Informaia este cantitatea de incertitudine pe care o avem asupra producerii unui
viitor eveniment, rezultat n urma unui experiment aleator.
Fie un experiment aleator ale crui rezultate sunt descrise prin v.a. X , care ia valori n
mulimea [ X ] = [x1 , x 2 ,K , x n ] . Incertitudinea asupra evenimentului E , cruia i corespunde
i
realizarea particular x , se noteaz:
i
( )
U E = U ( X = xi ) = U ( xi )
i
U de la uncertainty
Incertitudinea i informaia sunt, din punct de vedere cantitativ, dou no iuni echivalente.
Vorbim despre incertitudine nainte de producerea evenimentului i de informaie dup
producerea sa.
U (xi ) = i (xi )
i de la information
Incertitudinea/informaia unui eveniment este o funcie de probabilitatea de apariie p i a
evenimentului:
U ( x i ) = i ( x i ) = F ( pi )
3.1.2. Specificarea funciei F
Trei proprieti intuitive pentru F :
a) F trebuie sa fie descrescatoare (incertitudinea este mai mic atunci cnd probabilitatea de
apariie a evenimentului este mare).
b) F trebuie s fie aditiv (incertitudinea asupra a dou evenimente, rezultate din
experimente independente, trebuie s fie egal cu suma incertitudinilor asupra celor dou
evenimente):
F ( p i , q j ) = F ( p i ) + F (q j )
unde pi si q j sunt probabilitile celor dou evenimente independente.
c) F (1) = 0 (incertitudinea asupra unui eveniment sigur este nul).
Observaie: Cele dou evenimente pot aparine i aceluiai experiment; n acest caz,
independena se traduce prin condiia ca producerea unuia s nu influeneze n niciun fel
producerea celuilalt.
Funcia care ndeplineste cerinele b) i c) este logaritmul; pentru a satisface i cerinta a),
lum negativul logaritmului:
F ( pi ) = log( pi )
Deci, incertitudinea/informaia asupra unui eveniment care are probabilitatea p i , este:
U ( xi ) = i ( xi ) = log ( p i )
Proprieti :
- informaia este totdeauna o cantitate pozitiv
- informaia adus de un eveniment sigur este zero
Definiie : 1 bit este cantitatea de informaie care se ob ine cnd se realizeaz un eveniment
cu probabilitatea 1/2.
1bit = log 2 (1 / 2 )
b) DIT (Decimal unIT)
Definiie : 1 dit este cantitatea de informaie care se ob ine cnd se realizeaz un eveniment
care are probabilitatea 1/10..
1dit = log 10 (1 / 10 )
c) NAT (Natural uniT)
Definiie : 1 nat este cantitatea de informaie care se ob ine cnd se realizeaz un eveniment
cu probabilitatea 1/e.
1nat = ln (1 / e )
Transformarea unittilor :
1dit = 3,32bit
1nat = 1,44bit
3.1.4. Informaia mutual a dou evenimente
De ce este necesar studiul a dou evenimente ? n transmisia semnalelor, pe canalul de
comunicaie, de cele mai multe ori, apar perturbati care modific semnalul. De aceea,
semnalul de la intrarea n canal i cel de la ieire se descriu prin dou v.a. diferite, X si Y.
Dac puterea perturbaiilor este finit, atunci aceste v.a. nu sunt independente.
Fie xi i y j dou realizri particulare ale lui X i Y. S pp. c y j se produce naintea lui xi .
Informaia mutual a celor dou evenimente este:
i(xi , y j ) = U ( xi ) U (xi / y j )
unde U (xi / y j ) este incertitudinea care rmne asupra lui xi dup producerea lui y j (cnd se
cunoate y j ) .
p (xi , y j )
p ( xi ) p ( y j )
p(xi , y j ) = p( xi ) si i(xi , y j ) = i( xi )
p (xi , y j ) = p( xi ) p ( y j ) si i(xi , y j ) = 0
[X ] = [x1 , x 2 ,K, x N ],
care este
=1
Definiii :
Simbolul (sau litera) este elementul fundamental, ireductibil, care conine informaie.
x1 , x 2 , K , x N sunt simboluri
Alfabetul este totalitatea simbolurilor diferite care pot fi generate de surs.
[X ] este alfabetul sursei
Cuvntul este o succesiune de simboluri (Exemplu: un byte este o succesiune de 8
simboluri binare).
Limba este totalitatea cuvintelor formate cu un alfabet (Exemplu: 256 de cuvinte
binare de 8 biti).
p ( X k = xi / X k 1 , X k 2 ,...) = p ( X k = xi )
Definiie: Sursa cu memorie genereaz v.a. dependente.
Definiie: Dimensiunea memoriei sursei este egal cu numrul de simboluri anterioare care
conditioneaz probabilitatea de apariie a unui nou simbol.
Exemplu:
p ( X k = xi ) = p ( X k + = xi ) oricare ar fi k , sau i .
Un caz particular al surselor staionare este sursa ergodic. Pentru a defini sursa ergodic, ne
bazam pe noiunea de ir tipic.
Definiie: ir tipic
Fie un ir de simboluri generat de surs, suficient de lung a.. s putem estima
probabilitile de apariie a simbolurilor (folosind definiia probabilitii ca raport ntre
numrul de cazuri favorabile i numrul total de cazuri).
Dac ntr-un sir, probabilitile astfel estimate ale simbolurilor sunt egale cu
probabilitile din setul sursei, atunci sirul este tipic.
Altfel spus, dac n este lungimea irului tipic considerat i ni este numrul de
simboluri xi din sir, atunci ni = npi oricare ar fi i.
Definiie: O surs ergodic este o surs care genereaz numai iruri tipice.
Observaie: Definiiile staionaritii i ergodicitii de mai sus sunt valabile pentru sursa
fr memorie. n cazul sursei cu memorie, ele se enun nlocuind no iunea de simbol cu cea
de stare (definiia strii este dat n subcapitolul de Surse Markov).
10
Surse discrete
Surse staionare
Surse ergodice
Sursa Markov este un model matematic des folosit n practic pentru a descrie sursele dicrete
de informaie, cu memorie. Exist diverse defini ii pentru sursa Markov.
[X ] = [0,1]
Alfabetul :
Probabilitile de apariie a simbolurilor sunt probabiliti condiionate, de forma
p ( X k = xi / X k 1 , X k 2 )
p (0 / 0,0)
p (1 / 0,0)
p (0 / 0,1)
p (1 / 0,1)
p (0 / 1,0)
p (1 / 1,0)
p (0 / 1,1)
p (1 / 1,1)
11
Definiie: Probabilitatea ca sursa Markov s fie intr-o anumit stare este egal cu
probabilitatea de apariie a irului de simboluri care constituie starea.
Mulimea strilor: [S k ] = s1 , s 2 ,K , s N k
=1
unde q i = p (s i ) i
=1
p( xi ) = p(xi / s j ) p(s j )
pi = p(xi / s j )q j
Fiecare simbol nou generat constituie, mpreun cu cele anterioare, o noua stare :
p(1 / 0,0)
p(1,0 / 0,0)
Probabilitatea ca sursa s genereze simbolul 1 cnd se afla n starea 0,0 este totuna cu
probabilitatea ca sursa s treac din starea 0,0 n starea 1,0.
[S ] = [s1 , s 2 , s3 , s4 ] = [00
01 10 11]
12
01
1/4
1/5
2/3
11
3/4
4/5
1/3
00
1/3
2/3
10
Observatie : Descrierea prin diagrame de stare este util cnd sursa Markov este staionar.
i.
p1,1
T =
p N k ,1
p1, 2
p N k ,2
p1, N k
p N k , N k
Proprietate: suma elementelor de pe orice linie este egala cu 1, de aceea spunem c T este o
matrice stohastica.
Definiie : Vectorul probabilitilor strilor este constituit din probabilitile tuturor
strilor:
P(S ) = q1 K q N R
P(S k ) = P(S k 1 )T
13
Prin tranzitivitate:
Definiie : Sursa Markov este regulat dac, atunci cnd n , P(S n ) devine constant. n
acest caz, P(S n ) se numete distribuie de echilibru sau asimptotic a strilor sursei
Markov.
Exemplu : sursa Markov regulate (binar de ordinul 1).
P(S 0 ) = [1 / 3 2 / 3]
1 / 4 3 / 4
T =
1 / 2 1 / 2
14
H ( X ) = pi log ( pi )
i
Justificare:
n >> 1 ,
numrul de apariii ale unui simbol este aproximativ ni npi . Probabilitatea unui ir tipic este
egal cu p (S ) = p1 1 p 2 2 K p n n . Deoarece avem un ir tipic putem scrie ca n1 = p1 n .
n
pn n
i, n
H ( X ) = p i log 2 ( p i )
i
15
p
i =1
=1
= p i log 2 p i + pi 1
i =1
i =1
= log 2 p i p i
+ rezult pi =
pi
e
p i
1/2
16
2
e
[X ] = [x1 , x 2 ,K, x N ]
si alfabetul strilor :
[S k ] = [s1 , s2 ,K, sN
Definiie : Entropia sursei Markov este informaia medie pe stare, generat de sursa:
H (S k ) = p(s j )H S k s j
( )
H S k s j = p s i s j log p s i s j
i
Proprietate : Entropia sursei Markov este mai mic dect entropia unei surse fr memorie
care ar genera aceleai simboluri (dependena de trecut diminueaz cantitatea medie de
informaie pe simbol):
H (S k ) < H (S 0 )
Justificare:
Demonstraia se bazeaz pe urmtorul rezultat:
[Q ] = [q1 , q 2 , K, q N
p = 1 i
] cu q = 1
i
Definiie: Mrimea
log 2
17
x1 , x 2 x1 ,K , xn xn 1 ,K
4.3.2. Cazul semnalelor 2D
Fie imaginea constituit din pixelii :
i1,1
K
i1, j 1
K
i1, j
K
K
K
ii 1,1 K ii 1, j 1
ii1, j
ii ,1
K
ii , j
K
K
K
K
K
K
K
ii , j 1
K
Imaginea decorelat este constituit din pixelii diferent d i , j = 0,75ii 1, j 0,5ii 1, j 1 + 0,75ii , j 1 :
i1,1
K
i1, j
K
K
K
ii 1,1 K d i 1, j 1
d i 1, j
ii ,1
K
d i, j
K
K
K
K
K
K
K
i1, j 1
K
d i , j 1
K
Definiie : Debitul de informaie al unei surse este cantitatea medie de informaie generat
pe secund de surs.
18
H t (X ) =
H (X )
(X ) =
H max ( X ) H ( X )
H max ( X )
( X ) [0 1]
[X ] = [x1 , x 2 ,K, x N ]
[P] = [ p1 , p2 ,K, p N ] cu pi
=1
[Y ] = [y1 , y 2 ,K, y M ]
[Q] = [q1 , q2 ,K, q M ] cu qi
=1
Observaii:
a) Informaia conjugat este totdeauna pozitiv
b) Unitatea uzual de masur pentru informaia conjugat este bit/simbol.
Cazuri particulare :
1. Dac sursele de informaie sunt independente :
19
H ( X , Y ) = H ( X ) + H (Y )
Demonstraia se bazeaz pe definiia v.a. independente: p (xi , y j ) = p( xi ) p ( y j )
2. Dac sursele sunt identice:
H ( X , Y ) = H ( X ) = H (Y )
3. Dac sursele sunt dependente statistic:
H ( X , Y ) H ( X ) + H (Y )
Demonstraia se face folosind inegalitatea fundamental , n cazul seturilor de
probabiliti p (xi , y j ) si p ( xi ) p ( y j ) .
I ( X , Y ) = p (xi , y j )log
i
p (xi , y j )
p ( xi ) p ( y j )
Cazuri particulare :
1. Dac X i Y sunt independente:
I (X ,Y ) = 0
Demonstraia se bazeaz pe definiia v.a. independente: p (xi , y j ) = p( xi ) p ( y j ).
2. Dac X i Y sunt identice:
I ( X , Y ) = H ( X ) = H (Y )
3. Dac X i Y sunt dependente statistic:
I ( X , Y ) H ( X ) si I ( X , Y ) H (Y )
Proprieti:
1. I ( X , Y ) = H ( X ) + H (Y ) H ( X , Y )
20
probabilitatii totale.
2. Informaia mutual este o marime nenegativ: I ( X , Y ) 0 .
H ( X Y ) = p (xi , y j )log p xi y j
i
H ( X Y ) = p ( y j )H X y j .
j
Cazuri particulare:
1. Dac X si Y sunt independente:
H (X Y ) = H ( X )
Demonstraia se bazeaz pe definiia v.a. independente: p (xi , y j ) = p( xi ) p ( y j ).
2. Dac X i Y sunt identice:
H (X Y ) = 0
3. Dac X i Y sunt dependente statistic:
H (X / Y ) H (X )
H(X)
H(Y)
H(X)
H(Y)
Sursele X i Y sunt dependente statistic
H(X/Y)
H(Y/X)
H ( X , Y ) = H ( X Y ) + H (Y )
H ( X / Y ) H ( X ) H ( X , Y ) H ( X ) + H (Y )
4.9. Generalizare (cazul a n surse)
22
H(X/Y,Z)
H(Y/X,Z)
H(Z/X,Y)
b) 0 H (Z X , Y ) H (Z X ) H (Z )
Pentru n surse, prin analogie cu relaiile anterioare, putem scrie:
a) H ( X 1 ,K , X n ) = H ( X 1 ) + H X 2 X 1 + K + H ( X n X 1 ,K , X n 1 )
Dac sursele sunt independente, atunci: H ( X 1 ,K , X n ) = H ( X i )
i
b) 0 H ( X n X 1 , K , X n 1 ) H ( X n X 1 ,K , X n 2 ) K H ( X n X 1 ) H ( X n )
23
[X]
S
S
Mod
C A N A L
DeM
[Y]
continuu in timp
discret in timp
stationar
nestaionar
24
[X ] = [x1 ,K , x N ]
[P] = [ p1 , K, p N ]
i Y , sursa de informaie care modeleaz ieirea din canal (sursa de informaie pentru
utilizator):
[Y ] = [y1 ,K, y M ]
[Q ] = [q1 ,K, q M ]
Din cauza perturbaiilor de pe canal, X i Y sunt, n general, diferite.
Spaiul produs:
innd cont de spaiul de intrare [ X ] i de spaiul de ieire [Y ] , se poate defini un
spaiu produs (sau cmp reunit) [ X , Y ] , prin matricea:
x1 , y1 x1 , y 2 K x1 , y M
x ,y
x2 , y 2 K x 2 , y M
2
1
[X , Y ] =
K
K
K
K
x N , y1 x N , y 2 K x N , y M
unde prin produsul xi, yj s-a notat realizarea att a evenimentului xi, ct i a evenimentului yj,
adic emisia simbolului xi i recepia simbolului yj.
Matricea probabilitilor corespunzatoare spaiului produs
Matricei de mai sus i corespunde matricea de probabiliti urmtoare:
p ( x1 , y1 ) p ( x1 , y 2 )
p ( x , y ) p( x , y )
2
2
[P( X , Y )] = 2 1
K
K
p (x N , y1 ) p ( x N , y 2 )
K
K
K
K
p ( x1 , y M )
p (x 2 , y M )
p ( x N , y M )
p ( y1 x1 ) p ( y 2 x1 )
p ( y1 x N ) p ( y 2 x N )
p ( y M x1 )
K p ( y M x 2 )
K
K
K p ( y M x N )
25
x1
x2
p( y1 / x1 )
y1
y2
.
yM
xN
H ( X ) = p ( x i ) log p( x i ) [bit/simbol].
i =1
26
la ieirea din
de
ieire
canal:
sunt:
[ p( y )]] = [ p( y1 ), p( y2 ),..., p( ym )] ,
H (Y ) = p ( y i ) log p ( yi ) [bit/simbol].
i
Se poate arta i n acest caz c entropia la ieirea din canal este maxim pentru
probabiliti egale ale simbolurilor de la ieirea din canal.
H ( X , Y ) = p ( x i , y j ) log p ( x i , y j ) [bit/simbol].
i =1 j =1
Echivocatia
Dac spaiul de la ieirea din canal este cunoscut, datorit efectelor perturbaiilor
rmne totu i o oarecare incertitudine asupra spaiului de la intrare. Valoarea medie a acestei
incertitudini se numete entropia spaiului [ X ] condiionat de spaiul [Y ] i se noteaz
H(X/Y).
n
H ( X / Y ) = p ( xi , y j ) log p( xi / y j ) [bit/simbol].
i =1 j =1
H (X ) H(X /Y ) .
Pentru determinarea echivocaiei este necesar s se cunoasc probabilitile p(xi/yj),
i = 1, , n, j = 1, , m, date de matricea [P ( X / Y ) ] .
Eroarea medie
n mod analog cu echivocaia se poate determina entropia spaiului de la ieire cnd se
cunoate spaiul de la intrare:
n
H (Y / X ) = p ( x i , y j ) log p ( y j / x i ) [bit/simbol].
i =1 j =1
Entropia H(Y/X) se numete eroare medie, fiindc este o msur a incertitudinii (deci a
erorii) asupra spaiului de la ieire cnd se cunoate spaiul de la intrare.
Definiie: Eroarea medie este cantitatea medie de informaie eronata, la ieirea din canal.
27
ntotdeauna
H (Y ) H (Y / X ) .
Pentru determinarea erorii medii este necesar s se cunoasc probabilitile
p( y j / xi ), i = 1, n j = 1, m , date de aa-numita matrice de zgomot (sau de tranziie sau de
eroare) P[Y/X]. Matricea de zgomot se construiete pe baza grafului de tranziii asociat
canalului.
I ( X , Y ) = p (xi , y j )log
i
p (xi , y j )
p (x i ) p ( y j )
ntotdeauna
I (X ,Y ) 0 .
Definiie: Informaia medie este cantitatea medie de informaie care se transmite corect prin
canal.
Cazuri particulare :
a) Canale cu perturbaii infinite ( X si Y sunt independente)
H ( X , Y ) = H ( X ) + H (Y )
H ( X Y ) = H ( X ) (la ieire, nu aflam nimic despre X ; incertitudinea asupra lui X ramane la
fel de mare)
H ( X , Y ) = H ( X ) = H (Y )
H ( X Y ) = 0 (cunoscnd ieirea din canal, nu mai exist nici o incertitudine asupra lui X )
H (Y X ) = 0 (nu exist erori la iesirea din canal)
H ( X , Y ) < H ( X ) + H (Y )
H ( X Y ) < H ( X ) (cunoscnd ieirea din canal, incertitudinea asupra lui X devine mai mic)
H (Y X ) < H (Y ) (o parte a informatiei de la iesirea din canal este corect)
{ p ( xi )}
{ p ( xi )}
{ p ( xi )}
29
C=
i =1
1 m
p( y j / x i ) log p( y j / x i ) + log m [bit/simbol].
n j =1
I ( X ,Y )
[0,1] .
C
Definiie : Randamentul sau eficiena canalului arat ct de mic este cantitatea medie de
informaie transmis prin canal, n raport cu capacitatea canalului.
C =
I (X ,Y )
[0,1]
C
I (X ,Y )
Proprieti :
a) Capacitatea canalului este o mrime nenegativ :
C 0 (deoarece I ( X , Y ) 0 )
b) Capacitatea canalului este mai mic sau egal cu entropia sursei de la intrare:
C H ( X ) (deoarece I ( X , Y ) H ( X ) )
c) Capacitatea este o funcie continu in raport cu probabilitatile [P( X )] .
30
Rezolvare:
Se construiete funcia:
= H (Y ) H (Y / X ) + p i 1
i
Pentru a pune n eviden probabilitile pi n expresia lui H (Y ) , probabilit ile [Q] se scriu:
H (Y )
H (Y ) q j
1
p ( y j / xi ) =
=
= log q j +
p i
q j p i
log e
j
j
1
1
p ( y j / xi ) p ( y j / xi )log q j =
p ( y j / xi )log q j
log e j
log e
j
j
H (Y / X )
=
p i
-
p ( y j / xi ) p i log p ( y j / xi )
j
p i
= p ( y j / xi )log p ( y j / xi )
j
derivata termenului n :
pi 1
i
=
p i
Se egaleaz derivatele pariale ale lui cu zero; din rezolvarea sistemului, rezult
probabilitile pimax , care maximizeaz i, deci, informaia transmis prin canal:
1
31
p(y
/ xi )log
p ( y j / xi )
qj
= ct
pentru i = 1, N
q j = p ( y j / xi ) p i
pentru
j = 1, M
=1
C = p ( y j / xi ) p imax log
i
p(y j / xi )
q max
j
Observtii:
-
acest sistem nu are, n general, o soluie analitic; cnd nu exist o solutie analita,
capacitatea se calculeaz cu metode numerice (algoritmul lui Frank-Wolfe, care este
bazat pe metoda gradientului, sau algoritmul iterativ al lui Arimoto si Blahut)
dac alfabetele surselor de la intrarea i de la ieirea din canal au acela i numr de
simboluri i, dac, determinantul matricii de zgomot este diferit de zero, atunci
sistemul are soluie analitic
P(Y / X ) = 3
1
1
6
1
2
1
2
1
32
Proprieti:
a) Eroarea medie nu depinde de probabilittile simbolurilor de la intrarea n canal:
H (Y / X ) = p (xi , y j )log p ( y j / xi ) =
i, j
= p ( y j / xi ) p ( xi ) log p ( y j / xi ) =
i, j
= p( xi ) p ( y j / xi )log p ( y j / xi ) = ct p ( xi ) = ct
i
[P ]
[P ]
Proprietate:
a) Dac simbolurile de la intrarea n canal sunt echiprobabile, atunci i cele de la ieire
sunt echiprobabile:
p ( y j ) = p ( y j / xi ) p ( xi ) =
i
1
1
p ( y j / xi ) = ct.
N i
N
33
Proprieti:
a) Capacitatea canalului se ob ine pentru simboluri echiprobabile la intrarea n canal i
este:
C = log M H (Y / X ) unde M este numarul de simboluri ale sursei de la iesirea din
canal (simbolurile de la ieire sunt echiprobabile, dac i cele de la intrare sunt echiprobabile).
P(Y / X ) = 3
1
1
6
1
2
1
2
1
Proprietati:
a) Dac simbolurile de la intrarea n canal sunt echiprobabile, atunci i cele de la ieire
sunt echiprobabile:
p ( y j ) = p ( y j / xi ) p ( xi ) =
i
1
1
p ( y j / xi ) = ct.
N i
N
C = log M H (Y / X )
Observaie: Uniformitatea fa de ieire nu este indispensabil pentru a putea avea o
expresie analitic pentru capacitatea canalului. Aceast condiie poate fi relaxat la
condiia c suma probabilitilor de pe coloane sa fie constant.
34
p
1 p
P(Y / X ) =
p 1 p
Reprezentare grafic:
1-p
1-p
Calculul capacitii:
C = log 2 H (Y / X ) = 1 H (Y / X )
H(X), C
unde
H (Y / X ) = p ( y j / xi )log p ( y j / xi ) =
2
j =1
= p log p (1 p ) log(1 p )
deci
C = 1 + p log p + (1 p ) log(1 p )
1/2
Cazuri particulare:
a) Canal fr perturbaii:
1 0
Matricea de zgomot: P(Y / X ) =
0 1
Reprezentare grafic:
1
Capacitatea este maxim : C = 1 bit / simbol
Observaie:
Cellalt punct de maxim al capacitii corespunde canalului inversor:
35
0 1
P(Y / X ) =
1 0
C = 1 bit / simbol
1 / 2 1 / 2
Matricea de zgomot: P(Y / X ) =
1 / 2 1 / 2
Capacitatea : C = 0 bit / simbol
Reprezentare grafic:
X =0
1-p-q
Y =0
q
p
Y =a
X =1
Y =1
Calculul capacitii:
C = max[H (Y )] H (Y / X )
[P ]
unde
H (Y / X ) = p ( y j / xi )log p ( y j / xi ) =
2
j =1
36
- se noteaz p( X = 0) = x si p( X = 1) = 1 x
2
ca funcii de x
- se exprim H (Y ) ca funcie de x , folosind probabilitile calculate mai sus
H (Y )
- se rezolv ecuaia
=0
x
- cu solu ia ecuaiei de mai sus, se obine max[H (Y )]
[P ]
Exercitiu:
Calculul capacitii canalului binar cu erori si anulri.
Rspuns C = 1 q (1 q ) log(1 q ) + p log p + (1 p q ) log(1 p q ) .
1 q
(se rezolv ecuaia
2
Este un caz particular al canalului binar cu erori i anulri ( p = 0 ).Acest canal modeleaz
cazul transmisiei binare n care un simbol poate fi transmis corect, poate fi confundat cu
cellalt simbol, sau poate fi recepionat cu o valoare incert (acest al treilea simbol poart
denumirea de simbol de anulare sau de tergere). Este caracterizat de urmtorul graf de
tranziii
Matricea de zgomot:
0
q
1 q
P(Y / X ) =
0 1 q q
Reprezentarea grafic:
X =0
Y =0
1-q
q
Y =a
X =1
Y =1
1-q
Capacitatea: C = 1 q
37
H ( X ) = f ( x ) log 2 f ( x )dx
R
1/ 2
H ( X ) = 2 log 2 2dx = 2 dx = 1
38
Semnalul discret (continuu) poate fi modelat de un sir de v.a. discrete X k(q ) , altfel spus, sursa
p ( xn ) =
nq
f (x )dx qf (nq )
(n 1)q
( )
n =1
n =1
n =1
n =1
( )
( )
a) H X q este entropia unei surse de informaie discrete, deci are semnificaia unei informaii
medii. La limit, cnd q 0 , sursa devine continu i lim H X (q ) este informaia medie a
q 0
sursei continue, ceea ce nu este acelasi lucru cu H ( X ) din cauza termenului log q . Deci,
entropia sursei continue nu are semnificaia unei cantiti medii de informaie.
b) La limit, termenul log q tinde catre infinit, de aceea, spunem ca informaia medie a
sursei continue este infinit (n timp ce entropia H ( X ) este de cele mai multe ori finit).
39
f (x ) log f (x ) 0
R
f (x )
f (x ) log g (x )
distribuiilor continue. Este o mrime nenegativ; ia valoarea zero cnd cele dou distribuii
sunt indentice.
f (x )dx = 1
H max ( X ) = log(b a )
40
f (x )dx = 1
i media
x0
in _ rest
H max ( X ) = log m +
m
log e
f (x )dx = 1 ,
media
statistic m = 0 si variana 2 .
f.
Rezultat: distribuia care maximizeaz entropia este distribuia gaussian:
x x / 2
f (x ) =
2
2
H max ( X ) = log 2e
sunt
f ( x1 ,K , x N )dx1 K dx N i g ( 1 ,K , N )d 1 K d N
Variaiile dx1 K dx N = dX determin variaiile d 1 K d N = dV .
Se poate arata c
d 1
dx
V 1
J = K
X d 1
dxN
dV
V
V
= J unde cu J s-a notat jacobianul transformrii:
dX
X
X
d N
dx1
K K
d N
K
dxN
K
Cum transformarea
satisfacut relaia:
f ( x1 ,K , x N )dx1 K dx N = g ( 1 ,K , N )d 1 K d N
Imprind relaia prin dx1 K dx N , se ob ine:
V
f ( x1 , K, x N ) = g ( 1 ,K , N )J
X
ceea ce conduce la urmtoarea relaie ntre entropiile semnalului nainte i dup transformare:
42
V
= f ( x1 ,K, xN )log g ( 1 ,K, N ) J
X
X
dx1 K dxN =
V
= f ( x1 ,K, xN )log J dx1 KdxN g ( 1 ,K, N )logg ( 1,K, N )d 1 K d N =
X
X
V
V
= f ( x1 ,K, xN )log J dx1 KdxN + H (V )
X
X
ceea ce arat c, n general, entropia semnalului se schimb atunci cnd se aplic o
transformare.
Se poate arata c, n cazul unei transformri ortogonale (Fourier, Cosinus, etc.) :
V
J = 1
X
i atunci
H ( X ) = H (V ) deoarece
g (
,K , N )d 1 K d N = 1 .
[X ] = [x1 , x 2 ,K, x N ]
unde x n = nq
si probabilitile :
f X ( x n )q
[Y ] = [ y1 , y 2 ,K , y M ]
unde y m = mq
si probabilitile:
[Q ] = [ p( y1 ), p( y 2 ),K , p( y N )] unde p( y m ) f Y ( y m )q
Informaia medie pe eantion transmis prin canal este (cf. rezultatului ob inut la canalele
discrete):
I ( X , Y ) = p (xi , y j )log
i
= f X ,Y ( x, y )q log
2
p (xi , y j )
p ( xi ) p ( y j )
f X ,Y ( x, y )q 2
f X ( x )qf Y ( y )q
I ( X , Y ) = f X ,Y (x, y ) log
f X ,Y ( x, y )
dxdy
f X (x ) f Y ( y )
f X (x )
dxdy =
f X ,Y ( x , y )
H (Y / X ) = f X ,Y ( x, y ) log f X ,Y ( y / x )dxdy
Justificare:
Ne bazm pe inegalitatea fundamental, n cazul continuu. Considernd densit ile de
probabilitate f X ,Y ( x, y ) i f X ( x ) f Y ( y ) , se poate scrie urmtoarea inegalitate:
I ( X , Y ) = f X ,Y ( x, y ) log
f X (x ) f Y ( y )
dxdy 0
f X ,Y (x, y )
Se poate demonstra c:
I ( X , Y ) = I (U , V )
45
C = max[2 W I ( X , Y )] = 2 W max[H (Y ) H (Y / X )]
fX (x)
f X (x )
PY = PX + N
c) Pentru fiecare valoare particular a lui, X = x0 , incertitudinea medie asupra ieirii este dat
numai de zgomot. Prin cuantizarea zgomotului cu cuanta q , numrul de nivele pe care
zgomotul le poate lua este:
K=
N
q
Dac zgomotul este staionar i are o distribu ie uniform, atunci nivelele de cuantizare sunt
echiprobabile, iar entropia condiionat este egal cu:
H (Y / X = x0 ) = log K = log
N
q
Dac, n plus, canalul este simetric, atunci eroarea medie pentru toate valorile lui X are
expresia de mai sus. Deci, entropia condiionat nu depinde de distribu ia lui X , iar
capacitatea devine:
N
C = 2 W max H (Y ) log
f (x )
q
X
Prin cuantizarea semnalului de la ieire cu cuanta q , se obin m nivele diferite:
m=
Py
q
46
max H (Y ) = log
fX (x)
Py
q
Prin trecere la limit, pentru q 0 , din relaia anterioar se obine capacitatea canalului
continuu :
C = W log1 + x
N
unde
Px
este raportul semnal zgomot
N
Relaia de mai sus ne arat c, n cazul canalului continuu, capacitatea crete cu banda i cu
puterea semnalului de la intrare i descrete cu puterea zgomotului.
Dac zgomotul de pe canal este alb i de densitate spectral de putere N 0 , atunci N = WN 0 .
i:
P
C = W log1 + x
WN 0
Reprezentarea grafic a acestei relaii, arat o curb a capacitii tinznd asimptotic spre:
P
C = lim W log 1 + x
W
WN 0
Px
=
log(e )
N0
Concluzie: Creterea lrgimii de band peste o anumit valoare nu mai este raional deoarece
capacitatea canalului nu mai crete dect foarte pu in.
C
(Px/N0) loge
47
7. CODAREA DE SURS
Locul codrii de surs ntr-o schem de transmisiune a datelor :
CoS
CANAL
DecS
Observaii :
-
Simbolurile trebuie transmise pe un canal binar cu alfabetul [0,1] . De aceea, ele trebuie
transcrise n binar, nainte de transmisie. Transcrierea n binar - codarea - se poate face n
multe feluri. De exemplu:
1)
x1
x2
x3
x4
0
0
1
1
2)
x1
x2
x3
x4
0
1 0
1 1 0
1 1 1
0
1
0
1
48
Definiie : Codarea este operaia prin care fiecare simbol al sursei primare este nlocuit
printr-o succesiune de simboluri ale alfabetului canalului. Decodarea este operaia invers
codarii.
Definiie : Cuvntul de cod este succesiunea finit de simboluri din alfabetul canalului, cu
care este nlocuit un simbol al sursei primare
Definiie : Codul este totalitatea cuvintelor de cod folosite n codarea unei surse.
Definiie : Lungimea unui cuvnt de cod este egal cu numrul de simboluri din alfabetul
canalului, care constituie cuvntul considerat.
Observaii :
- Codarea stabilete o coresponden biunivoca ntre simbolurile sursei primare i
cuvintele codului
- O succesiune de simboluri ale alfabetului canalului, care nu corespunde niciunui
simbol al sursei, se numeste cuvnt fr sens. Prin analogie, un cuvnt de cod se
mai numete i cuvnt cu sens.
Exemplele de mai sus cuprind un cod de lungime fix (exemplul 1), care are toate cuvintele
de aceeasi lungime, i un cod de lungime variabil (exemplul 2), care are cuvinte de lungime
variabil. n acest caz, se definete noiunea de lungime medie a cuvinelor de cod.
Definiie : Lungime medie a cuvintelor de cod se calculeaz cu expresia :
N
l = p i li
i =1
1
1
1
1
14
1 + 2 + 3 + 3 =
1,7
2
4
8
8
8
Observaii :
- lungimea medie a cuvintelor de cod se numete, pe scurt, lungime a codului
- la codurile formate din cuvinte de lungime fix, lungimea codului este egal cu
lungimea unui cuvant de cod ( l = l i = l ) .
De cele mai multe ori, prin codarea cu cuvinte de lungime variabil, se realizeaz o compresie
a datelor (reducere a volumului de date).
l
l
49
unde cu l s-a notat lungimea unui cod de lungime fixa, obtinut cu acelasi alfabet al canalului.
Exemplu : R =
2
1,15
1,7
rata =
1
R
7.1. Clasificarea codurilor de surs
CODURI
reversibile
de lungime variabil
unic decodabile
instantanee
neinstantanee
x1
x2
x3
x4
0
0
1
1
x1
x2
x3
x4
0
0
1
1
0
1
0
1
50
Exemplu :
1) Cod care nu este unic decodabil :
x1
x2
x3
x4
0
1 0
1 1
1 1 0
x1 0
x2 1 0
x3 1 1 0
x4 1 1 1 0
x1
x2
x3
x4
0
1 0
1 1 0
1 1 1 0
Trebuie ateptat primul simbol al urmatorului cuvt de cod pentru a face decodarea cuvntului
recep ionat (acest cod se mai numete i cod cu separator).
2) Cod instantaneu
x1
x2
x3
x4
0
1 0
1 1 0
1 1 1
Observaie:
- codurile instantanee sunt cele mai utilizate n practic.
51
C = [c1 K cn ]
irul format din primele k simboluri, se numete prefix al cuvntului.
Teorem : Condiia necesar i suficient ca un cod sa fie instantaneu este ca niciun cuvnt al
su sa nu fie prefix al altui cuvnt.
Observaii:
spunem despre un cod instantaneu c are proprietatea de prefix.
codurile instantanee se mai numesc i ireductibile.
[X ] = [x1 ,K , x N ]
i alfabetul de canal [C ] = [c1 ,K , c D ] , cu simbolurile cruia se vor forma cuvinte de cod
pentru sursa primar. O condiie necesar i suficient pentru a construi un cod ireductibil
(instantaneu) cu cuvinte de lungime l1 ,K, l N este :
N
li
<1
(Inegalitatea Kraft-McMillan)
i =1
H (X )
l
52
i =1
H (X )
, nu poate fi mai mare dect entropia maxim a sursei secundare
l
H max (C ) = log 2 D :
Aceast cantitate
H (X )
log 2 D
l
Deci, limita inferioar pentru lungimea medie a oricarui cod este:
l min =
H (X )
log 2 D
Observaii:
-
dac codarea se face cu alfabet binar, atunci limita inferioar pentru l este
entropia sursei primare H ( X )
rezultatele acestei seciuni sunt valabile pentru toate tipurile de coduri, deci i
codurilor ireductibile (instantanee)
aceast relaie poate fi interpretat i ca o a doua definiie a entropiei
Definiie : Entropia unei surse este egal cu lungimea medie a unui cod binar minim cu care
sursa poate fi codat (nu totdeauna acest cod exist).
H (X )
se numesc coduri absolut optimale.
log D
Conform Sectiunii 7.4, cantitatea medie de informaie transmis fiecarui simbol de canal prin
codare, altfel spus entropia sursei secundare H (C ) , este invers proporional cu l :
H (C ) =
H (X )
l
Aceast relaie arat c l ii atinge minimul cnd H (C ) este maxim, adic atunci cnd, prin
codare, simbolurile c d ajung s fie transmise echiprobabil:
p (c1 ) = K = p (c D ) =
1
D
53
i
1
p ( xi ) = unde li este lungimea cuvntului de cod pentru xi .
D
Cum
li
=1
i =1
Observaii:
-
egalitatea de mai sus este o condiie de existen pentru codurile absolut optimale;
n cazul codrii binare, aceast condiie se traduce prin a cere ca simbolurile sursei
primare s aibe probabiliti care sunt puteri ntregi negative ale lui 2 (exemplu:
[P] = 1 , 1 , 1 , 1
2 4 8 8
codurile absolut optimale sunt un caz limit pentru Inegalitatea Kraft-McMillan,
deci pot fi i ireductibile
i
1
p ( xi ) =
D
li =
log 2 p( xi )
= log 2 p( xi )
log 2 D
De cele mai multe ori, log 2 p( xi ) nu este un numr zecimal. De aceea, se construiesc
cuvinte de cod cu lungimea minim posibil, adic li = log 2 p ( xi ) . Aceste cuvinte satisfac
condiia:
log 2 p( xi )
log 2 p( xi )
li
+1
log 2 D
log 2 D
p(xi )li
i
log 2 D
+ p ( xi )
i
54
Deci
H (X )
+1
log 2 D
H (X )
+ 1.
log 2 D
log 2 p ( xi )
li
log 2 D
p ( x i ) D li
p(x ) D
li
li
Deci, aceste coduri satisfac Inegalitatea Kraft-McMillan care este condiia necesar i
suficient pentru a avea un cod ireductibil.
C = H max (C ) = log D
Definiie : Eficiena unui cod se definete prin :
l min
1
l
H ( X ) H (X )
log D
H (C )
=
= l
=
log D log D
l
= 1 = 1
H (C )
[0,1]
log D
55
X 0 , X 1 , X 2 , X 3 ,K, X 2n , X 2n +1 , K
Definiie : Extensia de ordin 2 a sursei X , este o surs notat X 2 , care genereaz irul:
Z 0 , Z 1 ,K , Z n , K
unde v.a. Z n sunt iruri de dou v.a. consecutive ale irului X 0 , X 1 , X 2 , X 3 , K, X 2 n , X 2n +1 , K
Mai precis: Z 0 = ( X 0 , X 1 ) , Z 1 = ( X 2 , X 3 ) , , Z n = ( X 2n , X 2 n+1 )
Observaii:
- extensia de ordin m se noteaz cu X m i este o surs ale crei simboluri sunt iruri de
lungime m
- alfabetul extensiei X m este constituit din N m simboluri (iruri).
Teorema : Entropia extensiei X m , fr memorie, este de m ori mai mare dect entropia
sursei X :
H (X m ) = mH ( X )
H (X )
H (X )
l
+1
log 2 D
log 2 D
Aceast dubl inegalitate este valabil i pentru extensia X m , care este tot o surs fr
memorie :
56
( )
( )
H Xm
H Xm
l (m )
+1
log 2 D
log 2 D
unde l (m ) este lungimea medie a cuvintelor de cod pentru simbolurile sursei extinse, care
sunt iruri de m simboluri ale sursei iniiale. Deci, l ( m ) = ml , unde l este lungimea medie a
cuvintelor de cod pentru simbolurile sursei iniiale.
Aplicnd rezultatul Sectiunii 7.8, dubla inegalitate devine:
H (X )
H (X ) 1
l
+
log 2 D
log 2 D m
unde ( H (X m ) = mH ( X ) )
Prima teorem a lui Shannon sau Teorema codarii canalelor fr zgomot: Codnd iruri
de simboluri suficient de lungi, ne putem apropia orict de mult de codarea absolut optimal.
7.10. Metode de codare binar
7.10.1 Codarea Shannon-Fano
Se consider c simbolurile sursei sunt codate n mod individual unul cte unul .n
cazul particular n care mulimea simbolurilor sursei [X]=[x1 ,.xN], poate fi mprit n
dou mulimi Xo i X1 de aceeai probabilitate P(Xo)=P(X1)=1/2 iar mulimile Xo i X1 la
nivelul lor pot fi divizate n Xoo i Xo1 respectiv n X1o i X11 toate avnd aceeai probabilitate
egal cu .Continum aceast operaie pn cnd mulimile respective nu conin dect un
singur element. n acest fel codarea Shannon-Fano conduce la un cod absolut optimal.
EX:
x1 x 2 x3 x 4 x5 x6 x7 x8
X =1 1 1 1 1 1 1 1
4 4 8 8 16 16 16 16
Ck
X1
X2
X3
Xo
X4
Xoo
00
Lk
2
Xo1
01
X100
100
X101
X1100
101
1100
3
4
X1101
1101
X1110
1110
X1111
1111
1/8
X1o
1/8
X5
X110
X1
X6
X7
X11
X111
X8
pi=1
Avnd n vedere ca entropia sursei este:
N
I=2.75
i =1
57
rezult ca:
H(X)=2x 0.25log0.25+2x 0.125log0.125+4x 0.0625log0.0625=2.75 bii/simbol
H (X )
l min =
= H ( X ) = 2.75
log D
l
2.75
eficiena = min =
= 1 = 100%
2.75
l
x ... x N
Fie sursa X = 1
cu probabilitile ordonate P1P2P3 PN
p1... p N
Codarea Huffman este bazat pe ideea de a mpri mulimea mesajelor X = x1..xN
ordonat descresctor n funcie de probabilitile corespunztoare n submulimile Xo i X1
cu probabiliti ct mai apropiate, iar mulimile X00 i X01 respectiv cu probabiliti ct mai
apropiate. n cazul particular n care probabilitile mulimilor obinute sunt egale codarea este
absolut optimal de tip Shannon-Fano. Algoritmul de codare funcioneaz dup urmtorii
pai:
1) Se ordoneaz mulimea mesajelor [X] n ordinea probabilitilor descresctoare.
X=[x1,x2, .. xN]
p(x1)p(x2).p(xN)
2) Se formeaz mulimi de simboluri care s poat fi furnizate n dou submulimi de
probabiliti ct mai apropiate:
a) Se grupeaz r1=xN U xN-1 => p(r1)=p(xN)+p(xN-1)
b) Mulimea r1 se consider ca un nou mesaj care se include n mulimea celorlalte
mesaje n ordinea probabilitilor descresctoare.
[R1]=[x1,x2, .r1] cu p(x1)>p(x2)..p(r1)..
Ultimele dou mesaje se grupeaz ca i n cazul precedent operaia continund pn n
cazul n care se ajunge la un ir de numai dou elemente [rn ,rn-1]=[Rn]
c) Cuvintele de cod corespunztoare fiecrui mesaj se ob in n felul urmtor:
-mulimii rn i se aloc simbolul 0;
-mulimii rn-1 i se aloc simbolul 1;
-la fiecare nou diviziune se aloc n plus un nou simbol 0 sau 1 pn cnd se ajunge
la o mulime care conine un singur element xk.
d)
Din cele precedente rezult c formarea cuvntului de cod corespunztor
mesajului xk nu este unic fiindc la fiecare diviziune alocarea lui 0 sau 1 este arbitrar.
Rezult c se pot forma mai multe coduri care au aceeai lungime medie.
58
x3 x4 x5 x6
Se consider sursa: X = x1 x2
0,3 0,25 0,15 0.15 0.1 0.05
Se aranjeaz simbolurile sursei n ordinea descresctoare a probabilitilor i se construiete
urmtorul tablou al surselor restrnse:
R1
R2
R3
Ck
X1 0.3(00)
0.3(00)
0.3(00)
0.4(1)
0.6(0)
0.3 (01)
0.25(10)
0.25 (10)
0.3 (00)
0.4(1)
X2 0.25(10)
EX:
X3
0.15(11)
0.15(11)
X4
0.15(010)
0.15(010)
0.15(011)
0.15 (11)
0.3 (01)
X5 0.10(0110)
X6 0.05(0111)
N
i =1
H(X)=0.3log0.3+0.25log0.25+0.3log0.15+0.1log0.1+0.05log0.05=2.4 bit/simbol
l = 2.45 bit/simbol = liPi
H (X )
l log 2
2
59
= 0,975
8. CODAREA DE CANAL
Locul cod rii de canal ntr-o schem de transmisiune a datelor :
CoS
CoC
CANAL
DecC
DecS
UU
Rolul codrii de canal : La trecerea prin canal, se produc modificri aleatoare ale
informaiei din cauza perturbaiilor. De aceea, la ieirea din canal, informaia nu poate fi
reconstituit fidel. Putem construi totui, un Codor de canal care s reduc probabilitatea de
eroare printr-o codare adecvat a irului de simboluri, nainte ca acestea s fie transmise prin
canal. La ieirea din canal, Decodorul de canal, face operaia invers pentru a reconstitui irul
de simboluri.
Observaie : Codarea de canal nu elimin erorile, ci doar reduce probabilitatea lor de apariie.
1 p (xi / y j )
Pentru a minimiza aceast eroare, putem construi un decodor care s decodeze pe y j n
simbolul xi cel mai probabil, adic simbolul pentru care p (xi / y j ) este maxim. Presupunnd
c acest simbol este x j , atunci probabilitatea minim ca decodarea s fie greit va fi:
1 p (x j / y j )
n medie, probabilitatea de eroare la decodare va fi:
P(E ) = (1 p (x j / y j ))p ( y j )
j
60
Observaii:
- decodorul care lucreaz pe acest principiu se numete Decodor cu rat minim de eroare
- aceast probabilitate poate fi calculat dac se cunoate matricea de zgomot a canalului i
probabilitile simbolurilor la intrarea n canal:
P(E ) = (1 p (x j / y j ))p ( y j ) = p ( y j ) p (x j , y j ) = 1 p ( y j / x j )p (x j )
j
0,8 ). n plus, dac nainte s-a facut o codare de surs care a condus la simboluri
echiprobabile :
p ( x1 ) = p ( x 2 ) =
1
2
Exemplul 8.2 :
a) Codarea unui ir binar prin repetare de trei ori a fiecarui simbol (transmisia se face prin
canalul din exemplul anterior)
Codarea :
0 -> 000
1-> 111
Decodarea : 000->0
001->0
010->0
100->0
111->1
110->1
101->1
011->1
61
= (1 p ) + 3(1 p ) p = (1 p ) (1 + 2 p )
3
p ( y decodat = 1 / x = 1) = ... = (1 p ) (1 + 2 p )
2
Rezult :
1
2
P(E ) = 1 p ( y j / x j )p (x j ) = 1 2(1 p ) (1 + 2 p ) = p (2 p ) 0,1
2
j
Observaii:
-
P(E ) = 1 (1 p ) (1 + 3 p + 6 p 2 ) 0,05
3
Observaie :
- probabilitatea de eroare a sczut i mai mult, dar rata de emisie R trebuie s fie cel
mult o cincime din capacitate de transmisie C :
C
5
P(E ) 2 nE ( R )
unde E (R ) este o funcie nenegativ numit exponentul erorii.
E(R
C
62
Observaii :
- Teorema a 2-a a lui Shannon este cunoscut i sub numele de Teorema cod rii
canalelor cu perturbaii
- Funcia E (R ) este o caracteristic a canalului de transmisiune
- Teorema a 2-a stabilete c pe un canal se poate face o transmisie cu probabilitate de
eroare P(E ) orict de mic, dac rata de emisie a sursei se diminueaz suficient de mult.
- ntr-o aplicaie practic, dac se impune P(E ) , cunoscnd funcia E (R ) , se poate
determina rata (maxim) de emisie R a sursei sau, dac se impune R , se poate afla P(E ) cu
care se va face transmisia pe canal pentru rata impus.
Codarea :
0 -> 000
1-> 111
Decodarea : 000->0
001->0
010->0
100->0
111->1
110->1
101->1
011->1
Definiie : Cuvintele emise de codor se numesc cuvinte cu sens, iar restul cuvintelor de
aceeasi lungime se numesc cuvinte fr sens. mpreun, ele constituie mulimea cuvintelor
de lungime n ( n = 3 n exemplul 8.2).
8.5. Reprezentarea grafic a cuvintelor
n Exemplul 8.2, s-au folosit cuvinte de lungime 3. ntr-un spatiu 3D, aceste cuvinte pot fi
reprezentate prin puncte :
63
Observaii :
-
Observaie : n reprezentarea grafic, distana Hamming este numrul minim de pai necesari
pentru a trece de la un cuvnt la cellalt.
R.W. Hamming (1915-1998) a lucrat la Los Alamos ntre 1944 si 1946 i apoi la Bell Labs i
Univ. Princeton.
Codul din Exemplul 8.2. poate corecta o singur eroare (numai cuvintele fr sens care difer
printr-un singur bit de un cuvnt cu sens sunt corectate). Dac apar dou erori, cuvntul este
decodat greit. Cu acelai cod, dac nu se ncearc corectare ci se face doar rejecia cuvntului
fr sens, atunci pot fi eliminate dou erori. Spunem c avem un cod corector de o eroare i
detector de dou erori.
Codarea :
00 -> 000
01-> 011
10-> 101
11-> 110
Observaie: este un cod detector de o eroare (de fapt, detector de orice numr impar de erori).
Exercitiu: Cte erori poate corecta/detecta urmatorul cod:
00000, 00111, 11001, 11110
65
Codurile bloc se obin tind irul de simboluri ce urmeaz s fie codat n blocuri de lungime
fix, numite blocuri de informaie, la care se aduag simboluri de control, calculate pe baza
simbolurilor de informaie. Simbolurile de control constituie blocul de control.
Bloc de control
Bloc de informaie
CUVNT de COD
Coduri bloc :
-
Formalism matematic :
blocul de informaie : i = [i1 K ik ]
blocul de control : c = [c1 K cm ]
- cuvintele corecte sunt cuvintele de cod ; ele se mai numesc i cuvinte cu sens
- cuvintele eronate se mai numesc i cuvinte fr sens
- cuvntul de cod este un vector de dimensiune n
- elementele vectorilor sunt numere binare
- cuvintele de cod aparin unui spatiu vectorial, care are o structur de grup n raport
cu operaiile de adunare i nmulire modulo 2 (proprietate care d numele de coduri grup):
9.1.1. Codarea
Pentru a nelege mecanismul cod rii, trebuie cunoscut, mai nti, principiul coreciei/deteciei
de erori. Corecia sau detecia erorilor se fac cu ajutorul corectorilor.
Observaii :
a) dac v' este corect, atunci corectorul este nul ; dac v' este un cuvnt eronat, atunci
se obine un z 0 .
b) pentru corecie, ntre mulimea cuvintelor fr sens i mulimea corectorilor trebuie
s existe o coresponden biunivoc.
c) pentru detecia de erori, este suficient condiia z 0
Observaia b) ne d urmatoarea regul de calcul pentru lungimea blocului de control al unui
cod corector de e erori :
e
C
i =1
i
n
2m 1
67
Aceast inegalitate traduce condiia Num rul total de configuraii posibile de erori trebuie
s fie mai mic sau egal cu num rul de corectori nenuli.
Definiie : codurile pentru care inegalitatea de mai sus devine egalitate, se numesc coduri
perfecte sau coduri de redundan minim.
k + m 2m 1
Elementele corectorului se ob in prin rezolvarea urmtorului sistem de ecuaii liniare :
(v ' ) = z
unde H este o matrice cu dimensiunea mxn. H se numete matrice de control.
(v ) = z
care este echivalent cu un sistem de m ecuaii liniare, suficiente pentru a determina cele m
simboluri de control necunoscute din componena cuvntului de cod.
Observaie:
-
1 0 K 0 q11
0 1 K 0 q
21
H =
K K K K K
0 0 K 1 q m1
K q1k
K q 2 k
= [I m Q ]
K K
K q mk
68
este util n obinerea codurilor sistematice, la care simbolurile de control sunt grupate la
nceputul cuvntului de cod (fiecare ecuaie liniar are ca necunoscut un singur simbol de
control).
[I m
c
Q ] = I m c Qi
i
c = Qi
v = iG
unde i este blocul simbolurilor de informaie.
Observaii:
-
(iG ) = 0
G i = 0
rezult G = 0
Ik ]
Q
Q ] = Q Q = 0
I k
cu forma canonic se obine un cod sistematic cu simbolurile de control grupate la
nceputul cuvantului; blocul de control se calculeaz cu relaia c = iQ .
Demonstra ie:
v = i [Q I k ] = [iQk iI k ] = [c i ]
Demonstra ie: [I m
9.1.2. Decodarea
La recep ie, decodarea cuvintelor se face conform urmatoarelor etape:
a) calculul corectorului (n cazul codului sistematic) :
] = [I
c '
'
'
'
''
Q
]
' = I m c Qi = c c
m
i
b) identificarea erorii (este o etap care difer de la cod la cod)
c) corecia cuvntului:
z = Hv ' = H c '
'
v = v'
69
Observaii :
- c '' este blocul de corecie calculat pe baza simbolurilor de informaie recepionate
(care pot fi greite)
- c ' este blocul de corecie recepionat
= [ 1 K n ]
i cuvntul eronat
v' = v
Corectorul calculat la recepie este :
z = Hv ' = H (v ) = H
Dac notm h1 , h2 ,K, hn , coloanele matricii de control, atunci corectorul este:
z = hi i
i
Definiie : Ponderea unui cuvnt de cod este dat de numrul de simboluri 1 din
componena cuvntului.
Observaii :
- sumele oricror e coloane ale matricii de control trebuie s fie diferite ntre ele
(deoarece corectorii trebuie sa fie diferii ntre ei)
- ponderea cuvintelor de cod este minim 2e + 1 (excepie cuvntul constituit numai din
0)
70
Cazuri particulare:
- la codul detector de o eroare, matricea H trebuie s aibe toate coloanele nenule.
- la codul detector de un numr impar de erori este suficient o matrice
H = [1 1 K 1]
deoarece suma modulo 2 a unui nr impar de 1 este 1
Observaii :
-
0 h1 K hn
H '=
1 1 1 1
- simbolul de control calculat cu aceast linie de 1 se numete bit de paritate.
71