Documente Academic
Documente Profesional
Documente Cultură
CODAREA DE SURSA
Observatii :
Simbolurile trebuie transmise pe un canal binar cu alfabetul 0,1. De aceea, ele trebuie
transcrise in binar, inainte de transmisie. Transcrierea in binar - codarea - se poate face in
multe feluri. De exemplu:
1) x1 0 0 x2 0 1 x3
10
x4 1 1
2) x1 0 x2 1 0 x3
110
x4 1 1 1
Definitie : Codarea este operatia prin care fiecare simbol al sursei primare este inlocuit
printr-o succesiune de simboluri ale alfabetului canalului. Decodarea este operatia inversa
codarii.
Definitie : Cuvantul de cod este succesiunea finita de simboluri din alfabetul canalului, cu
care este inlocuit un simbol al sursei primare
Definitie : Codul este totalitatea cuvintelor de cod folosite in codarea unei surse.
Definitie : Lungimea unui cuvant de cod este egala cu numarul de simboluri din alfabetul
canalului, care constituie cuvantul considerat.
Observatii :
- Codarea stabileste o corespondenta biunivoca intre simbolurile sursei primare si cuvintele
codului
- O succesiune de simboluri ale alfabetului canalului, care nu corespunde niciunui simbol al
sursei, se numeste cuvant fara sens. Prin analogie, un cuvant de cod se mai numeste si
cuvant cu sens.
Exemplele de mai sus cuprind un cod de lungime fixa (exemplul 1), care are toate cuvintele de
aceeasi lungime, si un cod de lungime variabila (exemplul 2), care are cuvinte de lungime
variabila. In acest caz, se defineste notiunea de lungime medie a cuvinelor de cod.
l pili
i1
Exemplu: l 1 2 3 3 1,7
Observatii :
- lungimea medie a cuvintelor de cod se numeste, pe scurt, lungime a codului - la codurile
formate din cuvinte de lungime fixa, lungimea codului este egala cu lungimea unui cuvant de
cod (l li l).
De cele mai multe ori, prin codarea cu cuvinte de lungime variabila, se realizeaza o compresie
a datelor (reducere a volumului de date).
l
R
l
unde cu l s-a notat lungimea unui cod de lungime fixa, obtinut cu acelasi alfabet al canalului.
Exemplu : R 1,15
1
rata
R
de lungime fixa
ireversibile
Exemplu :
1) Cod binar ireversibil (la decodare, codul lui x1 nu poate fi distins de cel al lui x2 ; la fel pentru
x3 si x4 )
x1 0
x2 0
x3 1
x4 1
Exemplu :
x1 0 x2 1 0 x3
11
x3 1 1 0
La decodare, grupul 1 1 0 poate fi interpretat fie ca simbolul x4, fie ca grupul de simboluri
x3x1 .
x1 0
x2 1 0 x3 1 1 0
x4 1 1 1 0
Exemplu :
1) Cod neinstantaneu :
x1 0 x2 1 0 x3
110
x4 1 1 1 0
Trebuie asteptat primul simbol al urmatorului cuvat de cod pentru a face decodarea cuvantului
receptionat (acest cod se mai numeste si cod cu separator).
2) Cod instantaneu
x1 0 x2 1 0 x3
110
x4 1 1 1
Decodarea se poate face la primirea ultimului simbol al cuvantului de cod.
Observatie:
- codurile instantanee sunt cele mai utilizate in practica.
C c c
1 n
Teorema : Conditia necesara si suficienta ca un cod sa fie instantaneu este ca nicun cuvant al
sau sa nu fie prefix al altui cuvant.
Observatii:
Xx ,,x 1 N
D 1 li
(Inegalitatea Kraft-McMillan)
i
1
Justificare: ne folosim de reprezentarea prin arbori a codurilor ireductibile
Simbolurile sursei sunt codate cu un cod de lungime medie l . Cuvintele de cod sunt
constituite din simboluri ale alfabetului de canal Cc1,,cD .
Daca HX este entropia sursei, atunci fiecare simbol cd poarta in medie o cantitate de
informatie:
HX
Aceasta cantitate, nu poate fi mai mare decat entropia maxima a sursei secundare Hmax
C log2 D:
HX
log2 D
l
lmin HX
log2 D
Observatii:
- daca codarea se face cu alfabet binar, atunci limita inferioara pentru l este entropia sursei
primare HX
- rezultatele acestei sectiuni sunt valabile pentru toate tipurile de coduri, deci si codurilor
ireductibile (instantanee)
- aceasta relatie poate fi interpretata si ca o a doua definitie a entropiei
Definitie : Entropia unei surse este egala cu lungimea medie a unui cod binar minim cu care
sursa poate fi codata (nu totdeauna acest cod exista).
HX
Definitie: Codurile care au l lmin se numesc coduri absolut optimale. log D
Conform Sectiunii 7.4, cantitatea medie de informatie transmisa fiecarui simbol de canal prin
codare, altfel spus entropia sursei secundara HC , este invers proportionala cu l :
HX
HC
l
Aceasta relatie arata ca l isi atinge minimul cand HC este maxim, adica atunci cand, prin
codare, simbolurile cd ajung sa fie transmise echiprobabil:
pc1
pcD
i
1 l unde li este lungimea cuvantului de cod pentru xi .
pxi
D
Cum pxi 1, rezulta ca, o conditie pentru a avea un cod absolut optimal este:
i
D 1 li
i1
Observatii:
- egalitatea de mai sus este o conditie de existenta pentru codurile absolut optimale; in cazul
codarii binare, aceasta conditie se traduce prin a cere ca simbolurile sursei primare sa aibe
probabilitati care sunt puteri intregi negative ale lui 2 (exemplu:
P 12, 14,18,18
- codurile absolut optimale sunt un caz limita penta pentru Inegalitatea KraftMcMillan, deci pot
fi si ireductibile
Codarea unuei surse de informatie cu un cod binar absolut optimal este posibila numai daca
probabilitatile sursei satisfac conditia:
li pxi 1 li
log2 pxi log2 pxi
D log2 D
De cele mai multe ori, log2 pxi nu este un numar zecimal. De aceea, se construiesc cuvinte
de cod cu lungimea minima posibila, adica li log2 pxi . Aceste cuvinte satisfac
conditia:
log2 pxi 1 i
li
log2 D
px log px
i 2 i
px l
i i i log2 D i pxi
i
Deci
HX
l 1 ceea arata ca se poate gasi un cod unic decodabil, care sa aibe log2 D
log2 D
px D
i li Dli 1
i i i
Deci, acsete coduri satisfac Inegalitatea Kraft-McMillan care este conditia necesara si
suficienta pentru a avea un cod ireductibil.
Definitie: Codurile constituite din cuvinte de lungime li log2 pxi sunt coduri
optimale.
Definitie : Capacitatea unui cod este maximul cantitatii medii de informatie ce poate fi
transmisa de simbolurile din alfabetul canalului :
C Hmax C log D
lmin 1
HX HX
log D l HC l log D
log D
HC
11 0,1
log D
Observatie: Capacitatea, eficienta si redundanta codului sunt marimi similare celor prezentate
la capitolul de Canale discrete. Expresiile sunt diferite pentru ca, in cazul canalelor, se
foloseste notiunea de cantitate medie de informatie pe simbolurile generate de sursa primara,
iar in cazul codurilor, se considera informatia medie pe simbolurile sursei secundare
Xx ,,x si probabilitatile P px ,, px
1 N 1 N
Definitie : Extensia de ordin 2 a sursei X , este o sursa notata X 2 , care genereaza sirul:
Z0 ,Z1,,Zn ,
unde v.a. Zn sunt siruri de doua v.a. consecutive ale sirului X 0, X1, X 2, X3,, X 2n , X 2n1,
0 , X1 , Z1 X 2 , X3 , , Zn X 2n , X 2n1
Mai precis: Z0 X
Observatii:
- extensia de ordin m se noteaza cu X m si este o sursa ale carei simboluri sunt siruri de lungime
m
- alfabetul extensiei X m este constituit din N m simboluri (siruri).
Teorema : Entropia extensiei X m , fara memorie, este de m ori mai mare decat entropia sursei
X:
HX m mHX
Conform rezultatelor din Sectiunile 7.4 si 7.6, lungimea unui cod folosit pentru codarea unei
surse de informatie fara memorie X , satisface urmatoarele inegalitati :
HX HX
l 1 log2 D log2 D
Aceasta dubla inegalitate este valabila si pentru extensia X m , care este tot o sursa fara
memorie :
HX m l m HX m 1 log2 D log2 D
unde l m este lungimea medie a cuvintelor de cod pentru simbolurile sursei extinse, care sunt
siruri de m simboluri ale sursei initiale. Deci, l m ml , unde l este lungimea medie a
cuvintelor de cod pentru simbolurile sursei initiale.
Aplicand rezultatul Sectiunii 7.8, dubla inegalitate devine:
HX l HX m 1 log2 D
log2 D m
Prima teorema a lui Shannon sau Teorema codarii canalelor fara zgomot: Codand siruri
de simboluri suficient de lungi, ne putem apropia oricat de mult de codarea absolut optimala.