Documente Academic
Documente Profesional
Documente Cultură
Cuantizarea
Eroarea de cuantizare
Codarea sursei
Definitia informatiei
Conceptul de entropie a comunicatiei (informatiei)
Teorema codarii sursei
O definitie a informatiei
Cu cat este mai mare entropia unei surse, cu atat este mai putin predictibila
aparitia unui simbol al sau.
O sursa are entropia maxima atunci cand toate simbolurile au aceeasi probabilitate
de aparitie. Nu exista nici o modalitate de a le distinge a priori.
Idea codarii sursei este de a reprezenta fiecare aparitie a unui simbol printrun
sir de
simboluri alese dintr-un alfabet, B. In exemplul de mai sus, simboluri de la sursa
discreta
X (dintre care M sunt simboluri distincte) sunt reprezentate printr-un cuvant de
cod din N
simboluri alese dintr-un alfabet B care are K simboluri distincte. Intr-un exemplu
simplu,
sa consideram sursa un convertor A/D cu 256 niveluri de cuantizare si fie B un
alfabet
binar cu K=2 simboluri. Daca sursa emite simbolurile sale echiprobabil, N trebuie
sa fie 8
pentru a reprezenta numerele de la iesirea convertorului. Daca nivelurile nu sunt
echiprobabile, atunci putem utiliza coduri cu lungime variabila in care anumite
coduri vor
fi reprezentate prin mai putin de 8 biti iar altele prin mai mult de 8 biti. Putem
face asta
astfel incat lungimea medie a codului sa fie mai mica de 8 biti.
Rata sursei
Cele mai multe surse au semnalele de iesire redundante, astfel incat pot fi
comprimate, prin eliminarea redundantelor.
Compresia poate fi cu sau fara pierderi.
Acuratetea reprezentarii prin esantionare, cuantizare si compresie este definita
intotdeauna relativ la un criteriu de fidelitate.
Gradul de compresie depinde de
o distributia de probabilitate a semnalului de iesire
o criteriul de fidelitate aplicat
Lungimea cuvantulul de cod a codului Huffman urmator este 2.63 biti. Daca
simbolurile
sursei ar fi fost echiprobabile, cuvintele de cod ar fi avut lungimea de 3.00 biti.
i
p(xi)
Cod
0
0.30
00
1
0.25
10
2
0.15
010
3
0.10
110
4
0.08
111
5
0.06
0110
6
0.04
01110
7
0.02
01111
Pentru acelasi cod, un script din pagina, calculeaza entropia si media numarului de
biti
transmisi de aceasta sursa:
H(X)=1.8
L = 2.63 biti.
In cazul in care simbolurile ar fi echiprobabile (adica p(xi) = 1/8) si nu s-ar
folosi
coduri de lungime fixa 3 biti s-ar obtine pentru codul Hoffman de mai sus o lungime
de
cuvant medie:
L = 3.38 biti.
IV. Esantionarea semnalului trebuie facuta având în vedere teorema lui
Shannon (teorema esantionarii), iar semnalul esantionat trebuie
memorat si mentinut constant pe durata conversiei, pentru a asigura
un numar suficient de esantioane pe o perioada a curbelor de tensiune
sau de curent electric.
Conform teoremei lui Shannon, un semnal de variatie continua poate fi
reprezentat de esantioanele sale daca:
fe 2. fmax (10.1)
unde: fe este frecventa de esantionare;
fmax - frecventa maxima a armonicilor semnalului în studiu.
Pentru o reprezentare cât mai corecta a semnalului, se recomanda ca,
pentru reconstituirea semnalului, frecventa de esantionare sa fie de 810
ori mai mare decât frecventa maxima a armonicilor semnalului (fmax). În
literatura de specialitate se recomanda ca numarul optim de esantioane pe
o perioada a unei curbe de tensiune sau de curent electric sa fie de 128
esantioane/perioada, iar fereastra de esantionare sa fie de minimum 2T
(doua perioade).
E ş a n tio n o r
C u a n tiz o r
C odor
x (t)
x(n T )
0
2T
3T
4T
5T
6T
8T
t
9T
10T
-7 q /2
-5 q /2
-3 q /2
-q /2
q /2
3 q /2
5 q /2
7 q /2
-3 q
-2 q
-q
q
2q
3q