Documente Academic
Documente Profesional
Documente Cultură
RECAPITULARE CURS 3
Compresia datelor
Calculul entropiei
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
CALCULUL ENTROPIEI
Cantitatea de informaie coninut n si O valoare care apare cu o probabilitate mare poart fie o mic surpriz, fie o cantitate mic de informaie Numrul de bii ar trebui s fie utilizai pentru a reprezenta media informaiei surs
Entropia E(S)
Exemplu
Alfabet: S = {0, 1, 2, 3} Probabilitate: P = {1/4, 1/4, 1/4, 1/4} Autoinstruire: - log2pi = { 2, 2, 2, 2} Entropia: E = 2
Exemplu
Alfabet: S = {0, 1, 2, 3} Probabilitate: P = {0, 1/2, 0, 1/2} Autoinstruire: - log2pi = {---, 1, ---, 1} Entropia: E = 1
Exemplu
Alfabet: S = {0, 1, 2, 3} Probabilitate: P = {1/2, 0, 1/4, 1/4} Autoinstruire: - log2pi = { 1, ---, 2, 2} Entropia: E = 1.5
Lungimea codificrii diferitelor simboluri ar trebui s varieze n funcie de informaia reinut de simboluri
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
ALGORITMUL SHANNON-FANO
Exemplu
hello
Algoritm
Sorteaz simbolurile n funcie de frecvena lor de apariie. mparte recursiv simbolurile n dou pri, fiecare parte cu aproximativ acelai numr de apariii, pn cnd toate prile conin un singur simbol.
ALGORITMUL SHANNON-FANO
ALGORITMUL SHANNON-FANO
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
Exemplu: hello
1.
2.
Iniializare: Adaug toate simbolurile ntr-o list i sorteaz-le n funcie de frecvena lor de apariie. Repet pn cnd lista mai are doar un simbol:
1.
2.
3.
Alege din list dou simboluri cu frecven minim dintr-un subarbore Huffman care are are aceste simboluri ca noduri fii i creaz nodul printe. Atribuie printelui suma frecvenelor printelui i adaug aceast valoare n list, astfel nct s fie meninut ordinea terge fiii din list
3.
Decodificare 0100101
Codificare de lungime fix CC
Decodificare 0100101
Codul cuvntului Huffman 0 100 101 110 111 ABC Despre codul cuvntului 0 1 00 01 10 ABAABAB/DCEB/
A: B: C: D: E: Rezultat:
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
Secvena de date
{AAAAAAAAAAAAAAABBBBBBBCDCDCDCDCDCDEEEEE} Un text de tipul string coninnd 39 caractere mpreun cu frecvea lor de apariie dup cum urmeaz: A:(15), B:(7), C:(6), D:(6) i E:(5).
Huffman
0 100 101 110 111 87 bii
Lungime fix
000 001 010 011 100 117 bii
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
COMPRESIA LOSSY
Compresia lossy
Procesele de compresie i decompresie presupun pierderi de informaie Fiierul recuperat din date compresate este foarte asemntor de cel original
Msuri de distorsiune
MSURI DE DISTORSIUNE
Eroarea medie ptratic (Mean square error MSE) 1 N 2 ( xn y n ) 2 N n 1 Raportul semnal zgomot (Signal to noise ratio SNR) 2
SNR 10 log10
x 2 d
Raportul semnal maxim zgomot (Peak signal to noise ratio PSNR) 2 peak PSNR 10 log10 2 d
EXEMPLE DE DISTORSIUNI
Exemplu de date
Provide a framework for the study of tradeoff between Rate and Distortion
PREZENTARE CURS 4
Entropia i codificarea de lungime variabil Algoritmul Shannon-Fano Algoritmul de codificare Huffman Comparaie ntre codificarea de lungime variabil i codificarea de lungime variabil Compresia lossy
Normalizarea
NORMALIZAREA
Normalizarea este partea cea mai important a oricrei scheme de compresie Reduce numrul de valori de ieire distincte
Set original: { 0,1,2, 64 128 192 255 } Set mai mic: {0, 64, 128, 192 }
EXEMPLE DE NORMALIZARE
Date originale
16 16 4 4 4 4 0 0 0 0 0 2 4 0 2 8 P { } 64 64 64 64 64 64 64 64 64 64 64 64 64 64 64 64
Date compresate Y
Numrul de valori distincte va fi redus de la 16 la 4 Cum se aleg limitele intervalelor i cum se aleg valorile n fiecare interval
dimensiune
mprirea domeniului valorilor de intrare n intervale de lungimi egale (inegale) Concentrarea biilor unde este necesar
Normalizarea
Lloyd-Max
16 16 4 4 4 4 0 0 0 0 0 2 4 0 2 8 P { } 64 64 64 64 64 64 64 64 64 64 64 64 64 64 64 64
Date compresate Y
{y1,y2,y3,y4}
Numrul de valori distincte va fi redus de la 16 la 4 Cum se aleg limitele intervalelor i cum se aleg valorile n fiecare interval
NORMALIZAREA LLOYD-MAX
Normalizarea scalar neuniform Normalizarea Lloyd-Max
ncepe Alege nivelul setului iniial Y0 i = 0; Repet Calculeaz Bi utiliznd i = i+1; Calculeaz Yi utiliznd Pn cnd Sfrit
| Yi Yi 1 | prag
bj
y j 1 y j 2
bj b j 1 bj
y
i
xf ( x)dx f ( x)dx
b j 1