Sunteți pe pagina 1din 42

1

1. Introducere.

Teoria informaţiei s-a impus în comunitatea oamenilor de ştiinţă şi


în special a inginerilor fixând un cadru general de abordare a problemelor
legate de comunicaţii (telecomunicaţii). Acest cadru teoretic permite
definirea şi evaluarea performanţelor precum şi a unor limite
fundamentale pentru diverse sisteme de comunicaţii. Rezultatele iniţiale
au fost obţinute de inginerul englez Claude Shannon şi au fost orientate
în a stabili modul de organizare a unui sistem de transmitere a informaţiei
pe canale perturbate astfel ca probabilitatea recepţionării unor semnale
eronate să fie mai mică decât o valoare impusă. Cum vehicularea
informaţiei este puternic dependentă de tipul şi proprietăţile canalului
utilizat a fost definită capacitatea unui canal de comunicaţii. Pentru o
corectă definire a problemelor analizate s-a introdus noţiunea de sursă
aleatoare de semnale discrete (care substituie conversia şi transmisia
semnalelor video sau audio). Aceste surse sunt în general extrem de
complexe ; prelucrarea primară în ideea transmiterii la distanţă produce
distorsiuni în raport de forma reală iniţială. Astfel de surse sunt definite
ca surse entropice.
Pornind de la lucrările de pionierat elaborate de Shannon , teoria
informaţiei a fost dezvoltată ulterior permiţând lărgirea cadrului în care
această teorie este aplicată cu succes. Domeniul de aplicabilitate este
foarte larg . În continuare vom enumera numai câteva domenii de
aplicabilitate:
 fizica statistică (termodinamică , fizică cuantică)
2

 ştiinţa calculatoarelor ( complexitatea algoritmilor , probleme de


calculabilitate)
 teoria probabilităţilor ( teorema limitei centrale)
 statistica matematică ( testarea ipotezelor statistice , teoria
informaţiei de tip Fisher , teoria estimaţiei)
 economie
 biologie
 criptografie ( securizarea transmiterii datelor)
 reţele de comunicaţii
În cadrul acestui curs vom orienta abordarea către problematica
transmiterii şi memorării datelor informaţionale.

1.2 Modelul general al sistemului de transmitere a informaţiei.

Schema cea mai generală a unui sistem de transmitere a informaţiei


este prezentată în figura 1.1

Sursa Codificator Codificator Modulator


de sursă. de canal

Canal

Receptor Decodor de Decodor de Demodulator


sursă canal

figura 1.1
3

 Sursa primară→ este modelată în general ca generator de semnal


aleatoriu discret sau continuu.
 Codorul de sursă→ realizează conversia semnalului dat de sursă
pentru a obţine o compactare a semnalului oferit de sursă ,
eliminând elementele lipsite de conţinut sau redundante
(compactarea semnalului iniţial).
 Codorul de canal→ realizează o conversie a semnalului astfel încât
acesta să poată fi reprodus la recepţie cu o cât mai mare fidelitate.
În general este necesară introducerea unei redundanţe pentru ca
recepţie semnalul să fie recunoscut chiar dacă acesta a fost
modificat datorită unor perturbaţii mai mult sau mai puţin
puternice ce apar pe canalul de transmisie.
 Modulatorul→ transmiterea pe canale perturbate a unor semnale de
tip ” tot sau nimic ” (impulsuri rectangulare) este puternic afectată
de zgomotele perturbatoare. În general , semnalele obţinute de la
codorul de canal sunt compuse pe o purtătoare sinusoidală (
semnalul iniţial, şi care formează intrarea în modulator modifică
unul din parametrii unui semnal sinusoidal şi care se transmite pe
canal).
 Canalul fizic→ mediu prin intermediu căruia se transmite
informaţia şi asupra căruia acţionează zgomotele perturbatoare. În
cazul nostru vom modela efectul perturbaţiilor prin probabilitatea
ca un semnal să fie recepţionat eronat de către receptor.
4

 Canalul receptor→ compus din demodulator, decodor de canal,


decodor de sursă realizează operaţii inverse în raport cu cele din
canalul de emisie.

1.3 Introducere în teoria informaţiei.

În continuare vom formula o serie de întrebări şi vom prezenta


răspunsuri într-o formă cât mai simplă în raport cu o serie de întrebări
care se impun natural în subiectul prezentat.
i) Ce reprezintă informaţia ?.
Informaţia reprezintă un mesaj aşteptat şi recunoscut de către
receptor dar incert în faza iniţială. Oricare mesaj recepţionat care
oferă rezultate cunoscute nu înlătură nici o incertitudine şi prin urmare
nu aduce nici o informaţie. Prin urmare numai eliminarea unei
incertitudini poate aduce informaţii. O astfel de abordare va conduce
la posibilitatea definirii nu numai a informaţiei dar şi a cantităţii de
informaţie care să o poată defini cantitativ.
După ce am obţinut informaţia problema care se pune este de a o
memora sau vehicula.
ii) Cum reprezentăm informaţia în ideea memorării sau
vehiculării cât mai comodă.
Cel mai eficient şi totodată natural mod de a memora sau
vehicula informaţia este introducerea unor simboluri şi a unor reguli
de concatenare a acestor simboluri. Astfel în limba română există 24
de simboluri şi prin concatenarea acestora putem transmite sau
memora oricare mesaj. Un alt exemplu, mult mai apropiat de
5

preocupările inginerului, îl reprezintă concatenarea simbolurilor 0 şi 1


(modalitate utilizată în dispozitivelor numerice de calcul sau în cazul
transmisiei de date numerice.
Totalitatea mesajelor ce pot fi formate reprezintă un dicţionar al
cuvintelor de cod. În funcţie de modul de definire, lungimea
cuvintelor de cod poate fi diferită de la un dicţionar la un alt dicţionar.
iii) Care este forma ce mai economică pentru reprezentarea
unui mesaj informaţional ?.
Considerăm cazul în care patru evenimente trebuie codate cu
ajutorul simbolurilor 0 şi 1. Dintre multitudinea de posibilităţi de
formare a unui dicţionar în tabelul 1.1 sunt prezentate două cazuri.

Tabel 1.1
Eveniment Probabilitatea Cod1 Cod2
A 1/2 00 0
B 1/4 01 10
C 1/8 10 110
D 1/8 11 111

Problema care se pune este de a aprecia în ce măsură este mai


eficientă sau mai puţin eficientă reprezentarea printr-un cod sau
celălalt cod. Considerăm că probabilitatea de apariţie a celor patru
evenimente este diferită . Valorile probabilităţilor de apariţie sunt date
în tabelul 1.1. Prin urmare media biţilor de cod utilizaţi în cele două
coduri prezentate va fi:
1 1 1 1
Cod 1 → n1   2   2   2   2  2 biti de cod
2 4 8 8
6

1 1 1 1 7
Cod 2 → n2   1   2   3   3  biti de cod
2 4 8 8 4
Evident, cel de al doilea cod este mai compact (mai economic) în
raport cu primul având o medie a cuvintelor de cod mai mică.
Problema minimizării lungimii medii va fi analizată ulterior.

iv) Cum poate fi măsurată informaţia ?.

Am specificat anterior că un mesaj care elimină o incertitudine


este un mesaj purtător de informaţie. Cu cât incertitudinea eliminată
este mai mare cu atât cantitatea de informaţie conţinută de acest mesaj
este mai mare. Este normal să considerăm că apariţia a două
evenimente elimină o incertitudine care reprezintă suma
incertitudinilor eliminate de apariţia fiecărui eveniment. În cazul a
două evenimente a căror probabilitate diferă foarte puţin diferenţa
dintre incertitudinile eliminate de fiecare eveniment. De exemplu
pentru două evenimente cu probabilităţi 0.20001 şi 0.19999 este
rezonabil să considerăm că informaţia este aceeaşi. Vom arăta în cele
ce urmează că numai funcţia logaritmică poate asigura proprietăţile
anterior remarcate şi poate constitui o măsură pentru informaţia
proprie.
În modul în care am abordat problema cantitatea de informaţie
este asociată fiecărui eveniment. Pentru caracterizarea globală vom
introduce o funcţie care evaluează informaţia medie a unei surse şi
care este definită ca funcţia entropie.
7

În exemplu anterior prezentat am arătat că evaluarea unui cod


trebuie să se bazeze pe lungimea medie a cuvintelor de cod . O
asemenea evaluare poate permite dimensionarea optimă a memoriei
necesare înregistrării mesajelor obţinute de la sursa primară.
În 1948 Shannon a arătat că cele două abordări ( prin lungimea
medie a cuvintelor de cod sau prin cantitatea medie de informaţie
conţinută de sursă ) sunt de fapt echivalente. Valoarea minimă pentru
lungimea medie a cuvintelor de cod este egală cu entropia sursei.
Pentru cazul prezentat entropia sursei va fi:
1 1 1 1 1 1 1 1 7
 log   log   log   log  biţi1
2 1/ 2 4 1/ 4 8 1/ 8 8 1/ 8 4
valoare care este identică cu valoarea de minim a lungimii cuvintelor
de cod (cazul celui de al doilea cod introdus).
În cazul în care informaţia este transmisă pe canale afectate de
zgomot (canale perturbate ) problema se va pune şi inerent va fi
soluţionată în mod diferit. Dacă pentru canale neperturbate ne
propunem exclusiv minimizarea lungimii cuvintelor de cod pentru a
asigura o eficienţă maximă transmisiei, în cazul canalelor perturbate
este necesar să asigurăm o recepţionare corectă a mesajelor transmise.
În cazul unui canal binar care operează pe simbolurile 0 şi 1 este
posibil ca datorită perturbaţiilor în recepţie 1 să fie interpretat ca 0 sau
0 ca 1. Dacă impunem transmiterea simbolului să fie repetată de un
număr de ori iar interpretarea în recepţie să fie făcută printr-o logică
majoritară probabilitatea de recepţionare a unui mesaj eronat scade
foarte mult. Prin urmare creşterea redundanţei codului creşte
fiabilitatea transmisiei dar diminuează considerabil eficienţa . Pentru

1
În cadrul lucrării vom nota log subînţelegând logaritmarea în baza doi.
8

1
cazul considerat transmitem numai unităţi de informaţie pe simbol
n
transmis pe canal. Este normal într-o astfel de situaţie să analizăm
cum putem realiza un compromis între eficienţă şi fiabilitate.
v) Fiind dat un canal perturbat cum putem maximiza
eficienţa transmisiei pentru o rată de eroare pe fiecare
simbol informaţional cât mai mică.
Reluăm exemplul anterior prezentat în care simbolurile 0 şi 1 se
transmit pe canal prin triplare simbolului informaţional. Prin
urmare 0  000 şi 1  111 . Considerăm că în urma apariţiei
perturbaţiilor semnalul este recepţionat corect cu probabilitatea 0.9 şi
eronat cu probabilitatea 0.1 (canal binar simetric). Un semnal va fi
intercepta şi interpretat eronat dacă sunt afectaţi doi sau trei biţi. Prin
urmare rata de eroare pentru o astfel de situaţie va fi:
C32  0.1  0.9  C33  0.1  0.028
2 3

Problema este de a construi un cod care este mai eficient şi având


o rată de eroare mai mică,
9

2 Măsura informaţiei pentru evenimente


discrete.

În această expunere vom defini măsura informaţiei pentru


evenimente discrete printr-o abordare probabilistică. O dată stabilită
relaţia prin care definim cantitatea de informaţie, vom prezente o serie
de proprietăţi specifice utile în dezvoltările ulterioare.

2.1 Entropia , entropia cumulată şi entropia


condiţionată.

2.1.1 Informaţia proprie.

Considerăm un eveniment E a cărui probabilitate de apariţie este


Pr(E)=p(E). Vom considera I(E) ca fiind informaţia primită în cazul
apariţiei evenimentului E reprezentând şi care reprezintă informaţia
primită prim apariţia acestui eveniment. Evident că o astfel de
interpretare are un caracter subiectiv, şi în general depinde de la o
persoană la alta. Din acest motiv această informaţie mai este definită
ca informaţie proprie. În aceste condiţii se pune problema stabilirii
unor proprietăţi generale ale informaţiei.
i) I(E) este dependentă de Pr(E)=p(E).
Este normal să considerăm că informaţia asociată unui eveniment
E este dependentă de probabilitatea acestui eveniment →
I(E)=I(Pr(E)). Funcţia I(E) este definită pe spaţiul evenimentelor iar
I(p(E)) pe intervalul [0,1]. Este natural să considerăm că cu cât
10

probabilitatea evenimentului este mai mică cu atât informaţia


furnizată de acesta este mai mare. Prin urmare I(Pr(E)) este o funcţie
descrescătoare în raport cu probabilitatea Pr(E) a evenimentului
considerat.
ii) I(Pr(E)) este o funcţie continuă în raport cu Pr(E).
Introdusă axiomatic o astfel de proprietate are un caracter
natural, fiind normal ca informaţia adusă de două evenimente a căror
probabilitate diferă în mică măsură să fie similară, deci diferenţa
cantităţilor de informaţie să fie de asemenea mică.
iii) Dacă considerăm două evenimente E1 şi E 2 independente
( E1  E2 )  ( E1 )  ( E2 ) .
Deşi proprietatea este introdusă axiomatic este evident că
informaţia adusă prin realizarea simultană a evenimentelor este dată
de suma informaţiilor aduse separat de fiecare eveniment.
Bazaţi pe proprietăţile introduse vom demonstra că numai funcţia
logaritmică poate da o măsură a informaţiei.
Teoremă. Singura funcţie definită pe intervalul [0,1] care
satisface proprietăţile :
i. I(p) monoton descrescătoare în p.
ii. I(p) funcţie continuă pentru  p  0,1 .
iii. I ( p1  p2 )  I ( p1 )  I ( p2 )
este funcţia logaritmică adică I ( p)  C  log( p) unde C este o
constantă pozitivă (baza de logaritmare va fi ulterior precizată
deocamdată nefiind necesară).
Demonstraţie.
Demonstraţia teoremei va fi făcută urmărind următorii paşi:
11

1 1
iii) Vom arăta că pentru  n  N   I    C  log 
n n
Conform proprietăţilor impuse:
1  1 
 n, m  N  cu n  m  I    I  
n m
 1  1  1 
 n, m  N  I   I   I 
mn n m
Deducem cu uşurinţă aplicând rezultatele remarcate:
 1 1
I  k   k  I   pentru  n, k  N 
n  n
O inegalitate cunoscută permite ca pentru r  N  fixat şi
 n  N  să determinăm k  N astfel ca

n k  2 r  n k 1
Utilizând inegalitatea prezentată şi ţinând cont că funcţia I ()
este descrescătoare obţinem:
 1 1  1 
I  k   I  r   I  k 1 
n  2  n 

şi deci
1 1 1
k  I    r  I    k  1  I  
n  2 n
1
Cum I    I 1  0
n
1
I 
k 1
  
k 2
r 1 r
I 
n
12

Pe de altă parte, având în vedere monotonia funcţiei logaritmice


log n k  log 2r  log n k 1
sau
k  log n  r  log 2  k  1  log n
Rezultă imediat:
k log 2 k  1
 
r log n r
Având în vedere inegalităţile prezentate, prin prelucrări
elementare obţinem:
1
I 
   
log 2 2 1
log n 1 r
I 
n
Cum n este fixat, iar r poate fi ales ori cât de mare deci r   
rezultă:
1
I    C  log n
n
1
I 
unde C     0 . Cu aceasta primul pas este încheiat.
2
log 2
ii) Vom arăta că I ( p)  C  log p pentru  p  Q ( oricare p
raţional).
r
Fie numărul raţional p r , s  N  . Conform condiţiilor
s
axiomatice
1  r 1  r  1
I   I    I   I 
s s r s r
13

şi deci
 r  1 1
I  p  I    I    I  
s s r
Cum r, s  N  , pe baza rezultatelor obţinute la pasul anterior

s
I  p   C  log s  C  log r  C  log 
r
I  p   C  log p
iii) Rămâne să demonstrăm că relaţia I  p   C  log p este valabilă
pentru oricare p  0,1 . În baza continuităţii admise
I  p   lim I a   lim  C  log p
a p b p
a rational b rational

2.1.2 Entropia.

Entropia reprezintă măsura conţinutului informaţional total al


unei surse. În continuare vom considera sursele ca o colecţie de
variabile aleatoare discrete. Vom neta simplificator, pentru un
eveniment xi  X legea de probabilitate px  xi   pi . Câmpul de
evenimente discrete va fi reprezentat în forma:
x x2    xn 
X   1 
 p1 p2    pn 

Definiţie. Pentru sursa X , entropia este definită în forma:


n
H  X    pi  log pi  E  log PX x 
i 1

Prin urmare entropia poate fi privită ca o medie a informaţiei


totale. În evaluarea entropiei vom considera

0  log 0  0 lim x  log x  0 .
x 0

14

2.1.3 Proprietăţile entropiei

Dacă notăm cardinalul mulţimii evenimentelor X  n obţinem


următoarea inegalitate remarcabilă:
Teoremă. Dacă variabila aleatoare X definită pe setul
evenimentelor X cu n cardinalul acestei mulţimi atunci
H  X   log n
Demonstraţie.
n n
H  X    pi  log pi pentru care  pi  1
i 1 i 1

Ne propunem determinarea distribuţiei pi i 1,2...n care


n
asigură entropia maximă în restricţia  pi  1 . Aplică metoda
i 1

multiplicatorilor Lagrange şi formăm lagrangiana :


n
 n 
L p,     pi  log pi      pi  1
i 1  i 1 
L p,  
  log pi  1    0  i  1,2...n
pi
Prin urmare:
 log pi  1   i 1, n
şi deci pi  p j i, j . Prin urmare:

1
p1  p2  ....  pn 
n
iar valoarea maximă a entropiei obţinută în cazul evenimentelor
echiprobabile va fi
15

n
1 1
H max    log  log n
i 1 n n
Prin urmare
H  X   H max  log n

Lema. Entropia H  X   0 (egalitatea are loc în cazul unei surse


deterministe).
Demonstraţia este imediată.

2.1.4 Entropia cumulată şi entropia condiţionată.

Considerăm două câmpuri de probabilitate după cum urmează:


x x2    xn  y y2    ym 
X   1  şi Y   1 
 p1 p2    pn   q1 q2    qm 
n m
pentru care, evident pi  0,  pi  1, q j  0,  q j  1 .
i 1 j 1

Dacă evenimentele considerate sunt independente, apariţia unui


eveniment cumulat  xk , yl  este caracterizată de probabilitatea

nkl  pk  ql  k 1, n , l 1, m . Evident:


n m n m n m
 nkl   pk  ql   pk   ql  1
K 1 l 1 k 1 l 1 k 1 l 1

În cazul în care evenimentele sunt independente entropia


evenimentului cumulat va fi:
16

n m n m n m
H  X , Y    nkl  log nkl   pk  ql  log pk ql   pk  log pk   ql 
k 1 l 1 k 1 l 1 k 1 l 1
n m
  pk   ql  log ql  H  X   H Y 
k 1 l 1
Prin urmare entropia în cazul evenimentelor independente
entropia evenimentului cumulat va fi:
H  X ,Y   H  X   H Y 
Lucrurile se schimbă dacă evenimentele sunt dependente.
Astfel, dacă fixăm evenimentul xk  X apariţia unui eveniment din Y
este supusă unei probabilităţi condiţionate după schema :
y y2    ym 
xk   1 
 qk 1 qk 2    qkm 

Verificăm cu uşurinţă că schema probabilistică prezentată


constituie un câmp complet de evenimente
n m n m
 pk  qkl   pk   qkl  1
k 1 l 1 k 1 l 1

Entropia câmpului de evenimente Y condiţionată de apariţia


evenimentului xk va fi:
m
H k Y   H qk1 , qk 2 ,...., qkm    qkl  log qkl
l 1

Entropia experimentului Y condiţionată de experimentul X va fi:

H X Y   H Y X    pk  H k Y    pk  qkl  log qkl


n n m

k 1 k 1 l 1

Revenind la entropia evenimentului cumulat:


17

n m n m
H  X , Y    nkl  log nkl   pk  qkl  log pk qkl 
k 1 l 1 k 1 l 1
n m n m
  pk  qkl  log pk   pk  qkl  log qkl 
k 1 l 1 k 1 l 1

 
  pk  log pk   qkl    pk   qkl  log qkl   H  X   H Y X  
n m n m

k 1 l 1 k 1  l 1 

Prin urmare, entropia evenimentului cumulat poate fi exprimată


în forma:
H  X ,Y   H  X   H Y X 
Într-un mod cu totul similar putem obţine:
H  X ,Y   H Y   H X Y 
În urma elementelor anterior prezentate putem enunţa câteva
elemente cu caracter definitoriu. Considerând evenimentul cumulat
 X , Y , informaţia proprie pentru perechea x, y  x  X , y Y va fi
dată de:
I  x, y    log PX ,Y  x, y 

în care PX ,Y , reprezintă legea de distribuţie a probabilităţii pentru


evenimentul  X ,Y .
Definiţie. Definim entropia evenimentului cumulat prin:
H  X ,Y     P x, y log P x, y   E log P  X ,Y 
X ,Y
 x , y X Y
X ,Y X ,Y

Definiţie. Entropia condiţionată H Y X  se defineşte în forma:

 
H Y X      PX  x    PY X  y x log PY X  y x 
x X   x ,u X Y 
Relaţia de definiţie mai poate fi scrisă în forma :
18

H Y X    PX  x   H Y X  x     PX ,Y  x, y   log PY X  y x  
xX  x , y X Y


 E  log PY X Y X  

2.1.5 Proprietăţi ale entropiei cumulate şi condiţionate.

Reamintim că anterior am stabilit interdependenţa dintre


entropii pentru evenimentul cumulat:
H  X ,Y   H  X   H Y X   H Y   H X Y   H Y , X 

Inegalitatea lui Jensen. Fie funcţia f x  : R  R o funcţie


n
convexă şi constantele  i  0 cu  i . În aceste condiţii:
i 1

n
   n  t 

i 1
i
 f t i
 f  i i 
 i 1 
Egalitatea se impune în cazul şi numai în cazul t1  t 2  ...  t n .

Lema.(Inegalitatea log-sum). Pentru oricare numere nenegative


a1 , a2 ,...an şi b1 , b2 ,...bn :
n

n
ai  n   ai
 ai  log    ai   log n
bi  i 1 
i 1

i 1
b i 1
i

Demonstraţie. Pentru funcţia convexă f x   x  log x aplică


inegalitatea lui Jensen cu :
bi ai
i  n
si xi   i 1, n
b
j 1
j
bi
19

În notaţiile introduse inegalitatea Jensen devine:


   
n
bi ai ai  n
bi ai   n
bi ai 
   log      log   
   b 
n n n
i 1
 bj ib bi
 bj i 
i 1 b
 bj i 
i 1

j 1  j 1   j 1 
sau
n

1 ai 1  n   ai
  ai  log  n   ai   log n
i 1

 b j  i 1 
n

bj
j 1
bi
 bi j 1 i 1

Simplificând elementar obţinem inegalitatea formulată.

Lema. Realizarea evenimentului Y determină o diminuare a


entropiei evenimentului X
H X Y   H  X 
cu excepţia cazului în care evenimentele X şi Y sunt independente.

Demonstraţie. Considerăm diferenţa:


H  X   H X Y     P x, y   log P x    
X ,Y X PX ,Y  x, y log PX Y x y  
 x , y X Y  x , y X Y

PX Y x y   PY  y  PX ,Y  x, y 
  PX ,Y log   PX ,Y  x, y   log 
 x , y X Y
 PX  x   PY  y   x , y X Y
 PX  x   PY  y 

 
 P x. y  X ,Y

   PX ,Y  x, y   log  x , y X Y
0
  x , y X Y   P x   P  y 
 x , y X Y
X Y

Prin urmare:
H X Y   H  X 
egalitatea este posibilă în cazul evenimentelor independente.
20

Lema. Entropia este aditivă pentru evenimente independente:


H  X ,Y   H  X   H Y 
Exemplu. Fie un experiment cumulat caracterizat de următoarea
matrice a probabilităţilor ce caracterizează un astfel de experiment :

X
1 2 3 4
Y

1 1 1 1 1
8 16 32 32

2 1 1 1 1
16 8 32 32

3 1 1 1 1
16 16 16 16

4 1 0 0 0
4

 
Distribuţia marginală pentru X este 1 2 , 1 4 , 18 , 18 iar distribuţia

marginală pentru Y este 14 , 14 , 14 , 14  . Obţinem cu uşurinţă

7
entropiile celor două câmpuri de evenimente H  X   biţi şi
4
H Y   2 biţi. Putem calcula :
21

H  X Y    pY  i   H  X Y  i  
4

i 1


1
4

2 4 8 8 4
1

H 1 , 1 , 1 , 1  H 1 , 1 , 1 , 1 
4 2 8 8
 
1
4

4 4 4 4 4
1

  H 1 , 1 , 1 , 1   H 1 , 0 , 0 , 0  

1 7 1 7 1 1 11
     2 0  biti
4 4 4 4 4 4 8

H Y X  
13
În mod similar determinăm biti . Entropia
8
evenimentului cumulat va fi :

H  X , Y   H  X   H Y X  
7 13 27
  biti
4 8 8
2.2 Informaţia mutuală.

Pentru două câmpuri de variabile aleatoare X şi Y informaţia


mutuală între X şi Y permite o evaluare cantitativă a reducerii
incertitudinii asupra lui Y prin cunoaşterea lui X .
Informaţia mutuală → I  X ;Y   H  X   H X Y 
Este uşor de evidenţiat faptul că informaţia mutuală este o funcţie
simetrică.
H  X ;Y   H  X   H Y X   H Y   H X Y 
Prin urmare:
I  X ;Y   H  X   H X Y   H Y   H Y X   I Y ; X 

2.2.1 Proprietăţi ale informaţiei mutuale.


Lema ce va fi prezentată pune în evidenţă câteva proprietăţi
fundamentale ale informaţiei mutuale.
22

Lema.
PX ,Y x, y 
1. I  X ;Y    PX ,Y x, y log
xX yY PX x   PY  y 
2. I  X ;Y   I Y ; X 
3. I  X ;Y   H  X   H Y   H  X ,Y 
4. I  X ;Y   H  X  inegalitatea se transformă în egalitate numai
dacă X  f Y  pentru f  oricare.
5. I  X ;Y   0 inegalitatea se transformă în egalitate numai dacă X
şi Y sunt independente.

Demonstraţie. Proprietăţile 1,2,3 şi 4 sunt uşor deductibile din


însăşi modul de definire a informaţiei mutuale. Cea de a cincia
proprietate este rezultatul imediat al faptului că H X Y   H  X .

Distanţa dintre două variabile aleatoare X şi Y poate fi definită ca


diferenţa dintre entropia evenimentului cuplat şi informaţia mutuală în
forma :
D  X ,Y   H  X ,Y   I  X ,Y 
Cantitatea astfel definită satisface cadrul axiomatic pentru a o
impune ca distanţă:
 D  X ,Y   0

 D X , X   0

 D  X , Y   D Y , X 

 D  X , Z   D  X , Y   D Y , Z  2

2
Demonstraţia , altfel foarte simplă , poate fi făcută de cititorii interesaţi.
23

Entropia relativă sau distanţa Kullback-Leibler între două


distribuţii p  x  şi q  x  asociate unei aceleaşi surse X se defineşte în
forma :
p  x
DKL  p, q    p  x   log q
xX  x
Entropia relativă satisface DKL  p q   0 . Inegalitatea devine

egalitate numai dacă p  x   q  x  , x  X .3 De observat că în general

DKL  p q   DKL  q p  şi din acest motiv nu reprezintă de fapt o

distanţă. Mai este cunoscută şi sub denumirea de funcţie


discriminantă.

2.3 Caracterizarea entropică a sistemelor de transmitere de


date.

Transmiterea de date (informaţii) poate fi considerată un


exemplu particular a experimentului compus. În acest sens vom
considera :
 sursa sistemului de transmitere de informaţii ca fiind
experimentul X
reprezentat de câmpul de probabilitate  X , x, px 

 x x2   xn 
X   1 
 p x1  p x2    p xn 

3
Inegalitatea lui Gibbs.
24

unde xi i 1, n reprezintă simbolurile alfabetului sursei iar


pxi   0 probabilitatea ca să fie emis simbolul xi . În aceste
condiţii sursa va fi caracterizată de entropia :

H  X    pxi   log pxi 


n

i 1

 recepţia sistemului de transmitere a informaţiei ca fiind


experimentul Y caracterizat prin câmpul de probabilitate
Y , y, p y  :

 y y2   yn 
Y   1 
 p y1  p y 2    p y n 

unde y j j 1, n reprezintă simbolurile alfabetului di recepţie iar

p y j  probabilitatea ca să fie recepţionat simbolul y j . Recepţia

va fi caracterizată de entropia:

H Y    p y j   log p y j 
n

j 1

Experimentul cumulat care caracterizează transmiterea informaţiei


 X ,Y  constă în realizarea evenimentului x , y 
i j
adică recepţia

simbolului y j dacă a fost emis simbolul xi caracterizat prin câmpul

 X ,Y , x, y , px, y   px , y   1


n n
de probabilitate în care i j .
i 1 j 1

Evident pentru evenimentele experimentului cumulat

 pxi , y j   pxi  şi  px , y   py  .


n n

i j j
j 1 i 1

Entropia experimentului cumulat va fi :

H  X , Y    pxi , y j   log pxi , y j 


n n

i 1 j 1
25

În cazul în care transmisia se face pe un canal neperturbat ,


cunoaşterea câmpului de evenimente din recepţie permite identificarea
completă a semnalului emis ; în realitate canalele sunt perturbate încât
aproape întotdeauna va exista o incertitudine în raport cu semnalul
emis. Valoarea medie a acestei incertitudini reprezintă entropia
evenimentului X condiţionată de câmpul Y şi se notează H X Y  .
Pentru determinarea acestei entropii trebuie luată în considerare
 
probabilitatea condiţionată p xi y j care reprezintă probabilitatea ca

recepţionarea evenimentului y j să indice în emisie evenimentul xi :


p xi y j   ppxy, y i j

relaţie care simplificator se notează fără indici


p  x, y 
px y  
p y 
O astfel de notaţie impune ca :

 p x    p x   p y    p y 
n n

i si j
i 1 xX j 1 yY

În mod similar se poate defini probabilitatea de a recepţiona


simbolul y j atunci când se emite xi :

pxi , y j  px, y 
p y j xi     p y x 
p y j  p y 

Probabilităţile condiţionate px y  si p y x  pentru oricare

x  X , y Y înseamnă de fapt cunoaşterea canalului de comunicaţii şi


permit evaluarea entropiilor condiţionate H X Y  si H Y X  . Entropia

condiţionată H X Y  dă o măsură a echivocului care se manifestă


26

asupra lui X când se cunoaşte Y. Din acest motiv această entropie mai
este denumită echivocaţie . Entropia H Y X  reprezintă incertitudinea
asupra câmpului din recepţie Y când se cunoaşte emisia prin câmpul X
. Din acest motiv ea este cunoscută şi ca entropie de dispersie sau
irelevanţă.
Din punct de vedere a transmisiei de informaţie cea mai interesantă
relaţie între entropii este :
I  X ,Y   H  X   H X Y 
unde I  X ,Y  caracterizează cantitatea de informaţie medie ce trece
prin canal şi reprezintă valoarea medie a informaţiei ce se obţine
asupra câmpului de intrare (emisie ) X prin cunoaşterea recepţiei Y ;
uzual este definită ca transinformaţie.
Valoarea maximă a transinformaţiei se numeşte capacitatea
canalului , C  max H  X   H X Y 
relaţie în care maximizarea se va face după setul de probabilităţi cu
care se presupune că sunt utilizate simbolurile x1 , x2 ,...xn . În relaţia
prezentată capacitatea canalului se măsoară în biţi. Unii autori
definesc capacitatea canalului prin raportare la timp :
C max I  X , Y 
Ct  
 
unde  reprezintă durata medie a unui simbol transmis . În acest caz
capacitatea se măsoară în biţi/secundă.
Diferenţa dintre capacitatea canalului şi transinformaţie se defineşte
ca redundanţa canalului , exprimată absolut în forma:
RC  C  I  X ,Y 
sau prin valoarea relativă:
27

I  X ,Y 
C  1   1  C
C
I  X ,Y 
unde termenul  C  reprezintă eficienţa canalului indicând
C
cât de mult se apropie transinformaţia de valoarea maximă.
În mod similar , se poate defini o redundanţă a sursei ca diferenţă
dintre valoarea maximă a entropiei sursei şi valoarea ei reală :
RS  H max  X   H  X 
sau în valori relative :
H X 
S  1 
H max  X 
Presupunând că simbolurile unei surse sunt emise cu o viteză fixă

vS simbol atunci se poate defini viteza (rata) de transmitere a


sec
sursei :

VS  vS  H  X  biti
sec .

2.3 Caracterizarea entropică a canalelor de comunicaţii.

În mod natural un canal de comunicaţii se impune a fi caracterizat


pe baza unui model continual a cărui structură şi parametrii depind de
caracteristicile constructive şi de material asociate canalului analizat.
Se impune precizarea că în transmiterea informaţiei prin semnal
continuu xt  nu se înţelege o funcţie continuă în sens strict
matematic , ci doar faptul că semnalul x poate fi evaluat la orice
moment de timp. În acest sens semnalul poate fi determinist sau
aleatoriu , periodic sau neperiodic. O astfel de abordare permite
28

evaluarea comportării canalului în prezenţa unor factori exogeni care


afectează semnalele utile vehiculate prin canal şi care sunt definite ca
perturbaţii.
În general semnalul recepţionat yt  diferă de semnalul emis xt 
din multiple motive ce pot fi agregate prin două cauze fundamentale :
 oricare canal are o bandă de trecere limitată. Un semnal cu un
spectru larg va fi puternic deformat determinând o pierdere
informaţională.
 canalul este afectat de perturbaţii externe care pot afecta
considerabil conţinutul informaţional.
În cazul unui canal discret , pe baza unei analize la nivel continual,
putem elabora un model probabilist al canalului mult mai uşor de
exploatat decât un model continual. Pe un astfel de model canalul va
fi caracterizat prin :
 alfabetul de intrare → x  x1 , x2 ,...xn 

 alfabetul de ieşire → y   y1 , y2 ,... ym 


 legea de tranziţie  definită prin probabilităţile condiţionate
p  y j xi  deci a probabilităţii ca să fie recepţionat semnalul y j

dacă a fost emis semnalul xi .


Canalul este staţionar dacă pentru oricare pereche x , y 
i j

probabilitatea p  y j xi  nu depinde de timp. Canalul este fără memorie

dacă probabilitatea p  y j xi  nu depinde de natura semnalelor

transmise anterior.
Dacă vom nota pi  j   p y j xi  , legea de tranziţie  va fi

caracterizată de matricea :
29

 p1 1 p1 2   p1 m  
 
 p2 1 p2 2   p2 m 
       
 
      
 p 1 p 2   pn m 
 n n

Matricea  este o matrice stocastică. Ea caracterizează perturbaţia


pe canal şi din acest motiv este cunoscută ca matrice de zgomot.
Dacă fiecare linie conţine numai permutări ale probabilităţilor
p1 , p2 ,..... pm canalul se numeşte uniform faţă de intrare.
Dacă fiecare coloană conţine numai permutări ale setului de
probabilităţi q1 , q2 ,....qn canalul se numeşte uniform faţă ieşire.
Un canal uniform faţă de intrare şi de ieşire se numeşte dublu
uniform , situaţie în care m  n .
În cazul în care alfabetele de intrare şi de ieşire sunt identice şi
1 q
pentru orice pereche i  j , pi  j   pm   const. , q reprezentând
m 1
probabilitatea recepţionării fără eroare , canalul se numeşte simetric.
Capacitatea unui canal discret simetric se obţine prin maximizarea
transinformaţiei :

m
 m j 1

C  max H Y   H Y X   H 1 ,1 m ,... 1   pi  j   log pi  j 
m

C  log m   pi  j   log pi  j 
m

j 1

Un caz particular îl constituie canalul simetric la care trecerile


către acelaşi indice se fac cu aceeaşi probabilitate , iar celelalte treceri
se fac cu alte probabilităţi , însă egale pentru toate trecerile. Dacă
30

notăm p probabilitatea ca un simbol să fie eronat , matricea de zgomot


va fi :
1  p q   q 
 
 q 1 p   q  p
   ,q ;mn
     m 1
 
 q q   1  p 
Capacitatea unui astfel de canal va fi :
p p
C  log n  1  p   log1  p   n  1   log 
n 1 n 1
 log n  1  p   log1  p   p  log p  p  logn  1.

În echipamentele de transmitere de date , la care în majoritate se


transmit simboluri binare , canalul cel mai des întâlnit este canalul
binar simetric , caracterizat de următoarea matrice de zgomot :
1  p q  p
    , q   p,m2
 q 1  p m 1
Capacitatea unui astfel de canal este dată de :
C  1  1  p   log1  p   p  log p
Viteza de transmisie a informaţiei pe un canal discret este
inferioară vitezei medii de transmitere a informaţiei de către sursă :
VS  H  X   vS deoarece apar erori pe parcursul canalului. Astfel dacă
probabilitatea de transmisie corectă este p  0.95 , atunci , în medie ,
la fiecare 1000 de simboluri emise numai 950 de simboluri sunt
recepţionate corect. În aceste condiţii am putea spune că debitul de
informaţie pe canal DC este de 950 biţi/secundă. O astfel de
interpretare (prin diferenţă) este total eronată deoarece dacă am
considera o probabilitate de eroare p  0.5 ar rezulta un debit de
31

informaţie transmis de 500 biţi/secundă când de fapt informaţia


vehiculată este nulă.
Inconsistenţa definiţiei prin diferenţă va fi înlăturată dacă ţinem
cont de informaţia pierdută ( echivocaţia). Vom defini debitul de
informaţie transmis pe canal Dt :

Dt  H  X   H X Y  vS  I  X ,Y   vS
Erorile care apar în procesul transmiterii informaţiei într-un canal
binar pot fi singulare sau grupate în pachete. Pentru o caracterizare
statistică completă a unui canal trebuie luaţi în considerare următorii
parametrii :
 probabilitatea de eroare a unui simbol
 repartiţia intervalelor fără erori
 probabilitatea apariţiei pachetelor de erori de o anumită
lungime
 repartiţia erorilor multiple într-o secvenţă de o anume lungime
Complexificarea modelelor asociate canalului conduce la evaluări
cantitative mult superioare modelului prezentat dar cu dificultăţi
serioase în abordare.
32

3. Codificarea informaţiei.

3.1 Definiţii.
Definiţia 1. Fie A un ansamblu discret şi N un întreg pozitiv.
Vom reprezenta prin AN un N- uplu ordonat de elemente din A :
A N  x1 , x2 ,....x N  xi  A

Vom nota elementele lui A n prin x  n   x1 ...xn , xi  A . Vom nota

A  ansamblul tuturor secvenţelor de lungime finită formate din


elemente ale lui A.
A   An
n

Fie x  A  o secvenţă de simboluri aparţinând lui A . Vom nota cu


l x  0 lungimea secvenţei x , astfel că :
x  x1 ....xl  x   x  Al  x 
Definiţia 2. Cod de simboluri binare. Fie X i  X , i  1,2....
simbolurile emise de sursa X . Un cod de simboluri binare C pentru o
sursă X o aplicaţie de la X în 0,1 , care face să corespundă fiecărui

element din X o secvenţă binară de lungime finită :


C : X  0,1

x  c x 
Vom nota C X  ansamblul tuturor cuvintelor de cod asociate
valorilor sursei :

C  X   c  0,1 x  X , c  c x 


Definiţia 3. Cod binar extins C  . Fie X i  X , i  1,2,... simbolurile
emise de către o sursă şi C un cod asociat acestei surse. Codul extins
33

C  constituie o aplicaţie de la X   0,1 care face ca fiecărei


secvenţe de simboluri din X să îi corespundă o secvenţă de simboluri


din 0,1 printr-o adecvată concatenare a simbolurilor de cod :

C : X   0,1

x1 x2 ..xn  c x1 c x2 ...c xn 

Definiţia 4. Cod unic decodabil. C este un cod unic decodabil dacă


C  este o aplicaţie injectivă :
 x n  , y m   X  c  x  n    c   y  m  
Definiţia 5. Fie C un cod pentru sursa X . C este un cod cu prefix
dacă nici un cuvânt de cod nu constituie începutul unui alt cuvânt de
cod :
c2  c1c , c1  C  X , c 0,1  c2  C  X 

O astfel de proprietate garantează ca un cod să fie unic decodabil :


C un cod cu prefix  C este un cod unic decodabil.
Unui cod cu prefix i se poate asocia un graf de tip arbore binar la
care cuvintele de cod constituie vârfuri ale arborelui.

0 1

0 1 0 1

1 0 1 0 1 0

001 010 011 100 101 110

Adâncimea arborelui de cod k este dată de lungimea maximă a


cuvintelor de cod generate.
34

k  max l cx 
xX

Pe fiecare nivel n al arborelui de cod numărul maxim de cuvinte de


cod este :
N n  2n
Lema 1. Numărul secvenţelor binare distincte de lungime mai mică
sau egală cu n este :
n n
2n  1
M n   N m   2m  2   2 n1  2
m 1 m 1 2 1
Lema 2. Într-un arbore binar , numărul de descendenţi la nivelul n
în raport de un nod la nivelul m  n va fi 2nm .
Lema 3. Într-un arbore binar corespunzător unui cod C , dacă c1 nu
constituie un prefix pentru c 2 , descendenţii lui c1 şi c 2 sunt mulţimi
disjuncte.

Dacă în parcurgerea arborelui pe sens descendent vom fi


consecvenţi în a nota ramura din stânga cu 0 iar ramura din dreapta cu
1 secvenţele binare asociate nodurilor pe un anumit nivel vor fi
ordonate lexicografic. Proprietatea poate fi generalizată pe 0 ,1n în
0 ,1 asupra tuturor secvenţelor binare de lungime finită :
c'  c1c , c 0,1 , c1  c2  c'  c1 c'  c2

Prin urmare condiţia de prefix impune ca nici unul din cuvintele de


cod să nu aibă ca rădăcină un alt cuvânt de cod.
35

3.2 Inegalitatea Kraft-McMillan.

Inegalitatea Kraft-McMillan fixează o primă restricţie asupra


lungimii cuvintelor de cod dintr-un cod unic decodabil.
Teorema 1. Inegalitatea lui Kraft.
Fie X o sursă şi C un cod de simboluri binare unic decodabil
asociat sursei X. Atunci :

 2  l c  x   1
xX

Demonstraţie. Fie l  max l cx  . Există 2 l secvenţe binare


xX

distincte de lungime l . Fiecare cuvânt de cod de cx  , x  X are un

număr de descendenţi 2 l l c  x  . Cum mulţimile descendenţilor sunt


disjuncte rezultă:
2l   2l l c x  sau imediat  2  l c  x   1
xX xX

Teorema 2. Inegalitatea Kraft- McMillan şi coduri cu prefix.


Fie nx   0 , x  X un ansamblu de numere întregi şi pozitive care

satisfac inegalitatea Kraft-McMillan  2n x  . Atunci există un cod


xX

cu prefix C de lungime l x  nx , şi care obligatoriu va fi unic


decodabil.
Demonstraţie. Considerăm că mulţimea întregilor nx este
ordonată descrescător:
nx1   nx2   .......  nxm 
Cuvintele de cod se aleg printr-o procedură iterativă astfel ca în
final să rezulte o ordonare lexicografică a acestora. Prin construcţie va
rezulta un cod cu prefix. Vom începe prin a impune :
36

c x1   0....0  0 ,1
n  x1 

şi succesorul lui c x1  , c x2  0 ,1


n  x2 
se alege în forma :

c x2   00....10..0  0 ,1 (al n x1   bit se alege 1).


n  x2 

Cuvintele de cod rămase cxi , i  3.... X se fixează iterativ prin


următoarea procedură → cuvântul de cod c xi  va fi secvenţa de
lungime l  n xi  cel mai mic în ordonarea lexicografică şi care nu are
ca prefix un cuvânt de cod format în iteraţiile anterioare
cx1 ...cxi1  . Numărul cuvintelor de cod care nu sunt descendenţi ai
cuvintelor de cod deja fixate satisface:
l n x j  n x j  n  x j 
n
2l   2  2l  2l   2  2l  2l   2  2l  2l  0
j i j i j 1

deoarece prin ipoteză nx satisface inegalitatea lui Kraft . Astfel se


garantează existenţa cel puţin a unui cuvânt de cod de lungime n xi  .
Prin urmare cuvântul de cod c xi  se va alege ca cel mai mic (pentru
ordonare lexicografică) cuvânt de cod disponibil.
Observaţii.
 Procedura iterativă prezentată permite generarea unui cod cu
prefix (deci unic decodabil) ordonat lexicografic.
 Rezultatul obţinut ne permite analiza numai asupra codurilor cu
prefix deoarece pentru oricare cod unic decodabil care satisface
inegalitatea Kraft pot determina un cod cu prefix având o
aceeaşi lungime a cuvintelor de cod.

Definiţie. Cod complet. Un cod C este un cod complet dacă


lungimea cuvintelor de cod satisface inegalitatea lui Kraft ca egalitate.
37

Pentru un astfel de cod fiecare nod al arborelui binar asociat


constituie un vârf sau are doi descendenţi.

Lema. Fie X o sursă caracterizată prin probabilităţile px , x  X .


Atunci există un cod cu prefix având lungimea cuvintelor de cod :
 1 
l  x   log  , x  X
 p  x  
Demonstraţie. Este suficient să arătăm că pentru o astfel de alegere
a lungimii cuvintelor de cod inegalitatea lui Kraft este satisfăcută.
 1  1
  log  log
px 
2 
 2 px 
  2log p  x   1
xX xX xX

3.3 Codarea surselor.

Definiţie. Lungimea medie a unui cod. Fie codul C asociat unei


surse X caracterizată prin probabilităţile pxi , xi  X . Lungimea
medie a codului C se defineşte ca :
LC  X    px   l cx 
xX

Teorema. Teorema de codare a surselor. Fie sursa X având entropia


H  X  . Există un cod de prefix C pentru care lungimea medie a
cuvintelor de cod satisface :
H  X   LC  X   H  X   1

Demonstraţie.
38

Pentru a demonstra limitarea superioară este suficient să calculăm


lungimea medie a cuvintelor de cod la care lungimea acestora este
 1 
aleasă conform unei teoreme precedente în forma l  x   log .
 p x 
 1   1 
LC  X    px   log px    px    log px   1  H  X   1 4
xX   xX  
Prin urmare lungimea unui cod optimal va fi mai mică decât limita
superioară impusă.

Definiţie. Redundanţa. Redundanţa unui cod C asociat unei surse X


este mărginită de entropia relativă :
p x 
R  LC  X   H  X   D p qC    px   log q x 
xX C

în care qC x  este de forma :

2  l c  x 
qC x   x X
 2 l  c  x  
xX

Demonstraţie.
Notăm :
s   2  l c  x   1
xX

conform inegalităţii lui Kraft.


Din modul de definire a lui qC x  :
s  1  log s  0 s  1  log s  0

2     qC  x   s l  c  x     log qC  x   log s
l c x

Dacă utilizăm definiţia entropiei redundanţa R se obţine în forma:

4
În demonstraţie ne bazăm pe inegalitatea x   x  1
39

 p  x   l  c  x    p  x   log p
1
R  LC  X   H  X   
xX  x
   p  x   log qC  x   log s   p  x   log p  x 
xX xX

sau prin prelucrări elementare :


p  x
R   p  x   log  log s  D  p qC   log s
qC  x 
Relaţia obţinută pune în evidenţă entropia relativă între p şi qc .

Cum D  p qC   0 iar s  1  log s  0 putem deduce că :

R  D  p qC   0

Rezultatul prezentat permite o demonstraţie simplă în raport de


limita inferioară impusă de teoremă. Cum entropia relativă este
nenegativă :
R  0  LC  X   H  X   0  LC  X   H  X 
Observaţie. Pentru a obţine un cod optim sub raportul lungimii
cuvintelor de cod este necesar ca :
LC  X   H  X 
ceea ce înseamnă log s  1  s  0 . Prin urmare codul este complet şi

D  p qC   0  qC  x   p  x 

ceea ce implică :

l  c  x    log
1
, x X
p  x
Teorema. Codarea surselor cu ajutorul codurilor bloc.
40

Fie sursa X cu probabilităţi asociate p  x  , x  X . Pentru   0


există un cod bloc Cn de lungime n a cărui lungime medie satisface :
LC  X   H  X   
n

Demonstraţie. Demonstraţia este o simplă aplicaţie a teoremei


precedente. Entropia unui ansamblu de n variabile X  n este :

 
H X  n  n  H  X .

În baza teoremei precedente :

 
LC X  n   H  X n   1  n  H  X   1

Lungimea raportată la un simbol al sursei considerate va fi :

LC  X  

LC X  n   HX  1
n
n n
Dacă alegem n astfel ca :
1

n
codul considerat satisface condiţia impusă.

Exemplu. Pentru sursa X  1,2,3,4 cu probabilităţi asociate


1 1 1 1
PX   , , ,  se consideră următoarea schemă de codare
2 4 8 8
c 1  0, c  2   10, c  3  110, c  4   111.
Entropia sursei se evaluează simplu în forma :
1 1 1 1 1 1 1 1
H  X     log   log   log   log 
2 2 4 4 8 8 8 8
1 1 3 3
     1.75
2 2 8 8
Pentru codul propus lungimea medie a cuvintelor de cod va fi :
1 1 1 1
L  X    1   2   3   3  1.75
2 4 8 8
41

Pentru situaţia considerată observăm că L  X   H  X  şi prin


urmare codul considerat este optim în raport cu lungimea medie a
cuvintelor de cod . Optimalitatea codului poate fi apreciată şi din
1
faptul că l  i   log , i  1,2,3,4.
p i 

111
1
1 0
110
0
10
1

0
0

Figura Arborele asociat


codului.

În figura…..este prezentat arborele asociat codului considerat . Din


simpla analiză a acestuia rezultă că acest cod este un cod cu prefix
unic decodabil.
Exemplu 2. Pentru sursa considerată în exemplu 1 vom asocia un
cod bloc de lungime doi după cum urmează :
c 1  00, c  2   01, c  3  10, c  4   11

Lungimea medie a cuvintelor de cod este L  C   2 şi prin urmare


este mai puţin economic decât codul anterior. În orice caz codul
satisface teorema fundamentală :
42

H  X   1.75  L  C   2  H  X   1  2.75
Exemplu 3. Pentru sursa considerată în exemplu 1 considerăm
următoarea schemă de codare :
c 1  0, c  2   1, c  3  00, c  4   11.
Lungimea medie a cuvintelor de cod va fi :
1 1 1 1 5
L  C    1   1   2   2   1.25
2 4 8 8 4
Pentru acest cod lungimea medie a cuvintelor de cod este mai mică
decât entropia sursei :
L  C   1.25  H  X   1.75

dar codul nu este unic decodabil. Dacă considerăm un mesaj 134213


acesta va fi codificat în forma :
134213   000111000
Aceeaşi secvenţă de cod corespunde şi pentru mesajul  312431 .
Exemplu 4. Considerăm cazul sursei prezentate în exemplu 1
pentru care introducem următoarea schemă de codare :
c 1  0, c  2   01, c  3  011, c  4   111
Lungimea medie a cuvintelor de cod va fi :
1 1 1 1 7
L  C    1   2   3   3   1.75
2 4 8 8 4
Secvenţa 134213 va fi codificată în forma :

134213   0011111010011
este unic decodabilă.

S-ar putea să vă placă și