Aplicaţii”, Editura
Politehnica Press, Bucureşti, 2010.
Capitolul 1
SURSE DE INFORMAŢIE
P( x ) = 1 .
xi X
i Probabilitatea P( xi ) reprezintă de fapt probabilitatea cu care v.a. X ia
valoarea xi , adică P( xi ) = P ( X = xi ) .
• Informaţia proprie obţinută în urma realizării evenimentului i (v.a. X a luat
valoarea xi ) este:
i( xi ) = − log P( xi ) .
Baza logaritmului determină unitatea de măsură a informaţiei:
i( xi ) = − log 2 P( xi ) , [biţi],
= − loge P( xi ) , [nat],
= − log10 P( xi ) , [hartley].
• Entropia v.a. discrete X reprezintă valoarea medie statistică a informaţiilor
proprii asociate variabilei X:
H ( X ) = E i( xi ) = P( xi )i( xi ) = − P( xi ) log 2 P( xi ), [biţi].
xi X xi X
H (X |Y) I ( X ,Y ) H (Y | X )
H ( X 2 | X1 , X 3 )
H ( X 3 | X1 , X 2 )
I ( X1 , X 2 , X 3 ) I (X2, X3) I ( X 2 , X 3 | X1 )
a) b)
Fig. 1.1. Diagrama informaţională reprezentată prin diagrame Venn pentru ilustrarea relaţiilor dintre
entropiile a două variabile X şi Y (a) sau trei variabile X1, X2 şi X3 (b).
1. Surse de informaţie 15
Pentru o pereche de două v.a. X1 , X 2 , de alfabetele X 1 , X 2 şi f.m.p. reunită p( x1 , x2 ) ,
depinzând de v.a. X 3 , de alfabet X 3 , informaţia mutuală condiţionată reprezintă
cantitatea de informaţie “conţinută” în v.a. X 1 , datorită cunoaşterii v.a. X 2 când v.a. X 3
este dată (cunoscută), vezi Fig. 1.1.b. Altfel spus, în cazul a trei v.a. X1 , X 2 şi X 3 se
defineşte informaţia mutuală condiţionată ca fiind o măsură a reducerii incertitudinii
asupra variabilei X 1 datorită cunoaşterii variabilei X 2 când variabila X 3 este dată:
p( x1 , x2 | x3 )
I ( X 1 , X 2 | X 3 ) = p( x1 , x2 , x3 ) log
x1X 1 x2 X 2 x3X p( x1 | x3 ) p( x2 | x3 )
În termeni de entropii, informaţia mutuală condiţionată poate fi scrisă ca:
I ( X1 , X 2 | X 3 ) = H ( X1 | X 3 ) − H ( X 1 | X 2 , X 3 ) .
Fie un set de n v.a. X1 , X 2 , , X n , de alfabete X 1 , X 2 , , X n şi caracterizate de f.d.p.
reunită p( x1 , x2 , , xn ) . Generalizând proprietatea de subaditivitate a două v.a., entropia
unei secvenţe de n v.a. X1 , X 2 , , X n este:
n
H ( X1 , X 2 , , Xn ) H ( Xi ) ,
i =1
cu egalitate dacă v.a. sunt mutual independente. Cantitatea medie de informaţie conţinută
în secvenţa de n v.a. X1 , X 2 , , X n este mai mică sau cel mult egală cu suma entropiilor
v.a. X1 , X 2 , , X n .
X1 X2 X3
H (X2) I ( X1 , X 2 )
H ( X1 )
H ( X3)
I ( X1 , X 3 )
H ( S ) = − P( si ) log 2 P( si ) , [biţi/simbol].
si S
Rezolvare
a) Numărul minim de biţi necesari este dat de cantitatea de informaţie medie
(entropia) generată de experimentul aruncării cu zarul ideal (pentru un zar ideal
feţele au aceeaşi probabilitate de apariţie, entropia fiind maximă):
lg 6
H max (S ) = log 2 M = log 2 6 = = 2.58 biţi/simbol.
lg 2
Pentru a transmite acest rezultat cu ajutorul unui sistem digital (de exemplu un
calculator) trebuie să utilizăm un număr întreg de biţi şi facem rotunjire prin
adaos, rezultând 3 biţi/simbol.
O altă variantă intuitivă ar fi de a reprezenta în binar numerele ce reprezintă
feţele zarului. Astfel, avem nevoie de 3 biţi.
b) Dacă avem o pereche de două zaruri ideale, atunci considerăm sursa extinsă de
ordin 2 cu M 2 = 36 simboluri posibil a fi transmise, fiecare variantă cu
probabilitatea 1/36. Cantitatea de informaţie rezultată este:
H max (S 2 ) = log 2 36 = 5.168 biţi/simbol extins.
1. Surse de informaţie 23
Într-un sistem digital vom utiliza 6 biţi, modul de alocare a biţilor pentru fiecare
rezultat al experimentului putând fi chiar reprezentarea în binar a indicelui
simbolului extins.
c) În calculul entropiei de la punctele a) şi b) am presupus că zarurile sunt ideale şi
orice combinaţie de feţe ar avea aceeaşi probabilitate. Dacă zarurile sunt diferite,
atunci cel puţin un zar este măsluit, având o distribuţie de probabilităţi
neuniformă, caz în care entropia va fi mai mică. Astfel, vom utiliza un număr mai
mic de biţi.
d) Dacă zarul este măsluit, atunci distribuţia de probabilităţi a sursei care modelează
aruncarea cu zarul este:
p( S ) = p, 2 p,3 p, 4 p,5 p, 6 p .
Din condiţia de normare rezultă:
1
p + 2 p + 3 p + 4 p + 5 p + 6 p = 1 21 p = 1 p= ,
21
adică:
1 2 3 4 5 6
p( S ) = , , , , , .
21 21 21 21 21 21
Entropia sursei S este:
H ( S ) = 2.398 biţi/simbol,
fiind mai mică decât cea obţinută pentru zarul ideal de la punctul a), deoarece
distribuţia de probabilităţi a sursei nu mai este uniformă. Şi în acest caz tot 3 biţi
vom utiliza într-un sistem digital.
Pentru cazul a două zaruri măsluite, considerăm sursa extinsă de ordin 2,
pentru care entropia este:
H (S 2 ) = 2H (S ) = 4.786 biţi/simbol extins,
astfel că în sistemul digital vom utiliza 5 biţi. Se observă că pentru cele două
zaruri măsluite vom utiliza un număr mai mic de biţi faţă de cazul ideal. Problema
care rămâne nerezolvată este modul de atribuire a biţilor pentru realizările
particulare ale experimentului aruncării cu două zaruri. Acest lucru va fi rezolvat
în capitolul 2 prin codarea sursei de informaţie.
Rezolvare
Metoda 1 – informaţională: Pentru tabla de şah clasică, avem 8 8 = 64 de simboluri
corespunzătoare celor 64 de căsuţe. Presupunând că piesa se poate afla în orice căsuţă
cu aceeaşi probabilitate, rezultă că cele 64 de simboluri sunt echiprobabile, prin
urmare sursa de informaţie este de entropie maximă. Deci, incertitudinea a priori sau
cantitatea de informaţie care trebuie aflată este egală cu:
H max (S ) = log2 64 = 6 biţi/simbol.
24 TEORIA INFORMAŢIEI ŞI A CODURILOR. APLICAŢII
Această incertitudine trebuie să fie eliminată prin efectuarea unui experiment de k ori.
Experimentul constă în punerea de întrebări şi aflarea răspunsurilor. Cum răspunsul
este “da” sau “nu”, informaţia obţinută în urma unui răspuns este:
i1 raspuns = log 2 2 = 1 bit/simbol.
În urma a k răspunsuri obţinem o cantitate de informaţie de k i1 raspuns . Pentru anularea
incertitudinii trebuie ca:
k i1 raspuns H max (S ) ,
de unde k 6 , adică kmin = 6 întrebări. Această metodă reprezintă un procedeu de
calcul teoretic, din punct de vedere informaţional, al numărului de întrebări necesare.
Problema care rămâne nerezolvată este care sunt aceste întrebări.
Metoda 2 - Divide et Impera: Un algoritm corespunzător este cel bazat pe Divide
et Impera. Se împarte virtual tabla în două jumătăţi a câte 32 căsuţe şi se pune
întrebarea „Piesa este în prima jumătate?”. În urma răspunsului primit, se află în care
jumătate este piesa. Algoritmul se aplică iterativ pe noua jumătate, până când se
ajunge la două căsuţe. Ultimul răspuns ne va preciza căsuţa care este ocupată.
Deoarece operaţia de împărţire s-a efectuat de 6 ori, numărul de întrebări va fi 6, iar
această metodă este optimală, deoarece asigură un număr minim de întrebări, număr
determinat prin metoda informaţională.
Metoda 3 – Coordonatele piesei: O altă posibilitate de a preciza poziţia unei piese
constă în cunoaşterea coordonatelor sale. În cazul tablei de şah, vor fi necesare 8 cifre
sau litere pe orizontală şi 8 cifre sau litere pe verticală. Cantitatea de informaţie
necesară pentru precizarea piesei va fi dată suma cantităţilor de informaţie necesare
pentru precizarea celor două coordonate:
ipiesa = ioriz + ivert = log 2 8 + log 2 8 = 3 + 3 = 6 biţi/simbol.
Rezolvare
a) Debitul de informaţie al sursei este definit ca:
H (S )
Ht (S ) = , [bps].
1. Surse de informaţie 25
Entropia sursei nu depinde de nivelurile de tensiune generate ci doar de distribuţia
de probabilităţi ale acestora:
4
H ( S ) = − P( si ) log 2 P( si )
i =1
1 1 1 1 1 1 1 1 7
= − log 2 − log 2 − log 2 − log 2 = = 1.75 biţi/simbol.
8 8 4 4 2 2 8 8 4
Durata medie a unui simbol este:
4
1 1 1 1
= P( si )( si ) = 1 + 0.5 + 0.1 + 1 = 0.425 ms/simbol.
i =1 8 4 2 8
Debitul de informaţie al sursei fără pauză este:
H (S ) 1.75
H t ,fara_pauza ( S ) = = = 4117 bps = 4.021 kbps.
0.425 10−3
Dacă la 10 simboluri mai adăugăm 15 ms de pauză, durata medie de repaus pentru
un simbol va fi de 1.5 ms. Astfel, durata medie a unui simbol se modifică:
pauza = + pauza = 0.425 + 1.5 = 1.925 ms .
10
Ţinând cont de prima relaţie, rezultă:
H (S ) 1.75
H t , cu_pauza ( S ) = = = 909.1 bps = 0.887 kbps.
pauza 1.925 10−3
b) Tensiunea medie emisă de sursă, fără pauză, poate fi determinată cu relaţia:
s P(si )(si )si s P(si )(si )si 1.025
sfara_pauza = i = i = = 2.4117 V.
P(si )(si ) 0.425
si
Rezolvare
a) Entropia sursei S este este o funcţie de variabilă p, care se poate scrie:
H (S ) = − p log 2 p − (1 − p) log 2 (1 − p) , [biţi/simbol].
Maximul local al acestei funcţii se obţine prin egalarea derivatei în raport cu p cu
valoarea 0. Astfel:
26 TEORIA INFORMAŢIEI ŞI A CODURILOR. APLICAŢII
H (S )
H max (S ) = 1
p
0 0.5 1
1 1 1− p 1
= − ln p − p − (−1) ln(1 − p) + = − ln p + ln(1 − p)
ln 2 p 1 − p ln 2
= − log 2 p + log 2 (1 − p),
de unde:
H ( S )
= 0 − log 2 p + log 2 (1 − p) = 0 p = 1 − p p = 0.5 .
p
În Fig. 1.3 am ilustrat variaţia entropiei H ( S ) în funcţie de probabilitatea p de
apariţie a unui simbol. Se observă că sunt respectate proprietăţile entropiei:
• pentru p = 0 respectiv p = 1 , sursa emite cu certitudine simbolul s2
respectiv s1 , iar entropia are valoare minimă, egală cu 0;
• pentru p = 0.5 , sursa emite ambele simboluri cu aceeaşi probabilitate, iar
entropia (incertitudinea) ia valoarea maximă H max (S ) = log 2 2 = 1 bit/simbol;
• entropia este o funcţie concavă în raport cu probabilitatea p;
• entropia este o funcţie simetrică în raport cu probabilitatea p,
H ( p) = H (1 − p) .
b) Pentru a calcula entropia sursei extinse de ordinul 2 fără memorie, trebuie să
calculăm distribuţia de probabilităţi a sursei extinse S 2 de alfabet
S 2 = s1s1 , s1s2 , s2 s1 , s2 s2 astfel:
P(si s j ) = P(si ) P(s j ) , i, j = 1, 2 .
Dacă sursa S are distribuţia de probabilităţi p( S ) = p,1 − p , atunci pentru S 2
obţinem distribuţia:
p ( S 2 ) = p 2 , p (1 − p ), (1 − p) p, (1 − p) 2 .
1. Surse de informaţie 27
Entropia sursei extinse de ordinul 2 este:
4
H ( S 2 ) = − P(i ) log 2 P(i )
i =1
Rezolvare
a) Din ipoteză ştim că:
Not
P( B) = 2 P( A) = 2 P(C ) = 2 P( D) = 2 p .
Dar suma probabilităţilor tuturor evenimentelor este 1 (condiţia de normare),
adică:
P( A) + P( B) + P(C ) + P( D) = 1 p + 2 p + p + p = 1 5 p = 1 p = 0.2 ,
deci distribuţia de probabilităţi a sursei S este:
p( S ) = 0.2, 0.4, 0.2, 0.2 .
Entropia sursei se calculează cu probabilităţile precedente:
H (S ) = −0.2log 2 0.2 − 0.4log 2 0.4 − 0.2log 2 0.2 − 0.2log 2 0.2 = 1.922 biţi/simbol.
Entropia maximă a sursei se calculează din numărul de simboluri emise de sursă:
H max (S ) = log 2 M = log2 4 = 2 biţi/simbol.
Redundanţa sursei este:
RS = H max (S ) − H (S ) = 2 − 1.922 = 0.078 biţi/simbol.
Randamentul sursei este:
H (S ) 1.922
S = = = 0.961 = 96.1% .
H max ( S ) 2
Redundanţa relativă a sursei este:
S = 1 − S = 1 − 0.961 = 0.039 = 3.9% .
b) Considerăm extensia de ordin 2 a sursei fără memorie S, şi anume S 2 . Aceasta
are alfabetul:
S 2 = AA, AB, AC , AD, BA, BB, BC , BD, CA, CB, CC , CD, DA, DB, DC , DD ,
28 TEORIA INFORMAŢIEI ŞI A CODURILOR. APLICAŢII
şi distribuţia probabilităţilor de apariţie:
p( S 2 ) = 0.04, 0.08, 0.04, 0.04, 0.08, 0.16, 0.08, 0.08,
0.04, 0.08, 0.04, 0.04, 0.04, 0.08, 0.04, 0.04
Entropia sursei extinse este:
H ( S 2 ) = −9 0.04 log 2 0.04 − 6 0.08 log 2 0.08 − 0.16 log 2 0.16
= 3.844 biti/simbol extins.
În acest caz, valoarea maximă a entropiei este:
H max (S 2 ) = log 2 16 = 4 biţi/simbol extins.
Un calcul mai rapid era dacă ţineam cont de relaţiile de echivalenţă pentru o sursă
fără memorie:
H (S 2 ) = 2H (S ) ,
H max (S 2 ) = 2 H max ( S ) .
Redundanţa sursei extinse este:
RS 2 = H max ( S 2 ) − H ( S 2 ) = 4 − 3.844 = 0.156 biţi/simbol extins.
Randamentul şi redundanţa relativă sunt independente de ordinul sursei extinse:
H (S 2 ) 2H (S )
S 2 = 2
= = S = 0.961 = 96.1% .
H max ( S ) 2 H max ( S )
S 2 = 1 − S 2 = S = 0.039 = 3.9% .
A se observa că pentru sursa extinsă, entropia şi redundanţa s-au dublat. Acest
lucru este normal dacă ne gândim că în cazul sursei extinse un simbol este de fapt
o succesiune de simboluri (un mesaj) ale sursei primare şi atunci entropia, care
este informaţia medie pe simbol extins, va creşte. Entropia maximă creşte şi ea,
deoarece sursa extinsă are un număr mai mare de simboluri decât sursa primară.
Analog creşte şi redundanţa.
Mult mai relevantă pentru comparaţia performanţelor între două surse este
utilizarea randamentului sau a redundanţei relative. Astfel, randamentul şi
redundanţa relativă pentru sursa primară şi pentru sursa extinsă sunt egale,
deoarece sursa extinsă depinde în totalitate de sursa primară. În acest caz, spunem
că ambele surse emit aceeaşi cantitate de informaţie.
Rezolvare
În primul caz, avem o sursă primară S1 , cu două simboluri S = {s1 , s2 } , atribuite
evenimentelor „arcaşul loveşte ţinta”, „arcaşul nu loveşte ţinta”. Cele două
evenimente sunt echiprobabile p( S1 ) = 1/ 2,1/ 2 , iar entropia sursei primare este:
H (S1 ) = log 2 2 = 1 bit/simbol.
1. Surse de informaţie 29
Dacă arcaşul trage de două ori, atunci avem o sursă extinsă de ordin 2, de alfabet
S 1 2 = s1s1 , s1s2 , s2 s1 , s2 s2 , pentru care entropia este:
H (S12 ) = 2 H ( S1 ) = 2 biţi/simbol extins de ordin 2.
Pentru al doilea arcaş, sursa primară S 2 este caracterizată de acelaşi alfabet
S = {s1 , s2 } şi distribuţia de probabilităţi p( S2 ) = 1/ 3, 2 / 3 . Entropia sursei primare
este:
1 1 2 2
H ( S2 ) = − log 2 − log 2 = 0.918 biţi/simbol.
3 3 3 3
Dacă arcaşul trage de trei ori, atunci avem o sursă extinsă de ordin 3, de alfabet:
S 2 3 = s1s1s1 , s1s1s2 , s1s2 s1 , s1s2 s2 , s2 s1s1 , s2 s1s2 , s2 s2 s1 , s2 s2 s2 ,
pentru care entropia este:
H (S23 ) = 3 H (S2 ) = 2.754 biţi/simbol extins de ordin 3.
Entropiile celor două surse S12 şi S 23 nu se pot compara între ele, deoarece sursele nu
au acelaşi alfabet. Astfel, pentru comparaţie trebuie să calculăm randamentele celor
două surse extinse. Entropiile maxime ale surselor extinse sunt:
H max (S12 ) = log 2 4 = 2 biţi/simbol extins de ordin 2,
H max ( S23 ) = log 2 8 = 3 biţi/simbol extins de ordin 3.
Randamentele surselor sunt:
H ( S12 ) 2
S 2 = 2
= =1,
1
H max ( S1 ) 2
H ( S23 ) 2.754
S 3 = 3
= = 0.918 .
2
H max ( S2 ) 3
Se observă că prima sursă de informaţii are randament mai mare, deci ea va emite mai
multă informaţie. Astfel, era suficient să inspectăm doar sursele primare, deoarece ele
au acelaşi randament cu sursele extinse, în cazul fără memorie. Între sursele S1 şi S 2 ,
va emite mai multă informaţie cea cu distribuţie de probabilităţi cât mai uniformă,
adică sursa S1 .
Rezolvare
a) Dacă fiecare element are câte două stări posibile s1 şi s2, atunci pentru cele două
elemente pot exista patru situaţii. Starea sistemului va fi definită de combinaţia de
stări ale elementelor componente, ca în tabelul următor:
30 TEORIA INFORMAŢIEI ŞI A CODURILOR. APLICAŢII
Starea sistemului Elementul 1 Elementul 2
1 s1 s1
2 s1 s2
3 s2 s1
4 s2 s2
Astfel, în calculul entropiei maxime vom ţine cont de numărul total de stări ale
sistemului:
H max (S1 ) = log 2 4 = 2 biţi/simbol.
b) Numărul de stări posibile ale sistemului este 34 . Deci:
H max ( S2 ) = log 2 34 = 4log 2 3 = 6.34 biţi/simbol.
c) Numărul de stări posibile ale sistemului este 43 . Deci:
H max (S3 ) = log 2 43 = 3log 2 4 = 6 biţi/simbol.
Rezolvare
a) Pentru sursa primară S, calculăm entropia ca fiind:
H (S ) = −0.8log 2 0.8 − 0.2log 2 0.2 = 0.72 biţi/simbol.
Entropia maximă a sursei primare este:
H max (S ) = log 2 2 = 1 bit/simbol.
Redundanţa sursei primare este:
RS = H max (S ) − H (S ) = 0.28 biţi/simbol.
b) Sursa extinsă de ordinul 2, S 2,FM , a sursei primare S fără memorie, este descrisă
de alfabetul:
S 2 = 1 , 2 , 3 , = 00, 01,10,11 .
Deoarece simbolurile emise de sursă sunt independente (sursa este fără memorie),
atunci:
P(1 ) = P(00) = P(0) P(0) = 0.8 0.8 = 0.64 ,
P(2 ) = P(01) = P(0) P(1) = 0.8 0.2 = 0.16 ,
P(3 ) = P(10) = P(1) P(0) = 0.2 0.8 = 0.16 ,
P(4 ) = P(11) = P(1) P(1) = 0.2 0.2 = 0.04 .
1. Surse de informaţie 31
Entropia sursei S 2,FM este:
H ( S 2,FM ) = −0.64log 2 0.64 − 2 0.16log 2 0.16 − 0.04log 2 0.04 = 1.44 biţi/simbol,
entropia maximă este:
H max (S 2,FM ) = log 2 4 = 2 biţi/simbol,
iar redundanţa este:
RS 2,FM = H max ( S 2,FM ) − H (S 2,FM ) = 2 − 1.44 = 0.56 biţi/simbol.
Se observă că entropia, entropia maximă şi redundanţa sursei extinse de ordin 2
S 2,FM sunt duble faţă de entropia, entropia maximă şi redundanţa sursei primare S
fără memorie:
H (S 2,FM ) = 2 H (S ) ,
H max ( S 2,FM ) = 2 H max ( S ) ,
RS 2,FM = 2 RS .
c) Pentru sursa extinsă de ordin 2, S 2,CM , de alfabet
S = 1 , 2 , 3 , = 00, 01,10,11 , a sursei primare S cu memorie de ordin 1,
2
P12 = 0.25
P21 = 0.5
Rezolvare
a) Din graful de tranziţii, putem scrie matricea probabilităţilor de tranziţie:
P P 0.75 0.25
P = 11 12 = .
P21 P22 0.5 0.5
Dacă probabilităţile iniţiale ale sursei de a emite orice simbol sunt egale, atunci
distribuţia iniţială de probabilităţi este:
0 = 0.5, 0.5 = 0.5 0.5 .
Distribuţia de probabilităţi de la momentul curent n se poate scrie în funcţie de
cea de la momentul anterior n-1 cu ajutorul relaţiei de recurenţă n = n−1P .
Particularizând pentru fiecare tranziţie până la n = 4 , obţinem:
0.75 0.25
1 = 0 P = 0.5 0.5 = 0.625 0.375 ;
0.5 0.5
0.75 0.25
2 = 1P = 0.625 0.375 = 0.65625 0.34375 ;
0.5 0.5
0.75 0.25
3 = 2 P = 0.65625 0.34375 = 0.66406 0.33594 ;
0.5 0.5
0.75 0.25
4 = 3P = 0.66406 0.33594 = 0.66602 0.33398 .
0.5 0.5
b) Dacă notăm P21 = p şi P22 = 1 − p atunci matricea P se scrie:
0.75 0.25
P= .
p 1− p
1. Surse de informaţie 33
Condiţia de staţionaritate cere ca distribuţia de probabilităţi la momentul n să fie
identică cu cea de la momentul n − 1 şi iterând pentru orice n obţinem:
n = n−1 = = 1 = 0 = 0.5 0.5 .
Din relaţia de recurenţă vom obţine valoarea probabilităţii p pentru condiţia de
staţionaritate:
0.75 0.25
n = n −1P 0.5 0.5 = 0.5 0.5
p 1− p
0.5 = 0.5 0.75 + 0.5 p 1 = 0.75 + p
p = 0.25 .
0.5 = 0.5 0.25 + 0.5(1 − p) 0 = 0.25 − p
Deci, matricea de tranziţii pentru sursa staţionară este:
0.75 0.25
P= .
0.25 0.75
c) La punctul a) am calculat distribuţiile de probabilităţi ale sursei până la momentul
de timp 4. Se poate observa că de la acest moment de timp sursa intră într-un
regim de staţionaritate, astfel:
0.75 0.25
5 = 4 P = 0.66602 0.33398 = 0.666505 0.333495 ,
0.5 0.5
0.75 0.25
6 = 5 P = 0.666505 0.333495 = 0.666626 0.333374 ,
0.5 0.5
distribuţia staţionară fiind la limită w = 2 / 3 1/ 3 . Astfel, impunând o anumită
precizie, de exemplu 10−3 , staţionaritatea este obţinută după ce sursa emite
primele cinci simboluri. În acest caz, entropia sursei este:
2 2 1 1
H ( S ) = − log 2 − log 2 = 0.918 biţi/simbol.
3 3 3 3
d) Entropia sursei este maximă dacă probabilităţile de emitere a celor două simboluri
sunt egale, adică pentru o distribuţie de probabilităţi 0.5, 0.5 . Această distribuţie
este obţinută în condiţiile de staţionaritate de la punctul b).
Rezolvare
a) Celor patru niveluri de tensiune {-3, -1, 1, 3} le atribuim patru stări diferite ce
formează mulţimea stărilor S = 1, 2,3, 4 . Graful de tranziţii al sursei este
reprezentat în Fig. 1.5., unde stările sunt reprezentate prin nodurile 1, 2,3, 4 , iar
pe arce sunt trecute probabilităţile de tranziţie dintr-o stare în alta.
0.8
1 out= -3 V
0.2
0.5
0.5
out= -1 V
2 3 out= 1 V
0.5
0.5
0.2
4 out= 3 V
0.8
b) Un mesaj particular emis de sursă poate fi orice succesiune de stări prin care trece
sursa, plecând de la o stare iniţială dată, cu distribuţia de probabilităţi iniţială 0 .
Astfel, dacă presupunem că la momentul iniţial n = 0 , sursa se află în starea 2
(emite un nivel de tensiune -1 V), următoarele stări posibile pot fi 3, 2, 4, 4, 3, 1,
1, 1, 2, etc., corespunzătoare nivelurilor de tensiune 1 V, -1 V, 3 V, 3 V, 1 V, -3
V, -3 V, -3 V, -1 V, etc. Se observă că aceste tranziţii sunt efectuate conform
grafului de tranziţii.
c) O succesiune de simboluri care nu poate fi emisă de sursă este -3 V, -1 V, 1 V, 3 V,
-3 V, -1 V, 1 V, 3 V, -3 V, -1 V, etc. Această secvenţă de simboluri corespunde
unor “tranziţii imposibile” care au probabilitatea 0 în matricea de tranziţii.
d) Dacă stările iniţiale sunt echiprobabile, atunci distribuţia iniţială este:
0 = ( 0.25, 0.25, 0.25, 0.25 ) .
După patru tranziţii, distribuţia de probabilităţi este:
4 = 3P = 2 P 2 = 1P3 = 0 P 4 ,
unde matricele de tranziţii după două, trei şi patru tranziţii sunt:
1. Surse de informaţie 35
0.64 0.16 0.1 0.1
0.25 0.25 0.1 0.4
P2 = P P = ;
0.4 0.1 0.25 0.25
0.1 0.1 0.16 0.64
0.562 0.178 0.1 0.16
0.25 0.1 0.205 0.445
P = P P =
3 2 ;
0.445 0.205 0.1 0.25
0.16 0.1 0.178 0.562
0.4996 0.1624 0.1210 0.2170
0.3025 0.1525 0.1390 0.4060
P = P P =
4 3 .
0.4060 0.1390 0.1525 0.3025
0.2170 0.1210 0.1624 0.4996
Deci, distribuţia cerută va fi:
0.25 0.4996 0.1624 0.1210 0.2170 0.3563
0.25 0.3025 0.1525 0.1390 0.4060 0.1437
4 = 0P =
4 = .
0.25 0.4060 0.1390 0.1525 0.3025 0.1437
0.25 0.2170 0.1210 0.1624 0.4996 0.3563
Deoarece distribuţia 4 la momentul n = 4 nu este egală cu distribuţia iniţială
0 , sursa nu este staţionară.
e) Distribuţia w de echilibru, ce asigură staţionaritatea sursei, se poate calcula din
relaţia:
0.8 0.2 0 0
0 0 0.5 0.5
w = wP w0 w1 w2 w3 = w0 w1 w2 w3 ,
0.5 0.5 0 0
0 0 0.2 0.8
de unde rezultă sistemul:
0.8w0 + 0.5w2 = w0 , 0.2w0 + 0.5w2 = w1 ,
,
0.5w1 + 0.2w3 = w2 , 0.5w1 + 0.8w3 = w3
şi ţinând cont de condiţia de normare w0 + w1 + w2 + w3 = 1 rezultă soluţia:
5 2 2 5
w = w0 w1 w2 w3 = .
14 14 14 14
Rezolvare
Conform enunţului problemei, sursa S poate emite doar cinci mesaje:
S1 S2 S3
0 0 0
0 0 1
0 1 1
1 0 1
1 1 1
În medie, sursa S1 emite simbolul 0 cu probabilitate 3/5, iar simbolul 1 cu
probabilitate 2/5. Analog pentru S 2 . Dar S3 emite simbolul 0 cu probabilitate 1/5, iar
simbolul 1 cu probabilitate 4/5. Din aceste motive, rezultă că v.a. S1 , S 2 şi S3 nu
sunt identic distribuite. De asemenea, datorită numărului de cinci mesaje transmise
dintr-un număr de opt mesaje posibile de lungime trei simboluri, condiţionările între
simboluri sunt foarte mari, sursa având o memorie de ordin 2.
a) Entropia H (S1 ) reprezintă cantitatea de informaţie generată de S1 :
3 3 2 2
H ( S1 ) = − log 2 − log 2 = 0.971 biţi/simbol.
5 5 5 5
Deoarece v.a. S1 nu are distribuţie uniformă, entropia nu este maximă. Analog
calculăm:
3 3 2 2
H ( S2 ) = − log 2 − log 2 = 0.971 biţi/simbol.
5 5 5 5
1 1 4 4
H ( S3 ) = − log 2 − log 2 = 0.722 biţi/simbol.
5 5 5 5
b) Entropia reunită H (S1, S2 ) descrie conţinutul de informaţie comună a v.a. S1 şi S 2 .
Probabilităţile reunite sunt:
P ( S1 = 0, S2 = 0 ) = 2 / 5 ,
P ( S1 = 0, S2 = 1) = 1/ 5 ,
P ( S1 = 1, S2 = 0 ) = 1/ 5 ,
P ( S1 = 1, S2 = 1) = 1/ 5 .
Astfel:
2 2 1 1
H ( S1 , S2 ) = − log 2 − 3 log 2 = 1.922 biţi/simbol.
5 5 5 5
Analog:
1 1
H ( S1 , S2 , S3 ) = −5 log 2 = 2.322 biţi/simbol.
5 5
1. Surse de informaţie 37
c) Entropia condiţionată H (S2 | S1 ) descrie conţinutul de informaţie din S 2 dacă S1
este cunoscută:
H (S2 | S1 ) = H (S1, S2 ) − H (S1 ) = 1.922 − 0.971 = 0.951 biţi/simbol.
Entropia condiţionată H (S2 | S1 = 0) descrie conţinutul de informaţie din S 2 dacă
S1 a emis simbolul 0. Pentru a calcula această entropie avem nevoie de
probabilităţile condiţionate:
P(S2 = 0 | S1 = 0) = 2 / 3 ,
P(S2 = 1| S1 = 0) = 1/ 3 ,
rezultând entropia condiţionată:
2 2 1 1
H ( S2 | S1 = 0) = − log 2 − log 2 = 0.918 biţi/simbol.
3 3 3 3
Entropia condiţionată H (S2 | S1 = 1) descrie conţinutul de informaţie din S 2 dacă
S1 a emis simbolul 1:
1 1 1 1
H ( S2 | S1 = 1) = − log 2 − log 2 = 1 bit/simbol,
2 2 2 2
unde probabilităţile condiţionate sunt:
P(S2 = 0 | S1 = 1) = 1/ 2 ,
P(S2 = 1| S1 = 1) = 1/ 2 .
Valoarea entropiei egală cu unu înseamnă că datorită lui S1 = 1 , nu există nicio
cunoaştere despre S 2 şi astfel v.a. S 2 are entropie maximă.
Entropia condiţionată H (S3 | S2 , S1 ) descrie conţinutul de informaţie din S3 ,
dacă S 2 şi S1 sunt deja cunoscute:
H (S3 | S2 , S1 ) = H (S1, S2 , S3 ) − H (S1, S2 ) = 2.322 −1.922 = 0.4 biţi/simbol.
S1 S2 S3
H ( S2 ) I (S1 , S2 )
H (S1 )
H (S2 , S3 )
H (S3 )
Pentru relaţia 1, informaţia mutuală I (S1 , S2 ) este aria comună dintre H (S1 ) şi
H (S2 ) , haşurată cu linii verticale, vezi Fig. 1.6. Informaţia mutuală
I ( S1 , ( S2 , S3 ) ) reprezintă cantitatea de informaţie comună v.a. S1 de entropie
H (S1 ) (“clopotul” din stânga) şi perechii de v.a. (S2 , S3 ) de entropie H (S2 , S3 ) ,
haşurată cu linii orizontale. Informaţia comună va fi intersecţia dintre H (S1 ) şi
H (S2 , S3 ) , egalitatea I ( S1 , S2 ) = I ( S1 , ( S2 , S3 ) ) fiind îndeplinită.
Pentru relaţia 2, entropia condiţionată H (S1 | S2 ) este ilustrată cu linii
verticale în Fig. 1.7, aria fiind egală cu H (S1 , S2 ) − H (S2 ) . Entropia condiţionată
H (S1 | S2 , S3 ) va fi aria dată de H (S1 ) din care scădem aria comună dintre H (S1 )
şi H (S2 , S3 ) , rezultând aria haşurată orizontal, deci H (S1 | S2 ) = H (S1 | S2 , S3 ) .
De asemenea, mai putem scrie H (S1 | S2 , S3 ) = H (S1 , S2 , S3 ) − H (S2 , S3 ) .
S1 S2 S3
H ( S2 ) H (S1 | S2 )
H (S1 )
H (S2 , S3 )
H (S3 )
S1 S2 S3
H (S1 | S2 )
H (S1 )
H ( S1 | S3 )
H (S3 )
b) Dacă sursa are memorie de ordin 3, atunci probabilitatea de emitere a unui simbol
sn depinde numai de trei simboluri anterioare:
P(sn | sn−1 , , s2 , s1 ) = P(sn | sn−1 , sn−2 , sn−3 ) , pentru n 3 ,
rezultând relaţia pentru entropii condiţionate:
H (Sn | Sn−1 , , S2 , S1 ) = H (Sn | Sn−1, Sn−2 , Sn−3 ) , pentru n 3 .
Diagrama informaţională pentru lanţul Markov S1 → S2 → → Sn , cu memorie
de ordin 3 este ilustrată în Fig. 1.9.
S1 S2 S3 S4 S5 S6 Sn−1 S n
Rezolvare
Pentru început, observăm că distribuţia reunită de probabilităţi poate fi scrisă în
funcţie de distribuţiile condiţionate:
P(s1 , s2 , , sn ) = P(s1 ) P(s2 | s1 ) P(s3 | s2 , s1 ) P(s4 | s3 , s2 , s1 ) P(sn | sn−1, , s2 , s1 ) .
Prin definiţie, entropia reunită a acestor n v.a. este dată de:
H ( S1 , S2 , , Sn ) = − P( s j1 , s j2 , , s jn ) log P( s j1 , s j2 , , s jn ) .
j1 j2 jn
− P( s j1 , s j2 , , s jn ) log P( s j2 | s j1 ) −
j1 j2 jn
− P( s j1 , s j2 , , s jn ) log P( s jn | s jn−1 , , s j2 , s j1 ).
j1 j2 jn
Deoarece distribuţia de probabilităţi a unei v.a. Si se poate scrie ca o sumă după toţi
indicii diferiţi de ji din distribuţia reunită, obţinem:
H ( S1 , S 2 , , S n ) = − P( s j1 ) log P( s j1 ) − P( s j1 , s j2 ) log P( s j2 | x j1 ) −
j1 j1 j2
− P( s j1 , s j2 , , s jn ) log P( s jn | s jn−1 , , s j2 , s j1 )
j1 j2 jn
= H ( S1 ) + H ( S2 | S1 ) + H ( S3 | S 2 , S1 ) + + H ( S n | S n −1 , , S 2 , S1 )
= H ( Si | Si −1 , , S2 , S1 ).
i
Rezolvare
a) F.d.p. pentru distribuţia uniformă în intervalul (a, b) , este:
1 (b − a) , a x b
p( x) = ,
0, altfel
iar entropia diferenţială este:
1. Surse de informaţie 41
b
1 1
h( X unif ) = − p ( x) log 2 p( x)dx = − log 2 dx
− a
b−a b−a
log 2 ( b − a ) b
= dx = log 2 ( b − a ) .
b−a a
1 2
2 2
−
22 ln 2 −
xp ( x ) dx + p( x)dx
22 ln 2 −
1
2 2 2
= log 2 ( 22 ) + 2 2 − 2
1
+ 2
2 2 ln 2 2 ln 2 2 ln 2
− 2 1 2
= log 2 ( 22 ) + 2 2 = log 2 ( 22 ) + 2
1
2 2 ln 2 2 2 ln 2
= log 2 ( 22 ) + log 2 e = log 2 ( 22 e ) .
1 1 1
2 2 2
Observaţia 1: Integralele = xp( x)dx şi 2 = x 2 p( x)dx reprezintă media de
− −
ordin 1 (valoarea medie), respectiv media de ordin 2 a v.a. continue X, având f.d.p.
42 TEORIA INFORMAŢIEI ŞI A CODURILOR. APLICAŢII
p( x) . Cunoscând aceste două medii, dispersia se calculează ca fiind media de ordin 2
centrată, adică 2 = ( x − ) 2 p( x)dx = 2 − 2 .
−
Observaţia 2: Din relaţia calculată anterior a rezultat că entropia diferenţială a
sursei cu distribuţie gaussiană de medie şi dispersie 2 este
2 = 2 − 2 = − = .
3 2 12
În aceste condiţii, entropia h( X unif ) se poate scrie:
ba
h( X unif ) = log 2 ( b − a ) = log 2 122 .
Se observă că şi această entropie diferenţială se poate scrie în funcţie numai de
dispersie, observaţia 2 fiind valabilă şi pentru distribuţia uniformă.
Comparând entropiile diferenţiale pentru distribuţia uniformă şi pentru distribuţia
gaussiană se observă că în al doilea caz, entropia este mai mare:
log 2 ( 22 e ) = h( X gauss ) .
1
h( X unif ) = log 2 122
2
Generalizând şi pentru alte distribuţii (Rayleigh, Rician), se poate arăta că entropia
diferenţială în cazul distribuţiei gaussiene ia valori maxime. Datorită acestei proprietăţi
modelul canalului gaussian este des folosit în studiul sistemelor de comunicaţii.
h( S ) =
n
2
(
log 2 2 e n 1222 )
n2 .