Documente Academic
Documente Profesional
Documente Cultură
18
n
p ( s1 ∪ s2 ∪ ... ∪ sn ) = ∑ p ( sk ) = p ( E ) = 1 (1.1’)
k =1
19
Fig. 1.1. Reprezentarea grafică a informaţiei
F [ p ( sk ) ] = C ⋅ log p ( sk ) (1.8)
unde constanta C se va determina odată cu adoptarea unităţii de
măsură pentru informaţie.
Prin definiţie, se consideră că se obţine o unitate de
informaţie, atunci când o sursă discretă, completă şi fără memorie
poate furniza numai două mesaje echiprobabile.
Considerând în relaţia (1.8) logaritmul în baza doi şi ţinând
cont de definiţia unităţii de măsură a informaţiei, se poate scrie
1
i ( sk ) = F ⎡⎣ p ( sk ) ⎤⎦ = C log 2 = −C = 1 (1.9)
2
Unitatea de informaţie astfel definită se numeşte bit. Din
(1.9) rezultă că C = -l şi, deci, se poate scrie, în general, că informaţia
ataşată mesajului sk, furnizat cu probabilitatea p ( sk ) , se determină cu
relaţia
i ( sk ) = − log 2 p ( sk ) <biţi> (1.10)
Considerându-se din nou sursa discretă, completă şi fără
memorie caracterizată de distribuţia (1.2), informaţiile i ( sk ) ataşate
21
mesajelor sk , k = 1, n , conform relaţiei (1.10), determină o variabilă
aleatoare discretă, a cărei valoare medie statistică, prin definiţie, se
numeşte entropia sursei respective şi va fi notată în continuare cu
H(S). Se poate, deci, scrie relaţia
n
H ( S ) = i ( sk ) = ∑ p ( sk ) ⋅ i ( sk ) (1.11)
k =1
22
1.2. Principalele proprietăţi ale entropiei
sau
n m
H ( Sd ) = −∑ p ( sk ) log p ( sk ) + p ( sn ) log p ( sn ) − ∑ p ( y j ) log p ( y j )
k =1 j =1
23
m p( yj ) p( yj )
H ( S d ) = − H ( S ) − p ( sn ) ∑ log (1.20)
j =1 p ( sn ) p ( sn )
Deoarece
p( yj )
0≤ ≤1 (1.21)
p ( sn )
n p( yj )
şi ∑ p(s ) = 1,
j =1
(1.22)
n
rezultă că
m p( yj ) p( yj )
−∑ log ≥0 (1.23)
j =1 p ( sn ) p ( sn )
Din (1.20) şi (1.23) rezultă ce trebuia demonstrat, adică
H ( Sd ) ≥ H ( S ) (1.24)
3. Entropia unei surse discrete, complete şi fără memorie îşi
atinge valoarea maximă, atunci când mesajele sunt furnizate
echiprobabil.
Într-adevăr, fie sursa discretă, completă şi fără memorie
caracterizată de distribuţia (1.2), pentru care există relaţia de
legătură (1.1). Pentru a determina extremul entropiei acestei surse,
se va folosi metoda multiplicatorilor lui Lagrange (sau extremul cu
legături). Pentru aceasta, se defineşte funcţia.
⎡ n ⎤
Φ ⎡⎣ p ( sk ) ⎤⎦ = H ( s ) + λ ⎢ ∑ p ( sk ) − 1⎥ (1.25)
⎣ k =1 ⎦
unde λ este multiplicatorul lui Lagrange. Funcţia Φ ⎡⎣ p ( sk ) ⎤⎦
îşi atinge extremul odată cu funcţia H(S).
Condiţia necesară de extrem este
24
∂Φ ⎡⎣ p ( sk ) ⎤⎦
=0 (∀) k = 1, n (1.26)
∂p ( sk )
Înlocuind (1.12) în (1.25), relaţia (1.26) devine
− log p( sk ) − log e + λ = 0, (∀)k = 1, n (1.27)
de unde rezultă
p ( sk ) = 2λ −log e , (∀)k = 1, n (1.28)
Înlocuind (1.28) in (1.1), rezultă
n ( 2λ −log e ) = 1 (1.29)
de unde se obţine
e
λ = log (1.30)
n
Ţinând cont de (1.30), relaţia (1.28) devine
1
p ( sk ) = , (∀)k = 1, n (1.31)
n
Din (1.31) rezulta că extremul funcţiei φ ⎡⎣ p ( sk ) ⎤⎦ , deci şi a entropiei
H(S), se obţine atunci când mesajele sunt furnizate echiprobabil.
Valoarea acestui extrem se obţine înlocuind (1.31) în (1.12), adică
n
H (S ) 1 = −∑ p ( sk ) log p ( sk ) 1 = log n (1.32)
p ( sk ) = p ( sk ) =
n k =1 n
25
n
H ( S ) − log n = −∑ p ( sk ) log p ( sk ) − log n =
k =1
n n
1
∑
k =1
p ( sk ) log
p ( sk )
− log n ⋅ ∑ p ( sk ) =
k =1
(1.35)
n ⎡ 1 ⎤ n 1
= ∑ p ( sk ) ⎢log − log n ⎥ = ∑ p ( sk ) log
k =1 ⎣⎢ p ( sk ) ⎦⎥ k =1 n ⋅ p ( sk )
Pe de altă parte, este binecunoscută inegalitatea
ln z ≤ z − 1, z > 0 , (1.36)
a cărei reprezentare grafică este dată în Fig. 1.2.
1
Ţinând cont de 1.36 şi notând z = , relaţia (1.35) devine
n ⋅ p ( sk )
n
1
H ( S ) − log n ≤ log e∑ −1 (1.37)
k =1 n ⋅ p ( sk )
sau, echivalent,
26
⎡ n
⎤
H ( S ) − log n ≤ log e ⎢1 − ∑ p ( sk ) ⎥ = 0 (1.38)
⎣ k =1 ⎦
ceea ce demonstrează relaţia (1.34).
Prin definiţie, se numeşte redundanţă absolută a unei
surse, diferenţa dintre valoarea maximă a entropiei acesteia şi
valoarea ei reală. Notând cu RS , redundanţa absolută, conform
definiţiei, se poate scrie
RS = H max ( S ) − H ( S ) (1.39)
Prin definiţie, se numeşte redundanţă relativă a unei
surse, şi se va nota cu ρ S raportul dintre redundanţa absolută şi
valoarea maximă a entropiei, adică
RS H (S )
ρS = = 1− , (1.40)
H max ( S ) H max ( S )
Prin definiţie, se numeşte eficienţa unei surse, şi va fi
notată cu η s, raportul dintre entropia sursei şi valoarea maximă a
acesteia, adică
H (S )
ηS = , (1.41)
H max ( S )
Din (1.40) şi (1.41) , rezultă
ρS = 1 − ηS (1.42)
Pentru fixarea ideilor, se presupune o sursă discretă,
completă şi fără memorie, caracterizată de distribuţia
⎛s s2 ⎞
S :⎜ 1
p 1 − p ⎟ , 0 ≤ p ≤1 (1.43)
⎝ ⎠
Entropia acestei surse se calculează cu relaţia
H ( S ) = − p log p − (1 − p ) log (1 − p ) = H ( p ) (1.44)
Deoarece
27
lim [ x ⋅ log x ] = 0 (1.45)
x →0
28
1.3. Model matematic de sursă discretă, completă şi
fără memorie extinsă
σ 2 → s1s2 σ n+ 2 → s2 s2 σ n − n+ 2 → sn s2
2
..........................
σ n → s1sn σ 2 n → s2 sn σ n → sn sn
2
29
n2
H (S 2
) = −∑ p (σ ) log p (σ ) , k k (l .49)
k =1
unde
σ = σ k si , p (σ k ) = p (σ k ) p ( si ) ,
1 i
(1.54)
iar
σ k = si si ⋅⋅⋅ si ,(∀) si ∈ S
1 1 2 m j
(1.55)
Ţinând cont de (1.54), relaţia (1.53) se poate scrie, echivalent, sub
forma
nm n
H (S m +1
) = −∑∑ p (σ ) ⋅ p ( s ) log ⎡⎣ p (σ ) ⋅ p ( s )⎤⎦ =
k1 i k1 i
k1 =1 i =1
30
nm n n nm
k1 =1
( ) ( )
= −∑ p σ k1 log p σ k1 ⋅ ∑ p ( si ) −∑ p ( si ) log p ( si ) ∑ p σ k1 =
i =1 i =1 k =1
( )
= H ( S m ) + H ( S ) = mH ( S ) + H ( S ) = ( m + 1) H ( S )
(1.56)
32
S1 , din cele n m stări posibile, în coloana a doua, probabilităţile de
trecere în starea S 2 din cele n m posibile şi aşa mai departe, în
ultima coloană scriindu-se probabilităţile de trecere în starea S nm
din cele n m stări posibile, în felul acesta, matricea rezultată va fi
pătrată, de ordinul n m , de forma
⎡ p1,1 p1,2 p1,nm ⎤
⎢ ⎥
⎢ p2,1 p2,2 p2,nm ⎥
[T ] = ⎢ ⎥ (1.57)
⎢ ⎥
⎢p m pnm ,nm ⎥⎦
⎣ n ,1 pnm ,2
Matricea de trecere, [T], astfel întocmită, este stochastică,
adică suma elementelor de pe fiecare linie este egală cu unitatea,
deoarece cu certitudine dintr-o anumită stare se ajunge în una din
stările posibile.
Prin definiţie, sursa cu memorie se numeşte staţionară, dacă
probabilităţile de trecere pij , sunt invariante în timp.
33
⎡⎣ P ( t + 1) ⎤⎦ = ⎡⎣ p1 ( t + 1) p2 ( t + 1) ... pnm ( t + 1) ⎤⎦ (1.59)
Probabilitatea p j ( t + 1) ca sursă cu memorie să se afle la
momentul t+1 în starea Sj se poate determina multiplicând
probabilitatea pi ( t ) ca sursa să se afle la momentul t în starea Si cu
probabilitatea de trecere pij şi sumând apoi pentru toate cele n m stări
posibile Si , adică
m
n
p j (t + 1) = ∑ pi (t ) ⋅ pij , (∀) j = 1, n m (1.60)
i =1
∑p
k =1
k =1 (1.70)
i ( s j S k ) = − log p ( s j S k ) (1.78)
Deoarece din starea S k pot fi furnizate oricare din cele n mesaje
posibile cu probabilităţile p ( s j S k ) , j = 1, n , înseamnă că i ( s j S k )
determină o variabilă aleatoare discretă, ce poate lua valori cu
probabilităţile p ( s j S k ) . Valoarea medie a acestei variabile aleatoare
discrete reprezintă informaţia medie dată de starea S k şi va fi notată
cu i ( S k ) , adică
( ) ( ) ( )
n
i ( S k ) = i s j⏐S k = ∑ p s j⏐S k log p s j⏐S k (1.79)
j =1
( ) ( )
n
i ( S k ) = −∑ p s j⏐S k log p s j⏐S k (1.80)
j =1
( ) ( )
n
H = −∑∑ pk p s j⏐S k log p s j⏐S k (1.82)
k =1 j =1
38
Unele probabilităţi p (m j | S k ) pot fi zero, ceea ce semnifică
faptul că din starea Sk niciodată nu se poate furniza mesajul mj.
Fie p( Sk ∩ m j ) probabilitatea ca sursa să fie în starea Sk şi să
fie furnizat mesajul mj. Matricea
⎡ p ( S1 ∩ m1 ) p ( S1 ∩ m2 ) p ( S1 ∩ mn ) ⎤
⎢ p( S ∩ m ) p ( S 2 ∩ m2 ) p ( S 2 ∩ mn ) ⎥⎥
[ P( S , M )] = ⎢
2 1
(1.85)
⎢ ⎥
⎢ ⎥
⎣⎢ p ( S nm ∩ m1 ) p ( S nm ∩ m2 ) p ( S nm ∩ mn ) ⎦⎥
poate fi uşor obţinută din [P(M|S)], prin multiplicarea primei linii cu
p( S1 ) , a celei de-a doua cu p ( S 2 ) ş.a.m.d., a ultimei cu p ( S nm ) şi
ţinând cont de relaţia
p( Sk ∩ m j ) = p( Sk ) p(m j | Sk ) (1.86)
Probabilitatea p(mj) cu care sursa furnizează mesajul
m j , j = 1, n , poate fi atunci calculată cu relaţia
nm
p (m j ) = ∑ p (m j ∩ S k ), (∀) j = 1, m . (1.87)
k =1
nm
H ( S , m j ) = H (m j | S ) − ∑ p ( S k | m j ) log p ( S k ) =
k =1 (1.130)
= H ( S | m j ) − log p (m j )
46
n
I ( S k , M ) = − log p ( S k ) − ∑ p (m j | S k ) log p (m j ) − H ( S k , M ) =
j =1
n
− log p ( S k ) − H ( S k | M ) = −∑ p (m j | S k ) log p (m j ) − H ( M | S k )
j =1
(1.131)
m
n
I ( S , m j ) = −∑ p ( S k | m j ) log p ( S k ) − log p (m j ) − H ( S , m j ) =
k =1
m
n
−∑ p ( S k | m j ) log p ( S k ) − H ( S | m j ) = − log p (m j ) − H (m j | S )
k =1
(1.132)
49