Documente Academic
Documente Profesional
Documente Cultură
NOTE DE CURS
1
ENTROPIA
H X pi log ( pi )
i
2
ENTROPIA
Justificare: Fie S : X 1 , X 2 ,, X n
un sir tipic generat de sursa. Din numararea simbolurilor de acelasi fel
rezulta valorile n , n , , n
1 2 ni n
N
i
pS p1 p 2 p n
p1 p2
pn n
H(X)
1
1/2 1 p 5
ENTROPIA
4. Debit, redundanta, redundanta relativa
Definitie : Debitul de informatie al unei surse este cantitatea
medie de informatie generata pe secunda de sursa.
H X
H t X
Unitatea de masura pentru debit este bit/sec.
Definitie : Redundanta unei surse de informatie este:
R X H max X H X
Unitatea uzuala de masura este bit/simbol.
6
ENTROPIA
Definitie : Entropia maximă , Hmax, a unei surse
informaționale este
H max X log n
7
ENTROPIA
Definitie : Redundanta relativa a unei surse este
H max X H X
X
H max X
X 0 1
8
ENTROPIA
5. Entropia conjugata a doua surse de informatie
Fie doua surse de informatie:
X x1 , x2 ,, x N
p i 1
P p1 , p2 ,, p N i
si
Y y1 , y2 ,, yM
q 1
Q q1 , q2 ,, qM
i
i
Definitie : Entropia conjugata (sau compusa) a surselor X si
Y este H X ,Y
p xi , y j log p xi , y j
i j
Observatii:
Informatia conjugata este totdeauna pozitiva.Unitatea uzuala
de masura pentru informatia conjugata este bit/simbol
9
ENTROPIA
Cazuri particulare :
1. Daca sursele de informatie sunt independente :
H X , Y H X H Y
Demonstratia se bazeaza pe definitia v.a. independente:
pxi , y j pxi p y j
2. Daca sursele sunt identice:
H X , Y H X H Y
Daca sursele sunt dependente statistic:
H X , Y H X H Y
10
ENTROPIA
6. Informatia mutuala a doua surse
Definitie : Informatia mutuala a doua surse si este media
informatiilor mutuale a perechilor de simboluri x , y
i j
generate de surse:
pxi , y j
I X , Y p xi , y j log
i j p xi p y j
11
ENTROPIA
Cazuri particulare :
1. Daca X si Y sunt independente:
I X ,Y 0
2. Daca X si Y sunt identice:
I X , Y H X H Y
3. Daca X si Y sunt dependente statistic:
I X ,Y H X I X , Y H Y
12
ENTROPIA
Proprietăți:
I X , Y H X H Y H X , Y
1.
I X ,Y 0
Observatie:
H X y j p xi y j log p xi y j
i
H X Y 0
3. Daca X si Y sunt dependente statistic:
H X / Y H X
15
Surse de informație
Relatii intre entropii:
H X , Y H Y X H X
H X , Y H X Y H Y
H X / Y H X H X , Y H X H Y
16