Documente Academic
Documente Profesional
Documente Cultură
Complemente de Matematici
Entropia unui sistem informațional
1
Cuprins
Introducere 3
Exemplul 1 6
Exemplul 2 8
Concluzie 9
Bibliografie 9
2
Introducere
1. Sursele de informație
2. Canalele de informație
3
Inginerul Claude Shannon a introdus prima dată termenul de entropie
informațională prin asocierea a “n” evenimente echiprobabile de probabilitate
1/n a cantității de informație egală cu:
I (A) = − log 2 p
discreta .
4
Proprietățile entropiei:
1. H (p 1 , p 2 , ..., p n ) ≥ 0
Demonstrație:
Demonstratie:
n
Din p i = 1 si ∑ p i = 1 rezultă că:
i=1
p k = {1, k = i; 0, k =/ i }
Atunci
Demonstrație:
5
n
Fie p 1 , p 2 , ..., p n ≥ 0, ∑ p k = 1 si
k=1
n+1 n
p 1 , p 2 , ..., p n , p n+1 ≥ 0, ∑ p k = ∑ p k = 1 .
k=1 k=1
Afirmație: Dacă H (B|A) = 0 atunci I (A, B ) = H (B) deci realizarea lui A duce la
dispariția nedeterminării lui B ⇒ informația din B este maximă.
Exemplul 1
Presupunem ca avem trei cutii formate din 4 bile colorate în roșu sau verde. În
prima cutie știm că sunt toate bilele roșii, în a doua avem 3 bile roșii și una verde și în
ultima avem 2 roșii și 2 verzi.
Cerința:
6
Cum putem să deducem dacă ordinea bilelor după extragere va fi ordinea inițială din
cutie?
Notă: După fiecare extragere, bila este reintrodusă în cutie din locul din care a
fost luată.
Rezolvare:
Entropia fiind mică, este cert ca se va extrage o bilă de culoare roșie, așadar este
clar ca la finalul extragerii bilelor din prima cutie, culorile bilelor vor fi în
ordinea inițială.
p r = 0, 75, p v = 0, 25 ⇒
H (B) = 14 (− log 2 (0.75) − log 2 (0.75) − log 2 (0.75) − log 2 (0.25)) = 0.81125biți/simbol
Observăm că entropia este ceva mai mare comparativ cu prima cutie, deci
incertitudinea ca bilele extrase vor fi în aceeași ordine este mai mare, dar încă
moderată.
p r = 0, 5, p v = 0, 5 ⇒
H (C) = 14 (− log 2 0.5 − log 2 0.5 − log 2 0.5 − log 2 0.5) = 1biți/simbol
Din aceste rezultate deducem că entropia este mare în acest caz, rezultând
într-o incertitudine mare ceea ce înseamnă ca bilele extrase nu vor fi cu
siguranța în aceeași ordine de culoare ca în momentul inițial.
7
Exemplul 2
Se presupune un șir de 100 numere naturale începând cu 1.
Cerința:
Rezolvare:
Evenimentul .
1 1
Rezultă că H (A) =− 100
· 100 log 2 100 = log 2 100 = 6, 64 biți/simbol
Definim .
H (B k ) = log 2 3 = 1, 58 biți/simbol
6.64
H (A) ≤ k log 2 3 ⇔ log 100 ≤ k log 3 ⇒ k ≥ 1,58 ⇒ k ≥ 4, 20
În concluzie este nevoie de cel puțin 4 întrebări pentru a ghici cele 3 numere.
Concluzie
Entropia este esențială în teoria transmiterii informației pentru a putea
codifica și transmite mesajul în condiții optime. Așa cum probabil s-a observat
din exemplele din această lucrare, entropia crește întotdeauna în timp și ordinea
care poate fi la început se va degrada pe parcurs.
8
Bibliografie
[1] C. Șerbănescu, Complemente de matematici (notite curs)
[2]https://medium.com/udacity/shannon-entropy-information-gain-and-picking-
balls-from-buckets