Documente Academic
Documente Profesional
Documente Cultură
Definiie
Entropia H a unei variabile discrete X cu valorile {x1, ..., xn} i funcia de probabilitate p :
(1)
iar dac X este continu, avnd funcia de distribuie f(x):
unde b este o baz pentru logaritmi, real i supraunitar (de obicei 2, caz n care unitatea de msur
a informaiei se numete bit, sau e, caz n care ea se numete nat).
Exemplu
Presupunem evenimentul aruncrii unui zar cu 6 fee. Valorile variabilei X sunt {1,2,3,4,5,6} iar
probabilitile obinerii oricrei valori sunt egale. Entropia este:
.
Pentru o populaie discret cu valorile {1,2,3,4,5,6} cu probabilitile respectiv
Proprieti
Aditivitate
Logaritmul este folosit n calculul entropiei pentru a pemite adunarea incertitudinii unor variabile
independente.
De exemplu, considernd X i Y doua evenimente independente, distribuite uniform, cu
respectiv
posibile rezultate perechea (X,Y) va avea
rezultate echiprobabile
. Entropia perechii (X,Y) se calculeaz:
(2)
Astfel, entropia perechii este egal cu suma entropiei celor dou evenimente luate separat.
Proprietatea aditivitii implic faptul c entropia se menine constant indiferent dac mulimea
rezultatelor/procesul este privit ca ntreg sau ca sum a unor submulimi / procese.
Schimbarea de baz
Entropia poate fi calculat folosind diferite baze ale logaritmului. nmulirea logaritmilor are
proprietatea:
Entropia calculat in baza
baza 2.
.
va fi egal cu
Continuitate
Entropia este o funcie continu. Unei modificari infinitezimale a probabilitilor corespunde o
modificare asemntoare a entropiei.
Simetrie
Valoarea entropiei rmne neschimbat daca se schimb ordinea variabilelor xi.
etc.
Maximum
Entropia, incertitudinea atinge o valoare maxim dac evenimentele sunt echiprobabile.