Documente Academic
Documente Profesional
Documente Cultură
Seminar 2
1. Informația
Informaţia este un mesaj care aduce o precizare într-o problemă cu un anumit grad de
incertitudine. Există o mare diversitate de informaţie, atât din punct de vedere al formei de
prezentare, a conţinutului, a sursei care o generează, cât şi a modului de recepţionare.
Informația este intrinsecă, adică este independetă de context/mesaj, de aceea acesta trebuie
să fie codificată.
Exemplu de informație:
„Soarele răsare” – Informație codificată în limba română
„太阳升起” – Informație codificată în limba chineză
2. Codificarea informației
Codificare reprezintă procedeul de reprezentare a informației conform unui anumit format.
Se ştie că informaţia cel mai frecvent este codificată cu ajutorul cifrelor zecimale, literelor
alfabetului (caracterele majuscule şi minuscule) şi diverse semne speciale. Pentru a putea fi
prelucrată şi eventual transmisă cu ajutorul unui sistem de calcul, informaţia va fi codificată
binar.
3. Entropia informațională
Entropia informaţională măsoară cantitatea medie de informaţie dintr-un mesaj, unitatea
de măsură a informaţiei fiind bitul. Astfel se poate spune că entropia informaţională exprimată
în biţi reprezintă lungimea minimă pe care trebuie să o aibă un mesaj pentru a comunica
informaţia.
Conceptul a fost introdus de Claude Shannon în lucrarea sa din 1948 „O teorie
matematică a comunicației”.
𝑛
𝐻(𝑋) = ∑ 𝑝𝑖 ∗ log 2 𝑝𝑖
𝑖=1
unde:
• p(xk) reprezintă probabilitatea realizării evenimentului xk € X ;
• H(Y/xk) reprezintă entropia experimentului Y, condiţionată de evenimentul xk € X
𝑚
𝑦 𝑦
𝐻(𝑌⁄𝑥𝑘 ) = ∑ 𝑝( 𝑖⁄𝑥𝑘 ) ∗ log 2 𝑝( 𝑖⁄𝑥𝑘 )
𝑘=1
𝑦
iar p( 𝑖⁄𝑥𝑘 ) este probabilitatea realizării evenimentului elementar yi € Y (i = ̅̅̅̅̅̅
1, 𝑚) când s-
a realizat evenimentul xk € X (k = ̅̅̅̅̅
1, 𝑛 ).
Dacă X şi Y sunt experimente oarecare sunt respectate proprietăţile:
H(Y/X) ≤ H(Y)
H(X x Y) ≤ H(X) + H(Y)
H(X/Y) = H(Y/X) + H(X) - H(Y)
Exemple:
1. Să se determine entropia alfabetului limbii engleze.
Se consideră 26 de caractere, literele mici ale alfabetului.
Probabilitatea ca la destinatar sa apară litera: p(a) = 1/26, p(b) = 1/26, ... , p(z) = 1/26
26
1 1
𝐻(𝑋) = − ∑ ∗ log 2 = 4,7 𝑏𝑖ț𝑖
26 26
𝑖=1
6
1 1
𝐻(𝑋) = − ∑ ∗ log 2 = 2,58 𝑏𝑖ț𝑖
6 6
𝑖=1
b. Zarul prezintă următoarele probabilități de apariție a fețelor: p(1) = 1/2, p(2)
= 1/4, p(3) = 1/8, p(4) = 1/16, p(5) = 1/32, p(6) = 1/32
1 2 3 4 5 6
𝑋 = (1 1 1 1 1 1)
2 4 8 16 32 32
1 1 1 1 1 1 1 1 1 1
𝐻(𝑋) = − (2 ∗ log 2 2 + 4 ∗ log 2 4 + 8 ∗ log 2 8 + 16 ∗ log 2 16 + 2 ∗ 32 ∗ log 2 32) = 1,937 biți
1
𝑥−𝑦 =
3
1
𝑦−𝑧 =
3
1
{𝑧 + 𝑥 = 3
1
𝑥=
2
1
𝑦=
6
1
{ 𝑧 = −
6
b. Minimă
Entropia unui sistem este minimă când cel puțin unu dintre evenimentele sale
este sigur (celelalte evenimente ale sale fiind imposibile). Astfel se diting 3
cazuri:
1
𝑥=
𝑥−𝑦 =1 2
1
1. { 𝑦 − 𝑧 = 0 => 𝑦= − 2
𝑥+𝑧 =0 1
𝑧= −
{ 2
1
𝑥=
𝑥−𝑦 =0 2
1
2. { 𝑦 − 𝑧 = 1 => 𝑦= 2
𝑥+𝑧 =0 1
𝑧= −
{ 2
1
𝑥=
𝑥−𝑦 =0 2
1
3. { 𝑦 − 𝑧 = 0 => 𝑦= 2
𝑥+𝑧 =1 1
𝑧=
{ 2
5. Dintr-o urnă care conține 5 bile negre și 3 bile albe să se efectueze două extrageri
succesive, scoțându-se o bila la prima extragere și apoi încă o bilă (fară revenirea
primei bile extrase în urnă). Să se calculeze cantitatea medie de informație obținută:
a. În urma extragerii primei bile H(X)
Numărul total de bile: 3 + 5 = 8 bile
𝑥1 𝑥2
𝑋=(3 5)
8 8
3 3 5 5
𝐻(𝑋) = − ( ∗ log 2 + ∗ log 2 ) = 0,953 𝑏𝑖ț𝑖
8 8 8 8