Documente Academic
Documente Profesional
Documente Cultură
18
19
0, q, 2q....nq .
n
X n
X
H(X) = p(xi )i(xi ) = − p(xi ) log p(xi ) (2.2)
i=1 i=1
p(xin,n |xin−1 ,n−1 , xin−2 ,n−2 .....) = p(xin,n |xin−1 ,n−1 , xin−2 ,n−2 ...xin−k ,n−k )
(2.4)
unde in ∈ [1, 2, ...D], p(xin,n ) reprezentând probabilitatea ca la mo-
mentul n s e emis simbolul xin .
rezultatul ind: w = [ 23 , 31 ].
22
În practic situat, iile în care întâlnim surse nestat, ionare sunt ne-
numarate. Cele mai frecvente exemple sunt cele în care sursa de
informat, ii (sau sursa de date) este compus dintr-o mult, ime de alte
surse distincte, de exemplu: un document cu mai mult, i autori, un s, ier
multimedia, o înregistrare audio într-o încapere cu mai mult, i vorbi-
tori, o serie de pachete distincte trimise printr-un canal de comunicat, ii.
În general abord rile pentru astfel de situat, ii încearc s realizeze se-
pararea acestor surse s, i modelarea mesajului sursei principale ca o
concatenare de s, iruri produse de surse stat, ionare.
r
X
H∞ (X) = wj H(Sj ) (2.7)
j=1
23
unde r este num rul de st ri prin care poate trece sursa, w = [w1 , ...wr ]
este vectorul distributiei de echilibru iar H(Sj ) este entropia corespun-
,
1. Entropia sursei:
n
X
H(X) = − p(xi ) log2 p(xi ) [biti/simbol] (2.8)
i=1
H(X)
Hτ (X) = [biti/secunda] (2.10)
τ̄
τ̄ ind durata medie de aparit, ie a unui simbol
n
X
τ̄ = p(xi )τ (xi ) [secunde] (2.11)
i=1
24
H(X)
ρX = 1 − (2.13)
Hmax (X)
6. Ecient, a sursei:
H(X)
ηX = (2.14)
Hmax (X)
function H = entropie(X);
% X vectorul ce contine probabilitatile simbolurilor
H = - sum(X.*log2(X));
25
Redundanta=Hmax-H
Eficienta=H/Hmax
clear all
clc
n=8 % numarul de simboluri al sursei
Xsimboluri=1:n % vector ce contine simbolurile sursei
Xprobabilitati =[1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64]
Hmax=log2(n) %entropia maxima a sursei
H=entropie(Xprobabilitati)
Redundanta=Hmax-H
Eficienta=H/Hmax
Aplicatie 2.3.
, Fie experimentul arunc rii monedei modelat de sursa
discret f r memorie X ce emite dou simboluri X = [cap, pajura],
cu probabilit t, ile PX = [1 − p, p]. Scrieti în Matlab secventa de cod ce
, ,
Aplicatie 2.4.
, Fie o surs S ce emite trei simboluri [S] = [X, Y, Z]
cu probabilit tile [PS ] = [0.5, 0.3, 0.2]. Calculati num rul maxim de
, ,
Aplicatie 2.5.
, Fie sursa X ce a emis mesajul " The quick brown fox
jumps over the lazy dog!". Identicat, i cont, inutul de informat, ie pe
liter din mesajul dat s, i reprezentat, i grac distribut, ia de probabilit t, i
a simbolurilor emise de surs .
crete cu memorie
Fie o surs cu memorie cu n st ri. Matricea probabilit t, ilor de
tranzit, ie este o matrice p tratic , P, suma ec rei linii ind egal cu
1. Pentru a demonstra modul de funct, ionare al unei astfel de surse cu
memorie vom folosi în continuare câteva exemple, pornind de la cea
mai simpl surs cu memorie, sursa Markov cu 2 stari.
Aplicatie 2.6.
, Fie sursa discret cu memorie descris de graful
probabilit t, ilor de tranzit, ie din Fig. 2.6.
[evecs,evals]=eig(P');
p_st=evecs(:,1) ./ sum(evecs(:,1));
disp(sprintf('Distributia de probabilitati la
stationaritate:'))
display (p_st);
%verificarea starii de stationaritate
p_st'*P
display(p_st*P)
Aplicatie 2.7.
, Fie sursa discret cu memorie descris de graful de
tranzit, ii din Fig. 2.7. Considerând distribut, ia de probabilit t, i a st rii
init, iale s = [0 1 0], scriet, i codul Matlab ce calculeaz probabilit t, ile
de transmisie ale simbolurilor dupa 10 pas, i s, i identicat, i distribut, ia
de echilibru a sursei.
dividuale:
16 S
, 0.0133 6.2324 HL2(X) = 4.2021 biti/simbol
N
X
H(X) = − p(xi ) · p(yj /xi ) · log2 p(yj /xi )
i,j=1
cice limbii române, are ca efect sc derea informat, iei medii pe simbol
c tre valoarea real a entropiei limbii române [9]:
Aplicatie 2.8.
, Pornind de la not, iunile introduse în Lucrarea 1 -
1
Sect, iunea 1.2.5 realizat, i o secvent, de cod care s calculeze entropia
ec rei surse de informat, ie ce a emis imaginile din Fig. 2.9.
1
Entropia unei imagini se calculeaza folosind functia entropy din Matlab.
35