Documente Academic
Documente Profesional
Documente Cultură
1. Introducere.
Canal
figura 1.1
3
Tabel 1.1
Eveniment Probabilitatea Cod1 Cod2
A 1/2 00 0
B 1/4 01 10
C 1/8 10 110
D 1/8 11 111
1 1 1 1 7
Cod 2 → n2 1 2 3 3 biti de cod
2 4 8 8 4
Evident, cel de al doilea cod este mai compact (mai economic) în
raport cu primul având o medie a cuvintelor de cod mai mică.
Problema minimizării lungimii medii va fi analizată ulterior.
1
În cadrul lucrării vom nota log subînţelegând logaritmarea în baza doi.
8
1
cazul considerat transmitem numai unităţi de informaţie pe simbol
n
transmis pe canal. Este normal într-o astfel de situaţie să analizăm
cum putem realiza un compromis între eficienţă şi fiabilitate.
v) Fiind dat un canal perturbat cum putem maximiza
eficienţa transmisiei pentru o rată de eroare pe fiecare
simbol informaţional cât mai mică.
Reluăm exemplul anterior prezentat în care simbolurile 0 şi 1 se
transmit pe canal prin triplare simbolului informaţional. Prin
urmare 0 000 şi 1 111 . Considerăm că în urma apariţiei
perturbaţiilor semnalul este recepţionat corect cu probabilitatea 0.9 şi
eronat cu probabilitatea 0.1 (canal binar simetric). Un semnal va fi
intercepta şi interpretat eronat dacă sunt afectaţi doi sau trei biţi. Prin
urmare rata de eroare pentru o astfel de situaţie va fi:
C32 0.1 0.9 C33 0.1 0.028
2 3
1 1
iii) Vom arăta că pentru n N I C log
n n
Conform proprietăţilor impuse:
1 1
n, m N cu n m I I
n m
1 1 1
n, m N I I I
mn n m
Deducem cu uşurinţă aplicând rezultatele remarcate:
1 1
I k k I pentru n, k N
n n
O inegalitate cunoscută permite ca pentru r N fixat şi
n N să determinăm k N astfel ca
n k 2 r n k 1
Utilizând inegalitatea prezentată şi ţinând cont că funcţia I ()
este descrescătoare obţinem:
1 1 1
I k I r I k 1
n 2 n
şi deci
1 1 1
k I r I k 1 I
n 2 n
1
Cum I I 1 0
n
1
I
k 1
k 2
r 1 r
I
n
12
şi deci
r 1 1
I p I I I
s s r
Cum r, s N , pe baza rezultatelor obţinute la pasul anterior
s
I p C log s C log r C log
r
I p C log p
iii) Rămâne să demonstrăm că relaţia I p C log p este valabilă
pentru oricare p 0,1 . În baza continuităţii admise
I p lim I a lim C log p
a p b p
a rational b rational
2.1.2 Entropia.
1
p1 p2 .... pn
n
iar valoarea maximă a entropiei obţinută în cazul evenimentelor
echiprobabile va fi
15
n
1 1
H max log log n
i 1 n n
Prin urmare
H X H max log n
n m n m n m
H X , Y nkl log nkl pk ql log pk ql pk log pk ql
k 1 l 1 k 1 l 1 k 1 l 1
n m
pk ql log ql H X H Y
k 1 l 1
Prin urmare entropia în cazul evenimentelor independente
entropia evenimentului cumulat va fi:
H X ,Y H X H Y
Lucrurile se schimbă dacă evenimentele sunt dependente.
Astfel, dacă fixăm evenimentul xk X apariţia unui eveniment din Y
este supusă unei probabilităţi condiţionate după schema :
y y2 ym
xk 1
qk 1 qk 2 qkm
k 1 k 1 l 1
n m n m
H X , Y nkl log nkl pk qkl log pk qkl
k 1 l 1 k 1 l 1
n m n m
pk qkl log pk pk qkl log qkl
k 1 l 1 k 1 l 1
pk log pk qkl pk qkl log qkl H X H Y X
n m n m
k 1 l 1 k 1 l 1
H Y X PX x PY X y x log PY X y x
x X x ,u X Y
Relaţia de definiţie mai poate fi scrisă în forma :
18
H Y X PX x H Y X x PX ,Y x, y log PY X y x
xX x , y X Y
E log PY X Y X
n
n t
i 1
i
f t i
f i i
i 1
Egalitatea se impune în cazul şi numai în cazul t1 t 2 ... t n .
n
ai n ai
ai log ai log n
bi i 1
i 1
i 1
b i 1
i
j 1 j 1 j 1
sau
n
1 ai 1 n ai
ai log n ai log n
i 1
b j i 1
n
bj
j 1
bi
bi j 1 i 1
PX Y x y PY y PX ,Y x, y
PX ,Y log PX ,Y x, y log
x , y X Y
PX x PY y x , y X Y
PX x PY y
P x. y X ,Y
PX ,Y x, y log x , y X Y
0
x , y X Y P x P y
x , y X Y
X Y
Prin urmare:
H X Y H X
egalitatea este posibilă în cazul evenimentelor independente.
20
X
1 2 3 4
Y
1 1 1 1 1
8 16 32 32
2 1 1 1 1
16 8 32 32
3 1 1 1 1
16 16 16 16
4 1 0 0 0
4
Distribuţia marginală pentru X este 1 2 , 1 4 , 18 , 18 iar distribuţia
7
entropiile celor două câmpuri de evenimente H X biţi şi
4
H Y 2 biţi. Putem calcula :
21
H X Y pY i H X Y i
4
i 1
1
4
2 4 8 8 4
1
H 1 , 1 , 1 , 1 H 1 , 1 , 1 , 1
4 2 8 8
1
4
4 4 4 4 4
1
H 1 , 1 , 1 , 1 H 1 , 0 , 0 , 0
1 7 1 7 1 1 11
2 0 biti
4 4 4 4 4 4 8
H Y X
13
În mod similar determinăm biti . Entropia
8
evenimentului cumulat va fi :
H X , Y H X H Y X
7 13 27
biti
4 8 8
2.2 Informaţia mutuală.
Lema.
PX ,Y x, y
1. I X ;Y PX ,Y x, y log
xX yY PX x PY y
2. I X ;Y I Y ; X
3. I X ;Y H X H Y H X ,Y
4. I X ;Y H X inegalitatea se transformă în egalitate numai
dacă X f Y pentru f oricare.
5. I X ;Y 0 inegalitatea se transformă în egalitate numai dacă X
şi Y sunt independente.
D X , X 0
D X , Y D Y , X
D X , Z D X , Y D Y , Z 2
2
Demonstraţia , altfel foarte simplă , poate fi făcută de cititorii interesaţi.
23
x x2 xn
X 1
p x1 p x2 p xn
3
Inegalitatea lui Gibbs.
24
i 1
y y2 yn
Y 1
p y1 p y 2 p y n
va fi caracterizată de entropia:
H Y p y j log p y j
n
j 1
i j j
j 1 i 1
i 1 j 1
25
p xi y j ppxy, y i j
p x p x p y p y
n n
i si j
i 1 xX j 1 yY
pxi , y j px, y
p y j xi p y x
p y j p y
asupra lui X când se cunoaşte Y. Din acest motiv această entropie mai
este denumită echivocaţie . Entropia H Y X reprezintă incertitudinea
asupra câmpului din recepţie Y când se cunoaşte emisia prin câmpul X
. Din acest motiv ea este cunoscută şi ca entropie de dispersie sau
irelevanţă.
Din punct de vedere a transmisiei de informaţie cea mai interesantă
relaţie între entropii este :
I X ,Y H X H X Y
unde I X ,Y caracterizează cantitatea de informaţie medie ce trece
prin canal şi reprezintă valoarea medie a informaţiei ce se obţine
asupra câmpului de intrare (emisie ) X prin cunoaşterea recepţiei Y ;
uzual este definită ca transinformaţie.
Valoarea maximă a transinformaţiei se numeşte capacitatea
canalului , C max H X H X Y
relaţie în care maximizarea se va face după setul de probabilităţi cu
care se presupune că sunt utilizate simbolurile x1 , x2 ,...xn . În relaţia
prezentată capacitatea canalului se măsoară în biţi. Unii autori
definesc capacitatea canalului prin raportare la timp :
C max I X , Y
Ct
unde reprezintă durata medie a unui simbol transmis . În acest caz
capacitatea se măsoară în biţi/secundă.
Diferenţa dintre capacitatea canalului şi transinformaţie se defineşte
ca redundanţa canalului , exprimată absolut în forma:
RC C I X ,Y
sau prin valoarea relativă:
27
I X ,Y
C 1 1 C
C
I X ,Y
unde termenul C reprezintă eficienţa canalului indicând
C
cât de mult se apropie transinformaţia de valoarea maximă.
În mod similar , se poate defini o redundanţă a sursei ca diferenţă
dintre valoarea maximă a entropiei sursei şi valoarea ei reală :
RS H max X H X
sau în valori relative :
H X
S 1
H max X
Presupunând că simbolurile unei surse sunt emise cu o viteză fixă
VS vS H X biti
sec .
transmise anterior.
Dacă vom nota pi j p y j xi , legea de tranziţie va fi
caracterizată de matricea :
29
p1 1 p1 2 p1 m
p2 1 p2 2 p2 m
p 1 p 2 pn m
n n
m
m j 1
C max H Y H Y X H 1 ,1 m ,... 1 pi j log pi j
m
C log m pi j log pi j
m
j 1
Dt H X H X Y vS I X ,Y vS
Erorile care apar în procesul transmiterii informaţiei într-un canal
binar pot fi singulare sau grupate în pachete. Pentru o caracterizare
statistică completă a unui canal trebuie luaţi în considerare următorii
parametrii :
probabilitatea de eroare a unui simbol
repartiţia intervalelor fără erori
probabilitatea apariţiei pachetelor de erori de o anumită
lungime
repartiţia erorilor multiple într-o secvenţă de o anume lungime
Complexificarea modelelor asociate canalului conduce la evaluări
cantitative mult superioare modelului prezentat dar cu dificultăţi
serioase în abordare.
32
3. Codificarea informaţiei.
3.1 Definiţii.
Definiţia 1. Fie A un ansamblu discret şi N un întreg pozitiv.
Vom reprezenta prin AN un N- uplu ordonat de elemente din A :
A N x1 , x2 ,....x N xi A
x c x
Vom nota C X ansamblul tuturor cuvintelor de cod asociate
valorilor sursei :
C X c 0,1 x X , c c x
Definiţia 3. Cod binar extins C . Fie X i X , i 1,2,... simbolurile
emise de către o sursă şi C un cod asociat acestei surse. Codul extins
33
C : X 0,1
0 1
0 1 0 1
1 0 1 0 1 0
k max l cx
xX
2 l c x 1
xX
c x1 0....0 0 ,1
n x1
Demonstraţie.
38
2 l c x
qC x x X
2 l c x
xX
Demonstraţie.
Notăm :
s 2 l c x 1
xX
2 qC x s l c x log qC x log s
l c x
4
În demonstraţie ne bazăm pe inegalitatea x x 1
39
p x l c x p x log p
1
R LC X H X
xX x
p x log qC x log s p x log p x
xX xX
R D p qC 0
D p qC 0 qC x p x
ceea ce implică :
l c x log
1
, x X
p x
Teorema. Codarea surselor cu ajutorul codurilor bloc.
40
H X n n H X .
LC X n H X n 1 n H X 1
LC X
LC X n HX 1
n
n n
Dacă alegem n astfel ca :
1
n
codul considerat satisface condiţia impusă.
111
1
1 0
110
0
10
1
0
0
H X 1.75 L C 2 H X 1 2.75
Exemplu 3. Pentru sursa considerată în exemplu 1 considerăm
următoarea schemă de codare :
c 1 0, c 2 1, c 3 00, c 4 11.
Lungimea medie a cuvintelor de cod va fi :
1 1 1 1 5
L C 1 1 2 2 1.25
2 4 8 8 4
Pentru acest cod lungimea medie a cuvintelor de cod este mai mică
decât entropia sursei :
L C 1.25 H X 1.75
134213 0011111010011
este unic decodabilă.