Documente Academic
Documente Profesional
Documente Cultură
Evenimente importante
S - evenimentul sigur (cert)
Φ - evenimentul imposibil
Exista si evenimente elementare pentru care A = {ξ }
(i) P ( A) ≥ 0
(ii) P( S ) = 1
(iii) evenimentele mutual exclusive A ∩ B = Φ ⇒ P( A ∩ B) = P( A) + P ( B)
(iv) aditivitatea infinita
Ai ∩ A j = Φ i ≠ j i , j = 1, , n, ⇒ P( A1 + + An + ) = P( A1 ) + + P( An ) +
Corolare
(i) P(Φ ) = 0
(ii) P ( A) = 1 − P ( A ) ≤ 1
(iii) P( A ∪ B) = P( A) + P( B) − P( A ∩ B) ≤ P( A) + P( B)
Observatie
A - multimea complementara multimii A fata de S.
Probabilitatea conditionata
P( A ∩ B)
P( A B ) = daca P( B) > 0
P( B )
#1-1
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
Observatii
(a) daca A∩ B = Φ ⇒ P( A B ) = 0
P( A)
(b) daca A⊂ B ⇒ A∩ B = A ⇒ P( A B ) = ≥ P( A)
P( B)
(c) daca B⊂ A ⇒ A∩ B = B ⇒ P( A B ) = 1
P ( A ∩ B ) = P( A B ) P ( B ) P( B) > 0
sau
P( A ∩ B) = P( B A) P( A) P( A) > 0
P( A ∩ A ∩ A) = P( A1 ( A2 ∩ ∩ An )) ⋅ P( A2 ( A3 ∩ ∩ An ) ) ⋅ ⋅ P( An − 1 An ) P( An )
P( B A) ⋅ P( A)
(e) P( A B ) =
P( B)
Evenimente independente
P( A ∩ B) = P( A) P( B)
P( A ∩ B) = P( A) P( B)
P( A ∩ C) = P( A) P(C)
P( B ∩ C) = P ( B ) P( C) si
P( A ∩ B ∩ C ) = P ( A) P ( B ) P ( C )
(i) P( A ∪ B) = P( A) + P( B) − P( A) P( B)
(ii) P ( A ∩ B ) = P( A ) P ( B )
#1-2
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
(i) P Ai ∑ P( Ai )
i i
Observatie
n m
(iii) 1= ∑ ∑ P( A ∩ i )
B j daca evenimentele Ai , B j i = 1, , n ; j = 1, , m sunt
i= 1 j= 1
mutual exclusive.
2. CANTITATEA DE INFORMATIE
O functie continua de variabila p k care satisface proprietatile (i)-(iv) este functia logaritmica.
#1-3
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
1
I (mk ) = log = − log pk
pk
T1
T2
se definesc
(a) rata de biti=(durata unui bit)-1 =1/T2 exprimata in biti/secunda (abreviat bps).
(b) rata de bauds=(durata minima intre doua modificari ale semnalului) =1/T1 exprimata in
bauds.
Problema 1
Se considera o trasmisie fax : 2,25⋅106 pixeli cu 12 tonuri de gri, echiprobabile. Care este
cantitatea de informatie transmisa ?
Solutie
I=nr.elemente ⋅ informatie per element=
1
= 2 ,25 ⋅ 106 ⋅ − log 2 = 2 ,25 ⋅ 106 ⋅ log 2 2 2 ⋅ 3 = 2 ,25 ⋅ 106 ( 2 + log 2 3) [ biti]
12
Problema 2
Solutie
#1-4
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
1
(b) τ =
fc
I
R = = I ⋅ f c [bps]
τ
Problema 3
Solutie
I 4 log 2 4
(a) R= = = 1,6 [ kbps]
τ 5 ⋅ 10− 3
1
(b) rbauds = − 3 = 103 [ baud] = 1 [ kbaud]
10
Problema 4
Fie 12 monede dintre care una este falsa (mai usoara sau mai grea decat celelalte). Se cere sa
se deterrmine numarul minim de cantariri necesar depistarii monedei false si precizarii daca ea este
mai usoara sau mai grea. Se foloseste pentru cantariri o balanta fara mase marcate.
Solutie
1
I1 = log 2 = log 2 12
cantitatea de informatie necesara determinarii monedei false este 1
12
cantitatea de informatie necesara pentru a decide daca moneda este mai grea sau mai usoara este
1
I 2 = log 2 = log 2 2
1
2
cantitatea de informatie totala necesara a fi determinata I = I1 + I 2 = log 2 24
cantitatea de informatie furnizata de o cantarire (exista 3 stari ale balantei)
1
I 3 = log 2 = log 2 3 ⇒
1 numarul minim de cantariri I ≤ kI 3 ⇒ 24 ≤ 3k ⇒ k = 3.
3
sa se propuna un algoritm de depistare.
Problema 5
#1-5
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
nivel 3:1/8
Solutie
1 1 1 1 1 1 1
R = r⋅ H = ⋅ − log − log − 2 ⋅ log
5 ⋅ 10− 3 2 2 4 4 8 8
Se reaminteste ca entropia unei surse reprezinta numarul mediu de biti/simbol si ca entropia este
maxima pentru o sursa care genereaza simboluri echiprobabile Hmax = log 2 n .
Problema 6
Sa se determine capacitatea unui canal binar cu zona de anulare avand graful asociat
matricei de tranzitie din figura de mai jos
Solutie
Acest model descrie un canal care perturba simbolurile unei surse binare in masura in care la
receptie sa poata fi interpretate ca fiind incerte.
Metoda scalara
[
C = max H (Y ) − H ( Y X )
p ( xi )
]
3
H (Y ) = − ∑ p( yi ) log p( yi )
i= 1
p( y1 ) = p( y1 x1 ) p( x1 ) + p( y1 x2 ) p( x2 ) = p( y1 x1 ) p( x1 ) = (1 − q ) p( x1 )
S-a utilizat formula probabilitatii totale, evenimentele x1, x2 fiind mutual exclusive.
Analog se poate scrie
p( y 2 ) = (1 − q ) p( x 2 )
p( y3 ) = p( y3 x1 ) p( x1 ) + p( y3 x2 ) p( x2 ) = q( p( x1 ) + p( x2 ) ) = q ⋅ 1 = q ⇒
#1-6
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
2 3
H( Y X ) = − ∑ ∑ (
p( xi , y j ) log p y j x i )
i= 1 j= 1
(
p( xi , y j ) = p y j xi p( xi ))
Din graf se deduce ca
p( y1 x1 ) = 1 − q p( y1 x2 ) = 0
p( y2 x1 ) = 0 p( y2 x2 ) = q
p( y3 x1 ) = q p( y3 x2 ) = 1 − q
Se obtine
H ( Y X ) = − (1 − q ) log(1 − q ) − q log q
C = (1 − q ) max H ( X ) = (1 − q ) ⋅ 1 = 1 − q
p ( xi )
Metoda matriciala
P(Y ) = P( X ) ⋅ P( Y X )
Observatie
In matricea de tranzitie (zgomot) liniile sunt asociate intrarilor iar coloanele sunt asociate iesirilor.
Matricea campurilor reunite (joint) este
p ( x1 ) 0 0
0 p( x 2 ) 0
P( X , Y ) = P( Y X )
0 p( x n )
Matricea de zgomot P( Y X ) se poate obtine prin impartirea fiecarei linii i prin p(xi).
#1-7
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
Matricea de echivocatie P( X Y ) se poate obtine prin impartirea fiecarei coloane j prin p(yj) .
Problema 7
2 / 3 1 / 3
Fie matricea de tranzitie P( Y X ) = si p(x1)=3/4 si p(x2)=1/4.
1 / 3 2 / 3
Se cere sa se calculeze
(a) entropia campului de intrare
(b) entropia campului de iesire
(c) entropia campurilor reunite
(d) eroarea medie
(e) echivocatia
(f) transinformatia
(g) capacitatea canalului si setul optim la intrare
(h)eficienta si redundanta relativa a canalului
Solutie
2
3 3 1 1 3
(a) H ( X ) = − ∑ p( xi ) log p( xi ) = − log + log = 2 − log 3 ≅ 0,81 bit / simbol
i= 1 4 4 4 4 4
(b) H (Y ) = − ∑ p( y j ) log p( y j )
j= 1
2 / 3 1 / 3
P(Y ) = [ 3 / 4 1 / 4] = [ 7 / 12 5 / 12]
1 / 3 2 / 3
7 7 5 5
H (Y ) = − log + log = 0,98 bit / simbol
12 12 12 12
( )
2 2
(c) H( X Y ) = − ∑ ∑ p( xi , y j ) log p xi y j
i= 1 j= 1
3 / 4 0 2 / 3 1 / 3 1 / 2 1 / 4
P( X , Y ) = =
0 1 / 4 1 / 3 2 / 3 1 / 12 1 / 6
1 1 1 1 1 1 1 1
H ( X , Y ) = − log + log + log + log = 1,73 bit / simbol
2 2 4 4 12 12 6 6
2 2
(d) H( Y X ) = − ∑ ∑ ( )
p( xi , y j ) log p y j x i = 0,92 bit / simbol
i= 1 j= 1
sau H( Y X ) = H ( X ,Y ) − H ( X )
#1-8
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
( )
2 2
(e) H( X Y ) = − ∑ ∑ p( xi , y j ) log p xi y j
i= 1 j= 1
unde
1 1
2 4
7 5 6 3
12 12 7 5
P( X Y ) =
=
1 1 1 2
12 6 7 5
7 5
12 12
1 6 1 3 1 1 1 2
si H ( X Y ) = − log + log + log + log = 0,75 bit / simbol
2 7 4 5 12 7 6 5
sau H ( X Y ) = H ( X , Y ) − H (Y )
1 1 1 1
C = log 2 + 1 − log 1 − + (2 − 1) log = 0,082 bit / simbol
3 3 3 3
[
C = max H (Y ) − H ( Y X )
p0 ( xi )
]
2 1
p ( y1 ) = p 0 ( x1 ) + p 0 ( x 2 )
3 3
1 2
p( y 2 ) = p0 ( x1 ) + p0 ( x 2 )
3 3
2 2 2 2
H( Y X ) = − ∑ ∑
i= 1 j= 1
( )
p( xi , y j ) log p y j x i = − ∑ ∑ p( y x ) p ( x ) log p( y
i= 1 j= 1
j i 0 i j )
xi =
2 2 1 1 2 2 1 1
= − log + log ( p0 ( x1 ) + p0 ( x 2 ) ) = − log + log
3 3 3 3 3 3 3 3
2 2 1 1
deci H ( Y X ) nu depinde de P( X ) ⇒ C = max H (Y ) + log + log
p0 ( xi ) 3 3 3 3
#1-9
www.cartiaz.ro – Carti si articole online gratuite de la A la Z
1
dar max H (Y ) = log 2 = 1 ⇔ p( y1 ) = p( y 2 ) = ⇒
p0 ( xi ) 2
p( y1 ) = p( y1 x1 ) p0 ( x1 ) + p( y1 x 2 ) p0 ( x 2 )
( )
p( y2 ) = p( y2 x1 ) p0 ( x1 ) + p y2 x 2 p0 ( x 2 )
1
⇒ p0 ( x1 ) = p0 ( x 2 ) = .
2
Observatie
I ( X ,Y)
(h) η (C ) = = 0,73
C
Problema 8
0,4 ?
Fie un canal binar simetric avand matricea campurilor reunite P( X , Y ) = si
? 0,4
pentru care sursa genereaza simboluri echiprobabile.
(a) Calculati matricea P( X , Y ) .
(b) Calculati matricea de zgomot.
(c) Calculati transinformatia.
Solutie
0,4 0,1
1/ 2 1 / 2 0,8 0,2
(b) P( Y X ) = =
0,1 0,4 0,2 0,8
1 / 2 1 / 2
#1-10