Documente Academic
Documente Profesional
Documente Cultură
Tabla de materii
semnale + perturbatii
S canal R S = sursa de mesaje;
R = receptor;
P = sursa de perturbatii
mesaje (inf) perturbatii
P
S canal DC DS R
CS CC mod demod
GP P GLP
Mes. codat si mod.
7 Aplicatie 7
CS = codare sursa DS = decodare sursa
6 Prezentare 6
CC = codare canal DC = decodare canal
Mod = modulator DM = demodulator 5 Protocol 5
GP = gen. purt. GLP = gen. loc. purt. 4 Transport 4
3 Retea 3
Modularea = modificarea parametrilor 2 Leg. date 2
purtatoarei de catre mesaj (codat)
1 Leg. fizica 1
MIA
MID
impulsuri
(transmisiuni multiple: MIP, MIF
telefonie, sist. telemetrice)
Criterii de fidelitate
1. Formularea problemei
• Daca se urmareste un experiment care poate conduce la mai multe
rezultate, asupra realizarii fiecaruia din rezultate planeaza o
anumita incertitudine; incertitudinea este eliminata in momentul
aflarii rezultatului; exemple de experimente: aruncarea zarului,
masurarea unei tensiuni.
• Primirea unei informatii este echivalenta cu eliminarea unei
incertitudini;
• Obtinerea informatiei este legata de caracterul intamplator
(aleator, stochastic) al fenomenului sau experimentului observat
si de aceea unui eveniment (rezultat) i se asociaza o masura
probabilistica;
E
• Daca rezultatele sunt discrete, ca in x6 x1 x2
figura, fiecarui eveniment xi i se poate
x5 x3
asocia probabilitatea p(xi); x4
• Daca rezultatele sunt continue se poate ∆x E
asocia o densitate de probabilitate p(x) x x0
unui punct din spatiul E al x 0
x
esantioanelor astfel incat x
x
i =1
i =1
m
[Y ] = [y1,..., ym ] Υ yj = E y j ∩ y k = φ , ∀j ≠ k
j =1
3. Entropia informationala
i =1 i =1
Proprietatile entropiei sunt:
− Este o functie continua in raport cu fiecare p(xi) = pi.
− Este invarianta la orice permutatie a probabilitatilor pi.
− Este o functie nenegativa marginita superior de valoarea “log n”, care se
obtine cand evenimentele sunt echiprobabile: p1=p2=....pn=1/n; atunci
H(p1,p2,....pn) = log n.
− Valoarea ei nu se modifica daca la multimea evenimentelor posibile se
adauga evenimentul imposibil (pn+1 = 0).
− Valoarea ei creste prin descompunerea unui eveniment in mai multe
evenimente independente.
Exemplul 1: se dau doua evenimente x1 si x2 pentru care:
[X] = [x1 , x2 ]
[Px ] = [1 − p, p ]
H (X ) = H ( p ) = −(1 − p )log(1 − p ) − p log p
H (0 ) = H (1) = 0
H max ( p ) = H (1 / 2) = 1 H(p)
H
(
1 p
)
0,5
4. Definitii si terminologie
• Sursa de informatie este un dispozitiv (obiect, proces) care emite
mesaje (sunete, imagini) si despre care se dispune de cunostinte
partiale.
• Sursa discreta de informatie este sursa care emite mesaje la
momente discrete de timp, fiecare mesaj fiind reprezentat printr-
un numar finit de simboluri.
Simbol: elementul fundamental ireductibil care contine o
informatie;
Alfabet: totalitatea simbolurilor;
Cuvant: succesiunea finita de simboluri care reprezinta un mesaj
(o semnificatie);
Limba: totalitatea cuvintelor formate cu un anumit alfabet;
Codare (decodare): stabilirea unei anumite corespondente intre o
limba si alta limba;
Exemple: a) Codul Morse, care utilizeaza patru simboluri: x1(punct), x2
(linie), x3 (spatiul dintre litere), x4 (spatiul dintre cuvinte) ca in figura de mai
jos:
x1
x2
x3 t
x4
1 / 3 2 / 3 0
T= 1 0 0
1 / 2 0 1 / 2
1/3
rezulta graful de mai jos:
1/2 1/2 s1
s3 2/3
s1 1
s2
Matricea T, fiind stochastica, suma elementelor pe fiecare linie este 1.
• Sursa stationara
sursa la care probabilitatea diferitelor simboluri nu depinde de originea
timpului ci numai de pozitia lor relativa: p (xin ) = p(xin + k ) pentru ∀k
• Sursa ergodica
sursa la care este indeplinita conditia de stationaritate iar sirurile de
simboluri pe care le furnizeaza sunt siruri tipice;
o Sirul tipic: sirul care contine ni = n p (xi) simboluri xi unde i =
1, 2, ...D si in care pentru frecventele relative de aparitie ni/n
ale simbolurilor, exista relatia:
9
ni
lim = p(xi ).
n →∞ n
x1 x2 ..............xD
X1 pt(xi) = n(xi)/ n
X2
lim pt (xi )= ps (xi )
n→∞
. t
.
Xn
ps(xi) = n’(xi)/ n
i =1
generand sirul tipic de lungime N:
[
[XN] = xi1 xi2 ⋅ ⋅ ⋅ xi N ]
unde ij = 1, D ,
toate sirurile tipice au aceeasi probabilitate:
p ( X N ) = p1N1 p2N 2 ⋅ ⋅ ⋅ pDN D , unde N1, N2,....ND reprezinta numarul de
D
simboluri x1, x2, ...xD din sirul XN cu ∑ N i = N , pentru un N foarte mare se
i =1
poate scrie:
Ni = N pi
respectiv:
p ( X N ) = ( p1p p2p ⋅ ⋅ ⋅ pDp )
N
1 2 D
i =1
Se numeste entropie a sursei X informatia medie pe simbol:
H ( X ) = − ∑ pi log pi
D
i =1
Rezultatul se poate obtine si calculand direct cantitatea medie de informatie
pe simbol, plecand de la informatia proprie a unui simbol i(xi) = - log pi si
observand ca informatia totala obtinuta prin realizarea de Ni ori a simbolului
xi este I(xi) = Ni i(xi) = - Ni log pi iar media pe toate simbolurile este:
1 D
H (X ) = ∑ N i i (xi ) = − ∑ pi log pi
D
N i =1 i =1
− 2 p1 log p1 − 2 p2 log p2 = 2 H ( X )
Pentru extensie de ordinul n se obtine o sursa cu {Xm Pm} la care entropia
este:
H (X m ) = mH ( X )
o Entropia sursei discrete, cu memorie, ergodica, de tip Markov
− Sursa Markov ergodica
are proprietatea ca secventa distributiilor de probabilitate Pn , pe toata
multimea de stari, tinde catre o distributie de probabilitate limita w
(distributia de echilibru), independenta de distributia initiala sau
lim Pn = w .
n →∞
k =1
intr-un pas plecand din starea sj
− Entropia pentru sursa Markov ergodica, unifilara
Sursa Markov este unifilara daca toate simbolurile furnizate la parasirea unei
stari sj sunt distincte. Intre secventele de stari si secventele de simboluri
exista o corespondenta univoca si daca sursa este stationara avem:
H ∞ (S ) = H ∞ ( X ) deci:
H ∞ ( X ) = H ∞ (S ) = lim H (S n / S 0 ,⋅ ⋅ ⋅, S n −1 ) = lim H (S n / S n −1 )=
n→∞ n→∞
( ) ( ) ( )
r r
= lim ∑ p S n − 1 = s j H S n / S n − 1 = s j = ∑ w j H S j =
n → ∞ j =1 j =1
12
r q
= − ∑ ∑ w j ⋅ p jk ⋅ log p jk
j =1k =1
Daca nr. starilor corespunde cu nr. simbolurilor si din starea j putem ajunge
in oricare stare intr-un pas:
H ( X ) = − ∑ ∑ pk ⋅ p jk log p jk
D D
j =1k =1
• Debitul de informatie
i −1
Ht = Htm se mai noteaza cu Rb, adica rata de bit, spre deosebire de rata de
baud (rata de transmisie a unui grup de biti) care se noteaza cu RB = Rb/m.
• Redundanta sursei
o Redundanta absoluta este: Rs = H max ( X ) − H ( X )
H (X )
o Redundanta relativa este: ρ s = 1 −
H max ( X )
• Eficienta sursei
H (X )
ηs = = 1 − ρs
(
H max X )
Aceste marimi arata cat este de indepartata entropia sursei de valoarea ei
maxima.
i =1
- aproximatie de rang 2: sursa Markov (engleza)
H 2 (X ) = 3,32 bit / simbol
• imagine TV alb / negru singulara cu N = 500 linii × 600 coloane =
300.000 pixeli, fiecare avand m nivele de gri
- H 0 ( X ) = log D = log m = N log m
N
1
- H 2 (X ) ≈ H 0 (X )
2
14
[X] [Y]
S Canal U
[ X] = [ x1 , x2 ,..., xn ]
Campul de intrare:
[Px ] = [ p( x1 ), p( x2 ),... p( xn )]
[Y ] = [ y1 , y2 ,..., ym ]
Campul de iesire:
[Py ] = [ p( y1 ), p( y2 ),..., p( ym )]
− Canal discret este acel canal pentru care n si m sunt finite.
− Canal continuu este acel canal pentru care n si m sunt infinite.
− Canal discret/continuu: acel canal pentru care n este finit si m este infinit.
− Canal continuu/discret: acel canal pentru care n este infinit si m este finit.
− Canal discret in timp: la care timpul este discret t = kTes.
− Canal continuu in timp: la care timpul este continuu.
− Canal cu memorie: in care transformarea xi → y j depinde de
transformarile anterioare.
− Canal fara memorie: in care transformarea xi → y j nu depinde de
transformarile anterioare.
− Canal stationar: in care p ( xi1t1 ) = p ( xi1t 2 ) ∀i = 1, n (distributia de
probabilitati nu depinde de origina timpului)
[Y] = [ y1 , y2 ,..., ym ] m
∑ p( y j ) = 1
[Py ] = [ p( y1 ), p( y2 ),..., p( ym )] j =1
p (y j ) = ∑ p (xi y j )
n
∀j = 1, m
i =1
∑ ∑ p (xi , y j ) = 1
n m
i =1 j =1
i =1 j =1
9. Entropii conditionate
H (X / Y ) este incertitudinea medie asupra X dupa observarea lui Y
H (Y / X ) este incertitudinea medie asupra Y dupa observarea lui X
• H (X / Y ) sau echivocatie, este o masura a echivocului ce exista asupra
campului de la intrare cand se cunoaste campul de iesire.
16
x1 ο ο y1 daca la iesirea canalului se observa yj, exista o
j =1 j =1i =1
j =1i =1
i =1
• H (Y / X ) sau eroare medie, este o masura a incertitudinii campului de
iesire cand se cunoaste campul de intrare
x1 ο ο y1
Λο οΛ U (y j / xi ) = − log p (y j / xi )
Λο οy H (Y / xi ) = − ∑ p (y j / xi )log p (y j / xi )
m
p(yj/xi) j
xi ο οΛ j =1
Λο οΛ
i =1 i =1 j =1
= − ∑ ∑ p (xi , y j )log p (y j / xi )
n m
i =1 j =1
j =1
i =1 j =1
i =1 j =1 i =1
∑ p(xi )⋅ ∑ p (y j / xi )⋅ log p (y j / xi ) = H (X ) + H (Y / X )
n m
i =1 j =1
Deasemenea:
H (X , Y ) = H (Y ) + H (X / Y )
pentru canal fara perturbatii echivocatia si eroarea medie sunt nule:
H (X , Y ) = H (X ) = H (Y )
pentru canal foarte perturbat:
H (X , Y ) = H (X ) + H (Y )
CNP CFP
H(X/Y)
H(Y/X
= − H ( X , Y ) + H ( X ) + H (Y ) = H ( X ) − H ( X / Y ) = H (Y ) − H (Y / X )
I ( X ,Y ) ≥ 0
• Capacitatea canalului
Capacitatea canalului este prin definitie valoarea maxima a transinformatiei:
def
C = max{I ( X , Y )} = max[ H ( X ) − H ( X / Y )] = max[ H (Y ) − H (Y / X ) ]
Maximalizara se poate face in raport cu P( X ) : pentru transmiterea prin canal
a transinformatiei maxime este necesara adaptarea statistica a sursei la
canal (transformarea sursei primare in sursa secundara specificata de
probabilitatile care detemina valoarea maxima din relatia de mai sus)
sursa secundara I(X,Y) C
S codare sursa Canal R
p p
1 − p ...
n −1 n − 1
p p
P(Y / X ) = n − 1 1 − p ...
n − 1 unde 0 ≤ p ≤ 1
... ... ... ...
p p
... 1 − p
n − 1 n − 1
Canalul fiind uniform fata de intrare, eroarea medie este o constanta:
n n
H (Y / X ) = − ∑ ∑ p( xk ) p ( y j / xk ) log p ( y j / xk ) =
k =1 j =1
p p n
= −[(1 − p) log(1 − p ) + ( n − 1) log ] ⋅ ∑ p ( xk ) =
n −1 n − 1 k =1
x2ο 1 x 2 ο 1 / 2 οy 2 x2ο οy 2
οy 2
0 0,5 1
1 − p − q p q
• y1 P(Y / X ) =
1-p-q p 1 − p − q q
x1 • q p
p
X q • y3 ( anulare) Y
x2 •
1-p-q • y2
Capacitatea canalului:
C = 1 − q + p log p − (1 − q ) log(1 − q) + (1 − p − q) log(1 − p − q ) pentru
p ( x1 ) = p( x2 ) = 1 ;
2
22
daca se mareste rata de anulare, p/q→0, probabilitatea deciziei incorecte se
reduce mult si canalul devine canal binar cu anulari.
n
p0 ( y j ) = ∑ p0 ( xi ) ⋅ p( y j xi ) ∀j = 1, m
i =1
m
∑ p( y j ) = 1
j =1
Rezulta:
n
− ∑ q ji ⋅ H (Y / xi )
C = log ∑ 2 i =1
;
j =1
n
− ∑ q ji ⋅ H (Y / xi )
−C
p0 (y j ) = 2 ⋅2 i =1
;
n
− ∑ q jk ⋅ H (Y / x k )
−C
p0 ( xi ) = 2 ⋅ ∑ qij ⋅ 2 k =1
;
j =1
n
H (Y / xi ) = − ∑ p ( y j / xi ) log p ( y j / xi )
j =1
Interfata ISDN suporta o retea de 144 Kbit/s care muliplexeaza mai multe
canale:
25
A 4kHz, canal telefonic analogic,
2×B 64 Kbit/s, canale digitale pentru voce si date cu comutatie in pachete,
C 8 sau 16 Kbit/s, canal digital pentru date de mica
viteza,
D 16 Kbit/s, canal digital pentru control si semnalizare,
E 64 Kbit/s, canal digital pentru semnalizari interne,
H 384 Kbit/s (H0), 1536 Kbit/s (H11), 1920 Kbit/s (H12), canale
digitale de mare viteza.
Retele LAN - Local Area Network – Retele locale (de calculatoare) cu:
cu cablu coaxial, 1 – 10 Mbit/s
cu fibra optica, > 100 Mbit/s
ANALOGIC DIGITAL
SC
Abonat A/D
telefonic CCD
T
A/D CCD
CCD
Retea locala digitala
A/D
CCA A/D
h
pozitia h, car poate aparea in starea i, determinand o tranzitie in starea j. B
se regaseste pentru x = 1 din B(x). In exemplul anterior, simbolurile 0 si 1
au aceeasi durata, adica o perioada de tact si:
b00 ( x ) b01 b02 b03 0 x −1 x −1 0
b −1
b11 b12 b13 x −1 0 0 x
B( x ) = 10 =
b20 b21 b22 b23 0 x − 1
0 0
−1
b30 b31 b32 b33 x 0 0 0
− Capacitatea canalului cu constrangeri si simboluri de durate egale este:
C = log λ unde λ este cea mai mare valoare proprie (pozitiva ) a matricei
B. La determinarea lui λ pentru exemplul anterior, se poate scrie ecuatia:
det[ B − λI ] = 0 sau:
− λ 1 1 0
1 −λ 0 1
det =0
0 1 −λ 0
1 0 0 − λ
Ecuatia caracteristica este: λ4 − λ2 − 2λ − 1 = 0 si cea mai mare solutie este
λmax = 1,6 ; capacitatea este:
C = log λmax = 0,66 (bit/simbol)
28
Transinformatia va fi:
n/2 m/2 pij
I ( X ,Y ) = ∑ ∑ pij log unde :
i=− n / 2 j =− m / 2 pi ⋅ q j
pi = P{ X = xi = i∆x}; q j = P{Y = y j = j∆y}; pij = P{ X = xi ∩ Y = y j }
pentru ∆x, ∆y → 0
p ( x)dx = P[ x < X < x + dx ]
p ( y )dy = P[ y < Y < y + dy ]
x < X < x + dx
p ( x, y )dxdy = P
y < Y < y + dy
Setul de probabilitati pi, qj poate fi scris sub forma:
pi ≅ p ( xi )∆x; q j ≅ q( y j ) ∆y; pij ≅ p ( xi , y j )∆x∆y
∫ log p ( x) dx ∫ p ( x, y ) dy = ∫ p ( x) log p( x) dx = H ( X )
−∞ −∞ −∞
+∞ +∞ +∞
transinformatia devine:
I ( X , Y ) = − H ( X , Y ) + H ( X ) + H (Y ) =
= − H ( X / Y ) + H ( X ) = − H (Y / X ) + H (Y )
unde s-au definit in mod analog:
+∞ +∞
H ( X / Y ) = − ∫ ∫ p ( x, y ) log p ( x / y )dxdy
−∞ −∞
+∞ +∞
H (Y / X ) = − ∫ ∫ p( x, y ) log p( y / x)dxdy
−∞ −∞
Obs.: Reamintim ca transinformatia I(X,Y) se refera la un singur esantion,
fiind informatia care se obtine despre xi cand se observa yj. Daca semnalul
este format din N esantioane independente cuprinse intr-un interval de
observare de durata D, transinformatia este:
D D D
I N ( X , Y ) = N ⋅ I ( X , Y ) unde N = = = = 2 f max D iar
∆t Tes 1 / 2 f max
I N ( X , Y ) = 2 f max D ⋅ I ( X , Y ) , reprezentand valoarea totala a transinformatiei
pe N esantioane.
Exemple:
o Pentru audio (Hi Fi): C = 20 ⋅103 ⋅ log(103 ) ≈ 200 ⋅ 103 (bit / s )
o Pentru video (alb/negru):
C = 6 ⋅10 6 ⋅ log(103 ) ≈ 60 ⋅106 (bit / s )
[Y] ^
[X] [X]
S Canal R
p(xˆ1 / x1 )
x1 • • xˆ1
X X̂
Canal echivalent x2 • • xˆ 2
Μ Μ
xn • • xˆ n
p (xˆ n / xn )
deterministe ( )
p xˆ j / xi = 0 / 1
Strategiile pot fi:
stohastice ( )
p xˆ j / xi ∈ 0,1
− Strategii deterministe
20. Criteriul riscului minim
p (xˆ j / xi ), i ≠ j , este probabilitatea deciziei eronate
p (xˆ j / xi ), i = j , este probabilitatea deciziei corecte
In matricea Te
j =1
i =1 j =1 i j xi i
34
sau ca probabilitatea de eroare:
xˆ n=1 n=1
R(S ) = ∑ ∑ (1 − δ ij )p(xi ) p j = ∑ ∑ (1 − δ ij )p (xi , xˆ j ) = 1 − ∑ p(xi , xˆi )
n =1 n =1 n =1
i =1 j =1 xi i =1 j =1 i =1
xˆ
R = ∑ ∑ p(xi )p j ⋅ cij =
1 1
Y0
y1 • i =0 j =0 xi
y2 •
= p(x0 ) p x0 c00 + p x1 c01 +
ˆ ˆ
x0 • Μ • xˆ0 x0 x0
yj •
+ p(x1 ) p 0 c10 + p x1 c11 =
xˆ ˆ
x1 • • xˆ1 x1 x1
Y1 Μ
ym−1 •
= p(x1 )⋅ p x0 (c00 − c01 ) + p (x0 )⋅ c01 +
ˆ
ym • x0
+ p(x1 )⋅ p 0 (c10 − c11 ) + p (x1 )⋅ c11
^ xˆ
[X] → [Y] → [X]
[T] [S] x1
R = p(x0 )c01 + p(x1 )c11 + [ p(x1 )cm ⋅ p(xˆ0 / x1 ) − p(x0 )c f ⋅ p(xˆ0 / x0 )] unde:
cm = c10 − c11 ; c f = c01 − c00 ; cm = costul pierderii tintei
cf = costul alarmei false
Tinand cont ca:
p(xˆ0 / x1 ) = ∑ p( yk / x1 )
yk ∈Y0
rezulta:
p(xˆ0 / x0 ) = ∑ p( yk / x0 )
yk ∈Y0
K Λ ( y k ), K sunt: raportul de
yk Λ(yk) K yk → xˆ0 plauzibilitate respectiv
Procesor comparator pragul testului, la testarea
yk → xˆ1 ipotezelor H0, H1.
p( yk / x1 ) p(x1 , yk ) / p(x1 ) p( x1 / yk ) ⋅ p ( yk ) / p( x1 )
Λ( yk ) = = = =
p( yk / x0 ) p(x0 , yk ) / p(x0 ) p ( x0 , yk ) ⋅ p( yk ) / p ( x0 )
p ( x1 / yk ) ⋅ p ( x0 )
= ,
p ( x0 / yk ) ⋅ p ( x1 )
H1
p ( x1 / yk ) >
1
p ( x0 / y k ) <
H0
H1
>
Λ( yk ) 1
<
H0
Se poate arata ca eroarea medie dupa decizie este mai mica decat inainte:
H ( Xˆ / X ) < H (Y / X )
Exista si alte criterii de decizie in afara celor bazate pe teoria lui Bayes
(criteriul Neyman – Pearson).
R( p ( x1 ), Y0 ) = 1 − p ( x1 ) + ∑ [ p ( x1 ) p ( yk / x1 ) − (1 − p ( x1 ) p ( yk / x0 =
Y0
= R( p ( x1 ) ) = Pf + ( Pm − Pf ), cu notatiile :
Pm = ∑ p ( yk / x1 ), Pf = ∑ p ( yk / x0 ) = 1 − ∑ p ( yk / x0 )
Y0 Y1 Y0
− Strategii aleatoare
22. Alta interpretare a criteriului minimax
Consta in alegerea de catre receptor a celei mai defavorizante partitii ( sau a
simbolului) care maximizeaza riscul conditionat R(S, xi) si adoptarea unei
strategii S care minimizeaza acest maximum:
xi = xi∗ , S = S ∗ ⇒ R( S ∗ , xi∗ ) = min[ max R( S , xi )]
S xi
0 1 1 0 0 ,7 0 ,3
0 1 1 0 0,7 0,3
38
[S] [X]
Ss
Sp ↓ Ss ↓ Canal
alfabetul alfabetul
sursei sursei secundare =
primare alfabetul codului
• •
0 1 0 1
• • c1 • •
0 1 0 1 0 1
c1 • • c2 c3 • • c4 c2 • •
0 1
A B
c3 • •
0
• • c4 •
0 0 1
c1 • c1 • •
1 0 1
• c2 c2 • •
1 0 1
• c3 c3 • • c4
1
• c4 D
C
i =1
i =1
este entropia alfabetului codului;
H ( S ) = H (C ) = l H ( X ) ≤ l log D deoarece
H ( X ) ≤ log D = max H ( X ) de unde rezulta limita inferioara a lungimii
medii:
H (S ) H (S )
l≥ = lmin sau ≤ log D
log D l
41
• Eficienta codului
lmin H (S ) H ( X )
η= = =
l l log D log D
• Redundanta codului
l log D − H ( S ) log D − H ( X )
ρ = 1−η = =
l log D log D
Coduri absolut optimale: l = lmin (η = 1; ρ = 0 )
Coduri optimale: la care, l > lmin ( η <1; ρ > 0 )
→ → →
codul A: codul B:
7
l = ∑ li p ( si ) = 2 l = ∑ li p ( s i ) =
4
lmin 7
η= = = 0,88 lmin
l 8 η= =1
l
42
28. Coduri absolut optimale si optimale
• Coduri absolut optimale; conditia de existenta a codurilor absolut
optimale
N N
H ( S ) = lmin log D = [∑ li p ( si )] ⋅ log D = ∑ p ( si ) log D li ; deoarece
i =1 i =1
N log p ( si )
H ( S ) = − ∑ p ( si ) log p ( si ) rezulta : li = − si
i =1 log D
N
p ( si ) = p (ci ) = D −li si deoarece ∑ p ( si ) = 1 se obtine :
i =1
N
−l
∑ D =1 i
i =1
• Coduri optimale
N
Daca p ( si ) ≠ D −li → ∑ D −li ≤ 1, rezulta inegalitatea lui Mc Millan, care
i =1
constituie teorema de existenta a codurilor optimale (instantanee,
ireductibile)
o Principii generale:
- Simbolurilor celor mai probabile ale sursei li se aloca cuvintele
de cod cele mai scurte;
- Lungimile li trebuie sa fie numere intregi;
- Lungimile cuvintelor de cod sa satisfaca inegalitatea Mc
Millan cat mai aproape de 1.
si p(si) partitii ci li
s1 1/4 0 0 00 2
s2 1/4 1 01 2
s3 1/8 0 0 100 3
s4 1/8 1 101 3
s5 1/16 1 0 0 1100 4
s6 1/16 1 1 1101 4
s7 1/16 1 0 1110 4
s8 1/16 1 1111 4
Se calculeaza: ¼
l = 2,75 = lmin = H ( S ); η = 1; ρ =0 0 c1
1/2
Graful este: ¼ 1/8
0 1 c2 0 c3
1,0
1 0 ¼ 1 1/8 c
4 1/16
0
c5
½ 1 0 1/8 1
c6
¼ 1 1/8 1/16
0
c7
1
c8
1/16
si p(si) partitii ci li
s1 0,45 0 0 1
s2 0,30 0 10 2
s3 0,15 1 1 0 110 3
s4 0,10 1 111 3
Se calculeaza:
45
H ( S ) = lmin = 1,782; l = 1,80; η = 0,99
R0 R1 R2 R3 R4
Cuvintele de cod sunt:
c1 = 11; c2 = 10; c3 = 01; c4 = 001; c5 = 0001; c6 = 0000
Parametrii codarii sunt: H ( S ) = 2,3; l = 2,4; lmin = 2,3; η = 0,96
46
⊕ 0 1 ⊗ 0 1
0 0 1 0 0 0
1 1 0 1 0 1
ο ο
(3)
v1 • • v'1
Graful de tranzitie pentru w1 ο ο w'1
cuvintele de cod transmise pe un canal cu
v2 • • v '2
perturbatii este:
w2 ο ο w'2
• Regiuni de decizie
Se poate face o partitie a multimii W in submultimi disjuncteWi
in jurul punctelor vi ∈ Wi cu proprietatea ca toate punctele vi '∈ Wi sunt mai
aproape de punctul vi decat de oricare punct vj pentru j ≠ i. Daca pentru un
punct vi’ are loc relatia:
D( v i ' , v i ) < D( v i ' , v j ) ∀ j ≠ i ,
atunci
v i '∈ Wi
51
Multimea punctelor vi’ care se gasesc la aceeasi distanta
D( v i ' , v i ) = D( v i ' , v j ) fata de vi si vj si care nu pot fi inglobate in una din
Wi, se noteaza cu W0.
In acest caz :
W = V ∪ F = W0 ∪ W1 ∪,...,∪Wk
La receptionarea vi’ pot apare urmatoarele situatii:
v i '∈ F ⇒ v i ' nu este cuvant de cod si se poate face detectia erorilor;
v i '∈ Wi respectiv D( v i ' , v i ) < D( v i ' , v j ) ∀ j ≠ i , se poate face corectia
erorilor: se decide ca vi’ provine din vi
v i '∈ W0 respectiv D( v i ' , v i ) = D( v i ' , v j ) , erorile nu pot fi corectate dar
pot fi detectate deoarece W0 ∈ F si v i '∈ F .
Obs.: Posibilitatile de detectie si corectie ale unui cod depind de distanta
minima intre doua cuvinte de cod (toate elementele v i '∈ Wi se decodifica in
vi daca v i ∈ Wi se gaseste la distanta mare de de cel mai apropiat cuvant cu
sens v j ∈ W j ). Astfel, pentru detectia a ed erori, distanta minima intre
cuvintele de cod trebuie sa fie: Dmin = ed + 1 iar pentru corectia a ec erori,
Dmin = 2ec +1
ed 1 ec 1 ec
vi vj ’ vj vi vi ’ vj ’ vj
ε ε
• Erori
o Erori individuale
Ele apar ca rezultat al unor perturbatii accidentale mai scurte decat durata
simbolului si afecteaza in mod individual (izolat) fiecare simbol;
Probabilitatea de aparitie a unor r simboluri eronate intr-un cuvant de n
simboluri este data de o lege de distributie binomiala de forma:
p (r ) = Cnr p r (1 − p ) n−r iar probabilitatea de aparitie a e ≤ r erori este data de
functia de repartitie corespunzatoare:
e e
P(r ≤ e) = ∑ p (r ) = ∑ Cnr p r (1 − p) n−r
r =0 r =0
o Erori in pachete
Ele apar pentru perturbatii care dureaza mai mult ca simbolul si de aceea
apar grupate; ele apar deobicei ca rezultat al unor intreruperi in canalul de
transmisie sau defectiuni in suportul de stocare a informatiei.
Definitii:
Pachete de erori: o succesiune de simboluri (corecte sau eronate), in care
primul si ultimul simbol sunt eronate si in care simbolurile corecte succesive
apar in grupuri de s < r simboluri;
53
Lungimea l a unui pachet de erori: numarul total de simboluri (eronate sau
neeronate) care formeaza pachetul de erori;
Densitatea D a erorilor: raportul dintre numarul de simboluri eronate din
pachet si numarul total de simboluri;
Cuvantul eroare care contine un pachet de erori de lungime l va avea l
simboluri 0 si 1, din care primul si ultimul (simboluri eronate) sunt 1. El
poate fi scris sub forma:
å = [...α i ε i +1...ε i + l − 2 α i + l −1...] unde:
αi este simbolul 1 plasat in pozitia i;
εi+k ese simbolul 0 sau1 plasat in pozitia i+k, cu restrictia ca nu pot sa apara
succesiv un numar de “0” mai mare sau egal cu “r”.
54
35. Corectori
Elemente z ∈ Z destinate sa indice pozitiile din cuvantul cod in care s-au
introdus erori: se stabileste o corespondenta univoca intre multimea W si
multimea Z, definind operatorul H asa incat H {v i' }= z v i' ∈ W z ∈ Z . Se
impune conditia:
H {vi' }= 0 daca vi' = vi adica vi' este cuvant de cod ( transmisie fara erori )
H {vi' }= z ≠ 0 in caz contrar
...
z
m
hij sunt parametrii care determina transformarea H; ei pot fi ordonati intr-o
matrice, H, care in continuare se va numi (din motive ce vor fi explicate mai
departe) matricea de control:
h11 h12 ... h1n
h h21 ... h2 n
21
H = ... ... ... ...
... ... ... ...
hm1 hm 2 ... hmn
Ecuatiile mai pot fi scrise astfel:
Hv T = z
sau, daca v = v , Hv T = Hv T = 0 .
...
α h1i
i1 h
[ ]
z = h1 h 2 ... h n ... , unde h i = sunt coloanele lui H, sau
2i
...
α
ie h
... mi
[ ] [ ]
z = ...α i1 h i1 + ... +α ie h ie + ... = h i1 + ... + h ie deoarece α ik = 1
Pentru a corecta e erori indiferent de pozitiile in care intervin este necesar
ca sumele modulo 2 a cate e coloane oarecare din matricea H sa fie
distincte: in acest fel se obtin corectori distincti pentru fiecare cuvant eroare
care contine e erori.
Daca coloanele lui H sunt astfel alese incat :
h i1 + ... + h ie ≠ h j1 + ... + h je ∀ i k distincte = 1, n si ∀jk distincte = 1, n
57
adunand in ambii membrii coloanele h j1 ... h je se obtine:
h i1 + ... + h ie + h j1 + ... + h je ≠ 0 sau
h i1 + ... + h i 2e ≠ 0 ∀ i k = 1, n
Daca coloanele matricei H indeplinesc conditiile de mai sus, atunci exista
posibilitatea de a se corecta e erori oarecare.
...
α
i1
[
h 1d +... + h id ... ≠ 0 sau:
]
α
id
...
[h
i1
]
+... + h id ≠ 0 ∀i k distinct = 1, n adica:
Pentru a detecta d erori indiferent de pozitiile in care intervin este necesar
ca sumele modulo 2 a cate d coloane oarecare din matricea H’ sa fie diferite
de zero fara a fi neaparat distincte. In cazul detectiei unei singure erori,
toate coloanele lui H’ trebuie sa fie diferite de zero dar nu neaparat
distincte.
Daca numarul erorilor care trebuie detectate este impar: d = 2p + 1, conditia
de detectie devine:
h i1 +... + h i 2 p+1 ≠ 0 care este satisfacuta daca se impune:
h i h i
h i1 = 1 , h i 2 = 2 , ... sau:
1 1
h1 h 2 ... h n
H = care daca se introduce in prima relatie se obtine
1 1 ... 1
(tinand cont ca suma modulo 2 a unui numar par de simboluri 1 este nula) :
h i1 + ... + h i 2 p h i 2 p+1
+ 1 ≠0 relatie satisfacuta pentru orice valori ale
0
coloanelor h k in particular pentru valori nule. In acest caz:
H = [1, 1, ... 1] si in cuvantul de cod :
v = [a1 a2 ...an−1an ]
58
ultimele k = n – 1 simboluri reprezinta simboluri de informatie iar primul
simbol a1 este simbolul de verificare a paritatii determinat de:
H v T = 0 sau, tinand cont de H = [1, 1, ... 1],
a1 = a2 + ... + an
Daca la receptie H v T ≠ 0 respectiv:
impar de erori.
Daca se introduce sau se adauga pe langa simbolurile de corectie un simbol
de control al paritatii se creeaza posibilitatea sa se corecteze o eroare si sa se
detecteze toate erorile duble. In acest caz matricea de control devine:
h1 h 2 ... h n 0 h1 h 2 ... h n
H = sau H = 1 1 1 ... 1
1 1 ... 1
Corectorul este:
z1
=
z Hv T
=
z
2
Sau:
a 0
0 h1 h 2 ... h n a 1 0 + a 1 h1 + ... + a n h n z1
1
a
n
i’
i’P
c”
c1 = i3 + i5 + ... + in
c2 = i3 + i6 + ... + in
c4 = i5 + i6 + ... + in
. . . . . . .
Coduri ciclice
Sunt codurile bloc in care cele n simboluri din cuvant sunt considerate ca
fiind coeficientii unui polinom de grad n –1, cuvantul fiind de forma:
v(x) = a0 + a1x +a2x2 +… +an-1xn-1 cu ai∈{0, 1} sau
v = [a0 a1… an-1 ]
In cele ce urmeaza consideram ca multimea tuturor cuvintelor este generata1
de un polinom p(x) de grad n, ales de forma :
p(x) = xn +1
iar multimea cuvintelor cu sens este generata de un polinom g(x), numit si
polinomul generator al codului, de grad m de forma:
g(x) = g0 +g1x +… +gm-1xm-1 +xm
Se poate arata ca intre cele doua polinoame generatoare exista relatia:
p(x) = g(x) h(x) unde h(x) este de forma:
h(x) = h0 + h1x +…+hkxk
Proprietate: La codul ciclic, daca v este un cuvant cu sens atunci si orice
permutare ciclica a simbolurilor sale este un cuvant cu sens:
[ai ai+1…an-1 a0 a1…ai-1]
Obs.: Multimea cuvintelor generate de p(x) are 2n elemente din care alegem
2k carora le atribuim sens (acestea formeaza multimea cuvintelor cu sens
generate de polinomul g(x) de grad m).
40. Codarea cuvintelor de cod ca elemente in multimea cuvintelor
cu sens generata de g(x)
In acest caz v(x) trebuie sa fie un multiplu al lui g(x):
v(x) = i(x) g(x) unde i(x) este polinomul simbolurilor de informatie:
i(x) = am +am-1x + … +am+k-1xk-1
Pentru a obtine un cod sistematic se determina simbolurile de control,
folosind polinomul generator g(x), astfel:
1) se observa ca v(x) se poate scrie sub forma:
v(x) = c(x) + xm i(x) unde c(x) este polinomul simbolurilor de control:
c(x) = a0 + a1x +… +am-1xm-1
2) se imparte in ambele parti cu g(x):
v( x ) c( x ) x mi( x )
= + iar ultimul termen se rescrie:
g ( x ) g( x ) g ( x )
1
vezi anexa A1- 1)
65
m
x i( x ) r( x )
= q( x ) + unde r(x) este restul impartirii, polinom de grad
g( x ) g( x )
mai mic decat m. Ultima relatie se poate scrie si :
r( x ) x mi( x )
+ = q( x ) sau r( x ) + x mi( x ) = q( x )g ( x ) de unde:
g( x ) g( x )
x mi( x )
c( x ) = r( x ) = rest
g( x )
Alta metoda pentru determinarea simbolurilor de control se bazeaza pe
introducerea matricii generatoare G. Se observa ca:
v(x) = q(x) g(x) sau
v(x) =q0g(x) + q1g(x)+… +qk-1xk-1g(x) deci v(x) se gaseste in liniile matricei
generatoare G, avand k linii si n coloane:
g 0 g1 ... g m 0 ... 0
0 g ... g 0 ... 0
0 m
G = . . . . . . .
. . . . . . .
0 ... 0 g 0 g1 ... g m
unde coeficientii puterilor lui x absente au fost inlocuiti cu zero; cu matricea
generatoare G se poate face codarea cu relatia:
v=iG
cu care se obtin simbolurile de control rezultate cu metoda anterioara, cand
s-a plecat de la relatia: v(x) = q(x) g(x) daca q(x) = i(x).
2
Vezi anexa A1- 3)
66
0 ... 0 hk ... h0
0 ... 0 h ... ho 0
k
H = . . . . . . . 0
. . . . . . . 0
hk ... h0 0 ... 0 0
v = [a0 a1 …an-1]
De asemenea se poate arata ca:
GHT = HGT
Exemplu: Se transmite un numar de 16 mesaje pe un canal cu perturbatii,
utilzand un cod ciclic corector de o eroare.
Relatia 2k ≥16 este satisfacuta de k = 4; relatia 2m ≥ m + k +1 de m =3, n = 7.
Gradul polinomului g(x) va fi deci m = 3: g(x) = x3 + x2 + 1 iar gradul lui
p(x) va fi n = 7: p(x) = x7 +1.
p( x ) 1 + x n 1 + x7
h( x ) = = = = x 4 + x3 + x 2 + 1
g( x ) g( x ) 1 + x + x2 3
mesaj i3 i4 i5 i6 c0 c1 c2 i3 i4 i5 i6
0 0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 1 0 1 1 0 0 0 0
2 0 0 1 0 1 1 0 0 0 1 0
3 0 0 1 1 1 0 1 0 0 1 1
… .. .. .. .. .. .. .. .. .. .. ..
15 1 1 1 1 1 1 1 1 1 1 1
C0 C1 Cm-2 Cm-1
i. U
g0 =1 g1 g2 gm-2 gm-1 gm =1
C0 C Cm-2 Cm-1
v. G
1
g0 =1 g1 g2 gm-2 gm-1 gm =1
v
70
primul simbol aplicat la intrare gm=1, ajungand la iesire deci in acest
moment Y = gmDm si la intrarea tuturor celulelor va fi simbolul 0; la tactul
m+1 iesirile tuturor celulelor devin 0 deci Y = gmDm ≠0 numai la tactul m,
avand un singur termen. Deci in acest caz avem:
Y g m Dm 1
T= = =
U g m D0 + g m −1D1 + ... + g 0 Dm g 0 + ... + g m D − m
daca D-1→ x, se poate afirma ca circuitul face o divizare cu g(x).
In cazul general, cand polinomul de intrare este de grad n, catul divizarii se
obtine la iesire dupa n tacte iar restul va apare stocat in registru la tactul n.
Exemplul 1: pentru n = 7, m = 3
g(x) = x3 +x2 +1
u(x) y(x)
C0 C1 C2
b) Pentru
u(x) = x7 +x6 +x5+x+ 1
y(x) = x4 +x2
r(x) = x2 + x +1
succesiunea starilor este data in tabelul urmator:
71
tact IN (U) C0 C1 C2 OUT (Y)
0 0 0 0 0
1 a7= 1 1 0 0 0
2 a6= 1 1 1 0 0
3 a5= 1 1 1 1 0
4 a4 = 0 1 1 0 1 (← x4)
5 a3 = 0 0 1 1 0 (← x3)
6 a2 = 0 1 0 0 1 (← x2)
7 a1 = 1 1 1 0 0 (← x1)
8 a0 = 1 1 (←x0) 1 (←x1) 1 (←x2) 0 (← x0)
viii
Circuitul de codare a codului ciclic este urmatorul:
C0 Cm-2 Cm-1 P2
x
ix. C1 P3
g0 =1 g1 g2 gm-2 gm-1 gm =1
P1
I x. Y
1: k tacte
0: m tacte
Poarta P1 este deschisa pe durata primelor k tacte, permitand pe de o parte
transmisia spre iesire prin P3 a celor k simboluri de informatie, pe de alta
parte introducerea acestora in circuitul de divizare pentru calculul restului;
restul, care constituie simbolurile de control, apare in registru la tactul k+1,
cand P2 este deschisa si P1 este inchisa; P2 ramane deschisa timp de m tacte
pentru a permite evacuarea simbolurilor de control, care sunt plasate cu
ajutorul lui P3 in continuarea simbolurilor de informatie pentru completarea
72
cuvantului de cod. Dupa evacuarea simbolurilor de control registrul revine
in stare initiala nula, pregatit pentru codarea cuvantului urmator.
• Decodor cu circuite de divizare
Decodarea presupune calculul corectorului z(x) = rest(v’(x)/g(x)) cu ajutorul
urmatorului circuit:
xiv.
C0 C1 Cm-2 Cm-1
xii. V
g0 =1 ' g1 g2 gm-2 gm-1 gm =1
Pentru detectia erorilor trebuie verificat daca z(x) este sau nu nul: daca la xiii. Y
iesirea portii SAU apare “1” atunci z(x) ≠ 0, detectandu-se erori.
gm= 1 gm-1 g1 g0
IN
Cm-1 Cm-2 C1 C0
gm= 1 gm-1 g1 g0
IN
Σ1
1
K
2 OUT
C2 C1 C0
(simb. de informatie)
g3= 1 g1 = 1 g0 =1
IN
Σ1 (simboluri de control) Σ2
1 P
K
K tact IN C2 C1 C0 OUT
0 0 0
1 1 i3= 1 1 0 0 i3 = a 6 = 1
1 2 i2= 0 0 1 0 i2 = a 5 = 0
≠ rest
1 3 i1= 0 1 0 1 i1 = a 4 = 0
1 4 i0= 1 0 1 0 i0 = a 3 = 1
2 5 * 0 0 1 c2 = a2 = 1(1+0)
2 6 * 0 0 0 c1 = a1 = 1(0+1)
2 7 * 0 0 0 c0 = a0 = 0(0+0)
v = [a0 a1 …a6] = [c0 c1 c2 i0 i1 i2 i3] = [011 1001]
V’ RP
Mn-1 Mn-2 M2 M1 M0
xviii.
DC1
D P
Cm-1 Cm-2 C1 C0
gm= 1 gm-1 g1 g0
DC2
D P
1
Cm-1 Cm-2 C1 C0
K 2
gm= 1 gm-1 g1 g0
Q Q
xix. P
validare
2 a0, a1, a2
xx. V
K
1 a3, a4, a5, a6 xxi. I
V’ RP
M6 M5 M2 M1 M0
x
DC1
“SI” P
(poa
0 0 1
rta “
Cm-1 Cm-2 C2 C1 C0
gm= 1 0
gm-1 g1 0
g0 1
0 0 1
DC2
“SI” P
1
Cm-1 Cm-2 C2 C1 C0
K 2
gm= 1 gm-1 g1 g0
81
Daca a4’ = a4 + 1 este simbolul eronat, n – r = 4, si corectorul,
corespunzator starii registrului de deplasare dupa introducerea tuturor
simbolurilor cuvantului receptionat, va fi:
z = T4 U = T-3 U,
cand simbolul a4’ ajunge in celula M0, dupa doua tacte suplimentare, starea
registrului de deplasare cu reactie este:
T2 T-3 U = T-1 U
adica (0 0 1); in acest moment in celula M0 se aplica un simbol “1” dat de
decodor astfel incat vom avea:
a4’ + 1 = a4
realizandu-se corectia; la tactul urmator, registrul de deplasare cu reactie este
adus in starea 0.
82
Coduri convolutionale
Sunt caracterizate prin faptul ca, spre deosebire de codurile bloc, simbolurile
de informatie generate de sursa sunt prelucrate continuu; aici “blocurile” de
informatie sau control nu au semnificatia de cuvinte de cod: simbolurile de
control dintr-un bloc controleaza simbolurile de informatie si din alte
blocuri.
Constrangere (ordinul de memorie): se defineste prin numarul blocurilor
precedente in care se gasesc simbolurile de informatie verificate prin
simbolurile de control ale blocului considerat (si se noteaza cu M);
Lungime de constrangere: se defineste prin numarul total de simboluri
informationale i care concura la calculul unui simbol de control (sau unui
simbol din cuvantul de cod) si se noteaza cu nC =k (M + 1); numarul
simbolurilor i memorate este kM;
Rata de codare (raportul dintre numarul de simboluri informationale si
lungimea unui bloc codat): R = k L / n(L+ M) , unde L este numarul de
blocuri considerate, din secventa de lungime finita codata.
Distanta de cod de ordinul N (minimul distantei Hamming, calculata insa pe
N blocuri): DN = min DH (viN, vjN)
Obs.:
a) Daca L >> M, R = k / n ca la codurile bloc;
b) Daca nu se lucreaza cu L mari, R < k / n si rata va fi mai mica decat
la codurile bloc, reflectand o redundanta relativ ridicata, necesara
insa in aplicatiile cu transmiterea datelor prin canale perturbate
(canal radio);
Coduri convolutionale* sistematice: Se considera, in succesiunea continua
de simboluri, un bloc de lungime n, constituit din k simboluri de informatie
si m simboluri de control;
Coduri convolutionale nesistematice: Se considera, in succesiunea
continua de simboluri, un bloc de lungime n, in care simbolurile de
informatie si cele de control nu sunt distincte, ambele se noteaza cu ui si sunt
simboluri ale cuvantului de cod; aici:
Constrangere (M): numarul blocurilor de n simboluri, care sunt legate intre
ele prin faptul ca un simbol de informatie oarecare, aparut la intrare, este luat
** se alege combinatia de g(1) (x) si g(2) (x) asa incat sa nu aiba factor comun modulo 2,
in caz contrar obtinandu-se erori catastrofice (un numar finit de erori la transmisie
produc un numar infinit de erori la decodare )
85
iar secventa de cod va fi:
V = (| u0(1) u0(2) | u1(1) u1(2)| …) = (00 11 10 10 00 01 11)
Evolutia starilor se da in tabelul care urmeaza:
tn tn+1 tn
T i C1 C2 V
1 (u(1)) 2 (u(2))
1 0 0 0 0 0
2 1 1 0 1 1
3 1 1 1 1 0
4 0 0 1 1 0
5 1 1 0 0 0
6 0 0 1 0 1
7 0 0 0 1 1
V (n bit)
n
2
1
Comuta la T/n
o Diagrama de stari
Codorul se realizeaza cu un RD avand M celule, starea codorului la
momentul ti fiind:
(
S (i ) = C1 C2 ... CM
(i ) (i ) (i )
) (i )
unde C j este starea celulei C j la t i ;
secventa de cod generata la momentul ti este complet determinata de starea
anterioara a RD, si de simbolul informational ii; pentru codoarele sistematic
86
(a) si nesistematic (b) date in exemplul anterior, diagramele de stare, in
corespondenta si cu tabelele de evolutia starilor, pentru starile distincte, care
pentru M = 2 sunt doar 4, sunt date mai jos, unde s-a notat pe fiecare arc ce
leaga doua stari simbolul informational/secventa codata: i / V.
a) b)
0/01 0/01 0/11 0/10
01 01
00 →
00
00 M = +2 (calea se valideaza)
00 → 11
10 M = −2 (calea se abandoneaza)
...........................................................................................
10 →
01
01 M = 0 (calea se valideaza la intamplare)
10 → 10
11 M = 0
............................................................................................
01 →
11
00 M = −2 (calea se abandoneaza)
01 → 00
10 M = +2 (calea se valideaza)
............................................................................................
11 →
10
01 M = 0
11 →
01
11 M = 0 (calea se valideaza la intamplare)
0 2 2 2 4 6
00 ο ο ο ο ο ο
0 0 2 4 8 4
01 ο ο ο ο ο ο
0 2 4 2 4 10
10 ο ο ο ο ο ο
0 0 2 6 4 4
11 ο ο ο ο ο ο
t0 t1 t2 t3 t4 t5
89
47. Anexa 1: Modul de generare a cuvintelor codate ciclic
v(x) = a0 ⊕ a1 x ⊕ a2 x2 ⊕…⊕ an-1 xn-1 cu ai ∈ {0, 1},
de catre un polinom generator p(x) de grad n, este prezentat in tabelul care
urmeaza, in care cuvintele sunt reprezentate prin clasele de resturi modulo
p(x). De ex., la clasa denumita “0”, din prima linie, restul impartirii oricarui
element al clasei, prin p(x), este 0.
HvT = 0
90
48. Anexa 2: Unele aplicatii ale teoriei codurilor
− Protectia informatiei digitale prin bitul de verificare la paritate.
− Protectia informatiei prin transmiterea ei repetata si decizie majoritara
− Protectia transmisiilor de date prin coduri detectoare de erori care asigura
formularea cererii de retransmisie daca blocul transmis este eronat
(sisteme ARQ)
− Corectia erorilor in transmisiile de date utilizand coduri iterate
− Protectia memoriilor semiconductoare prin coduri grup corectoare de o
eroare si detectoare de erori duble: k = 16, m = 6, n = 22; k = 32, m = 7,
n = 39; k = 64, m = 8, n = 72.
− Protectia blocurilor de date sau verificarea accesului in diferite protocoale
de comunicatii prin coduri ciclice detectoare de erori bazate pe CRC =
(Cyclic Redundancy Check), cu polinoame generatoare de grad m=3,
m=16.
− Protectia inregistrarii informatiei pe suport magnetic prin coduri ciclice
corectoare de erori simple sau muliple.
− Protectia informatiei in comunicatii satelitare si misiuni spatiale utilizand
variante de coduri ciclice nebinare, corectoare de erori multiple si/sau de
erori in pachete ca de exemplu coduri Fire, coduri Bose-Chauduri-
Hockenguem (BCH), coduri Reed-Solomon.
− Protectia informatiei inregistrate pe CD
− Criptarea informatiei in vederea secretizarii
− Interleaving (intreteserea datelor) pentru a putea proteja prin coduri
corectoare de erori independente informatiile afectate de pachete de erori.
− Protectia vorbirii digitale comprimate in comunicatiile mobile (GSM )
prin coduri ciclice detectoare de erori combinate cu coduri convolutionale
corectoare de erori: In sistemul GSM codarea vorbirii se realizeaza
utilizand o varianta imbunatatita de sistem de compresie bazat pe metoda
predictiei liniare in care fiecare cadru de vorbire avand durata de 20ms
este reprezentat prin 260 biti. Dupa cum se vede in figura, bitii sunt
impartiti in trei clase: 50 biti foarte importanti pentru calitatea vorbirii,
132 biti importanti si 78 biti nu foarte importanti.
91
50 3 132 4
378 78
1
V
2
Comutare
la T/2
C1 C2 C3 C4
I C0