Sunteți pe pagina 1din 6

3.

Caracteristicile STI și surse de informație

3.1. Caracteristici de bază ale STI

STI este caracterizat de câţiva parametri şi anume:


1. Stabilitatea la zgomot – capacitatea STI de a se
opune acţiunii zgomotului.
Pentru caracterizarea stabilităţii la zgomot în STI
discrete se utilizează noţiunea de probabilitate de eroare P
care este în funcţie de raportul semnal/zgomot (1.2)
P = f (PS PZ ) , (1.2)
unde: PS – puterea semnalului; PZ – puterea zgomotului.
În STI analogice, pentru caracterizarea stabilităţii la
zgomot, se utilizează noţiunea de abatere medie pătratică a
semnalului recepţionat faţă de cel transmis (1.3):

T
 2 =  u(t ) − u
~ (t )2 dt , (1.3)
0
unde: u(t ), u
~(t ) corespund mesajului transmis şi respectiv
celui recepţionat.
2. Viteza de transmisiune – numărul de pachete de
informaţie transmisă într-o secundă. Viteza de transmisiune
are ca unitate de măsură bodul. În sistemele de transmi-
siune digitale viteza de transmisiune se măsoară în biţi/s.
3. Volumul canalului – produsul a trei parametri ai
canalului: intervalul de timp ( TC ), banda de frecvenţă ( FC ) şi
diapazonul dinamic ( D C ):
VC = TC  FC  DC . (1.4)
La proiectarea STI e necesară îndeplinirea condiţiei:
VC  VS , (1.5)
unde: VS – volumul semnalului.

3.2. Zgomote în sistemul de transmisiune a


informaţiei

În procesul trecerii prin canalele reale de transmisiune,


semnalele sunt supuse unor distorsiuni, de aceea mesajul se
recepţionează cu erori. Aceste erori sunt condiţionate de
caracteristicile neliniare ale tractului de transmisiune şi de
zgomotele ce acţionează asupra semnalului (figura 1.2).
Zgomotul reprezintă orice acţiune aleatoare asupra
semnalului, care duce la micşorarea veridicităţii mesajului
transmis.
Zgomotele în funcţie de sursa de producere pot fi
clasificate astfel:
• interne – care se datorează aparatajului utilizat în STI;
• externe – datorate factorilor externi (descărcări
electrice, variaţii bruşte în reţea, influenţa altor canale).

Zgomot

Canal
Semnal
recepţionat
Semnal transmis

Figura 1.2. Influenţa zgomotului asupra semnalului transmis

Influenţa zgomotului asupra semnalului recepţionat


poate fi prezentată în forma (1.6):
Z(t ) = f S(t ), n(t ) , (1.6)
unde: Z(t ) – semnalul recepţionat, S (t ) – semnalul
transmis; n (t ) – zgomotul.
În funcţie de caracterul interacţiuni cu semnalul,
zgomotele se divizează astfel:
• Aditive – transformă semnalul recepţionat conform
relaţiei (1.7):
Z(t ) = S(t ) + n(t ) . (1.7)
• Multiplicative – transformă semnalul recepţionat
conform relaţiei (1.8):
Z(t ) = S(t )  n(t ) . (1.8)
În canalele de transmisiune reale zgomotul poate fi atât
aditiv, cât şi multiplicativ
Z(t ) = S(t )  n1 (t ) + n 2 (t ) . (1.9)
În acest caz, influenţa zgomotului în linia de
transmisiune poate fi reprezentată prin schema din figura 1.3.
S(t) S(t)n1(t)+n2(t)

n1(t) n2(t)
Figura 1.3. Influenţa zgomotului în linia de transmisiune

3.3. Clasificarea surselor de informație

Sursele de informaţie în funcţie de setul de simboluri pe


care le formează se clasifică astfel:
• surse analogice de informaţie – formează un set
continuu de simboluri de valoare continuă;
• surse discrete de informaţie - formează un set limitat
de simboluri de valoare stabilită.
Sursele discrete de informaţie se împart la rândul lor în:
• surse discrete fără memorie - emisia unui simbol este
independentă de simbolurile precedente
• surse discrete cu memorie – emisia unui simbol
depinde de simbolurile emise anterior.

3.4. Surse discrete de informație

O sursă discretă de informaţie fără memorie se


caracterizează printr-un număr finit de simboluri S i
comunicate de sursa cu probabilităţile p (S i ) . Astfel se
notează tabloul simbolurilor:
S = [S 1 , S 2 ,...S n ] ; (1.10)
şi tabloul probabilităţilor

p(S) = p(S1 ),p(S 2 ),...p(Sn ) .  (1.11)
Cantitatea de informaţie obţinută prin apariţia unui
simbol S i este:

I(S i ) = log b = − log b p(S i ) .


1
(1.12)
p(S i )
În funcţie de valoarea lui b, se definesc unităţile de
măsură pentru informaţie:

b = 2  log 2 2 = 1bit ;
b = e  ln e = 1 nit ;
b = 10  lg 10 = 1 dit .

Cel mai des este folosită unitatea binară bit, de aceea,


în continuare, se va scrie simbolul logaritmului log p (S i ) fără
indicarea bazei, subînţelegând că b = 2 .
Pentru caracterizarea surselor din punct de vedere
informaţional, se folosesc următoarele mărimi:
• Entropia sursei H(S ) reprezintă valoarea medie a
informaţiei proprii pe un simbol al sursei [bitsimbol]:
n
H(S ) =  p(S i )log
1
=
i =1 p(S i )
(1.13)
n
= −  p(S i )log p(S i ) bit / simbol 
i =1
Entropia va lua valoare maximă atunci când simbolurile
Si sunt independente şi au aceeaşi probabilitate. Entropia
maximă se determină astfel:
Hmax (S) = log n [bit / simbol ] . (1.14)
• Redundanţa sursei care are două forme:
- forma absolută R (S ) :
R(S) = Hmax (S) − H(S) [bit / simbol ] ; (1.15)
- forma relativă (S ) :
H (S ) − H (S ) H( S )
(S) = max = 1− . (1.16)
H max (S) H max (S)

• Eficienţa sursei (S ) :


H (S )
(S ) = . (1.17)
H max (S )
• Debitul sursei H t (S ) :
H (S )
H t (S ) = [bit / simbol  s] , (1.18)

unde  este durata medie a simbolului:
n
 =  p( S i )   i , (1.19)
i =1
unde  i este durata simbolului S i .
Cantitatea informaţiei conţinute în K mesaje compuse
din simbolurile echiprobabile şi independente ale sursei cu
volumul alfabetului n este egală:
I = K  log n , (1.20)
iar pentru simbolurile neechiprobabile:
I = KH ( x) . (1.21)
Sursa discretă de informaţie cu memorie este sursa de
informaţie de n simboluri pentru care emisia unui simbol
depinde de m simboluri anterior emise. Analiza acestor surse
este mai sofisticată, de aceea nu este studiată în lucrarea
dată.

S-ar putea să vă placă și