Sunteți pe pagina 1din 12

Informatia

Teoria informaiei s-a impus n comunitatea oamenilor de tiin i n


special a inginerilor fixnd un cadru general de abordare a problemelor
legate de comunicaii (telecomunicaii). Acest cadru teoretic permite
definirea i evaluarea performanelor precum i a unor limite
fundamentale pentru diverse sisteme de comunicaii. Rezultatele iniiale
au fost obinute de inginerul englez Claude Shannon i au fost orientate n
a stabili modul de organizare a unui sistem de transmitere a informaiei pe
canale perturbate astfel ca probabilitatea recepionrii unor semnale
eronate s fie mai mic dect o valoare impus. Cum vehicularea
informaiei este puternic dependent de tipul i proprietile canalului
utilizat a fost definit capacitatea unui canal de comunicaii. Pentru o
corect definire a problemelor analizate s-a introdus noiunea de surs
aleatoare de semnale discrete (care substituie conversia i transmisia
semnalelor video sau audio). Aceste surse sunt n general extrem de
complexe ; prelucrarea primar n ideea transmiterii la distan produce
distorsiuni n raport de forma real iniial. Astfel de surse sunt definite ca
surse entropice.

Pornind de la lucrrile de pionierat elaborate de Shannon , teoria informaiei
a fost dezvoltat ulterior permind lrgirea cadrului n care aceast teorie
este aplicat cu succes. Domeniul de aplicabilitate este foarte larg . n
continuare vom enumera numai cteva domenii de aplicabilitate:
fizica statistic (termodinamic , fizic cuantic)
tiina calculatoarelor ( complexitatea algoritmilor , probleme de
calculabilitate)
teoria probabilitilor ( teorema limitei centrale)
statistica matematic ( testarea ipotezelor statistice , teoria informaiei de
tip Fisher , teoria estimaiei)
economie
biologie
criptografie ( securizarea transmiterii datelor)
reele de comunicaii
Schema generala
Sursa primar este modelat n general ca generator de semnal aleatoriu discret
sau continuu.
Codorul de surs realizeaz conversia semnalului dat de surs pentru a obine o
compactare a semnalului oferit de surs , eliminnd elementele lipsite de coninut
sau redundante (compactarea semnalului iniial).
Codorul de canal realizeaz o conversie a semnalului astfel nct acesta s poat
fi reprodus la recepie cu o ct mai mare fidelitate. n general este necesar
introducerea unei redundane pentru ca recepie semnalul s fie recunoscut chiar
dac acesta a fost modificat datorit unor perturbaii mai mult sau mai puin
puternice ce apar pe canalul de transmisie.
Modulatorul transmiterea pe canale perturbate a unor semnale de tip tot sau
nimic (impulsuri rectangulare) este puternic afectat de zgomotele
perturbatoare. n general , semnalele obinute de la codorul de canal sunt
compuse pe o purttoare sinusoidal ( semnalul iniial, i care formeaz intrarea n
modulator modific unul din parametrii unui semnal sinusoidal i care se transmite
pe canal).
Canalul fizic mediu prin intermediu cruia se transmite informaia i asupra
cruia acioneaz zgomotele perturbatoare. n cazul nostru vom modela efectul
perturbaiilor prin probabilitatea ca un semnal s fie recepionat eronat de ctre
receptor.
Canalul receptor compus din demodulator, decodor de canal, decodor de surs
realizeaz operaii inverse n raport cu cele din canalul de emisie.

Ce reprezint informaia ?.

Informaia reprezint un mesaj ateptat i
recunoscut de ctre receptor dar incert n faza iniial.
Oricare mesaj recepionat care ofer rezultate
cunoscute nu nltur nici o incertitudine i prin urmare
nu aduce nici o informaie. Prin urmare numai
eliminarea unei incertitudini poate aduce informaii. O
astfel de abordare va conduce la posibilitatea definirii
nu numai a informaiei dar i a cantitii de informaie
care s o poat defini cantitativ.
Dup ce am obinut informaia problema care se
pune este de a o memora sau vehicula.

Cum reprezentm informaia n ideea memorrii sau
vehiculrii ct mai comod
Cel mai eficient i totodat natural mod de a memora sau
vehicula informaia este introducerea unor simboluri i a
unor reguli de concatenare a acestor simboluri. Astfel n
limba romn exist 24 de simboluri i prin concatenarea
acestora putem transmite sau memora oricare mesaj. Un
alt exemplu, mult mai apropiat de preocuprile inginerului,
l reprezint concatenarea simbolurilor 0 i 1 (modalitate
utilizat n dispozitivelor numerice de calcul sau n cazul
transmisiei de date numerice.
Totalitatea mesajelor ce pot fi formate reprezint un
dicionar al cuvintelor de cod. n funcie de modul de
definire, lungimea cuvintelor de cod poate fi diferit de la
un dicionar la un alt dicionar
Care este forma ce mai economic pentru
reprezentarea unui mesaj informaional ?.
Considerm cazul n care patru evenimente
trebuie codate cu ajutorul simbolurilor 0 i 1.
Dintre multitudinea de posibiliti de formare
a unui dicionar n tabelul 1.1 sunt prezentate
dou cazuri.

Eveniment Probabilitatea Cod1 Cod2
A 1/2 00 0
B 1/4 01 10
C 1/8 10 110
D 1/8 11 111
Problema care se pune este de a aprecia n ce msur este
mai eficient sau mai puin eficient reprezentarea printr-un
cod sau cellalt cod. Considerm c probabilitatea de apariie
a celor patru evenimente este diferit . Valorile
probabilitilor de apariie sunt date n tabelul 1.1. Prin
urmare media biilor de cod utilizai n cele dou coduri
prezentate va fi:





Evident, cel de al doilea cod este mai compact (mai economic)
n raport cu primul avnd o medie a cuvintelor de cod mai
mic. Problema minimizrii lungimii medii va fi analizat
ulterior.
Cum poate fi msurat informaia ?
Am specificat anterior c un mesaj care elimin o incertitudine este un
mesaj purttor de informaie. Cu ct incertitudinea eliminat este mai
mare cu att cantitatea de informaie coninut de acest mesaj este mai
mare. Este normal s considerm c apariia a dou evenimente elimin o
incertitudine care reprezint suma incertitudinilor eliminate de apariia
fiecrui eveniment. n cazul a dou evenimente a cror probabilitate difer
foarte puin diferena dintre incertitudinile eliminate de fiecare
eveniment. De exemplu pentru dou evenimente cu probabiliti 0.20001
i 0.19999 este rezonabil s considerm c informaia este aceeai. Vom
arta n cele ce urmeaz c numai funcia logaritmic poate asigura
proprietile anterior remarcate i poate constitui o msur pentru
informaia proprie.
n modul n care am abordat problema cantitatea de informaie este
asociat fiecrui eveniment. Pentru caracterizarea global vom introduce
o funcie care evalueaz informaia medie a unei surse i care este definit
ca funcia entropie.

Cum poate fi msurat informaia ?
n exemplu anterior prezentat am artat c evaluarea unui cod trebuie s se bazeze pe
lungimea medie a cuvintelor de cod . O asemenea evaluare poate permite
dimensionarea optim a memoriei necesare nregistrrii mesajelor obinute de la sursa
primar.
n 1948 Shannon a artat c cele dou abordri ( prin lungimea medie a
cuvintelor de cod sau prin cantitatea medie de informaie coninut de surs ) sunt de
fapt echivalente. Valoarea minim pentru lungimea medie a cuvintelor de cod este
egal cu entropia sursei. Pentru cazul prezentat entropia sursei va fi:


valoare care este identic cu valoarea de minim a lungimii cuvintelor de cod (cazul celui
de al doilea cod introdus).
n cazul n care informaia este transmis pe canale afectate de zgomot (canale
perturbate ) problema se va pune i inerent va fi soluionat n mod diferit. Dac pentru
canale neperturbate ne propunem exclusiv minimizarea lungimii cuvintelor de cod
pentru a asigura o eficien maxim transmisiei, n cazul canalelor perturbate este
necesar s asigurm o recepionare corect a mesajelor transmise. n cazul unui canal
binar care opereaz pe simbolurile 0 i 1 este posibil ca datorit perturbaiilor n
recepie 1 s fie interpretat ca 0 sau 0 ca 1. Dac impunem transmiterea simbolului s
fie repetat de un numr de ori iar interpretarea n recepie s fie fcut printr-o logic
majoritar probabilitatea de recepionare a unui mesaj eronat scade foarte mult. Prin
urmare creterea redundanei codului crete fiabilitatea transmisiei dar diminueaz
considerabil eficiena
Fiind dat un canal perturbat cum putem maximiza eficiena
transmisiei pentru o rat de eroare pe fiecare simbol
informaional ct mai mic

S-ar putea să vă placă și