Documente Academic
Documente Profesional
Documente Cultură
Modul I
Elemente de
Teoria Informaţiei
Claude Shannon -„ A Mathematical Theory of Communication” (1948)
„Bell System Technical Journal”
Postulat TI
informaţia poate fi tratată ca o cantitate fizică măsurabilă (densitatea, masa)
- aplicabilitate în comunicaţii, psihologie, lingvistică
Teoria informaţiei
ştiinţa care studiază obţinerea, măsurarea, stocarea, regăsirea,
transmiterea şi prelucrarea informaţiei
Informaţia
- noţiune primară de mare generalitate
- transmiterea unui mesaj nepredictibil
- este un enunţ care elimină o nedeterminare
Istoric
- din cele mai vechi timpuri omul a simţit nevoia de a cunoaşte si de a
folosi informaţia
- rolul pe care-l joaca informatia este cunoscut încă din antichitate
- preocuparea de a o defini şi a o conceptualiza este relativ recentă
Teoria Informaţiei
- ca teorie ştiinţifică – încearcă definirea unei măsuri cantitative a
informaţiei
- initial - încercări ale statisticianul R.A. Fisher
- în 1928 încercări ale inginerul R. Hartley
- în 1948 meritul îi revine lui Claude Shannon
- a propus un model pentru calculul informaţiei
- estimează cantitatea de informaţie conţinută într-un mesaj
- introduce în tehnologia cercetării - procedee de cuantificare a
informaţiei
- introduce concepte de mare valoare euristică
- codificare
- canal de transmisie
- entropie, etc
Shannon
- a urmărit în special aspecte tehnice legate de transmiterea şi
recepţionarea unui mesaj
Shannon
- în comunicaţiile afectate de perturbaţii, semnalul ar putea fi
transmis fără nici un fel de perturbaţii
- dacă mesajul iniţial este codat astfel încât să se autoverifice,
semnalul poate fi transmis cu aceeaşi acurateţe ca şi atunci când
nu ar exista interferenţe pe canalul de comunicaţie
- aplicabilitatea acestei teorii:
- în domeniul construcţiei computerelor
- domenii în care limbajul este foarte important: lingvistica,
psihologia, criptografia şi fonetica
Entropia Informaţională (Shannon) - măsură cantitativă - măsura a
nedeterminării
H(x)= – pi log pi
Ideea că oamenii sunt canale prin care informaţia „curge” pentru a fi memorată
sau exprimată în comportament (adesea întâlnită în cele mai multe cursuri
introductive de psihologie)
Nedeterminarea unitară
evidenţiată prin experiment “aruncarea unei monede”
indică unitatea de măsură a informaţiei: bitul (“binary digit”)
Teoria comunicaţiilor
- limba este reprezentată printr-un proces stochastic care produce o secvenţă
discretă de simboluri, în concordanţă cu anumite legi probabilistice
- un parametru sigur, D, numit redundanţa limbii - cu rolul de a măsura într-o
oarecare privinţă, cât de mult se poate reduce un text ca lungime, fără să se
piardă ceva din informaţie
Ex: - în cuvintele din limba engleză după litera „q” urmează întotdeauna litera „u”, aşadar
oricând poate fi omis acest u fără nici o pierdere
- în limba engleză se pot opera reduceri considerabile tocmai datorită structurii sale
statistice, frecvenţelor ridicate ale anumitor litere sau cuvinte, etc.
„Shannon a fost persoana care a văzut că sistemul digital binar este elementul
fundamental în toate tipurile de comunicaţii. Aceasta este, cu adevărat
descoperirea sa şi de aici a început întreaga revoluţie în comunicaţii”
R.G. Gallager, un coleg care a lucrat cu Shannon la M.I.T.
„ Teoria informaţiei s-a dezvoltat atât de mult ca importanţă încât depăşeşte cu mult
realizările sale actuale”
“Shannon - cel mai mare om de ştiinţă a secolului XX” (după Robert Gallager)
Cifrarea - alegerea unei chei (din mulţimea de chei posibile) şi trimiterea cheii către
corespondent
- transformarea mesajului iniţial în criptogramă, prin aplicarea cifrării cu cheia
selecţionată
- transmiterea criptogramei printr-un canal public, ce poate fi interceptat de
orice persoană
- aplicarea procesul de transformare inversă asupra criptogramei şi obţinerea
mesajului original (avand disponibilă cheia)
Secretul perfect
rezistenţa sistemului
- răspunde la întrebarea cât de sigur este sistemul împotriva atacurilor, când
duşmanul are la dispoziţie timp nelimitat şi forţă de muncă pentru analiza
criptogramelor de care dispune
- problema este strâns legată de comunicaţiile în prezenţa zgomotului, de teoria
entropiei şi de teoria incertitudinii
siguranţa sistemului
- cerinţă - după interceptarea de către adversar a criptogramei, probabilităţile
aposteriori ale criptogramei reprezentând diferite mesaje, să fie aceleaşi-identice
cu probabilităţile apriori ale aceloraşi mesaje înainte de interceptare
- secretul perfect numărul mesajelor clare este limitat şi numărul de chei
disponibile este cel puţin egal cu mesajele posibile
H(N) – incertitudine ! incertitudinea cheii nu creşte odată cu creşterea lui N
H(N) este determinată teoretic pentru un tip de cifru ideal, ales la întâmplare
! funcţia suferă modificări în aproximarea necesarului de material interceptat – necesar pentru soluţie
unică
H (k )
H(K) - logaritmul numărului de chei posibile (în ipoteza cheilor echiprobabile)
D
D - redundanţa (constrângerea statistică impusă de limbă, surplusul de informatie din limbă)
distanţa de unicitate
H(X) - entropia mesajului L - nr caracterelor limbii
Notaţii
Ex.
Criptanalistul interceptează Ci, nu poate să distingă cheia
corectă, deci nu poate sparge sistemul
Pentru descifrarea corectă a unui mesaj particular există 2H(K)-1 chei incorecte,
echiprobabile cu P(F), care produc o soluţie incorectă:
P(F)= 2r’N/ 2rN = 2-DN, D - redundanţa limbii
1 H(K) mult mai mare decât DN există un număr mare de descifrări cu sens o
mică vecinătate în care criptanalistul trebuie să distingă care dintre descifrările cu
sens reprezintă mesajul corect.
2 Sens simplist: DN reprezintă nr. de ecuaţii disponibile pentru a afla cheia, iar H(K)
nr de necunoscute
nr. ec < nr. nec nu există soluţie unică sistemul nu e spart
nr. nec < nr. ec există soluţie unică sistemul nu mai e catalogat ca
imposibil de spart (chiar dacă din punct de vedere
computaţional este încă sigur)
3 Ecuaţia N= H(K)/D indică valoarea utilizată în tehnicile de compresie a datelor
înainte de cifrare
- datele compresie scade redundanţa creşte distanţa de unicitate
- perfecţiunea compresiei datelor s-ar putea obţine pentru D=0 şi N , din
orice dimensiune de cheie
EVALUAREA SISTEMELOR SECRETE
Mărimea cheii (cheia trebuie să fie cât mai mică, dar să fie totuşi sigură);
Daca X {0,1} si
Prob[X=0] = p iar Prob[X=1]=1-p,atunci
H(X) = -p log p + (1-p) log (1-p) ≡ H(p)
Proprietate
Hmin(X) ≤ H(X)
? Evenimente echiprobabile
? Este entropia maxima suficient de buna pentru identificare
Atunci:
H(X) = n/2+1/2
Ipoteza:
Alice and Bob stabilesc de comun acord ca
Hmin(X) ≥ m,
atunci, probabilitatea ca Eve sa poata ghici partea
necunoscuta este, in medie, de 2-m incercari
- consideram procesul realizat de Eve deterministic; alegand cea mai buna solutie, X’
= x’, avem:
Prob[X=x’] = Px (x’) ≤ max x Γ Px (x) = 2 –Hmin(X) ≤ 2-m
http://www.fi.muni.cz/~xbouda1/teaching/2010/IV111/lec
ture8.pdf