Sunteți pe pagina 1din 26

Bazele Criptologiei

Modul I

Elemente de
Teoria Informaţiei
Claude Shannon -„ A Mathematical Theory of Communication” (1948)
„Bell System Technical Journal”

- „cât de bine trebuie codată informaţia pe care un emiţător vrea să o transmită”


- se bazează pe teoriei probabilităţilor (Norbert Wiener)
- introduce noţiunea de „bit”
- a demonstrat că dacă se adaugă „extrabiţi” unui semnal, se pot corecta erorile de
transmisie

Postulat TI
informaţia poate fi tratată ca o cantitate fizică măsurabilă (densitatea, masa)
- aplicabilitate în comunicaţii, psihologie, lingvistică
Teoria informaţiei
ştiinţa care studiază obţinerea, măsurarea, stocarea, regăsirea,
transmiterea şi prelucrarea informaţiei

Informaţia
- noţiune primară de mare generalitate
- transmiterea unui mesaj nepredictibil
- este un enunţ care elimină o nedeterminare

Istoric
- din cele mai vechi timpuri omul a simţit nevoia de a cunoaşte si de a
folosi informaţia
- rolul pe care-l joaca informatia este cunoscut încă din antichitate
- preocuparea de a o defini şi a o conceptualiza este relativ recentă
Teoria Informaţiei
- ca teorie ştiinţifică – încearcă definirea unei măsuri cantitative a
informaţiei
- initial - încercări ale statisticianul R.A. Fisher
- în 1928 încercări ale inginerul R. Hartley
- în 1948 meritul îi revine lui Claude Shannon
- a propus un model pentru calculul informaţiei
- estimează cantitatea de informaţie conţinută într-un mesaj
- introduce în tehnologia cercetării - procedee de cuantificare a
informaţiei
- introduce concepte de mare valoare euristică
- codificare
- canal de transmisie
- entropie, etc
Shannon
- a urmărit în special aspecte tehnice legate de transmiterea şi
recepţionarea unui mesaj

Numeroşi oameni de ştiinţă au lărgit câmpul de investigare a


informaţiei la
- aspecte semantice
- aspecte pragmatice
substanţă
N. Wiener - a sesizat triada energie
informaţie
materie
- completată mişcare
reflectare
Informaţia - reprezinta o unitate dintre semantică şi purtătorul
fizic al acesteia, semnalul

Semnalele - indicatoare ale realităţii fizice


Informaţiile - semne ale realităţii fizice (în sensul semanticii sau semioticii)

! Explicati diferenta dintre semantica si semiotica

Semnalul devine informaţie: sistemul receptor este impulsionat să aleagă


comportări materiale spirituale (! posibile)

G. Klauss: toate sistemele care valorizează semnale pe linie informaţională au


modele interioare ale realităţii exterioare: informaţia serveşte astfel
pentru completarea sau ameliorarea modelului.
Teoria Informaţiei
- conceptul fundamental - noţiunea de Entropie
(conţinutului informaţiei aflate într-un mesaj)

Shannon
- în comunicaţiile afectate de perturbaţii, semnalul ar putea fi
transmis fără nici un fel de perturbaţii
- dacă mesajul iniţial este codat astfel încât să se autoverifice,
semnalul poate fi transmis cu aceeaşi acurateţe ca şi atunci când
nu ar exista interferenţe pe canalul de comunicaţie
- aplicabilitatea acestei teorii:
- în domeniul construcţiei computerelor
- domenii în care limbajul este foarte important: lingvistica,
psihologia, criptografia şi fonetica
Entropia Informaţională (Shannon) - măsură cantitativă - măsura a
nedeterminării
H(x)= –  pi log pi

! Aplicabilă mărimilor fizice


! Nu se poate aplica şi pentru conţinutul conştiinţei;

Ideea că oamenii sunt canale prin care informaţia „curge” pentru a fi memorată
sau exprimată în comportament (adesea întâlnită în cele mai multe cursuri
introductive de psihologie)

Înţelegem astfel că informaţia are întotdeauna caracter secundar, evidenţiat foarte


bine în cazul conştiinţei umane

Astfel, modelul interior al lumii exterioare are particularităţi calitative date de


esenţa conştiinţei umane (s-a dovedit că probabilităţile în sine sunt, din punct
de vedere psihologic, mai interesante decât logaritmii acestora)
Bitul

Informaţia – concept legat de fenomenele cu caracter aleatoriu

! aprecierea gradului de incertitudine - caracteristică asociată fenomenelor


întâmplătoare

Cantitatea de nedeterminare se măsoară prin raportarea la o unitate de


nedeterminare

Nedeterminarea unitară
evidenţiată prin experiment “aruncarea unei monede”
 indică unitatea de măsură a informaţiei: bitul (“binary digit”)

Bit = cantitatea de informaţie care se obţine în urma eliminării nedeterminării


conţinute de un experiment care pune în evidenţă numai 2 posibilităţi de realizare,
egal probabile apriori

! BAN – DECIBAN DIT – decimal digit


Capacitatea canalului (Shannon)
- în prezent, liniile de comunicaţii sunt măsurate în “biţi pe secundă”
- teoria lui Shannon a făcut posibilă folosirea “bit”- ului în stocarea de date, în
compresia imaginilor, vocii şi a altor date

Teoria comunicaţiilor
- limba este reprezentată printr-un proces stochastic care produce o secvenţă
discretă de simboluri, în concordanţă cu anumite legi probabilistice
- un parametru sigur, D, numit redundanţa limbii - cu rolul de a măsura într-o
oarecare privinţă, cât de mult se poate reduce un text ca lungime, fără să se
piardă ceva din informaţie

Redundanţa - importanţă deosebită în studiul sistemelor secrete

Ex: - în cuvintele din limba engleză după litera „q” urmează întotdeauna litera „u”, aşadar
oricând poate fi omis acest u fără nici o pierdere
- în limba engleză se pot opera reduceri considerabile tocmai datorită structurii sale
statistice, frecvenţelor ridicate ale anumitor litere sau cuvinte, etc.
„Shannon a fost persoana care a văzut că sistemul digital binar este elementul
fundamental în toate tipurile de comunicaţii. Aceasta este, cu adevărat
descoperirea sa şi de aici a început întreaga revoluţie în comunicaţii”
R.G. Gallager, un coleg care a lucrat cu Shannon la M.I.T.

„ Teoria informaţiei s-a dezvoltat atât de mult ca importanţă încât depăşeşte cu mult
realizările sale actuale”

Claude E. Shannon publică în 1949 „Teoria Comunicaţiei Sistemelor Secrete”


contribuţie majoră la dezvoltarea teoriei matematice aplicate în criptografie, demonstrând că
toate cifrurile indecriptabile trebuie să îndeplinească aceleaşi condiţii ca şi sistemele de tip
OTP („one time pad”).

Claude E. Shannon - singurul matematician căruia i s-au ridicat statui în viaţă:


Universitatea Michigan, Institutul Tehnologic Massachusetts (M.I.T.), Gaylord
Michigan, Universitatea San Diego, California şi Bell Labs (laboratoarele Shannon)

“Shannon - cel mai mare om de ştiinţă a secolului XX” (după Robert Gallager)

“Perspectiva pe care a deschis-o acesta ştiinţei numite Teoria Informaţiei este


fundamentală pentru revoluţia digitală iar fiecare aparat conţinând un
microprocesor este, conceptual, un descendent al lucrării publicate de Shannon în
anul 1948” (după Neil Sloane) - A Mathematical Theory of Communication, articol in doua parti aparut in Bell System Technical Journal.
Sistem secret
- o serie de transformări ale unei mulţimi (set de mesaje posibile) într-o altă mulţime
(set de criptograme posibile)
- se presupune că transformările sunt reversibile
- e posibilă o descifrare unică numai în cazul în care se cunoaşte cheia
- fiecare transformare are o probabilitate apriori legată de ea  probabilitatea de
alegere a cheii cu care se face descifrarea
- se presupune că fiecare mesaj are o probabilitate asociată apriori, determinată de
procesul stochastic

! Probabilităţi apriori (ale cheii sau mesajului) - duşmanul criptanalistului


reprezentă cunoştinţele apriori asupra situaţiei

Cifrarea - alegerea unei chei (din mulţimea de chei posibile) şi trimiterea cheii către
corespondent
- transformarea mesajului iniţial în criptogramă, prin aplicarea cifrării cu cheia
selecţionată
- transmiterea criptogramei printr-un canal public, ce poate fi interceptat de
orice persoană
- aplicarea procesul de transformare inversă asupra criptogramei şi obţinerea
mesajului original (avand disponibilă cheia)
Secretul perfect

rezistenţa sistemului
- răspunde la întrebarea cât de sigur este sistemul împotriva atacurilor, când
duşmanul are la dispoziţie timp nelimitat şi forţă de muncă pentru analiza
criptogramelor de care dispune
- problema este strâns legată de comunicaţiile în prezenţa zgomotului, de teoria
entropiei şi de teoria incertitudinii

siguranţa sistemului
- cerinţă - după interceptarea de către adversar a criptogramei, probabilităţile
aposteriori ale criptogramei reprezentând diferite mesaje, să fie aceleaşi-identice
cu probabilităţile apriori ale aceloraşi mesaje înainte de interceptare
- secretul perfect  numărul mesajelor clare este limitat şi numărul de chei
disponibile este cel puţin egal cu mesajele posibile
H(N) – incertitudine ! incertitudinea cheii nu creşte odată cu creşterea lui N

cantitate care măsoară


cât de nesigur este inamicul
statistic cât este de aproape
de mesajul original după
media celor N caractere ale
interceptareaunei
criptogramei de soluţia
criptograme de N litere
unică

Această incertitudine reprezintă un indice teoretic secret


(teoretic în sensul că permite adversarului timp nelimitat pentru analiza criptogramei)

H(N) este determinată teoretic pentru un tip de cifru ideal, ales la întâmplare

! funcţia suferă modificări în aproximarea necesarului de material interceptat – necesar pentru soluţie
unică

H (k )
H(K) - logaritmul numărului de chei posibile (în ipoteza cheilor echiprobabile)
 D
D - redundanţa (constrângerea statistică impusă de limbă, surplusul de informatie din limbă)

distanţa de unicitate
H(X) - entropia mesajului L - nr caracterelor limbii

Rata reală - nr mediu de biţi de informaţie conţinuţi în fiecare caracter


r = H(X)/N

Rata absolută – nr maxim de biţi de informaţie conţinuţi în fiecare caracter


(maximul entropiei unei limbi)
r’=log2L

Redundanţa - D= r’-r Măsura redundanţei limbii este raportul D/r’

Ex. limbii engleze: r’=log226=4,7 biţi/caracter


r - estimat pentru N mare, cuprins între 1,0 şi 1,5 biţi/car
D=r’-r= 3,2 biţi/car - limbă cu redundanţă mare (limbă structurală)
D/r’ = 0,68
Shannon - experimental: intre 0,6 si 1,3.
Distanţa de unicitate – cantitatea minimă de text cifrat, N de
care are nevoie pentru determinarea unică a cheii şi astfel,
spargerea sistemului

H(K/C) - entropia cheii în condiţiile cunoaşterii criptogramei

Distanţa de unicitate – N min, astfel încât H(K/C) se apropie de 0

H(M/C) - entropia mesajului clar, în condiţiile cunoaşterii


criptogramei
Secret ideal - Shannon

H(K/C) nu se apropie de 1 chiar şi în ipoteza accesului la o cantitate infinită de text


cifrat
- termen ce descrie un sistem ce nu atinge secretul perfect dar este sigur pentru că
nu furnizează suficientă informaţie pentru a determina cheia

Sistemele de cifru actuale - mult mai complexe – nu se pot calcula probabilităţile


implicate în calculul distanţei de unicitate  există posibilitatea aproximării
(Shannon, Hellman)

Notaţii

K, H(K)  2H(K) – nr. cheilor posibile  P(K) = 2-H(K)


Distanţa de unicitate
estimată prin modelul cifrului ideal, unde K, C, DK(C) – v.a. i.d. pe 2r’N

DK(C) , pentru K şi C date - se poate obtine orice text cu aceeaşi


probabilitate

Dacă Ci =EKi(Mi) - prin descifrare se obţine o soluţie falsă, F (Ki – cheie


falsă, C Mi, Mj)
Ci=EKi(Mi)=Ekj(Mi)=Ekj(Mj)

Ex.
Criptanalistul interceptează Ci, nu poate să distingă cheia
corectă, deci nu poate sparge sistemul
Pentru descifrarea corectă a unui mesaj particular există 2H(K)-1 chei incorecte,
echiprobabile cu P(F), care produc o soluţie incorectă:
P(F)= 2r’N/ 2rN = 2-DN, D - redundanţa limbii

Numărul aproximativ de soluţii false este:


|F| = [2H(K)-1 ] * P(F)  2H(K)-DN

Cum F descreşte rapid odată cu lungimea mesajului, atunci valoarea


log2|F|  minimizată  H(K)-DN = 0 

punctul de la care nr. de soluţii false este suficient de mic încât


sistemul să poată fi spart 
N = H(K)/D
Interpretare

1 H(K) mult mai mare decât DN  există un număr mare de descifrări cu sens  o
mică vecinătate în care criptanalistul trebuie să distingă care dintre descifrările cu
sens reprezintă mesajul corect.

2 Sens simplist: DN reprezintă nr. de ecuaţii disponibile pentru a afla cheia, iar H(K)
nr de necunoscute
nr. ec < nr. nec  nu există soluţie unică  sistemul nu e spart
nr. nec < nr. ec  există soluţie unică  sistemul nu mai e catalogat ca
imposibil de spart (chiar dacă din punct de vedere
computaţional este încă sigur)
3 Ecuaţia N= H(K)/D indică valoarea utilizată în tehnicile de compresie a datelor
înainte de cifrare
- datele  compresie  scade redundanţa  creşte distanţa de unicitate
- perfecţiunea compresiei datelor s-ar putea obţine pentru D=0 şi N  , din
orice dimensiune de cheie
EVALUAREA SISTEMELOR SECRETE

Cele mai importante criterii:

Cantitatea de secret (inamicul nu dobândeşte informaţii în plus despre mesaj


după interceptarea oricărei cantităţi de material cifrat sau, deşi se pot
obţine ceva informaţii în plus, acestea nu conduc la o soluţie unică pentru
criptogramele interceptate; este necesară foarte multă muncă şi material
cifrat pentru a ajunge la o soluţie unică);

Mărimea cheii (cheia trebuie să fie cât mai mică, dar să fie totuşi sigură);

Complexitatea operaţiei de cifrare/descifrare (operaţii cât mai simple);

Propagarea erorilor (minimizarea expansiunii erorilor);

Alungirea mesajului (nu este de dorit)


Proprietati entropie
Pentru X=0 (constant) atunci avem H(x) = 0

Singurul caz in care H(x) = 0 apare cand x = ct.


In toate celelalte cazuri , H(x) >0

Daca X  {0,1} si
Prob[X=0] = p iar Prob[X=1]=1-p,atunci
H(X) = -p log p + (1-p) log (1-p) ≡ H(p)

Daca X  {0,1}n si variabila este uniform distribuita, atunci


H(X) = - ∑ x  {0,1}n 1/2n log 1/2n =- 2n/2n (-n) = n
Entropia este limitata
H(X) ≤ log | Γ |
avem egalitate doar daca X este uniform distribuit peste alfabetul Γ

Daca X este o v. a. peste alfabetul Γ, cu distributia de probabilitate Px ,

entropia minima pentru X verifica relatia:

Hmin(X) = - log max x Γ Px (x)

Proprietate
Hmin(X) ≤ H(X)

? Evenimente echiprobabile
? Este entropia maxima suficient de buna pentru identificare

Ex. Alice si Bob – comunica; stabilesc pe X  {0,1}n unde X are


entropie maxima (ex. H(X) ≥ n/2 )

Care sunt sansele unui adversar, Eve, de a ghici trisand?


– Prob[X=0n ] = 1/2
– Pentru orice x 1{0,1} n-1 , Prob[X=x ] = 1/2n

Atunci:
H(X) = n/2+1/2

Eve poate trisa cu probabilitatea de cel putin ½ presupunand


ca X=0n
Aplicabilitate
Entropia minima si parolele

Ipoteza:
Alice and Bob stabilesc de comun acord ca
Hmin(X) ≥ m,
atunci, probabilitatea ca Eve sa poata ghici partea
necunoscuta este, in medie, de 2-m incercari

- consideram procesul realizat de Eve deterministic; alegand cea mai buna solutie, X’
= x’, avem:
Prob[X=x’] = Px (x’) ≤ max x Γ Px (x) = 2 –Hmin(X) ≤ 2-m

Concluzie: parola trebuie aleasa astfel incat sa aiba cea mai


mare entropie-minima!
Bibliografie

T. Cover and J. A. Thomas, Elements of Information Theory

http://www.fi.muni.cz/~xbouda1/teaching/2010/IV111/lec
ture8.pdf

S-ar putea să vă placă și