Documente Academic
Documente Profesional
Documente Cultură
(semnificație, simbol)
Implicatia:
• Evenimentul A implică evenimentul B
• Producerea evenimentului A conduce automat la producerea evenimentului B
Reuniunea:
Operaţie binară care constă în producerea cel puţin a unuia din cele doua evenimente (A sau B)
Informaţia este o măsură a incertitudinii în procesul alegerii unui eveniment dintr-un număr de
evenimente posibile, cea mai simplă alegere este alegerea între două evenimente.
Presupunem ca intr-o situatie oarecare se pot produce N evenimente diferite, egal probabile;
probabilitatea unui eveniment este p.
p=1/N.
Cu cat evenimentul este mai previzibil, cantiatea de informatie e mai mare.
Cantitatea de informaţie ce se obţine când se realizează un şir tipic Xn este:
Sursă discreta fără memorie = o sursă la care probabilitatea de apariţie a unui simbol nu
depinde de simbolurile precedente generate de sursă.
Sursă discreta cu memorie = o sursă la care probabilitatea de apariţie a unui simbol depinde de
simbolul precedent sau de un şir de simboluri anterioare generate de sursa.
8. Definiți entropia unei surse (analitic, unitate de măsură, semnificație).
- Entropia unei surse multiple = produsul cartezian al mai multor surse simple (nu numai
două), se poate stabili recursiv, pornind de la două surse renunţănd la scrierea indicilor.
- Daca pentru evenimentele care pot fi generate de o sursa de informatie se afla evenimentul
sigur => entropia nula.
11. Pentru ce este folosit modelul Markov în teoria surselor de informație? Care sunt parametrii
în modelul Markov?
14. Explicați semnificația unui element din matricea probabilităților de tranziție asociată unei
surse Markov de ordin m:
Suma probabilităţilor pe linie este egală cu 1 = suma probabilităţilor ca plecând din starea i să se
ajungă în una din cele n stări posibile Sm;j
O sursa Markov este ergodica daca dupa un nr. finit de pasi exista
probabilitatea de a trece inorice stare cu probabilitati ne-nule. O sursă Markov
ergodică este o sursă care observată timp îndelungat generează o secvenţă
care este tipică. Cele mai multe surse Markov sunt surse ergodice
16. Explicați proprietatea de staționaritate a surselor Markov. Numiți instrumentul matematic
folosit pentru a caracteriza staționaritatea unei surse Markov.
17. Explicați termenii din relația de definiție a entropiei unei surse Markov:
18. Elementele din matricea ce este atașată unui canal de comunicare sunt P(bj/ai)=Pij.
A={ai}, i=1,2, …, r reprezintă alfabetul de intrare (simboluri aplicate la intrarea în canal)
B={bj}, j=1,2, …, s reprezintă alfabetul de ieșire (simboluri observate la ieșirea din canal)
Explicați semnificația unui element al matricii atașată canalului (Matricea P).
Unui canal I se ataseaza o matrice care are ca element probabilitati conditionate P(bj|ai).
P(bj|ai) = Pij, unde I=1->r (linii), j=1->s (coloane).
- Unui canal i se ataşează o matrice care are ca elemente probabilităţile condiţionate P(bj /ai )
din definiţie (r-linii * s-coloane).
P(bj/ai)=Pij => i ia valori de la 1 la r (dimensiunea alfabetului de intrare)
j ia valori de la 1 la s (dimensiunea alfabetului de ieșire)
Proprietati:
1. Fiecare linie corespunde unui simbol de intrare.
2. Fiecare coloană corespunde unui simbol de ieşire.
3. Trimiterea unui simbol ai produce întotdeauna un simbol bj la ieşire
(suma probabilităţilor depe o linie este egală cu unitatea)
22. Ce reprezintă entropia apriori pentru un canal de comunicație? Explicați elementele din relația
de definiție:
H(A) = entropia apriori a sursei de la intrare (incertitudinea medie la intrarea canalului inainte
de a observa iesirea).
P(a) = probabilitatea apriori ale simbolurilor la intrarea canalului
Relatia reprezintă incertitudinea medie la intrarea canalului înainte de a observa ieşirea.
H(A/B) – incertitudinea medie la intrarea canalului după observarea ieşirii (Echivocaţia intrării la
ieşire).
H(A) = incertitudinea medie la intrarea canalului înainte de observarea ieşirii (Entropia apriori)
H(A/B) = incertitudinea medie la intrarea canalului după observarea ieşirii (Echivocaţia intrării la
ieşire)
H(A)-H(A/B) exprima efectul canalului (operaţia de transmitere a informaţiei generate la
intrarea canalului).
27. Ce fel de canal este cel care are următoarea matrice asociata:
28. Ce fel de canal este cel care are următoarea matrice asociată:
Canal determinist
Particularitatea matricei P – pe fiecare linie are un singur element nenul şi acela este
29. Explicați semnificația capacității unui canal de comunicație pe baza relației de definiție:
30. Definiția capacității unui canal de comunicație conform Teoremei Shannon-Hartley este
următoarea:
Cod instantaneu = cod unic decodabil pentru care orice cuvânt într-o secvenţă se poate decoda
fără referire la alte simboluri succesive ale canalului.
Un cod care este unic decodabil dar nu este instantaneu cere memorarea temporară la
recepţie a cuvintelor de cod anterioare şi a cuvântului curent pentru a obţine o decodare
corectă.
35. Completați în reprezentarea următoare categoriile de coduri în pozițiile corespunzătoare
(coduri unic decodabile, coduri instantanee și coduri nesingulare):
Inegalitatea lui Kraft = exprima conditia pentru ca un cod instantaneu cu lingimile l1, l2...lm sa existe.
m = simboluri
l = lungime de cod
r = nr de cuvinte de cod
Conform teoremei lui Mc. Millan, pentru fiecare cod unic decodabil neinstantaneu poate fi
stabilit un cod instantaneu cu aceleaşi lungimi ale cuvintelor.
38.Care este relația de calcul pentru lungimea medie a cuvintelor unui cod?
39.Care este însușirea unui cod compact pentru codarea simbolurilor unei surse de informație?
Cod-ul este compact dacă lungimea lui medie este mai mică sau cel mult egală (<=) cu lungimea
medie a oricărui alt cod unic decodabil care utilizează acelaşi alfabet pentru codarea
simbolurilor sursei date.
pi r li L H r S
43.Teorema lui Shannon de codare pentru canale fără petubații este exprimată prin relația:
Teorema de codare a lui Shannon impune o limită superioară pentru lungimea medie L a codurilor
compacte şi arată cum este posibilă obţinerea unui cod eficient prin extinderi ale schemei de codare
S = sursa de informatie.
Hr(S) = entropia.
R = Viteza de transmitere a codorului
C = capacitatea canalului fără perturbaţii
Ln
lim H r S lim R C
n n n
Distanta minima d(k) a unui cod K = cea mai mică distanţă Hamming între două cuvinte ale
codului.
46. Ce puteți spunde despre un cod pentru care distanța minimă d(k) satisface relația: dk t.
Dar dacă satisface relația? dk 2t
d(k)>t => Un cod detectează toate cuvintele în care t biţi sunt eronaţi dacă distanţa lui minimă
este superioară lui t.
d(k)>2t => Un cod poate corecta t biţi eronaţi (la recepţie) dacă distanţa lui minimă este mai
mare decât 2t
47.Cum se construiește un cod cu paritate constantă? Dar un cod cu repetiție?
Regula după care se formează un cod cu paritate constantă este: se adaugă un bit la codul originar
care să fie suma biţilor de aceeaşi paritate
– Sumă cu paritate pară
– Sumă cu paritate impară
Codurile cu paritate constanta
N=L+1
o Se adauga un bit la codul original (suma biti de aceeasi paritate)
Codurile cu repetitive
Cod binar liniar = cod care are particularitatea ca 2k cuvinte de lungime n satisfac (n-k) ecuaţii
liniare în biţii xi, i=1, 2, ..., n
Orice sistem liniar şi omogen de (n-k) ecuaţii cu n necunoscute binare se asociază unui cod liniar.
Este cunoscut că în anumite condiţii (condiţii de rang maximal pentru matricea sistemului), un sistem
de (n-k) ecuaţii cu n necunoscute, are n-(n-k)=k necunoscute independente. Acest sistem are 2 k
soluţii distincte (în binar)
49.Ce particularitate au codurile liniare sistematice? Care este avantajul pe care îl aduce această
particularitate?