Documente Academic
Documente Profesional
Documente Cultură
Sistemas y Electrónica
PERIODO 2019
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
ENTROPÍA E INFORMACIÓN
EN EL CASO DISCRETO.
SUMARIO
1. ENTROPÍA E INFORMACIÓN EN EL CASO DISCRETO.
2. INCERTIDUMBRE E INFORMACIÓN.
3. LA MEDIDA DE HARTLEY.
4. PROPIEDADES DE LA ENTROPÍA.
5. ENTROPÍA CONDICIONADA, LEY DE ENTROPÍAS TOTALES,
INFORMACIÓN ENTRE VARIABLES DISCRETAS.
BIBLIOGRAFIA
Bibliografía base:
• Thomas Cover and Joy A. Thomas, "Elements of Information Theory". De
John Willey & Sons.
• Shu Lin & Daniel Costello. "Error Control Coding". Ed. Prentice Hall.
Bibliografía complementaria:
• GIL ÁLVAREZ, P. Teoría matemática de la información.
H(X, Y) = -0.25 log 0.25 – 0.1 log 0.1 – 0.3 log 0.3 – 0.05 log 0.05 – 0.1log 0.1 – 0.05
log 0.05 – 0.1 log 0.1 – 0.5 log 0.5 = 2.665 bits
H(X|Y) = -p(x1,y1) log p(x1|y1) - p(x2,y1) log p(x2|y1) - p(x2,y2) log p(x2|y2) -
p(x3,y2) log p(x3|y2) - p(x4,y3) log p(x4|y3) - p(x4,y4) log p(x4|y4)-
p(x5,y3) log p(x5|y3) - p(x5,y4) log p(x5|y4)= 0.809 bits
H(X|Y) = 0.35 H(0.25/0.35, 0.1/0.35)+ 0.35 H(0.3/0.35, 0.05/0.35)+ 0.2 H(0.1/0.2,
0.05/0.2, 0.05/0.2)+ 0.1 H(0.1/0.1)= 0.809 bits
La entropía denota el mínimo número de bits por
símbolo necesarios para representar una cadena. Es
un índice que denota la cantidad de información que
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
existe en una fuente de datos (la cadena a codificar).
H(Y|X) = - p(y1,x1) log p(y1|x1) - p(y1,x2) log p(y1|x2) - p(y2,x2) log p(y2|x2)-
p(y2,x3) log p(y2|x3) - p(y3,x3) log p(y3|x3) - f(y3,x4) log p(y3|x4)-
f(y3,x4) log p(y3|x4) - p(y3,x5) log p(y3|x5)= 0.6 bits
H(Y|X) = 0.25 H(0.25/0.25) + 0.4 H(0.1/0.4,0.3/0.4)+ 0.15 H(0.05/0.15, 0.1/0.15)+
0.15 H(0.05/0.15, 0.1/0.15)+ 0.05 H(0.05/0.05)= 0.6 bits
H (X,Y)
Hay que notar que H(x,y) < H(X) + H(Y)
H (Y)
H (X)
H (Y/X)
H (X/Y)
I (X;Y)
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
La capacidad de un canal definida por Shannon es C = max I (X;Y),
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
2 0 0.25 0 0 0.25
3 0 0 0.25 0 0.25
4 0 0 0 0.25 0.25
0.25 0.25 0.25 0.25
H(X, Y) = –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 = 2 bits
Similarmente H(X | Y) = 0
Para este canal libre de ruido : I(X;Y) = H(X) = H(Y) = H(X,Y) = 2 bits
H (X,Y)
X/Y 1 2
1 0.50 0 0.50 H(Y|X) = 0
2 0 0.50 0.50
0.50 0.50
H (X)=H(Y)=H(X,Y)=I(X;Y)
H (X ,Y )
H ( X | Y ) I ( X ;Y ) H (Y | X )
H (X ) H (Y )
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
H(X,Y)
H(X)
H(Y)
I ( X ;Y ) H ( X ) H ( X | Y ) H (Y ) H (Y | X )
I ( X ;Y ) H ( X ) H (Y ) H ( X , Y )
H ( X , Y ) H ( X | Y ) H (Y | X ) I ( X ;Y )
H (X ) H (X | Y)
H (Y ) H (Y | X )
Cuando las variables son independientes
H(X,Y)=H(X)+H(Y) y la información mutua
será nula I(X;Y)=0.
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
ESCUELA DE INGENIERÍA TELECOMUNICACIONES
LA ENTROPÍA (INFORMACIÓN, O LIBERTAD DE ELECCIÓN) DE CIERTA FUENTE DE
INFORMACIÓN SE PUEDE COMPARAR CON EL VALOR MÁXIMO QUE ESTA ENTROPÍA
PODRÍA ALCANZAR SI ESTUVIESE SUJETA SÓLO, A LA CONDICIÓN DE QUE LA FUENTE
CONTINÚE EMPLEANDO LOS MISMOS SÍMBOLOS.