Documente Academic
Documente Profesional
Documente Cultură
Transmisión de Información
Canales de comunicación
Curso 2006
Canal de comunicación
Medio por el que se transmite la información
Relaciona una fuente de entrada con un
conjunto de símbolos de salida
x1 y1
X xi pj/i yj Y
entrada salida
xn ym
Ejemplo
ruido
señal de entrada señal de salida
0 1
0
BSC
1
Entropías
Entropía de Entrada: H ( X ) = − ∑ p( x) log p( x)
Entropía de Salida: H (Y ) = − ∑ p ( y ) log p ( y )
H ( X , Y ) = − ∑ p ( x, y ) log p ( x, y )
H ( X , Y ) = H ( X ) + H (Y / X )
H ( X , Y ) = H (Y ) + H ( X / Y )
Pérdida
H ( X , Y ) = H (Y ) + H ( X / Y )
preguntas binarias preguntas binarias
para determinar para determinar
la salida la entrada dada la salida
Tipos de canales
X Y X Y
0 0 0 0
Y/X 0 1 Y/X 0 1
1 1 1 1
0 1 0 0 0 1
canal ideal 1 0 1 1 1 0
Y/X x1 x2 x3 x4 Y/X x1 x2
y1 0 1 0 0 y1 1/2 0
y2 1 0 0 1 y2 1/2 0
y3 0 0 1 0 y3 0 1
canal sin ruido canal sin pérdida
(con pérdida) (con ruido)
Teoría de la Información - 2006
Tipos de canales
Y/X x1 x2 x3
y1 1/2 1/4 0 Y/X x1 x2
y2 1/4 1/2 1/4 y1 3/4 1/4
y3 1/4 0 1/4 y2 1/4 3/4
y4 0 1/4 1/2 canal binario simétrico
canal uniforme o simétrico
Y/X x1 x2
Y/X x1 x2 x3
y1 1/3 1/3
y1 1/2 1/2 1/2
y2 1/3 1/3
y2 1/2 1/2 1/2
y3 1/3 1/3
Canal de “destrucción” de información
Teoría de la Información - 2006
H ( X , Y ) = H ( X ) + H (Y ) − I ( X , Y )
H(X,Y)
I ( X , Y ) = H (Y ) − H (Y / X )
I ( X ,Y ) = H ( X ) − H ( X / Y ) H(X/Y) H(Y/X)
Ejemplo M1 M2 A B
1 1 0 2
Se arrojan 2 monedas M1, M2 1 0 1 1
cara Æ M = 1 A= M1-M2|
0 1 1 1
seca Æ M = 0 B= M1+M2 0 0 0 0
P(A) 1/2 1/2
AB 0 1 P(B)
B/A 0 1 A/B 0 1
0 1/4 0 1/4
0 1/2 0 0 1 0
1 0 1/2 1/2
1 0 1 1 0 1
2 1/4 0 1/4 2 1/2 0 2 1 0
max I ( X , Y ) = Capacidad
V (X )