Documente Academic
Documente Profesional
Documente Cultură
- Información mutua.
La Información mutua mide la cantidad de información que se puede obtener cerca de una variable al
azar observando otra. Es importante en la comunicación donde puede ser utilizado para maximizar la
cantidad de información compartida entre las señales enviadas y recibidas[1].
Por tanto, es necesario disponer de herramientas para modelar el canal, ya que usualmente suele ser un
entorno hostil en el que está presente ruido, interferencias y demás impedimentos que dificultan la
comunicación. Normalmente, los terminales de comunicación se consideran perfectos (sin ruido, sin
distorsión, etc.) y es en el canal en el que se tienen en cuenta todas estas no idealidades. Por tanto el
canal se considera el vehículo de transmisión al que se le suman todos los fenómenos que tienden a
limitar la comunicación. El hecho de que haya límites físicos para el envío de información nos lleva a
la noción de capacidad del canal.
Del mismo modo que la entropía mide la cantidad de información que una fuente puede dar en un
tiempo determinado, la capacidad del canal mide la cantidad de información que un canal puede
transmitir por unidad de tiempo.Teniendo en cuenta la capacidad del canal, el teorema fundamental de
la teoría de la información se puede reescribir como:
C y una fuente con una tasa de entropía R, si R≤C, existe una técnica de codificación tal que la salida
de la fuente puede ser transmitida a lo largo del canal con una frecuencia de errores arbitrariamente
pequeña a pesar de la presencia de ruido. Si R>C, si esto se da, no es posible transmitir datos sin
errores.
equivocación
Según el primer teorema de Shannon la determinación de un símbolo de entrada ai exige una media de
H (A) binits. Es normal decir, en consecuencia, que, como media, la observación de un símbolo de
salida proporciona [H (A)-H (A/B)] bits de información. Esta diferencia se denomina información
mutua (de A y B), o información mutua del canal. Se escribe
I(A:B)=(A)-H (A/B)
I(A : B )=nI(A:B)
n n
De acuerdo a la información mutua I(A ; B)=H(A) - H (A/B) se plantea la cuestión del signo.
De acuerdo:
Y, I(A;B)≥0
La información media recibida por un canal ha de ser siempre positiva. No se pierde información por
observar la salida del canal. La condición para que la información mutua sea nula es que los símbolos
de entrada y salida sea estadísticamente independientes[2].
Además de las entropías H (A) y H (B), puede definirse la entropía afín, que mide la incertidumbre
del suceso simultáneo (ai, bj). La probabilidad de este suceso es P(ai, bj), de modo que la entropía afín
valdrá
La relación entre H(A,B) ,H(A) y H(B) se puede deducir por:
H (A/B)=H(A)-I(A:B)
H (B/A)=H(B)-I(B:A)
La entropía afín H (A, B) es la suma de H (A) y H (B), con la salvedad de que la zona común se ha
incluido por partida doble, de modo que
También
Las diferentes medidas de información expuestas en la figura pueden aplicarse a dos conjuntos
cualesquiera de variables. La información mutua tendrá signo positivo siempre que ambos conjuntos
no sean estadísticamente independientes.
Ejemplo
𝑝 𝑝̅
Calcularemos la informacion mutual de un BSC. Su matriz es [
𝑝̅ 𝑝]
1 0 0
1 0 0
𝑃= 0 1 0
0 1 0
[0 0 1]
Si observamos, en cada fila de la matriz de un canal determinante hay un elemento distinto de cero y
si sumamos cada fila será igual a la unidad. si consideramos un canal sin ruido y observamos una
salida bi, sabemos que el símbolo transmitido es ai y las probabilidades condicionales P(ai/bi) son 0 y
1. La equivocación H(A/B) puede escribirse de la siguiente forma
1
𝐻(𝐴/𝐵) = ∑ 𝑃(𝑏𝑖 ) ∑ 𝑃(𝑎𝑖 /𝑏𝑖 ) log
𝑃(𝑎𝑖 /𝑏𝑖 )
𝐵 𝐴
si desarrollamos la sumatoria nos damos cuenta de que su valor es nulo
H(A/B)=0 por lo tanto es un canal sin ruido.
Mediante las salidas de un canal sin ruido podemos determinar las entradas del canal, por ende el
número medio de binits necesarios para definir la entrada es nulo. Como sabemos que la información
mutua (de A y B) del canal es:
𝐼(𝐴; 𝐵) = 𝐻(𝐴)
la cantidad de información transmitida por este canal es igual a la entropía de entrada. En un canal
determinante ocurre de manera análoga que en un canal sin ruido.el símbolo de entrada ai es
suficiente para determinar, con probabilidad 1, el símbolo de salida bi. consecuentemente las
probabilidades P(bi/ai) seran 0 o 1.
1
𝐻(𝐵/𝐴) = ∑ 𝑃(𝑏𝑖 ) ∑ 𝑃(𝑏𝑖 /𝑎𝑖 ) log
𝑃(𝑏𝑖 /𝑎𝑖 )
𝐴 𝐵
𝐻(𝐵/𝐴) = 0
𝐼(𝐴; 𝐵) = 𝐻(𝐵)
Bibliografia