Documente Academic
Documente Profesional
Documente Cultură
5,1 Introducción
Como se mencionó en Capítulo 1 y reiterado a lo largo del camino, el propósito
de un sistema de comunicación es facilitar la transmisión de señales generadas
por una fuente de información a través de un canal de comunicación. Pero, en
términos básicos, ¿qué entendemos por el término información? Para abordar
esta importante cuestión, necesitamos entender los fundamentos de la teoría
de la información.1
La razón para estudiar los fundamentos de la teoría de la información en esta
primera etapa del libro es triple:
1. La teoría de la información hace uso extensivo de la teoría de la
probabilidad, que estudiamos en Capítulo 3; por lo tanto, es un seguimiento
lógico de ese capítulo.
2. Añade significado al término "información" utilizado en los capítulos
anteriores del libro.
3. Lo más importante es que la teoría de la información allana el camino para
muchos conceptos y temas importantes que se discuten en los capítulos
siguientes.
En el contexto de las comunicaciones, la teoría de la información trata sobre
el modelado matemático y el análisis de un sistema de comunicación en lugar
de con fuentes físicas y canales físicos. En particular, proporciona respuestas a
dos preguntas fundamentales (entre otras):
1. ¿Cuál es la complejidad irreducible, por debajo de la cual no se puede
comprimir una señal?
2. ¿Cuál es la máxima velocidad de transmisión para una comunicación fiable
en un canal ruidoso?
Las respuestas a estas dos preguntas residen en la entropía de una fuente y la
capacidad de un canal, respectivamente:
1. Entropía se define en términos del comportamiento probabilístico de una
fuente de información; se llama así en deferencia al uso paralelo de este
concepto en termodinámica.
2. Capacidad se define como la capacidad intrínseca de un canal para
transmitir información; se relaciona naturalmente con las características del
ruido del canal.
Un resultado notable que emerge de la teoría de la información es que si la
entropía de la fuente es menos que la capacidad del canal, entonces,
idealmente, la comunicación error-libre sobre el canal puede ser alcanzada.
Por lo tanto, es apropiado que comencemos nuestro estudio de la teoría de la
información discutiendo las relaciones entre la incertidumbre, la información
y la entropía.
5,2 Entropía
Supongamos que un experimento probabilístico implica la observación de la
salida emitida por una fuente discreta durante cada intervalo de señalización.
La salida de origen se modela como un proceso estocástico, una muestra de la
cual es denotada por la variable aleatoria discreta S. Esta variable aleatoria
adquiere símbolos del finito fijo Alfabeto
Con Probabilidades
Asumimos que los símbolos emitidos por la fuente durante los intervalos de
señalización sucesivos son estadísticamente independientes. Dado este
escenario, ¿podemos encontrar un Medida ¿de cuánta información es
producida por tal fuente? Para responder a esta pregunta, reconocemos que
la idea de información está estrechamente relacionada con la de
incertidumbre o sorpresa, como se describe a continuación.
Considere el evento S = sk, describiendo la emisión de símbolo sk por la fuente
con probabilidad pk, como se define en (5,2). Claramente, si la
probabilidad pk = 1 y pi = 0 para todos i ≠ k, entonces no hay "sorpresa" y, por
lo tanto, no "información" cuando el símbolo sk se emite, porque sabemos lo
que el mensaje de la fuente debe ser. Si, por el contrario, los símbolos de la
fuente ocurren con diversas probabilidades y la probabilidad pk es baja,
entonces hay más sorpresa y, por lo tanto, la información cuando el
símbolo sk es emitido por la fuente que cuando otro símbolo si, i ≠ k, con mayor
probabilidad se emite. Así, las
palabras Incertidumbre, SorpresaY Información están todos relacionados.
Antes el evento S = sk ocurre, hay una cantidad de incertidumbre. Cuando el
evento S = sk ocurre, hay una cantidad de sorpresa. Después de la ocurrencia
del acontecimiento S = sk, hay ganancia en la cantidad de información, cuya
esencia puede ser vista como la resolución de incertidumbre. Lo más
importante es que la cantidad de información está relacionada con la inversa
de la probabilidad de ocurrencia del evento S = sk.
Definimos el cantidad de información ganado después de observar el
evento S = sk, que ocurre con probabilidad pk, como la función logarítmica2
Es decir, cuanto menos probable sea un evento, mayor será la información que
ganemos cuando ocurra.
Property 4
I(sk, sl) = I(sk) + I(sl) si sk Y sl son estadísticamente independientes
PROPIEDADES DE LA ENTROPÍA
Basándose en la definición de entropía dada en (5,9), encontramos que la
entropía de la variable aleatoria discreta S se limita de la siguiente manera:
donde hemos hecho uso de (5,3) Y (5,9). Ahí, Invocar Lla Fundamental
Desigualdad De (5,13), Que Puede Finalmente Escribir
Así H(S) es siempre menor o igual a log2K. La igualdad sostiene si, y sólo si, los
símbolos en el alfabeto son equiprobables. Esto completa la prueba
de (5,10) y con él las declaraciones de acompañamiento 1 y 2.
Ejemplo 1 Entropía de la variable aleatoria de Bernoulli
Para ilustrar las propiedades de H(S) resumido en (5,10), considere la variable
aleatoria de Bernoulli para la que se produce el símbolo 0 con probabilidad p0 y
el símbolo 1 con probabilidad p1 = 1 – p0.
La entropía de esta variable aleatoria es
Tabla 5,1 Alfabetos de extensión de segundo orden de una fuente inmemorial discreta
Así vemos que H(S 2) = 2H(S) de acuerdo con (5,17).
CODIFICACIÓN DE PREFIJO
Considere una fuente de alfabeto inmemorial discreta {s0, s1,...,sK – 1} y las
probabilidades respectivas {p0, p1,...,pK – 1}. Para un código fuente que
representa la salida de esta fuente para ser de uso práctico, el código debe ser
únicamente decodable. Esta restricción asegura que, para cada secuencia
finita de símbolos emitidos por la fuente, la secuencia correspondiente de
Codewords es diferente de la secuencia de Codewords que corresponde a
cualquier otra secuencia de fuente. Estamos específicamente interesados en
una clase especial de códigos que satisfacen una restricción conocida como
el condición de prefijo. Para definir la condición de prefijo, deje que el
antirracista asignado al símbolo de origen sk ser denotado por (mk1, mk2,...,mkn),
donde los elementos individuales mk1,...,mknSon 0s y 1S y n es la longitud
antirracista. La parte inicial del antirracista está representada por los
elementos mk1,...,mki para algunos i ≤ n. Cualquier secuencia formada por la
parte inicial del antirracista se denomina Prefijo del antirracista. Así decimos:
DESIGUALDAD DE KRAFT
Considere una fuente sin memoria discreta con el alfabeto de origen
{s0, s1,...,sK – 1} y las probabilidades de origen {p0, p1,...,pK – 1}, con el antirracista
del símbolo sk tener longitud lk, k = 0,1,...,K 1. Entonces, de acuerdo con
el Desigualdad de Kraft,5 las longitudes de antirracista satisfacen siempre la
desigualdad siguiente:
Figura 5,4 Árbol de decisión para el código II de Tabla 5,2.
Dada una fuente inmemorial discreta de entropía H(S), un código del prefijo se
puede construir con una longitud media del antirracista , que se limita como
sigue:
CODIFICACIÓN HUFFMAN
A continuación describiremos una clase importante de códigos de prefijo
conocidos como códigos Huffman. La idea básica detrás Codificación
Huffman6 es la construcción de un algoritmo simple que computa
un Óptima código de prefijo para una distribución determinada, óptima en el
sentido de que el código longitud esperada más corta. El resultado final es un
código fuente cuya longitud promedio de antirracista se aproxima al límite
fundamental establecido por la entropía de una fuente sin memoria discreta,
es decir, H(S). La esencia de la Algoritmo utilizado para sintetizar el código
Huffman es reemplazar el conjunto prescrito de estadísticas de origen de una
fuente sin memoria discreta con uno más sencillo. Este Reducción proceso se
continúa de manera paso a paso hasta que nos quedamos con un conjunto
final de sólo dos estadísticas de origen (símbolos), para los cuales (0,1) es un
código óptimo. A partir de este código trivial, entonces trabajamos hacia atrás
y por lo tanto construimos el código Huffman para la fuente dada.
Para ser específico, Huffman algoritmo de codificación procede de la siguiente
manera:
1. Los símbolos de origen se enumeran en orden de disminución de la
probabilidad. Los dos símbolos de la fuente de la probabilidad más baja se
asignan 0 y 1. Esta parte del paso se denomina etapa de división.
2. Estos dos símbolos de origen se Combinado en un nuevo símbolo de la
fuente con la probabilidad igual a la suma de las dos probabilidades originales.
(la lista de símbolos de origen, y, por lo tanto, las estadísticas de origen, es por
lo tanto Reducido en tamaño por uno.) La probabilidad del nuevo símbolo se
coloca en la lista de acuerdo con su valor.
3. El procedimiento se repite hasta que nos quedamos con una lista final de
estadísticas de origen (símbolos) de sólo dos para los que se asignan los
símbolos 0 y 1.
El código para cada fuente (original) se encuentra trabajando hacia atrás y
trazando la secuencia de 0s y 1S asignados a ese símbolo, así como a sus
sucesores.
Ejemplo 4 Árbol Huffman
Para ilustrar la construcción de un código Huffman, considere los cinco
símbolos del alfabeto de una fuente de memoria discreta y sus probabilidades,
que se muestran en las dos columnas más a la izquierda de Figura 5.5 b.
Siguiendo el algoritmo Huffman, llegamos al final del cómputo en cuatro
pasos, resultando en un Árbol Huffman similar a la que se muestra en Figura
5,5; el árbol Huffman no debe confundirse con el árbol de decisión que se
discutió anteriormente en Figura 5,4. La Codewords del código Huffman para
el origen se tabula en Figura 5.5 a. Lla Promedio antirracista Longitud Es, por,
Figura 5,5 (a) ejemplo del algoritmo de codificación Huffman. (b) código fuente.
LEMPEL-ZIV CODIFICACIÓN
Un inconveniente del código Huffman es que requiere el conocimiento de un
modelo probabilístico de la fuente; Desafortunadamente, en la práctica, las
estadísticas de fuentes no siempre se conocen a priori. Además, en la
modelación de texto encontramos que los requerimientos de almacenamiento
de información evitan que el código Huffman Capture las relaciones de orden
superior entre palabras y frases porque el Codebook crece exponencialmente
rápidamente en el tamaño de cada Super-símbolo de letras (i.e., agrupación
de letras); por lo tanto, la eficacia del código se ve comprometida. Para superar
estas limitaciones prácticas de los códigos Huffman, podemos utilizar
el LempelZiv Algoritmo,7 que es intrínsecamente Adaptación y más sencillo de
implementar que la codificación Huffman.
Básicamente, la idea detrás de la codificación en el Lempel-Ziv el algoritmo se
describe de la siguiente manera:
Figura 5,6 Ilustrando el proceso de codificación realizado por el Lempel –Ziv algoritmo en la
secuencia binaria 000101110010100101...
Y Un Salida Alfabeto
Figura 5,7 (a) canal discreto sin memoria; (b) representación gráfica simplificada del canal.
que se llama el información mutua del canal. Para añadir significado a este
nuevo concepto, reconocemos que la entropía H(X) explica la incertidumbre
acerca de la entrada de canal Antes Observando la salida del canal y la entropía
condicional H(X| Y) explica la incertidumbre acerca de la entrada de
canal Después Observando la salida del canal. Que Puede, por, Ir En Para Hacer
Lla Declaración:
Property 1 Simetría
La información mutua de un canal es simétrica en el sentido de que
Propiedad 2 No negatividad
La información mutua es siempre no negativa; eso es;
Además, la información mutua es cero si, y sólo si, los símbolos de entrada y
salida del canal son estadísticamente independientes; es, cuando (5,53) está
satisfecho.
Figura 5,9 Ilustrando las relaciones entre las distintas entropías del canal.
Figura 5,10 Variación de la capacidad del canal de un canal simétrico binario con probabilidad
de transición p.
donde, por supuesto, r es menos que la unidad. Para una prescripción k, la tasa
de código r (y, por lo tanto, la eficiencia de codificación del sistema) se
aproxima a cero como la longitud del bloque n tiende a infinito.
La reconstrucción exacta de la secuencia original de la fuente en el destino
requiere que el probabilidad media de error de símbolo ser arbitrariamente
bajo. Esto plantea la siguiente pregunta importante:
2. Inversa, Si
Tenga en cuenta que Registroa < 0 for a < 1. Así, este ejemplo muestra que, a
diferencia de una variable aleatoria discreta, la entropía diferencial de una
variable aleatoria continua puede asumir un valor negativo.
Combinar (5,70) Y (5,71) en una sola desigualdad, por lo que puede escribir
EMBALAJE DE LA ESFERA
Para proporcionar un argumento plausible que apoye la ley de capacidad de
información, suponga que usamos un esquema de codificación que
rinde K Codewords, uno para cada muestra de la señal transmitida.
Dejar n denotan la longitud (es decir, el número de pedacitos) de cada
antirracista. Se presume que el esquema de codificación está diseñado para
producir una aceptablemente baja probabilidad de error de símbolo. Además,
el Codewords satisface la restricción de la energía; Esto es, la potencia media
contenida en la transmisión de cada antirracista con nbits Es EgDonde P es la
potencia media por bit.
Suponga que cualquier antirracista en el código es transmitido. El vector
recibido de n bits es de Gauss distribuido con una media igual a la antirracista
transmitida y una varianza igual a nσ2Donde σ2 es la variación de ruido. Con
una alta probabilidad, podemos decir que el vector de señal recibido en la
salida del canal está dentro de una esfera de radio ; Esto es, centrado en el
antirracista transmitido. Esta esfera está contenida en una esfera más grande
Una trama de la eficiencia del ancho de banda Rb/B Versus Eb/N0 se llama
el diagrama de eficiencia de ancho de banda. Se muestra un formulario
genérico de este diagrama en Figura 5,15, donde la curva marcada como
"límite de capacidad" corresponde al sistema ideal para el cual Rb = C.
Figura 5,15 Diagrama de eficiencia de ancho de banda.
Donde fY(yi | x) se define por (5,102). De las fórmulas de h(Y|X) y h(Y), está
claro que el la información mutua es sólo una función de la variación de
ruido σ2. Usando M(σ2) para denotar esta dependencia funcional, por lo tanto
podemos escribir
Figura 5,16 Señalización binaria de antipodales sobre un canal AWGN. (a) mínimo Eb/N0 versus
la tasa de código r. (b) tasa mínima de error de bit versus Eb/N0 para la tarifa de código diversa r.
5,12 Información Capacidad del canal ruidoso
coloreado
El teorema de la capacidad de información formulado en (5,95) se aplica a un
canal de ruido blanco con banda limitada. En esta sección extendemos la ley
de capacidad de información de Shannon al caso más general de
un blancosO Color, canal ruidoso.15 Para ser específico, considere el modelo de
canal mostrado en Figura 5.17 a donde la función de transferencia del canal es
denotada por H(f). El ruido del canal n(t), que aparece aditivamente en la
salida del canal, se modela como la función de la muestra de un proceso
inmóvil de Gauss de la densidad espectral media y de la energía cero SN(f). El
requisito es doble:
1. Encontrar el conjunto de entrada, descrito por la densidad espectral de
potencia SXx(f), que maximiza la información mutua entre la salida del canal y(t)
y la entrada de canal x(t), sujeto a la restricción de que la potencia media
de x(t) se fija en un valor constante P.
2. Por lo tanto, determine la capacidad de información óptima del canal.
Figura 5,17 (a) modelo del canal ruidoso venda-limitado, energía-limitado. (b) modelo
equivalente del canal.
El resultado neto de estos dos puntos es que el modelo original de Figura 5.17
a se sustituye por la combinación paralela de un número finito de
subcanales, N, cada uno de los cuales está corrompido esencialmente por
"ruido blanco banda limitada de Gauss".
Figura 5,18 Staricase aproximación de una respuesta de magnitud arbitraria |H(f)|; sólo se
muestra la parte de la frecuencia positiva de la respuesta.
donde la constante K se elige como la solución para (5,117) para una potencia
de señal de entrada prescrita P.
Donde p(yj| xi) es una probabilidad de transición. Dejar d(xi, yj) denota una
medida del costo incurrido en la representación del símbolo de origen xi por el
símbolo yj; la cantidad d(xi, yj) se conoce como un una sola letra medida de la
distorsión. El promedio estadístico de d(xi, yj) sobre todos los símbolos posibles
de la fuente y símbolos de la representación es dado por
5,3 Una fuente emite uno de los cuatro símbolos s0, s1, s2Y s3 con
probabilidades 1/3, 1/6, 1/4 y 1/4, respectivamente. Los símbolos sucesivos
emitidos por la fuente son estadísticamente independientes. Calcule la
entropía de la fuente.
5,4 Dejar X representan el resultado de un solo rollo de un dado justo. ¿Cuál
es la entropía de X?
5,5 La función de la muestra de un proceso de Gauss de la media cero y de la
variación de unidad se muestrea uniformemente y después se aplica a un
cuantificador uniforme que tiene la característica de la amplitud de la entrada-
salida mostrada en Figura p 5.5. Calcular Lla Entropía De Lla Cuantificador
Salida.
Figura p 5.5
5,6 Considere una fuente sin memoria discreta con alfabeto de origen S =
{s0, s1,...,sK – 1} y las estadísticas de origen {p0, p1,...,pK – 1}. Lla nla extensión del TH
de esta fuente es otra fuente sin memoria discreta con alfabeto de la
fuente S(n) = {σ0, σ1,...,σM – 1}, donde M = Kn. Dejar P(σi) denota la probabilidad
de σi.
B. Mostrar Que
C. AhíMostrar Que
5,7 Considere una fuente sin memoria discreta con alfabeto de origen S =
{s0, s1, s2} y las estadísticas de origen {0,7, 0,15, 0,15}.
B.Aplicar la desigualdad de Kraft a los códigos I, II, III, y IV. Analice sus
resultados a la luz de los obtenidos en la parte a.
5,12 Considere una secuencia de letras del alfabeto inglés con sus
probabilidades de ocurrencia
Carta a i l m n o p
Un. Aplique el algoritmo Huffman a este origen. Por lo tanto, muestre que la
longitud promedio de antirracista del código Huffman equivale a 1,3
bits/símbolo.
Un. Muestran que la información mutua entre la entrada del canal y la salida
del canal
5,25 Lla canal de borrado binario tiene dos entradas y tres salidas como se
describe en Figura p 5.25. Las entradas están etiquetadas como 0 y 1 y las
salidas están etiquetadas como 0, 1 y e. Una fracción α de los bits entrantes es
borrado por el canal. Encontrar Lla Capacidad De Lla Canal.
Figura p 5.25
5,27 Dejar X, YY Z ser tres variables aleatorias discretas. Para cada valor de la
variable aleatoria Z, representado por la muestra zDefinir
donde e es la base del logaritmo natural. ¿Qué hace h(X) reducir a si las
varianzas son todas iguales?
5,33 Una variable aleatoria continua X se limita a una magnitud máxima M; Es
decir
–M < X < M
Un. Calcule la capacidad de información del canal telefónico para una relación
señal/ruido de 30 Db.
Notas
1. Según Lucky (1989), la primera mención del término Teoría de la
información por Shannon ocurrió en un memorándum de 1945 titulado "una
teoría matemática de la criptografía". Es bastante curioso que el término
nunca se usó en el papel clásico de Shannon (1948), que sentó las bases de la
teoría de la información. Para un tratamiento introductorio de la teoría de la
información, vea la parte 1 del libro de McEliece (2004), Capítulos 1–6. Para un
tratamiento avanzado de este tema, visto en un contexto bastante amplio y
tratado con rigor, y claridad de presentación, ver Cover y Thomas (2006).
Para una colección de papeles en el desarrollo de la teoría de la información
(incluyendo el papel clásico 1948 de Shannon), vea Slepian (1974). Para una
colección de los documentos originales publicados por Shannon, ver Sloane y
Wyner (1993).
2. El uso de una medida logarítmica de la información primero fue sugerido
por Hartley (1928); sin embargo, Hartley usó logaritmos en base 10.
3. En la física estadística, la entropía de un sistema físico se define por
(Llamado, 1965:147)