Documente Academic
Documente Profesional
Documente Cultură
INGENIERÍA EN COMPUTACIÓN
24/10/2018
Clear
CANALES DE INFORMACIÓN
Un canal de información viene determinado por un alfabeto de entrada A = {a i}, i =
1, 2, …, r; un alfabeto de salida B = {bj} , j = 1, 2, …, s; y un conjunto de
probabilidades condicionales P(bj| ai). P(bj| ai) es la probabilidad de recibir a la
salida el símbolo bj cuando se envía el símbolo de entrada ai.
Además:
Dice que la información media recibida por un canal ha de ser siempre positiva. No
se pierde en absoluto información por el hecho de observar la salida del canal.
Además la condición para que la información mutua sea nula es que los símbolos
de entrada y salida sean estadísticamente independientes.
La entropía afín de A y B, H (A, B) es, como es lógico, simétrica
EJEMPLO
La matriz de un canal sin ruido es
Puesto que no hay nada más que un elemento distinto de cero en cada fila de la
matriz de un canal determinante, y la suma de cada fila. Puede calcularse
fácilmente
Consideremos, en primer lugar, un canal sin ruido. En este caso, al observar una
salida b, se conoce con certeza el símbolo a, se transmite, se dice las
probabilidades condicionales P (a|b) son 0 y 1. La equivocación H (A / B) puede
escribirse en la forma
Como se puede apreciarse, la relación se cumple a pesar de ser dos canales con
ruido, por lo tanto
La falta de cuidado de los canales de comunicación y la pérdida de información
que ha sido reconocida desde hace mucho tiempo.
Como ejemplo final (más cuantitativo) de las pérdidas en una vista de canales,
considremos dos BSC idénticos
Las dos posibilidades de cntrada dcl primer canal se eligen con la misma
probabilidad. Así pues, tendremas Es fácil de encontrar en la
misma serie de canales equivalente a un solo BSC con
probabilidad de erro 2pp por lo tanto . Por ejemplo, si se ha
añadido un tercer BSC (de alfabeto de salida D), obtendríamos.