Sunteți pe pagina 1din 11

UNIVERSIDAD DE CONCEPCIÓN

FACULTAD DE INGENIERÍA

DEPARTAMENTO DE INGENIERÍA ELÉCTRICA

Tarea #2- Sistemas de Comunicaciones

Integrantes:

Francisca Salas (ELE) - Alejandra Monsalve (ELE) – Carolina Villalobos (ELE) - Valentina Olivares (ELN)

Profesor: Luis Arias

Concepción, 26 de Julio del 2018.


1. Usando la definición de probabilidad condicional (teorema de Bayes),
demuestre que la entropía conjunta 𝐻(𝑥, 𝑦) (Incertidumbre promedio del
sistema de comunicaciones como un todo), puede ser expresada como:
𝐻(𝑥, 𝑦) = 𝐻(𝑦 | 𝑥) + 𝐻(𝑥) y como 𝐻(𝑥, 𝑦) = 𝐻(𝑥 | 𝑦) + 𝐻(𝑦).
Respuesta:

La probabilidad condicional indica que, dados dos eventos, condicionales entre sí, nos
indica que: 𝑃(𝑥, 𝑦) = 𝑃(𝑥) ∙ 𝑃(𝑦|𝑥) = 𝑃(𝑦) ∙ 𝑃(𝑥|𝑦).

Mientras tanto la entropía conjunta se define como:

1
𝐻(𝑥. 𝑦) = 𝐸[(𝑥, 𝑦)] = ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 [ ]
𝑃(𝑥, 𝑦)
𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

=− ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 [𝑃(𝑥, 𝑦)]


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

Luego reemplazando 𝑃(𝑥, 𝑦) 𝑝𝑜𝑟 𝑃(𝑥) ∙ 𝑃(𝑦|𝑥) podemos expresar la entropía de la


siguiente manera:

𝐻(𝑥. 𝑦) = − ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 [𝑃(𝑥) ∙ 𝑃(𝑦|𝑥)]


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

=− ∑ ∑ 𝑃(𝑥, 𝑦) ∙ [log 2 𝑃(𝑥) + log 2 𝑃(𝑦|𝑥)]


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

=− ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 𝑃(𝑥) − ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 𝑃(𝑦|𝑥)


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦) 𝑥∈𝐴(𝑥) 𝑥∈𝐴(𝑦)

= − ∑ 𝑃(𝑥) ∙ log 2 𝑃(𝑥) − ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 𝑃(𝑦|𝑥)


𝑥∈𝐴(𝑥) 𝑥∈𝐴(𝑥) 𝑥∈𝐴(𝑦)

Finalmente aplicamos nuevamente la definición de entropía y llegamos a:

𝐻(𝑥, 𝑦) = 𝐻(𝑥) + 𝐻(𝑦|𝑥)


De manera análoga, utilizando ahora la igualdad 𝑃(𝑥, 𝑦) = 𝑃(𝑦) ∙ 𝑃(𝑥|𝑦) obteniendo
ahora lo siguiente:

𝐻(𝑥. 𝑦) = − ∑ ∑ 𝑃(𝑥, 𝑦) ∙ log 2 [𝑃(𝑥) ∙ 𝑃(𝑦|𝑥)]


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

=− ∑ ∑ 𝑃(𝑥, 𝑦) ∙ [log 2 𝑃(𝑦) + log 2 𝑃(𝑥|𝑦)]


𝑥∈𝐴(𝑥) 𝑦∈𝐴(𝑦)

2. La banda de difusión de FM tiene un intervalo de frecuencia 88-108MHz.


Las estaciones emisoras tienen una separación de 200KHz a partir de
88.1MHz y hasta 107.9MHz. La desviación máxima permitida es de 75KHz,
con frecuencias moduladoras de hasta 15KHz. Calcule el ancho de banda de
una estación FM utilizando tabla de Bessel adjunta y Regla de Carson. Analice
cómo se compara este ancho de banda con la separación de los canales dada
por norma
Respuesta:

Utilizando la Regla de Carson

Del enunciado tenemos el valor de máxima desviación de la frecuencia instantánea (∆𝑓𝑚 ),


así como de la frecuencia moduladora (𝑓𝑚 ), y reemplazando estos valores en nuestras
ecuación de ancho de banda (BW) nos queda;

∆𝑓𝑚 = 75 [𝐾ℎ𝑧]

𝑓𝑚 = 15[𝐾ℎ𝑧]

𝐵𝑊 = 2(∆𝑓𝑚 + 𝑓𝑚 )

𝐵𝑊 = 2(75 [𝐾ℎ𝑧]+ 15[𝐾ℎ𝑧])

𝐵𝑊 = 180 [𝐾ℎ𝑧]

Utilizando la Regla de Bessel

Calculamos el índice de modulación (𝐵𝑓 ), para luego determinar el ancho de banda:


∆𝑓𝑚
𝐵𝑓 =
𝑓𝑚

75[𝐾ℎ𝑧]
𝐵𝑓 =
15[𝐾ℎ𝑧]

𝐵𝑓 = 5

Con este valor de índice de modulación, vemos que en nuestra tabla de Bessel tendremos
6 bandas laterales significativas, así, la expresión del ancho de banda nos queda:

𝐵𝑊 = 2 ∗ 𝑛 ∗ 𝑓𝑚

𝐵𝑊 = 2 ∗ 6 ∗ 15 [𝐾ℎ𝑧]

𝐵𝑊 = 180 [𝐾ℎ𝑧]

Así, nos percatamos que para la regla de Carson tendremos una aproximación cercana al
valor real requerido, pues el método de Carson define un ancho de banda que abarca
aproximadamente un 98% de la potencia total en la onda modulada.

Finalmente, podemos concluir que por ambos métodos llegamos al mismo valor de ancho
de banda.

3. Describa de manera precisa el tipo de modulación AM-SSB. Luego obtenga


las expresiones de SNR para modulación DSB-LC y SSB. Compare la SNR para
los tres tipos de modulación AM e indique con ello cual tipo de modulación
es más inmune al ruido.
Respuesta:

Se sabe que la transmisión de señales de doble banda lateral requiere –como su nombre
lo indica– el doble del ancho de banda del mensaje, W, al momento de transmitirse; sin
embargo, estas dos bandas laterales son redundantes.

En la práctica, cualquiera de las dos bandas que se trasmitan es suficiente para reconstruir
la señal del mensaje m(t) en el receptor. Esta transmisión recibe el nombre de single-
sideband (SSB) AM.
1. Expresiones de SNR para modulación DSB-SC:

La señal modulada para sistemas DSB-SC está determinada por

y el ruido pasabanda presente en el demodulador estará descrito mediante:

Así, la entrada en el receptor estará determinada por:

Ahora bien, la potencia de la señal estará dada por:

Y la potencia del ruido a la entrada será

.
Así la potencia de la señal recibida estará dada por:

Entonces, al pasar por el demodulador sincrónico y coherente en fase, la señal


desmodulada quedara determinada por:

Nótese que a la salida del demodulador sincrónico, se tiene la presencia de la señal


desmodulada, y el ruido que fue capaz de pasar. La potencia de la señal de salida
estará determinada por:

Y la potencia del ruido a la salida será:


Entonces, la razón señal ruido del receptor sincrónico para una señal DSB-SC estará
determinada por:

2. Expresiones de SNR para modulación DSB-LC:

Para DSB-LC, al utilizar un detector sincrónico, se tiene que m(t) es reemplazado por
Ac+ m(t), luego

Pues se asume que

La salida del demodulador seguirá siendo

Luego,

Y la razón señal ruido a la salida del demodulador estará determinada por:

Como existe la restricción |𝑚(𝑡)| ≤ 𝐴 , la SNR es un poco más pobre que para la
modulación DSB-SC.

3. Expresiones de SNR para modulación SSB:

Considerando la representación de una señal SSB dada por:

Que será la señal de entrada al receptor y un ruido pasabanda, se tiene:


Utilizando el teorema de parseval , se tiene que:

Esto implica:

Además, conforme a lo estudiado anteriormente el ruido de entrada tendrá una potencia media
de:

La salida del detector sincronico y coherente en fase para la modulacion SSB, considerando una
fase nula y en presencia de un ruido pasabanda setiene que la salida total sera:

De aquí se tiene que:

Así la razón señal-ruido estará determinada por:

Como DSB requiere el doble de ancho de banda que SSB y se ha considerado que el ruido presente
es modelado por ruido pasabanda, entonces se puede concluir que ambas demodulaciones
presentan el mismo desempeño frente al ruido.

4. Encuentre la capacidad del canal mostrado en la Fig.1 solo con la información provista.
ANEXO:

Tabla de valores de funciones de Bessel. Doble línea bajo el número indica el número de
armónicos que contienen al menos el 98% de la potencia total.

Respuesta:

Por definición la Capacidad de Canal se conoce como el valor máximo de la


transinformación, que es la información promedio máxima por símbolo que puede ser
transmitido a través del canal.

Es importante destacar que la transinformación es una función tanto de las


probabilidades de las fuentes como las probabilidades de transición del canal. Sin
embargo, la capacidad del canal es una función solamente de las probabilidades de
transición del canal, puesto que el proceso de maximización elimina la dependencia sobre
las probabilidades de la fuente.

Esto se expresa de la siguiente forma:

𝐶 = 𝑚á𝑥[𝐼(𝑥, 𝑦)] = 𝑚á𝑥{𝐻(𝑦) − 𝐻(𝑦|𝑥)}

Dónde:

[𝐼(𝑥, 𝑦)] Nos indica la Incertidumbre promedio respecto de que símbolo


recibiremos dado que se ha transmitido x y H (y) la incertidumbre promedio de la
recepción de un símbolo.

Ahora realizamos los cálculos correspondientes a 𝐻(𝑦|𝑥):


𝑁 𝑀

𝐻(𝑦|𝑥) = − ∑ ∑ 𝑃(𝑥𝑖 , 𝑦𝑗 )𝑙𝑜𝑔2 𝑃(𝑦𝑗 |𝑥𝑖 )


𝑖=1 𝑗=1

O como:

𝐻(𝑦|𝑥) = 𝑃(𝑎)𝐻(𝑦|𝑥 = 𝑎) + 𝑃(𝑏)𝐻(𝑦|𝑥 = 𝑏) + 𝑃(𝑐)𝐻(𝑦|𝑥 = 𝑐)

Cabe destacar que no se conocen las probabilidades de entrada del sistema por lo
tanto no podemos utilizar la segunda definición. Por lo cual debemos fijar que el primer
símbolo enviado es “a” y al desarrollar la primera definición nos queda:

Además para lograr calcular la probabilidad conjunta debemos utilizar la definición


de matriz conjunta la cual es:

[𝑃(𝑥, 𝑦)] = [𝑃(𝑥)][𝑃(𝑦|𝑥)]

Donde P(x) es una matriz diagonal con las probabilidades de la fuente.

Puesto que nos hemos fijado que el símbolo enviado es “a” implica que [P(x)]=1

Luego utilizando los datos entregados en el diagrama del canal y lo mostrado


anteriormente obtenemos

𝐻(𝑦|𝑥 = 𝑎) = −1(0.5) 𝑙𝑜𝑔2 (0.5) − 1(0.25) 𝑙𝑜𝑔2 (0.25) − 1(0.25) 𝑙𝑜𝑔2 (0.25)

𝐻(𝑦|𝑥 = 𝑎) = 1.5

Puesto que el canal es simétrico podemos concluir:

𝐻(𝑦|𝑥 = 𝑎) = 𝐻(𝑦|𝑥 = 𝑏) = 𝐻(𝑦|𝑥 = 𝑐) = 1.5

Luego ocupando la segunda definición mostrada al inicio del problema podemos


calcular la cual al tener las entropías condicionadas iguales nos queda de la siguiente
forma:

𝐻(𝑦|𝑥) = 1.5[𝑃(𝑎) + 𝑃(𝑏) + 𝑃(𝑐)]

Además sabemos que la suma de todas las posibles probabilidades de que ocurra
un suceso es 1 obtenemos que

𝐻(𝑦|𝑥) = 1.5

Luego notamos que la definición de capacidad nos queda

𝐶 = 𝑚á𝑥{𝐻(𝑦) − 1.5} = 𝑚á𝑥{𝐻(𝑦)} − 1.5


Y sabemos que la entropía es máxima cuando todos los símbolos de la fuente son
igualmente probables.

Por lo tanto:

1
𝑃(𝑎) = 𝑃(𝑏) = 𝑃(𝑐) =
3

Luego ocupando la propiedad de entropía para fuentes equiprobables, obtenemos


que la entropía de la salida:

𝐻(𝑌) = 𝑙𝑜𝑔2 (3)

Con lo que concluimos finalmente la capacidad de canal es:

𝑏𝑖𝑡𝑠
𝐶 = 𝑙𝑜𝑔2 (3) − 1.5 = 0.085[ ]
𝑠í𝑚𝑏𝑜𝑙𝑜𝑠 𝑡𝑟𝑎𝑛𝑠𝑚𝑖𝑡𝑖𝑑𝑜𝑠

S-ar putea să vă placă și