Sunteți pe pagina 1din 148

CAPÍTULO 1

INTRODUCCIÓN

A través del tiempo, los pueblos han diseñado numerosos métodos para comunicar a otros sus pensamientos y
necesidades. En la era primitiva, cuando los seres humanos vivían en pequeños grupos distribuidos en un área
geográfica relativamente pequeña, la comunicación en el grupo se hacía a través de la voz, gestos y símbolos
gráficos. Conforme estos grupos crecían y las civilizaciones se esparcían en grandes áreas geográficas, se hizo
necesario desarrollar métodos para comunicarse a grandes distancias. Los primeros intentos para este tipo de
comunicación incluyeron cosas como señales de humo, haces de luz, palomas mensajeras y cartas transportadas
por diferentes medios. Por ejemplo, en el segundo siglo AC., los telegrafistas griegos usaron antorchas para
comunicarse. Se usaban combinaciones y posiciones diferentes de las antorchas para representar las letras del
alfabeto griego. Estas primeras señales con antorchas representaron el primer ejemplo de la comunicación de
¡datos! Posteriormente, se usaron sonidos de tambores para comunicación a grandes distancias, recurriendo de
nuevo al sentido del sonido. Eran posibles mayores distancias puesto que los sonidos de los tambores se
diferenciaban más fácilmente del ruido ambiental. Con el comienzo de la revolución industrial se hizo más
imperiosa la necesidad de métodos rápidos y precisos para la comunicación a larga distancia. En 1753, Charles
Morrison, un cirujano escocés, sugirió un sistema de transmisión eléctrico usando un alambre (más tierra) para
cada letra del alfabeto. En el receptor se usaba un sistema de bolitas de material orgánico y papel con letras
impresas.
En 1835, Samuel Morse comenzó a experimentar con el telégrafo en la forma como se conoce hoy. Dos años
después, en 1837, el telégrafo fue inventado por Morse en los Estados Unidos y Sir Charles Wheatstone en Gran
Bretaña. El primer telegrama público fue enviado en 1844 y así se estableció la comunicación eléctrica como una
componente principal de la vida.
Los esquemas de comunicación descritos anteriormente son esencialmente digitales por naturaleza. Esto es
cierto ya que sólo se usaba un número limitado de mensajes. No fue sino hasta 1876, cuando a Alexander
Graham Bell se le otorgó la patente del teléfono, que entró en juego la comunicación eléctrica analógica (muchos
autores consideran a Elisha Gray, ingeniero norteamericano, como el verdadero inventor del teléfono de
resistencia variable). Después de esta invención parecía que la comunicación analógica dominaría
completamente a la digital. En efecto, la Western Union Telegraph Company (en los Estados Unidos) trató, sin
éxito, de entrar en el negocio telefónico.
En términos fundamentales, la comunicación involucra la transmisión de información de un punto a otro. Los
sistemas de comunicación que emplean señales eléctricas para llevar esa información usando un par de alambres
proporcionaron una primera solución al problema planteado de medios rápidos y precisos para la comunicación
a grandes distancias. Las transmisiones de radio experimentales comenzaron aproximadamente en 1910 con Lee
De Forest produciendo un programa de la Casa de la Ópera Metropolitana en la ciudad de Nueva York. Cinco
años después, se abrió una estación de radio experimental en la Universidad de Wisconsin en Madison (U.S.A).
La estación WWJ en Detroit y KDKA en Pittsburgh estuvieron entre las primeras en conducir transmisiones
regulares en 1920. El campo de la ingeniería de la comunicación eléctrica recibió una gran atención durante y
después de la segunda guerra mundial. Durante esta era hubo desarrollos significativos, entre ellos están la
televisión, los sistemas de radar y de microondas, circuitos a transistores y circuitos integrados miniaturizados,
satélites de comunicaciones y el láser. La televisión pública tuvo sus comienzos en Inglaterra en 1927. En los
Estados Unidos comenzó tres años después en 1930. En su primer período, no siguió ningún formato regular. El
horario regular no comenzó sino en 1939, durante la apertura de la Feria Mundial de Nueva York. Las
comunicaciones satelitales comenzaron en la década de 1960 y el satélite Telstar I se usó para retransmitir
programas de TV en 1962. Los primeros satélites de comunicaciones comerciales fueron lanzados en los años
2

1960. En la actualidad, los sistemas de comunicación cubren todo el mundo, transportando voz, texto, imágenes
y una gran variedad de otras informaciones.
Durante la posguerra también hubo un vasto crecimiento de las industrias de automatización y computación.
Este crecimiento hizo necesario que las computadoras y otras máquinas se comunicaran no solamente con las
personas sino también con otras máquinas. La revolución de las comunicaciones personales comenzó en la década de
1980. Antes de que finalizara la década de los años 1990, el profesional promedio tenía un teléfono celular, un
localizador, una conexión digital para Internet y una máquina de FAX en su casa. Los consumidores usaban
tecnología interactiva de discos compactos, computadoras portátiles (laptops) con servicios de datos mundiales
y el sistema global de posicionamiento por satélite (GPS) para ayudarse en problemas de trancas en el tráfico. En
contraste con la información analógica predominante en el intercambio de la comunicación personal. Sin
importar la naturaleza de la información transmitida y el método real de transmisión, podemos usar el modelo
siguiente para describir un sistema de comunicación.

1.1 Modelo de un Sistema de Comunicación

La Fig. 1.1 muestra los bloques funcionales básicos de un sistema de comunicación. Como ya se mencionó, el
propósito global de un sistema de comunicación es transferir información mediante un mensaje (definido como
la manifestación física de la información producida por una fuente) desde un punto en el espacio y el tiempo,
llamado la fuente, hasta otro punto, el usuario. Como regla, el mensaje producido por una fuente no es eléctrico.
Por ello se requiere un transductor de entrada para convertir el mensaje en una cantidad eléctrica variable en el
tiempo denominada una señal de mensaje. En el punto de destino (o recepción), otro transductor convierte la
señal eléctrica en el mensaje apropiado. Claramente, el concepto de información es central a la comunicación,
pero ella es una palabra que desafía una definición precisa. Esta dificultad la evitamos tratando más bien con el
mensaje, como se definió anteriormente. Hay dos modos básicos de comunicación eléctrica; uno lo constituye la
radiodifusión, la cual involucra el uso de un transmisor y muchos receptores y en el cual las señales portadoras de
información fluyen en una sola dirección. El otro modo es la comunicación punto a punto, en la cual el proceso
ocurre mediante un enlace entre un solo transmisor y un receptor. En este caso, usualmente se tiene un flujo
bidireccional de las señales portadoras de información, lo que requiere de un transmisor y un receptor en cada
extremo del enlace.

Fuente de Señal de
información y entrada Sistema de
transductor de Transmisor
(onda comunicación
entrada
eléctrica)

Canal de
comunicación
eléctrica

Señal de
salida
Transductor Receptor
de salida (onda
eléctrica)

Figura 1.1 Modelo de un sistema de comunicación eléctrico.

Hay muchos tipos de fuentes de información y los mensajes aparecen en varias formas. No obstante, se pueden
identificar dos categorías básicas de mensajes, analógicas y digitales. Un mensaje analógico es una cantidad física
que varía con el tiempo, usualmente en una forma suave y continua. Ejemplos son la presión acústica producida
cuando hablamos o la intensidad de luz en algún punto de una imagen de televisión. Puesto que la información
reside en una forma de onda que varía con el tiempo, un sistema de comunicación analógico debe entregarla con
un grado especificado de fidelidad.
3

Un mensaje digital es una secuencia ordenada de símbolos seleccionados de un conjunto finito de elementos
discretos. Ejemplos son las letras impresas en esta página o las teclas que se presionan en un teclado de
computadora. Como la información reside en símbolos discretos, un sistema de comunicación digital debe
entregar estos símbolos con un grado especificado de precisión en una cantidad de tiempo especificada.
Sean analógicas o digitales, pocas fuentes de mensajes son inherentemente eléctricas. En consecuencia, la
mayoría de los sistemas de comunicación tienen transductores de entrada y salida, como se muestra en la Fig. 1.1.
El transductor de entrada convierte el mensaje en una señal eléctrica, digamos un voltaje o una corriente
adecuada para su transmisión por un medio físico, y otro transductor en el destino convierte la señal recibida en
la forma deseada del mensaje. De aquí en adelante supondremos que existen transductores adecuados y nos
ocuparemos principalmente de la tarea de la transmisión de señales. En este contexto, los términos señal y mensaje
serán usados indiferentemente ya que tanto la señal como el mensaje, son una manifestación física de la
información.
La fuente de información y el punto de destino están usualmente separados en el espacio. El canal proporciona
la conexión eléctrica entre la fuente de información y el usuario. Un canal eléctrico puede transmitir señales sólo
en la forma de una onda eléctrica. Éste es un punto importante. No se confunda pensando que una señal puede
transmitirse en una forma no modificada. Por ejemplo, si se usa un canal de audio para transmitir el mensaje
“10101”, se enviarían cinco palabras creando así una onda de presión de audio. Cuando se dice la primera
palabra, “uno”, se está transmitiendo una forma de onda analógica correspondiente a los sonidos particulares en
esa palabra. Por lo tanto, se está transmitiendo una señal digital usando formas de onda analógicas. Esto puede
parecer como un proceso que da un rodeo y, efectivamente, así es. Para enviar una señal analógica, primero la
transformamos en una señal digital, enviamos la señal digital usando ondas analógicas, convertimos las ondas
analógicas en el receptor en una señal digital y después cambiamos esta señal digital de nuevo en ¡analógica!
El canal puede tener muchas formas diferentes como, por ejemplo, un enlace de microondas en el espacio libre,
un par de alambres trenzados o una fibra óptica. Indiferentemente del tipo, el canal, debido a imperfecciones,
degrada la señal transmitida en varias formas. La degradación es un resultado de la distorsión de la señal
producida por una respuesta imperfecta del canal y de señales eléctricas indeseables (ruido) e interferencia. El
transmisor y el receptor en un sistema de comunicación se diseñan cuidadosamente para evitar distorsión de la
señal y minimizar los efectos del ruido en el receptor de manera que sea posible una reproducción fiel del
mensaje emitido por la fuente. El canal también introduce alguna cantidad de pérdida o atenuación, de modo que
la potencia de la señal disminuye progresivamente conforme la distancia aumenta. Toda esta parte del proceso
hace que la señal recibida sea una versión corrompida de la señal transmitida.
El transmisor acopla la señal del mensaje en la entrada con el canal, es decir, procesa la señal de entrada para
producir una señal adaptada a las características del canal. Aunque algunas veces puede ser posible acoplar el
transductor de entrada directamente con el canal, a menudo es necesario procesar y modificar la señal de
entrada para una transmisión eficiente por el canal. Las operaciones de procesamiento de la señal ejecutadas por
el transmisor incluyen amplificación, filtrado y modulación y también puede incluir algún tipo de codificación. Las
más importantes de estas operaciones son la modulación – un proceso diseñado para adaptar las propiedades de
la señal transmitida con las del canal mediante el uso de una onda portadora y la codificación.
La modulación es una operación realizada en el transmisor para obtener una transmisión de la información
eficiente y confiable y consiste en la variación sistemática de algún atributo de una onda portadora, tal como la
amplitud, la fase o la frecuencia, de acuerdo con una función de la señal del mensaje o señal moduladora. Aunque
hay muchas técnicas de modulación, es posible identificar dos tipos básicos de ellas: la modulación de onda
portadora continua (modulación OC) y la modulación de pulsos. En la modulación OC la onda portadora es
continua (usualmente una onda sinusoidal), y se cambia alguno de sus parámetros proporcionalmente a la señal
del mensaje. En la modulación de pulsos, la onda portadora es una señal de pulsos (con frecuencia una onda de
pulsos) y se cambia un parámetro de ella en proporción a la señal del mensaje. En ambos casos, el atributo de la
portadora puede ser cambiado en una forma continua o discreta. La modulación de pulsos discretos (digital) es
un proceso discreto y es especialmente apropiado para mensajes que son discretos por naturaleza, como, por
ejemplo, la salida de un teletipo. Sin embargo, con la ayuda del muestreo y la cuantización, se pueden transmitir
señales de mensajes que varían continuamente (analógicas) usando técnicas de modulación digital.
4

La modulación, además de usarse en los sistemas de comunicación para adaptar las características de la señal a
las características del canal, también se utiliza para reducir el ruido y la interferencia, para transmitir
simultáneamente varias señales por un mismo canal y para superar limitaciones físicas en el equipo. Parte
considerable de este libro está dedicada al estudio de cómo los esquemas de modulación están diseñados para
alcanzar los objetivos mencionados. El éxito de un sistema de comunicación depende en gran parte de la
modulación.
La función principal del receptor es extraer la señal del mensaje de entrada partiendo de la versión degradada
de la señal transmitida proveniente del canal. El receptor ejecuta esta función mediante el proceso de demodulación
y el de decodificación, que son los procesos inversos de los ejecutados en el transmisor. Debido a la presencia del
ruido y de otras señales degradantes, el receptor no puede recuperar de manera perfecta la señal del mensaje.
Posteriormente se discutirán algunas formas de enfocar la recuperación ideal. Además de la demodulación, el
receptor usualmente proporciona amplificación y filtrado.
Con base en el esquema de modulación empleado y en la naturaleza de la salida de la fuente de información,
podemos dividir los sistemas de comunicación en tres categorías básicas:
1. Sistemas de comunicación analógicos diseñados para transmitir información analógica (información definida
de manera continua) usando métodos de modulación analógicos.
2. Sistemas de comunicación digital diseñados para transmitir información digital (serie finita de mensajes
posibles) usando esquemas de modulación digital y
3. Sistemas híbridos que usan esquemas de modulación digital para transmitir valores muestreados y
cuantizados de una señal de mensaje analógica.
Otras formas de categorizar los sistemas de comunicación incluyen la clasificación basada en la frecuencia de la
portadora y en la naturaleza del canal de comunicación.
Luego de esta breve descripción de un modelo general de un sistema de comunicación, ahora se examinarán
con detalle las diferentes componentes que conforman un sistema de comunicación típico usando el sistema de
comunicación digital como un ejemplo. Se enumerarán los parámetros importantes de cada bloque funcional en
un sistema de comunicación digital y se señalarán algunas de las limitaciones de las capacidades de los
diferentes bloques.

1.2 Elementos de un Sistema de Comunicación Digital

La Fig. 1.2 muestra los elementos funcionales de un sistema de comunicación digital típico e ilustra el flujo de la
señal y los pasos de su procesamiento. El propósito global del sistema es transmitir los mensajes (secuencias o
símbolos) provenientes de una fuente hasta un punto de destino con una tasa y precisión tan altas como sea
posible. La fuente y el punto de destino están físicamente separados en el espacio, y algún tipo de canal de
comunicación conecta la fuente con el destino. El canal acepta señales eléctricas/electromagnéticas, y la salida
del canal normalmente es una versión distorsionada de la entrada debido a la naturaleza no ideal del canal de
comunicación. Además de la distorsión, la señal portadora de la información también es corrompida por señales
eléctricas impredecibles (ruido) provenientes de causas humanas y naturales. La distorsión y el ruido introducen
errores en la información transmitida y limitan la rapidez con la cual la información puede ser comunicada
desde la fuente hasta el destinatario. La probabilidad de decodificar incorrectamente un símbolo del mensaje en
el receptor se usa con frecuencia como una medida del rendimiento de los sistemas de comunicación digital. La
función principal del codificador, el modulador, el demodulador y el decodificador es combatir los efectos
degradantes del canal sobre la señal y maximizar la tasa y precisión de la información.
Luego de estos preliminares, observe detalladamente a cada uno de los bloques funcionales en el sistema.
5

Fuente de a Codificador b Codificador c


información Modulador
de fuente de canal d
discreta
Canal de
comunicación
Señal eléctrica
Secuencia de Secuencia Secuencia analógica
símbolos e
binaria binaria eléctrica +
Σ Ruido
+

decodificador decodificador f
DESTINO Demodulador
i de fuente de canal
h g

Figura 1.2 Bloques funcionales de un sistema de comunicación digital.

1.2.1 Fuente de Información

Las fuentes de información pueden clasificarse en dos categorías basadas en la naturaleza de sus salidas: fuentes
de información analógica y fuentes de información discreta. Las fuentes de información analógicas, tales como un
micrófono accionado por la voz, o una cámara de TV escaneando una escena, emiten una o más señales de
amplitud continua (o funciones del tiempo). La salida de las fuentes de información discreta, tales como un
teletipo o la salida numérica de una computadora, consiste de una secuencia de símbolos o letras discretas. Una
fuente de información analógica puede ser transformada en una fuente de información discreta mediante el
proceso de muestreo y cuantización. Las fuentes de información discreta están caracterizadas por los siguientes
parámetros:
1. Alfabeto de la fuente (símbolos o letras).
2. Tasa o frecuencia de símbolos.
3. Probabilidades del alfabeto de la fuente
4. Dependencia probabilística de los símbolos en una secuencia
A partir de estos parámetros se puede construir un modelo probabilístico de la fuente de información y definir
la entropía de la fuente (H) y la tasa de información de la fuente (R) en bits por símbolo y bits por segundo,
respectivamente (el término bit se usa para denotar un dígito binario).
Para desarrollar mejor una idea de lo que estas cantidades representan, considérese una fuente de información
discreta – un teletipo con 26 letras del alfabeto español más seis caracteres especiales. El alfabeto fuente para este
ejemplo consiste de 32 símbolos. La tasa o frecuencia de símbolos se refiere al ritmo con el cual el teletipo
produce caracteres; para los objetivos de esta discusión, supóngase que el teletipo opera con una velocidad de 10
caracteres o 10 símbolos por segundo. Si el teletipo está produciendo mensajes consistentes de secuencias de
símbolos en el idioma español, entonces se sabe que algunas letras aparecerán con más frecuencia que otras.
También se sabe que la aparición de una letra en particular en una secuencia depende en alguna forma de las
letras que la preceden. Por ejemplo, la letra E ocurrirá con más frecuencia que la letra Q y la aparición de la letra
Q implica que la letra siguiente más probable en la secuencia será la letra U, y así por el estilo. Estas propiedades
estructurales de las secuencias de símbolos pueden ser caracterizadas mediante las probabilidades de aparición
de los símbolos individuales y por las probabilidades condicionales de que ocurran los símbolos.
Un parámetro importante de una fuente discreta es su entropía. La entropía de una fuente, denotada por H, se
refiere al contenido de información promedio por símbolo en un mensaje largo y se le da la unidad de bits por
símbolo. En el ejemplo, si se supone que todos los símbolos ocurren con probabilidades iguales en una secuencia
estadísticamente independiente, entonces la entropía de la fuente es cinco bits por símbolo (esto es, 25 = 32;
posteriormente en el texto se dará una definición matemática de la entropía de la fuente). Sin embargo, la
dependencia probabilística de los símbolos en una secuencia y las probabilidades desiguales de ocurrencia de
6

los símbolos reducen considerablemente el contenido promedio de información de los símbolos. Intuitivamente
es posible justificar la afirmación anterior convenciéndonos nosotros mismos de que en una secuencia de
símbolos QUE, la letra U casi no proporciona información puesto que la aparición de Q implica casi siempre que
la siguiente letra en la secuencia tiene que ser una U.
La tasa de información de la fuente se define como el producto de la entropía de la fuente por la tasa de
símbolos y tiene las unidades de bits por segundo. La tasa de información, denotada por R, representa el
mínimo número de bits por segundo que se necesitarán, en promedio, para representar la información
proveniente de la fuente discreta. Alternativamente, R representa la tasa de datos promedio necesaria para llevar
la información desde la fuente hasta el destinatario.

1.2.2 Codificador/Decodificador de Fuente

El codificador de fuente opera sobre una o más señales analógicas para producir un tren periódico de símbolos.
Estos símbolos pueden ser binarios (unos y ceros) o pueden ser miembros de un conjunto de dos o más
elementos. El codificador de fuente convierte esa secuencia en una secuencia binaria de unos y ceros mediante la
asignación de palabras códigos a los símbolos en la secuencia o sucesión de entrada. La manera más sencilla en
la cual un codificador de fuente puede realizar esta operación es asignando una palabra en código binaria de
longitud fija a cada símbolo en la secuencia de entrada. Para el ejemplo del teletipo que hemos estado
discutiendo, esto se puede hacer asignando palabras en código de 5 bits, 00000 hasta 11111, para los 32 símbolos
en el alfabeto de la fuente y reemplazando cada símbolo en la secuencia de entrada por una palabra en código
preasignada. Con una tasa de símbolos de 10 símbolos/seg, la tasa de datos de salida del codificador de fuente
será de 50 bits/seg. Con canales que se usan para comunicar desde más de una fuente al mismo tiempo, el
codificador de fuente también puede contener un multicanalizador (“multiplexer” en inglés). Aunque la entrada al
codificador de fuente es una señal de tiempo continuo, un sistema de comunicación de datos puede de hecho
comenzar como una señal digital (por ejemplo, la salida obtenida al presionar las teclas de un teclado).
La codificación de longitud fija de los símbolos individuales en una salida de una fuente es eficiente sólo si los
símbolos ocurren con probabilidades iguales en una secuencia estadísticamente independiente. En la mayoría de
las aplicaciones prácticas, los símbolos en una secuencia son estadísticamente dependientes y ocurren con
probabilidades desiguales. En estas situaciones, el codificador de fuente toma una cadena de dos o más símbolos
como un solo bloque y les asigna palabras un código de longitud variable a estos bloques. El codificador de
fuente óptimo se diseña para producir una tasa de datos de salida que tienda a r, la tasa de información de la
fuente. Debido a restricciones prácticas, la tasa de salida real de los codificadores de fuente será mayor que la
tasa de información de la fuente R. Los parámetros importantes de un codificador de fuente son: el tamaño del
bloque, longitudes de las palabras en código, tasa de datos promedio y la eficiencia del codificador (esto es, la
tasa real de datos de salida comparada con la tasa mínima alcanzable R).
En el receptor, el decodificador de fuente convierte la salida binaria del decodificador del canal en una
secuencia de símbolos. El decodificador para un sistema usando palabras en código de longitud fija es bastante
sencillo, pero el decodificador para un sistema que usa palabras en código de longitud variable será más
complejo. Los decodificadores para estos sistemas deben poder trabajar con diferentes problemas tales como los
requerimientos crecientes de memoria y la pérdida de sincronización producida por errores de bits.

1.2.3 Canal de Comunicación

El canal de comunicación proporciona la conexión eléctrica entre la fuente y el destinatario. El modo de


transmisión establece la distinción entre canales. El canal basado en propagación guiada, el cual puede ser un par
de alambres o un enlace telefónico, y el basado en propagación libre, que incluye el espacio libre por el cual se
irradia una señal portadora de información o canales satelitales. Debido a limitaciones físicas, los canales de
comunicación pueden tener sólo un ancho de banda (B Hz) finito y la señal portadora de la información con
frecuencia sufre distorsión de amplitud y de fase conforme se desplaza por el canal. Además de la distorsión, la
potencia de la señal también disminuye debido a la atenuación en el canal. También, la señal es corrompida por
señales eléctricas impredecibles e indeseables conocidas como ruido. En tanto que algunos de los efectos
degradantes del canal pueden ser removidos o compensados, los efectos del ruido no pueden ser eliminados
7

completamente. Desde este punto de vista, el objetivo primario de un diseño de un sistema de comunicación
debe ser la supresión de los efectos nocivos del ruido tanto como sea posible.
Una de la formas en las cuales se puede minimizar los efectos del ruido es incrementando la potencia de la
señal. Sin embargo, la potencia de la señal no puede ser aumentada más allá de ciertos niveles a causa de los
efectos no lineales que tienden a hacerse dominantes conforme se incrementa la amplitud de la señal. Por esta
razón, la relación de potencia señal-ruido (S/N) que puede mantenerse en la salida de un canal de
comunicación, es un parámetro importante del sistema. Otros parámetros importantes del canal son el ancho de
banda (B) utilizable, la respuesta de amplitud y de fase y las propiedades estadísticas del ruido.
Si se conocen los parámetros de un canal de comunicación, entonces es posible calcular la capacidad del canal
C, la cual representa la tasa máxima con la cual es teóricamente posible la transmisión de datos casi sin errores.
Para ciertos tipos de canales de comunicación, se ha determinado que C es igual a B log 2 (1 + S N ) bits/seg. La
capacidad del canal C tiene que ser mayor que la tasa de información promedio R de la fuente para una
transmisión libre de errores. La capacidad C representa un límite teórico, y la tasa de datos de utilización
práctica será mucho menor que C. Como un ejemplo, para un enlace telefónico típico con un ancho de banda
utilizable de 3 kHz y S/N = 103, la capacidad del canal es de aproximadamente 30 0 00 bits/seg. En la actualidad,
la tasa real de datos para tales canales varía entre 150 y 9 6 00 bits/seg.

1.2.4 Modulador

El objetivo del modulador de portadora es producir ondas analógicas correspondientes a los símbolos discretos en
la entrada. El modulador acepta una secuencia de bits como entrada y la convierte en una señal eléctrica
adecuada para la transmisión por un canal de comunicación. La modulación es una de las herramientas más
poderosas en las manos de un diseñador de sistemas de comunicación. Se puede usar efectivamente para
minimizar los efectos del ruido del canal, para adaptar el espectro de frecuencias de la señal transmitida a las
características del canal, para proporcionar la capacidad de multicanalizar (combinar) muchas señales y para
superar algunas limitaciones en el equipo.
Los parámetros importantes del modulador son los tipos de señales utilizadas, su duración, el nivel de
potencia y el ancho de banda usado. El modulador realiza la tarea de minimizar los efectos del canal mediante el
uso de gran potencia de la señal y gran ancho de banda y con el uso de señales de larga duración. Aunque el uso
de grandes cantidades de potencia de la señal y gran ancho de banda para combatir los efectos del ruido es un
método obvio, estos parámetros no pueden ser incrementados indefinidamente a causa de limitaciones en el
equipo y el canal. El uso de señales de larga duración para minimizar los efectos del ruido del canal se basa en la
conocida ley de los grandes números de la estadística. Esta ley expresa que aun cuando el resultado de un solo
experimento aleatorio puede fluctuar grandemente, el resultado global de muchas repeticiones de un
experimento aleatorio puede predecirse con precisión. En la comunicación de datos, este principio puede usarse
ventajosamente haciendo que la duración de las señales de señalización sea larga. Promediando para grandes
duraciones, se pueden minimizar los efectos del ruido.
Para ilustrar el principio anterior, supóngase que la entrada al modulador consiste de ceros y unos que se
suceden con una frecuencia de 1 bit/seg y que el modulador puede asignar ondas una vez cada segundo. Por
ejemplo, a las ondas A cos ω1 t (0 ≤ t < 1) y A cos ω2 t ( 0 ≤ t < 1 ) se les puede asignar los bits 0 y 1,
respectivamente. Observe que la información contenida en el bit de entrada está ahora contenida en la
frecuencia de la onda de entrada. Para emplear ondas de mayor duración, el modulador puede, por ejemplo,
asignar ondas una vez cada cuatro segundos. Esto requeriría 16 ondas, A cos ω1 t , A cos ω2 t , ... , A cos ω16 t , cada
una con duración de cuatro segundos; estas 16 ondas pueden representar las dieciséis combinaciones 0000, 0001,
... , 1111. La limitación de esta técnica es ahora evidente. El número de ondas distintas que el modulador debe
generar (y, por tanto, el número de ondas que el generador debe detectar) aumenta exponencialmente conforme
aumenta la duración de las ondas. Esto conduce a un aumento en la complejidad del equipo y por ello, la
duración no puede incrementarse en forma indefinida. Tómese como ejemplo una computadora u otra fuente
digital que tenga M >> 2 símbolos. La transmisión no codificada de un mensaje proveniente de esta fuente
requeriría de M formas de onda diferentes, una para cada símbolo. Alternativamente, cada símbolo pudiese
representarse mediante una palabra de código binaria consistente de K dígitos binarios. Como hay 2K palabras
8

código posibles formadas por K dígitos binarios, se necesitan K ≥ log 2 M dígitos binarios por palabra código
para codificar M símbolos de la fuente. Si la fuente produce r símbolos por segundo, el código binario tendrá Kr
dígitos por segundo y el requerimiento para el ancho de banda de transmisión es K veces el ancho de banda de
la señal no codificada.

1.2.5 Demodulador

La modulación es un proceso reversible, y la extracción del mensaje de la onda portadora de información


producida por el modulador se obtiene mediante el demodulador. Para un tipo de modulación dada, el
parámetro más importante del demodulador es el método de demodulación. Existen varias técnicas disponibles
para demodular una onda modulada dada; el procedimiento real usado determina la complejidad del equipo
necesario y la precisión de la demodulación. Dados el tipo y duración de las señales usadas por el modulador, el
nivel de potencia en el modulador, las características físicas y de ruido del canal y el tipo de demodulación,
podemos derivar relaciones únicas entre la tasa de datos, los requerimientos de ancho de banda y potencia y la
probabilidad de decodificar incorrectamente un bit del mensaje. Una parte considerable de este texto está
dedicada a la deducción de estas relaciones y su uso en el diseño de sistemas.
Las características del modulador, el demodulador y el canal establecen una tasa promedio de errores de bits
entre los puntos c y g en la Fig. 1.2. La mayoría de las veces, esta tasa de error de bits y la correspondiente tasa
de error de símbolos será mayor que la deseada. Una tasa de error de bits menor puede obtenerse rediseñando el
modulador y el demodulador (a menudo llamados modems) o usando codificación de control de errores.

1.2.6 Codificador/Decodificador del Canal

La codificación de un canal digital es un método práctico de obtener confiabilidad y eficiencia de transmisión


altas que de otra forma solamente podrían alcanzarse mediante la introducción de redundancia controlada para
mejorar aún más la confiabilidad en un canal ruidoso. Con la codificación digital, se selecciona un conjunto
relativamente pequeño de señales analógicas, a menudo dos, para la transmisión por el canal y el demodulador
tiene la tarea conceptualmente sencilla de distinguir entre dos señales diferentes de formas conocidas. El control
de errores se obtiene con la operación de codificación del canal, la cual consiste en añadir sistemáticamente bits
adicionales a la salida del codificador de fuente. Aunque estos bits adicionales no llevan información, ellos
posibilitan que el detector detecte y/o corrija algunos de los errores en los bits portadores de información.
Hay dos métodos para ejecutar la operación de codificación del canal. En el primer método, llamado el método
de codificación de bloques, el codificador toma un bloque de k bits de información del codificador de fuente y le
añade r bits de control de errores. El número de bits de control de errores añadido depende del valor de k y de
las capacidades de control de errores deseadas. En el segundo método, llamado el método de codificación
convolucional, la secuencia del mensaje portador de información es codificada en una forma continua,
intercalando continuamente bits de información y bits de control de errores. Ambos métodos requieren del
almacenamiento y del procesamiento de datos binarios en el codificador y el decodificador. Aunque este
requerimiento era un factor limitante en los primeros tiempos de la comunicación de datos, ya no es un
problema debido a la disponibilidad de dispositivos con memoria de estado sólido y microprocesadores de
precios razonables.
Los parámetros importantes de un codificador de canal son el método de codificación, la tasa o eficiencia del
codificador (medida por la relación entre la tasa de datos en la entrada y la de la salida), capacidades para
controlar errores y la complejidad del decodificador.
El decodificador del canal recupera los bits portadores de información de la secuencia binaria codificada. La
detección y posible corrección de errores también es realizada por el decodificador del canal. El decodificador
opera en un modo de bloque o en un modo secuencial continuo dependiendo del tipo de codificación utilizada
en el sistema. La complejidad del decodificador y el retardo involucrado en el decodificador son parámetros de
diseño importantes.
9

1.2.7 Otros Bloques Funcionales

En los sistemas de comunicación de datos prácticos existen varios otros bloques funcionales, no mostrados en la
Fig. 1.2. Ejemplos de esos bloques son los compensadores, redes de recuperación del reloj y
mezcladores/desmezcladores, para nombrar algunos. Los compensadores (“equalizers”, en inglés) compensan los
cambios en las características del canal, y las redes de recuperación del reloj (coordinación) extraen información
de coordinación en el receptor para mantener la sincronización entre el transmisor y el receptor. Los
mezcladores se utilizan en los sistemas para prevenir que aparezcan cadenas de símbolos indeseables (como, por
ejemplo, secuencias de bits periódicas en los datos o largas secuencias de unos o ceros) en la entrada del canal.
Los desmezcladores se usan en el receptor para recuperar la secuencia de bits o de símbolos original de su
versión mezclada.
También se debe señalar que los bloques funcionales podrían tener estructuras diferentes dependiendo de los
esquemas de señalización usados. Por ejemplo, en los sistemas de modulación de amplitud de pulsos (PAM, por
sus siglas en inglés) de banda base, el modulador consiste realmente de un generador de pulsos y un filtro
conformador de pulsos llamado el filtro de transmisión. El demodulador en tales sistemas tendrá un filtro
conformador llamado un filtro receptor seguido de un convertidor analógico-digital (A/D).
Desde un punto de vista del usuario, un sistema de comunicación de datos consiste de los bloques físicos (o
partes de equipo) ilustrados en la Fig. 1.3. El equipo terminal de datos, usualmente una terminal o una
computadora, envía y recibe datos provenientes de otros equipos terminales de datos (DTE, por sus siglas en
inglés). El equipo DTE también genera y recibe señales de control que regulan el flujo de información entre las
terminales. Estas señales de control podrían incluir requisiciones para enviar datos, una indicación de
disponibilidad para recibir datos y una indicación de terminal de datos ocupado. El flujo de datos y las señales
de control desde y hacia el DTE ocurre a través de interfaces estándares. El DTE está conectado al MODEM
(modulador-demodulador), el cual consiste de un modulador para enviar datos y un demodulador para recibir
datos.
El MODEM está conectado al canal y controla el intercambio de información a través del canal. El DTE realiza
el control global del flujo de información, detección de errores, corrección de errores y diferentes tareas de
codificación.

Datos Datos
DTE
DTE MODEM CANAL
Control Control
Datos Datos
DTE
DTE MODEM
Control Control

Figura 1.3 Bloques físicos importantes en un sistema de comunicación punto a punto.

1.3 Comparación de las Comunicaciones Analógicas y Digitales

Antes de explorar las ventajas de un sistema de comunicación sobre otro, se aclararán algunas definiciones
importantes. Un sistema de comunicación analógico es uno que transmite señales analógicas – aquellas señales de
tiempo que pueden tomar un continuo de valores en un intervalo de tiempo definido. Si las señales de tiempo
analógicas son muestreadas, se puede considerar a las muestras como una lista de números que debe ser
transmitida. Esta lista todavía está compuesta de números analógicos – aquellos que pueden tomar un infinito
de valores dentro de ciertos límites definidos. Todavía el sistema no es digital. A éste se le refiere como un
sistema de tiempo discreto o muestreado. Si los valores de las muestras se restringen ahora a pertenecer a un
conjunto discreto (por ejemplo, los números enteros), el sistema se convierte en digital. Aquí el concepto clave
es que los valores de las muestras ya no pueden tomar cualquier valor dentro de una banda continua.
Muchos sistemas son combinaciones híbridas de los tipos digital y analógico. Conforme sus ojos rastrean esta
página, su sistema fisiológico está operando como un receptor analógico, puesto que está buscando por
10

gradaciones de imágenes en cualquier parte de la página. Pero la forma básica de la comunicación es digital, ya
que usted ha programado su mente para que busque un número limitado de señales – las alfanuméricas más un
número limitado de símbolos griegos y matemáticos. En un nivel más alto, usted está buscando palabras de un
diccionario de comunicación – un conjunto de quizás 30000 posiblidades. Adelantándonos al juego, si vio la frase
anterior como “un conjunto de quizás 30000 posiblidades”, probablemente recibiría correctamente el mensaje aún
cuando la última palabra en la cadena no es un miembro de su diccionario (observe el error tipográfico, a menos
que el equipo de la computadora lo haya corregido). Usted puede recibir correctamente el mensaje ya que nos
estamos comunicando digitalmente – no todo mensaje posible está siendo usado. De hecho, si “posiblidades”
fuese parte de nuestro diccionario, usted podría haber cometido un error de recepción al recibirlo en lugar de
“posibilidades”.
Ahora que se está de acuerdo en las definiciones, se examinarán algunas de las ventajas y desventajas de la
comunicación digital cuando se compara con la comunicación analógica. Estos tópicos se exploran con mayor
detalle posteriormente a través del texto. Se presentan aquí para motivar el estudio de los sistemas digitales.
Se comienza por dar una lista de las principales ventajas y desventajas.

Ventajas de las Comunicaciones Digitales:

1. Facilidad con la cual se pueden regenerar las señales digitales en comparación con las señales analógicas.
2. Los circuitos digitales son menos susceptibles a la distorsión e interferencia. Como los circuitos digitales
binarios operan en uno de dos estados – encendido o apagado – para que una perturbación se haga sentir,
tiene que ser lo suficientemente grande para poder cambiar el punto de operación de un circuito de un
estado a otro.
3. La manipulación de la señal (por ejemplo, la encriptación) es fácil de realizar.
4. Con frecuencia se pueden corregir errores.
5. A menudo es posible una mayor gama dinámica (diferencia entre los valores mayor y menor).
6. Los circuitos digitales son más confiables y se pueden producir a un costo menor que los analógicos.
7. La combinación de señales digitales usando multicanalización por división de tiempo es más sencilla que la
combinación de señales analógicas usando multicanalización por división de frecuencias.

Desventajas de las Comunicaciones Digitales:

1. Generalmente requieren un ancho de banda mayor que la analógica.


2. Dedican gran parte de sus recursos a la tarea de sincronización. Esto se obtiene más fácilmente en los
sistemas analógicos.
3. Cuando la relación señal-a-ruido cae por debajo de un cierto umbral, la calidad del servicio puede cambian
repentinamente de muy buena a muy mala, debido a la degradación.
Ahora se explicará un poco más sobre estas ventajas y desventajas. La mayor ventaja de la comunicación
digital reposa en su capacidad de corrección de errores. Por ejemplo, “posiblidades” puede ser reconocida como
un error tipográfico. ¡Este concepto es fundamental! Siempre y cuando todas las señales posibles no estén siendo
transmitidas, con frecuencia el receptor puede reconocer cuándo se ha cometido un error. Algunas veces este
reconocimiento es suficiente, pero a menudo el error también es corregido automáticamente en el receptor.
La segunda ventaja de la comunicación digital se relaciona con el hecho de que se está tratando con números y
no con formas de ondas. Estos números pueden ser manipulados mediante circuitos lógicos sencillos o, si fuese
necesario, mediante microprocesadores. Se pueden ejecutar fácilmente operaciones complejas para cumplir
funciones de procesamiento de señales o de seguridad en la transmisión. Las operaciones analógicas
comparables requerirían de una circuitería mucho más compleja.
La tercera ventaja tiene que ver con la gama dinámica. Esto se ilustra con un ejemplo. El disco fonográfico
analógico convencional sufre de una gama dinámica limitada. Sonidos muy bajos requieren variaciones
extremas en la forma del surco en el disco y es difícil para la aguja recolectora seguir esta variación. Las
11

grabaciones digitales no confrontan este problema ya que todos los valores de la amplitud, sean ellos muy
pequeños o muy grandes, se transmiten usando el mismo conjunto limitado de señales.
No todo es ideal. Hay desventajas en la comunicación digital cuando se compara con la analógica. Los sistemas
digitales generalmente requieren de un ancho de banda mayor que los sistemas analógicos. Por ejemplo, un solo
canal de voz puede ser transmitido usando modulación AM de banda lateral única con un ancho de banda menor
que 5 kHz. La transmisión de la misma señal usando técnicas digitales puede requerir por lo menos cuatro veces
este ancho de banda.
Una desventaja adicional es la necesidad de proporcionar sincronización a través del sistema de comunicación
digital. Es importante para el sistema conocer cuándo está comenzando cada símbolo y cuándo termina, y
asociar apropiadamente cada símbolo con la transmisión correcta. Este último punto se aclarará cuando se
estudie la multicanalización (“multiplexing”, en inglés). Algunos argumentarán que el sistema analógico, en su
forma más sencilla, “perdona más”. En efecto, un solo canal de voz AM es extremadamente robusto. La
frecuencia de la portadora o el ancho de banda pueden perderse y todavía el mensaje puede ser entendido.

1.4 Análisis y Diseño de un Sistema de Comunicación

Un ingeniero de sistemas de comunicación tiene que lidiar con dos tareas técnicas principales: el análisis y el
diseño de sistemas de comunicación. El análisis consiste en la evaluación del rendimiento de un sistema de
comunicación dado, mientras que el diseño consiste en obtener los detalles de un sistema para que ejecute
satisfactoriamente una tarea dada. Aunque con frecuencia no es posible definir claramente dónde finaliza el
análisis y dónde comienza el diseño, es posible decir, sin temor a una equivocación, que se tiene que aprender a
analizar sistemas de comunicación antes de aprender a diseñarlos.

1.4.1 Análisis de Sistemas de Comunicación

Para los objetivos del análisis, los sistemas de comunicación se considerarán como una interconexión de
diferentes subsistemas donde cada uno de ellos realiza una tarea específica de procesamiento de la señal. La
transmisión de información se obtiene mediante una serie de transformaciones de la señal. Así que, para
analizar el sistema, se necesitan descripciones matemáticas de las señales y de la transformación de las señales.
En este enfoque sistémico, se enfocará la atención en el análisis (y diseño) de subsistemas (o bloques
funcionales). Para cada bloque funcional, se definirán los requerimientos de entrada/salida y se dará una lista
de los parámetros que se tienen a disposición. Entonces se deducirán relaciones que conectan el comportamiento
funcional del bloque con sus parámetros y se usan estas relaciones para optimizar el rendimiento de los bloques
funcionales.

1.4.2 Diseño de Sistemas de Comunicación

Cuando se planifica un sistema de comunicación, la tarea del diseñador es decidir sobre un tipo específico de
sistema de comunicación para una aplicación dada. El sistema que proponga debe cumplir con un conjunto
especificado de requisitos de desempeño. Para señales de mensaje analógicas, el rendimiento del sistema se
especifica en función de la relación entre el promedio de la potencia de la señal del mensaje y la potencia de
ruido en el punto de destino. Para señales de mensajes discretos, se usa la probabilidad de decodificar
incorrectamente un símbolo del mensaje en el receptor como una medida del comportamiento.
Al diseñar un sistema de comunicación, el ingeniero enfrenta varias restricciones. Éstas son restricciones de
tiempo-ancho de banda, limitaciones por el ruido y restricciones de equipo (costos).

Restricción Tiempo-Ancho de Banda. Para la utilización eficiente de un sistema de comunicación, es necesario


enviar tanta información como sea posible en un período de tiempo tan corto como sea posible. Una medida conveniente
de la velocidad de señalización es el ancho de banda de la señal. Cuando la transmisión de la señal ocurre en
tiempo real por un canal de comunicación, el diseño debe asegurar que el ancho de banda de la señal sea menor
que o igual al ancho de banda del canal. Si no se puede cumplir con esta restricción, entonces podría ser
necesario disminuir la velocidad de señalización aumentando de ese modo el tiempo de transmisión.
12

Las asignaciones de frecuencia y ancho de banda del canal están reguladas por el gobierno para los canales
públicos y por regulaciones impuestas por las compañías privadas si el canal es alquilado. En general, se
dispondrá de anchos de banda más grandes para frecuencias portadoras más altas. Como una guía aproximada,
el ancho de banda disponible puede ocupar hasta 10 por ciento de la frecuencia de la portadora.

Limitaciones de Ruido. El ruido se refiere a señales eléctricas, indeseables y con frecuencia impredecibles, que
corrompen la señal del mensaje. El ruido puede clasificarse en dos amplias categorías dependiendo de su fuente.
El ruido generado por componentes dentro de un sistema de comunicación se conoce como ruido interno. La
segunda categoría de ruido, denominada ruido externo, proviene de fuentes externas al sistema de comunicación.
Las fuentes externas de ruido incluyen fuentes hechas por el hombre y fuentes naturales extraterrestres.
El ruido es inevitable en un sistema de comunicación eléctrica ya que siempre hay ruido térmico asociado con
la conducción y radiación. El ruido limita nuestra habilidad para identificar correctamente la señal del mensaje
recibida y ello limita la transmisión de información. Variaciones típicas del ruido se miden en microvoltios. Si las
variaciones de la señal son muy grandes comparadas con las del ruido, entonces éste puede ignorarse. En efecto,
en muchos sistemas prácticos los efectos del ruido pasan desapercibidos. Sin embargo, en sistemas de
transmisión a grandes distancias operando con una cantidad limitada de potencia, la señal puede ser de la
misma magnitud que el ruido o hasta más pequeña. En esas situaciones, la presencia del ruido limita
severamente las capacidades de un sistema de comunicación. Posteriormente se estudiará que es posible diseñar
esquemas de señalización que usen un ancho de banda más grande para reducir los efectos del ruido (esto es,
sistemas que intercambian ancho de banda por relación señal-ruido).

Limitaciones en el Equipo. Las limitaciones de tiempo-ancho de banda y las debidas al ruido determinan lo
que puede o no obtenerse en términos del rendimiento en un sistema de comunicación. Sin embargo, este límite
teórico no puede alcanzarse en un sistema práctico debido a limitaciones en el equipo. Por ejemplo, la teoría
podría indicar un filtro de pasabanda con un factor de calidad de 100 a una frecuencia central de 1 kHz y una
pendiente de corte de 90 dB/década. Un filtro así no puede realizarse en la práctica. Aún si se pudiese construir
un filtro con características casi idénticas, el precio podría exceder lo que el usuario del sistema de comunicación
desea pagar.
En resumen, las restricciones de ancho de banda y de la relación señal-a-ruido limitan la máxima frecuencia
con la cual puede ocurrir la transferencia de información en un sistema de comunicación. El límite superior es
siempre finito. Además de esta restricción teórica, al diseñador se le dan restricciones adicionales relacionadas
con el costo y la complejidad del equipo. El diseñador tiene que producir un esquema de señalización que
ofrezca el mejor compromiso entre el tiempo de transmisión, potencia transmitida, ancho de banda de
transmisión y complejidad del equipo y que, al mismo tiempo, mantenga un nivel de rendimiento aceptable.
CAPÍTULO 2

SEÑALES Y SISTEMAS

Introducción

La representación de la señal de entrada a un sistema (entendiendo como sistema un conjunto de elementos o


bloques funcionales conectados para alcanzar un objetivo deseado) de tiempo continuo lineal e invariable en el
tiempo (LIT) como una integral ponderada de impulsos desplazados conduce a la integral de convolución. Esta
representación de sistemas LIT de tiempo continuo indica cómo la respuesta de esos sistemas a una entrada
arbitraria se construye a partir de las respuestas a los impulsos unitarios desplazados. Entonces, la integral de
convolución no sólo proporciona una manera conveniente de calcular la respuesta de un sistema LIT,
suponiendo conocida su respuesta al impulso unitario, sino que también indica que las características de un
sistema LIT son especificadas completamente por su respuesta al impulso unitario. A partir de este hecho,
muchas de las propiedades de los sistemas LIT se pueden analizar en detalle y relacionar estas propiedades con
las características equivalentes de las respuestas al impulso de tales sistemas, lo cual se hace al final del capítulo.
En este trabajo se desarrollará una representación alterna para las señales y los sistemas LIT. El punto de
partida de esta discusión es el desarrollo de una representación de señales como sumas ponderadas de un
conjunto de señales básicas, las señales exponenciales complejas. Las representaciones resultantes son conocidas
como la serie y la transformada de Fourier y, como se verá, estas representaciones se pueden emplear para
construir varias clases de señales. La idea central de la representación es la siguiente Dada una secuencia de
funciones u1 (t ), u2 (t ), u3 (t ), … que tienen la propiedad de ortogonalidad:
b

∫ a
um ( t ) un∗ ( t ) dt = 0

siempre que n ≠ m (el asterisco indica el conjugado complejo), se desea expandir una función “arbitraria” f ( t )
en una serie infinita de la forma
f ( t ) = C 1 u1 ( t ) + C 2 ( t ) u2 ( t ) + C 3 ( t ) u3 ( t ) + ⋯

Superficialmente, esto parece bastante sencillo. Para determinar Cn para cualquier valor fijo de n, se multiplica
ambos lados de esta ecuación por un∗ ( t ) y se integra en el intervalo ( a , b ) :
b b b

∫ a
f ( t ) un∗ ( t ) dt = C1
∫ a
u1 ( t ) un∗ ( t ) dt + C 2
∫ a
u2 ( t ) un∗ ( t ) dt + ⋯ .

Debido a la propiedad de ortogonalidad, todos los términos en el lado derecho se anulan excepto el n-ésimo y se
obtiene
b b

∫ ∫
2
f ( x ) un∗ ( x ) dx = Cn un ( x ) dx
a a

la cual se puede resolver para obtener Cn .


Las señales con las cuales se trabaja normalmente son magnitudes variables en el tiempo; por ejemplo, en las
comunicaciones eléctricas, ellas son el voltaje y la corriente. La descripción de una señal x(t) usualmente se da en
el dominio del tiempo, donde la variable independiente es el tiempo t. Para muchas aplicaciones, a menudo es más
conveniente describir las señales en el dominio de la frecuencia f, donde la variable independiente es la frecuencia f.
Así, si la señal existe físicamente en el dominio del tiempo, entonces se puede decir que ella está formada por
José R. Morón 14

diferentes componentes en el dominio de la frecuencia y esas componentes en conjunto se denominan el espectro


de la señal.
El análisis espectral basado en la serie y la transformada de Fourier constituye una herramienta poderosa en
muchas ramas de la ingeniería. Como consecuencia, la atención en este trabajo se centrará en la teoría de Fourier
antes que en otras técnicas como, por ejemplo, la transformación de Laplace y el análisis en el dominio del
tiempo. Primero, el dominio de la frecuencia es esencialmente un punto de vista de régimen permanente y, para
muchos propósitos, es razonable restringir nuestra atención al comportamiento en régimen permanente de los
sistemas bajo estudio. En realidad, si se toma en cuenta la multitud de señales posibles que un sistema puede
manejar, sería imposible encontrar soluciones detalladas de las respuestas transitorias para cada una de ellas. En
segundo lugar, el análisis espectral permite considerar clases completas de señales que poseen propiedades
similares en el dominio de la frecuencia. Esto no sólo conduce a un conocimiento más profundo en el análisis,
sino que es de gran valor para el diseño. Y en tercer lugar, muchas de las componentes de un sistema se pueden
clasificar como dispositivos lineales e invariables en el tiempo; siendo así, se pueden describir por sus
características de respuesta en frecuencia, las cuales, a su vez, facilitan aún más el análisis y el trabajo de diseño.
Por tanto, este capítulo está dedicado al análisis de señales y sus respectivos espectros, poniendo atención
especial a la interpretación de las propiedades de esas señales en el dominio de las frecuencias. Se examinarán
los espectros de líneas basados en la expansión en series de Fourier para señales periódicas y en los espectros
continuos basados en la transformada de Fourier de señales aperiódicas. Finalmente, estos dos espectros se
conjugarán con la ayuda del concepto de la función impulso y de la respuesta al impulso.
Como primer paso, se deben escribir las ecuaciones que representan las señales en función del tiempo, pero sin
olvidar que esas ecuaciones son sólo modelos matemáticos del mundo real y, por lo general, son modelos
imperfectos. En efecto, una descripción completamente fiel de la señal física más sencilla sería demasiado
complicada e impráctica para los propósitos de la ingeniería. Por consiguiente, se tratará de idear modelos que
representen con una complejidad mínima las propiedades significativas de las señales físicas. El estudio de
muchos modelos diferentes para las señales proporciona la información necesaria para seleccionar modelos
apropiados para aplicaciones específicas.

2.1 Respuesta de Sistemas LIT a Exponenciales Complejas

En el estudio de sistemas LIT (los cuales cumplen con el principio de superposición) es ventajoso representar
las señales como combinaciones lineales de señales básicas que posean las propiedades siguientes:
1. El conjunto de señales básicas se puede usar como base para construir una clase de señales amplia y de
mucha utilidad.
2. La estructura de la respuesta de un sistema LIT a cada señal básica debe ser lo suficientemente sencilla como
para proporcionar una representación conveniente de la respuesta del sistema a cualquier señal construida
como una combinación lineal de señales básicas.
En sistemas LIT de tiempo continuo, estas dos ventajas son proporcionadas por el conjunto de exponenciales
complejas de la forma est, en donde s es una variable compleja. Considérese, por ejemplo, un sistema LIT con
entrada x(t) y cuya función de transferencia H(jω), s = jω en este caso, se define de tal forma que cuando
x ( t ) = e jωt , la salida es igual a H ( jω ) e jωt ; es decir,

y(t )
H ( jω ) = (2.1)
x ( t ) x ( t )= e jωt

Combinando la Ec. (2.1) con el principio de superposición, se deduce que si x(t) es una combinación lineal de
señales exponenciales, digamos

x ( t ) = c1 e jω1 t + c 2 e jω2 t + ⋯ (2.2)


donde c1, c2,, … son constantes, entonces
José R. Morón 15

y ( t ) = c1 H ( jω1 ) e jω1 t + c 2 H ( jω2 ) e jω2 t + ⋯ (2.3)

y H(jω1) representa la función H(jω) evaluada en ω1, etc.


Generalizando a la señal compleja est, la respuesta de un sistema LIT a este tipo de señal, como se verá más
adelante, es la misma exponencial compleja modificada por un factor de multiplicación, es decir,

est ↔ H ( s ) est (2.4)

donde el factor complejo H(s), la función de transferencia, será en general una función de la variable compleja s.
Una señal para la cual la respuesta del sistema es igual a la entrada multiplicada por una constante
(posiblemente compleja) se conoce como una función característica del sistema, y el factor de amplitud se conoce
como un valor característico. O sea que el valor característico de un sistema LIT de tiempo continuo asociado con
la función característica e st está dado por H(s) cuyo valor lo determina el valor de s a través de la Ec. (2.7) (más
adelante).
Para mostrar que las exponenciales complejas son en efecto funciones características de los sistemas LIT,
considérese uno cuya respuesta al impulso es h(t). Para una entrada x(t), se puede determinar la salida
empleando la integral de convolución, de manera que si, x ( t ) = e
st
se tiene que


y(t ) =
∫ −∞
h ( τ ) x ( t − τ ) dτ

=
∫ −∞
h ( τ ) e − s ( t −τ ) dτ (2.5)

= e st
∫ −∞
h ( τ ) e − sτ d τ

Entonces la respuesta a est es de la forma

y ( t ) = H ( s ) est (2.6)

donde H(s) es una respuesta compleja cuyo valor depende de s y que está relacionada con la respuesta al
impulso del sistema por

H(s) =
∫ −∞
h ( τ ) e − sτ d τ (2.7)

Como ya se vio, si x(t) es una combinación lineal de exponenciales complejas aplicada a un sistema LIT, la
respuesta es la suma de las respuestas a cada una de las exponenciales por separado. En forma general,

∑a e
k
k
sk t
→ ∑ a H (s
k
k k ) e sk t (2.8)

Entonces para un sistema LIT, si se conocen los valores característicos H(sk), la respuesta a una combinación
lineal de exponenciales complejas se puede obtener de manera directa.

2.2 Representación de Señales Usando Series de Fourier


2.2.1 Señales Periódicas y Combinaciones Lineales de Exponenciales Complejas

Las señales periódicas cumplen funciones de gran importancia en el análisis de Fourier. Una señal es periódica si
para algún valor de T diferente de cero y positivo, la señal obedece la relación
x ( t ) = x ( t + T ), −∞ < t < ∞ (2.9)

El menor valor de T > 0 que satisface la Ec. (2.9) se denomina el período fundamental de x(t), T0, o, simplemente, el
período de x(t). El periodo T0 define la duración de un ciclo completo de x(t). Observe que la definición dada en la
Ec. (2.9) también puede escribirse en la forma
José R. Morón 16

x ( t ) = x ( t ± mT0 ) (2.10)

donde m es un entero. Esta última ecuación simplemente dice que desplazando la señal un número entero de
períodos hacia la izquierda o hacia la derecha en el eje del tiempo no produce cambios en la onda. Como
consecuencia, una señal periódica se describe completamente especificando su conducta en cualquier período.
Una señal para la cual no existe valor de T que satisfaga la Ec. (2.9) se denomina no-periódica o aperiódica.
El valor


ω0 = (2.11)
T0

se conoce como la frecuencia angular fundamental o frecuencia radián (en rad/s).


Dos señales básicas muy conocidas son la sinusoidal
x ( t ) = cos ω0 t (2.12)

y la exponencial compleja periódica

x ( t ) = e jω0 t (2.13)

Estas dos señales son periódicas con frecuencia fundamental ω0 y período fundamental T0 = 2 π ω0 = 1 f 0 ,
donde f0 es la frecuencia fundamental (en Hz). Para la función x ( t ) = cos ω0 t y cualquier valor de t, se tiene que

  2 π 
cos ω0  t +   = cos ( ω0 t + 2 π ) = cos ω0 t
  ω0  

lo que demuestra que su período fundamental es T0 = 2 π ω0 .

Con la señal de la Ec. (2.13) se encuentra asociado el conjunto de exponenciales complejas relacionadas
armónicamente

= e j 2 πkf 0 t ,
jkω0 t
φk = e k = 0 , ± 1, ± 2, ⋯ (2.14)

Cada una de estas señales tiene una frecuencia fundamental que es un múltiplo de ω0 y, por lo tanto, cada una
de ellas es periódica con período fundamental T0 [aunque para k ≥ 2 el período fundamental de φk(t) es una
fracción de T0]. Así que una combinación lineal de exponenciales complejas relacionadas armónicamente de la
forma
∞ ∞
x(t ) = ∑
k =−∞
c k e jkω0 t = ∑c e
k =−∞
k
j 2 πkf 0 t
(2.15)

es también periódica con período T0 . En la Ec. (2.15), el término para k = 0 es un término constante o de CD. Los
dos términos k = +1 y k = −1 tienen ambos un período fundamental igual a T0 y se conocen como las componentes
fundamentales o como las primeras componentes armónicas. Los dos términos para k = +2 y k = −2 son periódicos
con la mitad del período (o, equivalentemente, el doble de la frecuencia) de las componentes fundamentales y se
les conoce como las componentes de la segunda armónica. Más generalmente, las componentes para k = +N y k = − N
se conocen como las componentes de la N-ésima armónica.
La representación de una señal periódica es un espectro de líneas obtenido mediante una expansión en serie de
Fourier como la de la Ec. (2.15). La expansión requiere que la señal tenga potencia promedio finita. Como la
potencia promedio y otros promedios temporales son propiedades importantes de las señales, ahora
procederemos a formalizar estos conceptos.
Dada cualquier función x(t), su valor promedio para todo el tiempo se define como
José R. Morón 17

1 T 2
x ( t ) = lím
T →∞ T ∫ −T 2
x ( t ) dt (2.16)

La notación 〈x(t)〉 representa la operación de promediar, la cual comprende tres pasos: integrar x(t) para obtener
el área bajo la curva en el intervalo −T/2 ≤ t ≤ T/2; dividir esa área por la duración T del intervalo de tiempo, y
después hacer que T → ∞ para cubrir todo el tiempo. En el caso de una señal periódica, la Ec. (2.16) se reduce al
promedio durante cualquier intervalo de duración T0, vale decir,

1 tx +T0 1
x(t ) =
T0 ∫ tx
x ( t ) dt =
T0
T0
∫ x ( t ) dt (2.17)

donde tx es un tiempo arbitrario y la notación ∫To representa una integración desde cualquier tx hasta tx+T0, es
decir, en cualquier intervalo de duración T0.
Si x(t) es el voltaje entre las terminales de una resistencia R, se produce la corriente i(t ) = x(t ) R y se puede
calcular la potencia promedio resultante, promediando la potencia instantánea x ( t ) × i ( t ) = x 2 / R = R i 2 ( t ) . Pero
no necesariamente se sabe si una señal dada es un voltaje o una corriente; por ello en los sistemas de
comunicación se acostumbra normalizar la potencia suponiendo que el resistor de carga tiene una resistencia
R = 1 Ω , aun cuando puede tener cualquier otro valor en el circuito real. Esta convención permite expresar la
potencia instantánea como p(t ) = x 2 (t ) y la definición de la potencia promedio asociada con una señal periódica
arbitraria se convierte entonces en

1
∫ x(t )
2 2
P≜ x(t ) = dt (2.18)
T0
T0

donde se ha escrito | x ( t ) | 2 en lugar de x2(t) para permitir la posibilidad de analizar modelos de señales complejas.
En cualquier caso, el valor de P será real y no negativo.

Cuando la señal en la Ec. (2.18) existe y da como resultado que 0 < P < ∞, es decir, potencia finita, se dice que la
señal x(t) tiene una potencia promedio bien definida y se denominará una señal de potencia periódica. Casi todas
las señales periódicas de interés práctico caen en esta categoría. El valor promedio de una señal de potencia
puede ser positivo, negativo o cero, pero está acotado por

x ( t ) ≤ PT0

lo cual proviene de la relación integral


2

∫ ∫ x(t )
2
x ( t ) dt ≤ dt

Algunos promedios de señales pueden determinarse por inspección usando la interpretación física del
promedio. Como un ejemplo específico, considérese la sinusoide
x ( t ) = A cos ( ω0 t + φ )

para la cual

A2
x(t ) = 0 , P=
2
La energía disipada por la señal x(t) en el intervalo de tiempo (−T/2, T/2) está dada por
T 2


2
E= x( t ) dt (2.19)
−T 2

Se dice que una señal x(t) cualquiera es una señal de energía si y sólo si 0 < E < ∞, es decir, energía finita, donde
José R. Morón 18

T 2


2
E = lím x( t ) dt (2.20)
T →∞ −T 2

Las clasificaciones de señales en señales de energía y de potencia son mutuamente excluyentes. Una señal de
energía tiene energía finita pero una potencia promedio igual a cero, en tanto que una señal de potencia tiene
potencia promedio finita pero una energía infinita. Como regla general, las señales periódicas se clasifican como
señales de potencia.
El desempeño de un sistema de comunicación depende de la energía de la señal recibida; las señales con mayor
energía se detectan con mayor confiabilidad que las de menos energía. Por otra parte, la potencia representa la
tasa con la cual se entrega energía. Es importante por diferentes razones. La potencia determina los voltajes que
deben aplicarse a un transmisor y las intensidades de los campos magnéticos con los cuales se debe lidiar en los
sistemas de radio.

2.2.2 Series de Fourier: Forma Exponencial

La representación de una señal periódica en la forma dada por la Ec. (2.15) se conoce como la representación
en serie de Fourier exponencial. Específicamente, sea x(t) una señal de potencia con período T0 = 2π/ω0 = 1/f0. Su
expansión en una serie de Fourier exponencial es
∞ ∞
x(t ) = ∑
k =−∞
c k e jkω0 t = ∑c e
k =−∞
k
j 2 πkf 0 t
(2.21)

Si x(t) es una función real, entonces x*(t) = x(t) y, por tanto,



x∗ ( t ) = x ( t ) = ∑c e
k =−∞
∗ − jkω0 t
k

Reemplazando k por −k en la sumatoria, se tiene que



x(t ) = ∑c
k =−∞

−ke
jkω0 t

la cual, al compararla con la Ec. (2.21), requiere que c k = c ∗− k , o, en forma equivalente, que

c ∗k = c − k (2.22)

Ahora se determinarán los coeficientes ck. Multiplicando ambos lados de la Ec. (2.21) por e − jnω0 t , se obtiene

x ( t ) e − jn ω0 t = ∑c e
k =−∞
k
jkω0 t − jn ω0 t
e (2.23)

Integrando ahora ambos lados de esta relación desde 0 hasta T0 = 2π/ω0 y se obtiene
T0

∑c e
T0

∫ dt = 
− j n ω0 t jkω0 t − jn ω0 t
x(t )e k e dt
0
⌡0 k =−∞

donde T0 es el período fundamental de x(t). Intercambiando el orden de la integración y la sumatoria, da



 
∑  ∫
T0 T0

∫ 0
x ( t ) e − j n ω0 t dt =
k =−∞
0
c k e jkω0 t e − jn ω0 t dt 

(2.24)

Aquí se está suponiendo que la integración y la serie cumplen con las condiciones necesarias que permiten el
intercambio. Para k ≠ n,
José R. Morón 19

T0
1 1

T0
e j ( k − n ) ω0 t dt = e j ( k − n ) ω0 t =  e j ( k −n ) 2 π − 1 = 0
j ( k − n ) ω0 0 j ( k − n ) ω0  
0

puesto que e j ( k −n ) 2 π = 1 (k y n son enteros). Si k = n, entonces


T0

∫ 0
dt = T0

y, por tanto, el lado derecho de la Ec. (2.24) se reduce a T0 c n. Por consiguiente,

1 T0 1 T0
cn =
T0 ∫ 0
x ( t ) e − jnω0 t dt =
T0 ∫ 0
x ( t ) e − j 2 πnf 0 t dt , k=n (2.25)

que es la relación buscada para determinar los coeficientes. La integración en (2.25) es para cualquier intervalo
de longitud T0.
A la Ec. (2.21) con frecuencia se le refiere como la ecuación de síntesis y a la Ec. (2.25) como la ecuación de análisis.
Los coeficientes {cn} se conocen como los coeficientes de la serie de Fourier de x(t) o los coeficientes espectrales de x(t).
Observe en las Ecs. (2.21) y (2.25) lo compacto de la serie y de la forma para derivar los coeficientes. Esto hace
que la serie exponencial sea más fácil de manipular que la serie trigonométrica (ésta se analizará más adelante) y
por ello resulta más conveniente para el estudio de sistemas.
Puesto que en general los coeficientes son cantidades complejas, se pueden expresar en la forma polar

c k = c k e j arg ck

Así que la Ec. (2.21) expande una señal periódica como una suma infinita de fasores, siendo

c k e jkω0 t = c k e j arg ck e jkω0 t

el término k-ésimo.

Obsérvese que x(t) en la Ec. (2.21) consiste de fasores con amplitud ak y ángulo arg(ak) en las frecuencias
kω0 = 0, ± ω0 , ± 2ω0 , … . De aquí que la gráfica correspondiente en el dominio de la frecuencia es un espectro de
líneas bilateral definido por los coeficientes de la serie. La existencia del espectro para valores negativos de la
frecuencia es solamente una indicación del hecho de que la componente exponencial e − jkω0 t está presente en la
serie. Se puede dar un mayor énfasis a la interpretación espectral escribiendo

c ( kω0 ) = c k

de manera que c ( kω0 ) representa entonces el espectro de amplitud en función de f u ω, y arg[c(kω0)] representa
el espectro de fase. La Ec. (2.22) da una propiedad espectral importante para señales de potencia periódicas reales.
Otras dos propiedades importantes para señales de potencia periódicas son:
1. Todas las frecuencias son números enteros múltiplos o armónicos de la frecuencia fundamental
ω0 = 2 π / T0 = 2 πf 0 . Así que las líneas espectrales tienen una separación uniforme ω0 (o f0).

2. La componente de CD es igual al valor promedio de la señal, puesto que al hacer k = 0 en la Ec. (2.25), se obtiene

1
c0 =
T0 ∫ x ( t ) dt =
T0
x(t ) (2.26)

También, de la Ec. (2.22) se deduce que para x(t) real, entonces

c − k = c ∗k = c k e − j arg c k
José R. Morón 20

y así se obtiene una tercera propiedad importante

3. c ( − kω0 ) = c ( kω0 ) , arg {c ( − kω0 )} = − arg {c ( kω0 )} (2.27)

lo cual significa que el espectro de amplitud tiene simetría par y el de fase simetría impar.
La propiedad dada por la Ec. (2.22) para señales de valores reales permite reagrupar la serie exponencial en
pares de conjugados complejos, excepto por c0, en la forma siguiente:
m =−1 ∞
x ( t ) = c0 + ∑
m =−∞
cm e jmω0 t + ∑c
m=1
me
jmω0 t

∞ ∞
= c0 + ∑c
n =1
−ne
− jnω0 t
+ ∑c e
n=1
n
jnω0 t


= c0 + ∑(c
n =1
−ne
− jnω0 t
+ cn e jnω0 t )

= c0 + ∑ 2 Re { c e }
n =1
n
jnω0 t


= c0 + ∑ 2 Re { c } cos nω t − 2 Im { c } sen ω t 
n =1
n 0 n 0

Esta última ecuación puede escribirse como



x ( t ) = a0 + ∑a
n=1
n cos nω0 t + bn sen nω0 t (2.28)

La expresión para x(t) en la Ec. (2.28) se conoce como la serie trigonométrica de Fourier para la señal periódica
x(t). Los coeficientes an y bn están dados por
1
a0 = c0 =
T0 ∫ x ( t ) dt
T0

2
an = 2 Re { cn } =
T0 ∫ x ( t )cos nω t dt
T0
0 (2.29)

2
bn = −2 Im { cn } =
T0 ∫ x ( t )sen nω t dt
T0
0

En función de la magnitud y la fase de cn, la señal de valores reales x(t) puede expresarse como

x ( t ) = c0 + ∑2 c
n=1
n cos ( nω0 t + arg cn )


= c0 + ∑An =1
n cos ( nω0 t + φn ) (2.30)

en la cual

An = 2 cn (2.31)
y
φn = arg c n (2.32)
José R. Morón 21

La Ec. (2.30) representa una forma alterna de la serie de Fourier que es más compacta y más clara que la Ec.
(2.28) y se conoce como la forma armónica de la serie de Fourier de x(t). Cada término en la serie representa un
oscilador necesario para generar la señal periódica x(t).
Los coeficientes de la serie de Fourier de una señal se muestran en un conjunto de dos gráficas en el dominio
de la frecuencia, los espectros de líneas. Una gráfica de cn y arg(cn), líneas, versus n o nω0 ( nf 0 ) para valores
positivos y negativos de n o nω0 ( nf 0 ) se denomina un espectro bilateral de amplitud o de fase. La gráfica de An y
φn versus n o nω0 ( nf 0 ) para n positiva se denomina un espectro unilateral. Se debe señalar una vez más que la
existencia de una línea en una frecuencia negativa no implica que la señal esté formada por componentes de
frecuencias negativas, ya que con cada componente cnexp(jnω0t) está asociada una correspondiente de la forma
c−nexp(−jnω0t). Estas señales complejas se combinan para crear la componente real an cos nω0 t + bn sen nω0 t .

Ejemplo 1. Considérese la señal


x ( t ) = 1 + sen ω0 t + 2 cos ω0 t + cos( 2 ω0 t + π 4 )

Aquí se podría aplicar la Ec. (2.28) para obtener los coeficientes de la serie de Fourier. Sin embargo, para este
caso es más sencillo expandir las funciones sinusoidales como una combinación lineal de exponenciales
complejas e identificar por inspección los coeficientes de la serie; así tenemos que

x(t ) = 1 + 1  e jω0 t − e − jω0 t  +  e jω0 t + e − jω0 t  + 1  e j ( 2 ω0 t +π/4 ) + e − j ( ω0 t +π/4 ) 


2j     2 

Agrupando términos se obtiene

(
x(t ) = 1 + 1 + 1
2j )e jω0 t
( )
+ 1 − 21j e − jω0 t + ( 1
2 )
e jπ /4 e j 2 ω0 t + ( 1
2 )
e − jπ /4 e − j 2 ω0 t

y los coeficientes de Fourier para este ejemplo son

c0 = 1

( )
c1 = 1 + 21j = 1 − 21 j , ( )
c −1 = 1 − 21j = 1 + 21 j

c 2 = 21 e jπ/4 = 4
2
(1 + j ), c −2 = 12 e − jπ/4 = 4
2
(1 − j )
ck = 0 , k >2

En la Fig. 2.1 se grafican la magnitud y la fase de ck.

ck ∠c k
π
4
... ... ... ...
–2 1
–2 –1 0 1 2 k –1 0 2 k
Figura 2.1

Ejemplo 2. Tren de Pulsos Rectangulares


Considere el tren periódico de pulsos rectangulares en la Fig. 2.2. Cada pulso tiene una altura o amplitud A y
una anchura o duración τ. Hay discontinuidades escalonadas al comienzo y al final de cada pulso en t = ± τ 2 ,
etc., tal que los valores de x(t) no están definidos en estos puntos de discontinuidad. Esto pone de manifiesto otra
posible diferencia entre una señal física y su modelo matemático, ya que una señal física nunca hace una
transición escalonada perfecta. Sin embargo, el modelo todavía puede ser razonable si los tiempos de transición
efectivos son pequeños en comparación con la duración del pulso.
José R. Morón 22

x(t)
A

... ...

–T0 −τ/2 0 τ/2 T0 t


Figura 2.2

Para calcular los coeficientes de Fourier, se toma como intervalo de integración de la Ec. (2.25) el período
central − T0 2 ≤ t ≤ T0 2 , donde
 A , t ≤ τ /2
x(t ) = 
0 , t > τ /2
Entonces,
T0 /2 τ /2
ck = 1
T0 ∫ − T0 /2
x ( t ) e − jkω0 t dt = 1
T0 ∫ − τ /2
A e − jkω0 t dt

A
=
− jkω0 T0
(e − jkω0 τ/2
− e jkω0 τ/2 )
A sen ( kω0 τ / 2 )
= (2.33)
T0 kω0 / 2

Antes de continuar con este ejemplo, se deducirá una expresión que aparece repetidamente en el análisis
espectral. Esta expresión es la llamada función sinc definida por

sen πλ
sinc λ ≜ (2.34)
πλ

La Fig. 2.3 muestra que la función sinc λ es una función de λ que tiene su valor pico en λ = 0 y sus cruces con
cero están en todos los otros valores enteros de λ; así que

1 λ=0
sinc λ = 
0 λ = ±1, ± 2 , ⋯

La porción de la función sinc entre los cruces con cero y λ = ±1 se conoce como el lóbulo principal de la
función sinc. Las ondulaciones más pequeñas fuera del lóbulo principal se denominan lóbulos laterales.

sinc λ

Figura 2.3. La función sinc.

En términos de la función definida por la Ec. (2.34), la última igualdad en la Ec. (2.33) se convierte en

Aτ Aτ
ck = sinc ( kω0 τ 2 π ) = sinc ( kf 0 τ )
T0 T0

donde ω0 = 2πf0.
José R. Morón 23

El espectro de amplitudes para | c(kf0) | = | ck | = Af0τ| sinc(kf0τ| se ilustra en la Fig. 2.4a para el caso τ/T0 = f0τ
= 1/4. Esta gráfica se construye dibujando la función continua Af 0 τ sinc ( f τ ) como una curva punteada, la cual
se convierte en la envolvente de las líneas. Las líneas espectrales en ±4f0, ±8f0, etc., no aparecen, ya que ellas caen a
cero precisamente en múltiplos de 1/τ donde la envolvente es igual a cero. La componente de CD tiene una
amplitud c(0) = Aτ T0 , la cual debe reconocerse como el valor promedio de x(t) al inspeccionar la Fig. 2.2.
Incidentalmente, τ/T0 es la relación entre el tiempo cuando la onda es diferente de cero y su período, y
frecuentemente designa como el ciclo de trabajo en la electrónica de pulsos.
El espectro de fase en la Fig. 2.4b se obtiene observando que ak es siempre real pero algunas veces negativa. Por
lo tanto, arg[a(kf0)] toma los valores 0° y ±180°, dependiendo del signo de sinc(kf0τ). Se usó +180° y −180° para
resaltar la simetría impar de la fase.

c ( kf 0 )
1
τ
= 4 f0 Af 0 τ sinc f τ


3

2
τ

1
τ
0 f0 1
τ
2 3
τ
f
τ τ

(a)
arg c ( kf 0 ) 
180°

3 2 1 1 2 3 f
− −
τ

τ
0 τ τ
τ –180° τ

(b)

Figura 2.4. Espectro del tren de pulsos rectangulares con fcτ = 1 4 .


(a) Amplitud; (b) Fase.

Ejemplo 3. El Rectificador de Media Onda

Un voltaje sinusoidal E sen ( ω0 t ) se pasa por un rectificador de media onda que elimina la porción negativa de
la onda, como se muestra en la Fig. 2.5. Este tipo de señales puede encontrarse en problemas de diseño de
rectificadores.
La representación analítica de x(t) es

 π
0 , cuando − <t<0
 ω0
x(t ) = 
E sen ω t , π
0 cuando 0 < t<
 ω0

y x(t + 2π/ω0) = x(t).

x(t
E
E sen ω0 t
... ...

−2π/ω0 −π/ω0 0 π/ω0 2π/ω0 t

Figura 2.5. Onda sinusoidal rectificada.


José R. Morón 24

Puesto que x(t) = 0 cuando –π/ω0t < 0, de la Ec. (2.25) se obtiene


T0
cn = 1 ⌠

 2 nπt 
E sen ω0 t exp  − j  dt
T0
⌡0  T0 
π ω0
⌠ 1
=
Eω0
 exp ( jω0 t ) − exp ( jω0 t )  exp ( − njω0 t ) dt

⌡0 2j

π ω0

∫ { exp − jω ( n − 1) t  − exp − jω0 ( n + 1 ) t  } dt


Eω0
= 4 πj 0
0
E exp ( − jnπ / 2 )   − jnπ   jnπ  
= exp   + exp  
2π 1−n (2
 ) 2   2  

E
= cos ( nπ / 2 ) exp ( − jnπ / 2 ) , n ≠ ±1 (2.35)
π (1 − n 2 )

 E
 , n par
=  π (1 − n2 ) (2.36)

0, n impar, n ≠ ±1

Haciendo n = 0 en la Ec. (2.36), se obtiene la componente de CD (o valor promedio) de la señal periódica como
c0 = E π . El resultado puede verificarse calculando el área barrida durante medio ciclo de una onda seno y
dividiendo por T0. Para determinar los coeficientes c1 y c−1 que corresponden a la primera armónica, observe que
no se puede sustituir n = ± 1 en la Ec. (2.36), puesto que ello produce una cantidad indeterminada. En su lugar
usamos la Ec. (2.25) con n = ± 1, lo cual resulta en
E E
c1 = y c −1 = −
4j 4j

Los espectros de líneas de x(t) se muestran en la Fig. 2.6.

E/π
E/4 E/4 cn
E/3π E/3π
E/15π E/15π

–4 –3 –2 –1 0 1 2 3 4 n

(a)
π π
∠c n
π/2

–4 –2 –1 0 1 2 3 4 n

−π/2
(b) −π −π

Figura 2.6
José R. Morón 25

2.3 Condiciones para la Convergencia de las Series de Fourier

Ya se vio que una señal periódica puede ser aproximada por un número finito de términos de su serie de
Fourier. Pero ¿converge la serie infinita a x(t)? Para entender mejor la cuestión de la validez de las
representaciones mediante series de Fourier, considérese primero el problema de aproximar una señal periódica
x(t) dada, por una combinación lineal de un número finito de exponenciales complejas relacionadas
armónicamente, es decir, por una serie finita de la forma
N
xN ( t ) = ∑c e
k =− N
k
jkω0 t
(2.37)

Denote por eN(t) el error de la aproximación, el cual es dado por la expresión


N
eN ( t ) = x ( t ) − x N ( t ) = x ( t ) − ∑c e
k =− N
k
jkω0 t
(2.38)

Para determinar la bondad de cualquier aproximación en particular, es necesario especificar una medida
cuantitativa del tamaño del error de la aproximación. El criterio que se usará es el de la magnitud total del error
al cuadrado en un período:

∫e ∫e
2
EN = N (t ) dt = N ( t ) e∗N ( t ) dt (2.39)
T0 T0

En general, para cualquier señal z(t), la cantidad, definida anteriormente,


b


2
E= z( t ) dt
a

es la energía en z(t) en el intervalo de tiempo a ≤ t ≤ b. Esta terminología es motivada por el hecho de que si z(t)
corresponde, por ejemplo, a la corriente fluyendo en un resistor de 1 Ω, entonces E es la energía total disipada en
el resistor durante el intervalo de tiempo a ≤ t ≤ b. En la Ec. (2.39), EN representa entonces la energía en el error
de aproximación durante un período.
Ahora se procederá a demostrar que la escogencia particular para los coeficientes ck en la Ec. (2.37) minimiza la
energía en el error (error cuadrático) y da para los coeficientes:

1
∫ x(t ) e
− jkω0 t
ck = dt (2.40)
T0
T0

Supóngase que se tiene la función f ( t) y que se desea representarla mediante un conjunto de funciones en el
intervalo finito [t1, t2] y también que estas funciones φ1(t), φ2(t), … , φn(t) son ortogonales en el intervalo [t1, t2], es
decir,
t2 0 , i ≠ j
∫ t1
φi ( t ) φ∗j ( t ) dt = 
 ki , i = j
(2.41)

La representación de f(t) en [t1, t2] es una combinación lineal de las funciones φi(t), i = 1, 2, … , n , es decir,

f ( t ) ≈ c1 φ1 ( t ) + c 2 φ2 ( t ) + ⋯ + cn φn ( t ) (2.42)

En la Ec. (2.42) no aparece el signo de igualdad debido a que, en general, la representación


n

∑c φ (t )
i=1
i i (2.43)
José R. Morón 26

contiene cierto error. Se desea que la representación o aproximación esté “cerca” de f(t). Uno de los criterios más
utilizados para elegir una aproximación es el de minimizar el error cuadrático entre el valor real de f(t) y la
aproximación dada por la Ec. (2.43). Es decir, los coeficientes ci , i = 1, 2,… , n , se eligen para minimizar la
cantidad
t2 2
⌠  n 
EC =
  f (t ) −

∑ ci φi ( t ) dt

(2.44)
⌡t 1
i =1

Evidentemente, el integrando de la Ec. (2.44) es el error cuadrático (EC). La integral da el error cuadrático en el
intervalo [t1, t2]. La Ec. (2.44) se puede escribir como
t2
EC =
∫ t1
 f ( t ) − c1 φ1 ( t ) − c 2 φ2 ( t ) − ⋯ − cn φn (t ) 2 dt
t2
=
∫ t1
 f 2 ( t ) + c12 φ12 ( t ) + c 22 φ22 ( t ) + ⋯ + cn2 φn2 ( t ) − 2 c1 φ1 ( t ) f ( t ) − 2 c 2 φ2 ( t ) f ( t ) − ⋯ − 2 cn φn ( t ) dt
 
(2.45)

t2
=
∫ t1
f 2 ( t ) dt + c12 k1 + c 22 k2 + ⋯ + cn2 kn − 2 c1 γ 1 − 2 c 2 γ 2 − ⋯ − 2 cn γ n

donde γi, i =1, 2, … , n, se define como


t2
γi =
∫ t1
f ( t ) φi ( t ) dt (2.46)

Ahora se completa el cuadrado de cada uno de los términos (c 2


i ki )
− 2 c i γ i , sumando y restando γ i2 ki , vale
decir,

γ i2
(
ci2 ki − 2 ci γ i = ci ki − γ i ki ) 2

ki
(2.47)

y la expresión dada por la Ec. (2.44) se puede escribir como

γ i2
n n

∑( ) ∑k
t2 2
EC =
∫ t1
f 2 ( t ) dt +
i =1
c i ki − γ i ki −
i =1 i
(2.48)

Según la Ec. (2.44), está claro que el EC es siempre mayor que o igual a cero; es decir, EC ≥ 0. En la Ec. (2.48), se
observa que EC toma su valor mínimo cuando

γi
c i ki = , i = 1, 2, … , n
ki

Es decir, los coeficientes ci se deben elegir por la relación


t2

ci =
γi
=
∫ t1
f ( t ) φi ( t ) dt
(2.49)
ki t2

∫ t1
φi ( t ) φi* ( t ) dt

Para el caso de la expansión de Fourier, las funciones φi(t) corresponderían a las exponenciales e jkω0 t (cambiando
i por k), el intervalo [t1, t2] correspondería al período T0 y ci correspondería a los coeficientes de Fourier ck.
Comparando la Ec. (2.40) con la Ec. (2.25), se observa que la primera es idéntica a la expresión usada para
determinar los coeficientes de la serie de Fourier. Entonces, si x(t) tiene una representación en serie de Fourier, la
mejor aproximación usando sólo un número finito de exponenciales complejas relacionadas armónicamente se
José R. Morón 27

obtiene truncando la serie de Fourier en el número deseado de términos. Conforme N aumenta, se añaden
nuevos términos pero los anteriores permanecen inalterados y el error EN disminuye. Si, efectivamente, x(t) tiene
una representación en serie de Fourier, entonces el límite de EN conforme N → ∞ es igual a cero.
Póngase atención ahora al problema de la validez de la representación mediante series de Fourier de señales
periódicas. Para cualquiera de estas señales se puede intentar obtener un conjunto de coeficientes de Fourier
mediante el uso de la Ec. (2.25). Sin embargo, en algunos casos la integral en la Ec. (2.25) puede divergir; es decir,
el valor de los coeficientes ak puede no estar definido (ser infinito). Aún más, si todos los coeficientes de la Ec.
(2.25) son finitos, cuando estos coeficientes se sustituyen en la ecuación de síntesis (2.21), la serie infinita
resultante puede no converger hacia la señal original x(t). Sin embargo, sucede que no hay dificultades de
convergencia si x(t) es continua. Es decir, toda señal periódica continua tiene una representación en serie de
Fourier tal que la energía EN contenida en el error de aproximación tiende a cero conforme N → ∞. Esto también
es válido para muchas señales discontinuas. Puesto que será de mucha utilidad usar señales discontinuas, tales
como la onda cuadrada del Ejemplo 2, es importante considerar con más detalle el problema de la convergencia.
Se discutirán dos condiciones algo diferentes que debe cumplir una señal periódica para garantizar que pueda
ser representada mediante una serie de Fourier.
Una clase de funciones periódicas representable mediante series de Fourier es aquella que incluye señales cuyo
cuadrado es integrable sobre un período. Es decir, cualquier señal x(t) en esta clase tiene energía finita en un solo
período:

∫ x(t )
2
dt < ∞ (2.50)
T0

Cuando se cumple esta condición, se garantiza que los coeficientes ck obtenidos a partir de la Ec. (2.40) son
finitos. Adicionalmente, sea xN(t) la aproximación a x(t) usando estos coeficientes para | k | ≤ N, es decir,
+N
xN ( t ) = ∑c e
k =− N
k
jkω0 t
(2.51)

Entonces, se cumple que lím EN = 0 , donde EN se define en la Ec. (2.39). Es decir, si definimos
N →∞


e( t ) = x( t ) − ∑c e
k =−∞
k
jkω0 t
(2.52)

se obtiene que

∫ e(t )
2
dt = 0 (2.53)
T0

Como se verá en un ejemplo más adelante, la Ec. (2.53) no implica que la señal x(t) y su representación en serie
de Fourier

∑c e
k =−∞
k
jkω0 t
(2.54)

sean iguales para todo valor de t. Lo que ella dice es que su diferencia no contiene energía.
Un conjunto alterno de condiciones, desarrolladas por Dirichlet, y también cumplidas por esencialmente todas
las señales de interés, garantiza que x(t) será efectivamente igual a su expansión excepto en valores aislados para
los cuales x(t) es discontinua. En estos valores de t, la serie infinita de (2.54) converge al “valor promedio” de la
discontinuidad; es decir, si x(t) tiene una discontinuidad en t0, la serie converge a

x ( t 0 − ε ) + x ( t0 + ε )
lím
ε→0 2
José R. Morón 28

Las condiciones de Dirichlet para la expansión en serie de Fourier son: Si una función periódica x(t) tiene un
número finito de máximos, mínimos y discontinuidades por período, y si x(t) es absolutamente integrable en
cualquier período, es decir,

∫ T0
x ( t ) dt < ∞ (2.55)

entonces, la serie de Fourier existe y converge uniformemente dondequiera que x(t) sea continua.
Ahora bien, si la señal x(t) es absolutamente integrable o cuadrado integrable, la serie exhibe una conducta
conocida como el fenómeno de Gibbs en los puntos de discontinuidad. La Fig. 2.7 ilustra esta conducta para una
discontinuidad tipo escalón en t = t0. La suma parcial xN(t) converge al punto medio de la discontinuidad, lo cual
parece muy razonable. Sin embargo, a cada lado de la discontinuidad, xN(t) tiene sobrepasos oscilatorios con
período T0/2N y valor pico de aproximadamente 18% de la altura del escalón e independiente de N. Así que
conforme N → ∞, las oscilaciones colapsan formando picos conocidos como “lóbulos de Gibbs” por encima y por
debajo de la discontinuidad.
Puesto que una señal real debe ser continua, el fenómeno de Gibbs no ocurre y tenemos justificación para
tratar a x(t) y su representación en serie de Fourier como idénticas; pero modelos de señales idealizadas como el
tren de pulsos rectangulares sí tienen discontinuidades. Por lo tanto, se debe poner cuidado a la convergencia
cuando se trabaja con esos modelos.

xN(t)

0.09A

T0/2N
A
A/2

t
t0

Figura 2.7 Fenómeno de Gibbs en una discontinuidad en escalón.

Las condiciones para la convergencia de una serie de Fourier se resumen en el teorema que se dará a
continuación, sin demostración, pero antes se definirán algunos términos que se necesitan para su exposición.
Se dice que la función f( t) es suave en el intervalo [a, b] si posee una derivada continua en [a, b]. En lenguaje
geométrico, esto significa que la dirección de la tangente cambia continuamente, sin saltos, conforme se mueve a
lo largo de la curva y = f (t ) .

Se dice que la función f( t) es suave por tramos (o seccionalmente suave) en el intervalo [a, b] si f( t) y su derivada
son ambas continuas en [a, b], o ellas tienen un número finito de discontinuidades de saltos en [a, b]. Se dice que
una función f( t) continua o discontinua definida en todo el eje t es suave por tramos si es suave por tramos en
todo intervalo de longitud finita. En particular, este concepto es aplicable a funciones periódicas. Toda función
f( t) suave por tramos (bien sea continua o discontinua) está acotada y tiene una derivada acotada en todas
partes, excepto en sus saltos y puntos de discontinuidad [en todos estos puntos, f ′ ( t ) no existe].

Teorema Si f( t) es una función absolutamente integrable de período T0 y es suave por tramos en el intervalo
[ a , b ] , entonces para toda t en a < t < b, la serie de Fourier de f( t) converge a f( t) en los puntos de continuidad y
al valor
José R. Morón 29

f ( x + 0) + f ( x − 0 )
2
en los puntos de discontinuidades (la convergencia puede fallar en x = a y x = b).

2.4 Propiedades de las Series de Fourier

A continuación se considerarán varias propiedades de las series de Fourier. Estas propiedades proporcionan una
mejor comprensión del concepto de espectro de frecuencias de una señal de tiempo continuo y, adicionalmente,
muchas de esas propiedades ayudan en la reducción de la complejidad del cálculo de los coeficientes de las
series.

2.4.1 Efectos de la Simetría

Los tipos más importantes de simetría son:

1. Simetría par, x(t) = x(−t),


2. Simetría impar, x(t) = − x (−t),

3. Simetría de media onda, x(t) = x t + ( T0


2 ).
Cuando existe uno o más de estos tipos de simetría, se simplifica mucho el cálculo de los coeficientes de Fourier.
Por ejemplo, la serie de Fourier de una señal par x(t) con período T0 es una serie de Fourier en cosenos:

2 nπ t
x ( t ) = a0 + ∑a
n=1
n cos
T0
cuyos coeficientes son dados por
T0 2
T0 2
⌠ 2 nπt
a0 = 2
T0 ∫ 0
x ( t ) dt y an = 4
T0
⌡0
x ( t ) cos
T0
dt

en tanto que la serie de Fourier de una señal impar x(t) con período T0 es una serie de Fourier en senos:

2 nπ t
x(t ) = ∑b
n=1
n sen
T0
con coeficientes
T0 2
4 ⌠ 2 nπ t
bn = x ( t )sen dt
T0
⌡0 T0

2.4.2 Linealidad

Suponga que x(t) y y(t) son señales periódicas que tienen el mismo período y sean
∞ ∞
x(t ) = ∑β e
n =−∞
n
jnω0 t
y y(t ) = ∑γ e
n =−∞
n
jnω0 t

sus expansiones en series de Fourier y sea


z ( t ) = k1 x ( t ) + k 2 y ( t )

donde k1 y k2 son constantes arbitrarias. Entonces podemos escribir


∞ ∞
z( t ) = ∑
n =−∞
( k1 βn + k2 γ n ) e jnω0 t = ∑α e
n =−∞
n
jnω0 t
José R. Morón 30

La última ecuación implica que los coeficientes de Fourier de z(t) están dados por

α n = k 1β n + k 2 γ n (2.56)

2.4.3 La Función Impulso y la Convolución

Antes de continuar con las propiedades de las series de Fourier, se debe introducir un concepto importante y de
mucha utilidad en la teoría de sistemas lineales, el de la función impulso. Esta función, también conocida como la
función delta de Dirac, se denota por δ ( t ) y se representa gráficamente mediante una flecha vertical, como en la
Fig. 2.9. En un sentido matemático estricto, la función impulso es un concepto bastante sofisticado; es un pulso
de amplitud infinita, el ancho del pulso es cero y el área bajo el pulso es la unidad, concentrada en el punto
donde su argumento es cero.. Sin embargo, para las aplicaciones de interés es suficiente comprender sus
propiedades formales y aplicarlas correctamente. En lo que sigue se presentarán estas propiedades, enfatizando
no el rigor sino la facilidad operacional. En las aplicaciones prácticas de algunos modelos, con frecuencia
encontramos discontinuidades en un señal f ( t). Esta señal no posee derivadas finitas en sus discontinuidades.
No obstante, es deseable incluir la derivada de la señal en nuestras consideraciones. Es aquí donde entra el
concepto de la función impulso unitario.

δ(t)

0 t

Figura 2.9. La función impulso unitario.

2.4.4 Propiedades de la Función Impulso

1. La función impulso δ ( t ) es una señal de área unitaria con valor cero en todas partes excepto en el origen:

∫ −∞
δ ( t ) dt = 1, δ ( t ) = 0 para t ≠ 0 (2.57)

y no está acotada en t = 0.

2. La función impulso δ ( t ) es la derivada de la función escalón:


d u(t )
δ( t ) = (2.58)
dt

3. El área del producto δ(t)ϕ(t) es igual a ϕ(0)δ(t) para cualquier ϕ(t) continua en el origen:

∫ −∞
ϕ ( t ) δ ( t ) dt = ϕ (0) (2.59)

Esta propiedad se conoce como la propiedad de selección o de filtrado de la función impulso unitario.

4. La función δ ( t ) puede escribirse como un límite:


δ ( t ) = lim zε (2.60)
ε→0

donde zε es una familia de funciones de área unitaria que se anula fuera del intervalo ( 0, ε ) :

∫ 0
zε ( t ) dt = 1, zε = 0 para t < 0 y t > ε
José R. Morón 31

(Fig. 2.10). Un caso especial es el pulso rectangular mostrado en la Fig. 2.10. De allí se deduce que δ ( t )
puede ser “aproximada” por el pulso pε(t) si ε es lo suficientemente pequeño. Posteriormente se explicará el
significado de esta aproximación.

Como puede verse, la función impulso δ(t) no es una función en el sentido usual. Cuando se tienen
operaciones que involucra δ(t), se acostumbra interpretarlo como un pulso de área unitaria de amplitud finita y
duración diferente de cero, y después considerar el límite conforme la duración del pulso tiende a cero. La
función δ(t − t0) es un impulso centrado en t0 y de área unitaria; entonces, Aδ(t − t0) representa una función
impulso cuya área es igual a A y que es igual a cero en todas partes excepto en t = t0. De la Ec. (2.64) se obtiene
que
δ ( t − t0 ) = δ ( t0 − t ) (2.61)

du ( t ) u(t)
δ(t) δ (t ) =
dt 1

0 t 0 t

zε(t) Zε(t)
1

0 ε t 0 ε t

pε(t) uε(t)
1/ε 1

0 ε t 0 ε t

Figura 2.10

Introduciendo un desplazamiento en el origen del tiempo en la Ec. (2.58), se concluye que δ ( t − t 0 ) es la


derivada de la función escalón desplazada u(t − t0):

du ( t − t0 )
δ ( t − t0 ) = (2.62)
dt

donde la función escalón desplazada se define como

1 t > t0
u ( t − t0 ) =  (2.63)
0 t < t0

A continuación se discuten algunas consecuencias de las propiedades anteriores. La función δ(t ) es par:

δ( t ) = δ( − t ) (2.64)

Este resultado puede usarse para diferenciar funciones que son discontinuas. Por ejemplo, supóngase que f( t) es
una función escalonada como la que se muestra en la Fig. 2.11. Esta función es una suma de tres funciones en
escalón:
f ( t ) = 4 u ( t − t1 ) + 2 u ( t − t 2 ) − 6 u ( t − t 3 )

De esta última relación y la Ec. (2.62) se concluye que la derivada de f ( t) es la suma de tres impulsos:
f ( t ) = 4 δ ( t − t1 ) + 2 δ ( t − t 2 ) − 6 δ ( t − t 3 )
José R. Morón 32

como se ilustra en la Fig. 2.11. El área de cada impulso es igual al salto en la discontinuidad de f( t). Así, por
ejemplo, 4δ(t − t1) es un impulso centrado en el primer punto de discontinuidad de f( t) y su área es igual a 4.

f(t) f'(t)

6 4
4 2

t1 t2 t3 t t1 t2 t3 t

–6

Figura 2.11

La integral del producto ϕ(t)δ(t) en un intervalo (a, b) es igual a ϕ(0) si el intervalo contiene el origen; no está
definida si a = 0 o b = 0, y es igual a cero para cualquier otro valor:

ϕ (0 ), ab < 0
b

∫ a
ϕ ( t ) δ ( t ) dt = 0 , ab > 0
no definida, ab = 0
(2.65)

Por ejemplo,
a a

∫ −a
δ ( t )cos ωt dt = 1,
∫ −a
δ ( t )sen ωt dt = 0

Aplicando (2.59) a la función ϕ(t) = y(t + t0) se obtiene


∫ −∞
y ( t + t0 ) δ ( t ) dt = y ( t0 )

Ahora se introduce el cambio de variable t + t0 = τ. Puesto que dt = dτ y los límites de integración permanecen
iguales, la representación anterior cambia a

∫ −∞
y ( τ ) δ ( τ − t 0 ) d τ = y ( t0 ) (2.66)

Pero δ( τ − t 0 ) = δ( t 0 − τ) ; por lo tanto,


∫ −∞
y ( τ ) δ ( t0 − τ ) d τ = y ( t 0 )

Esta identidad es básica. De hecho, como se demostrará posteriormente, se puede usar para definir a δ ( t ) .
Ambos lados de (2.66) son funciones de t0. Diferenciando con respecto a t0, se obtiene

∫ −∞
y ( τ ) δ ′ ( t0 − τ ) d τ = y ′ ( t0 ) (2.67)

y se observa que la derivada δ ′( t ) de δ(t) es una función tal que el área del producto y ( τ ) δ ′ ( t0 − τ ) considerada
como una función de τ es igual a y ’(t0). Con t0 = 0, la Ec. (2.66) da

∫ −∞
y ( τ ) δ ′( −τ ) dτ = y ′(0 ) (2.68)

Puesto que δ(t) es una función par, su derivada δ’(t), el doblete, es impar:
δ ′( t ) = −δ ′( − t ) (2.69)
Insertando ésta en (2.68) y cambiando la variable de integración de τ a t, se obtiene

∫ −∞
y ( t ) δ ′( t ) dt = − y ′(0 ) (2.70)
José R. Morón 33

También se puede demostrar que


∫ −∞
δ ′( τ ) δ ′ ( τ − t ) d τ = − f ′ ( t ) (2.71)

Las derivadas de δ(t) de orden mayor se pueden definir en una forma similar y se tiene que

∫ −∞
f ( t ) δ( n ) ( t − x ) dt = ( −1)n f ( n ) ( x ) (2.72)

Antes de continuar se deben hacer algunas consideraciones sobre la función impulso:


Como lo muestran las propiedades mencionadas, la función impulso no puede considerarse como una función
ordinaria porque las funciones ordinarias no poseen esas propiedades.
Una función que se anula en todas partes excepto en un solo punto no puede tener un área unitaria.
La Ec. (2.58) viola la noción de que una función discontinua no es diferenciable.

La familia de pulsos pε(t) no posee un límite ordinario conforme ε → 0.


Por todo esto, la función impulso, algunas veces llamada función de singularidad o función generalizada, debe
interpretarse como un concepto nuevo y a sus propiedades se les debe dar una interpretación especial basada en
la razón para su introducción. Esta razón es la simplificación de los efectos de señales ordinarias cuya duración es
pequeña en algún sentido. El significado preciso de esta afirmación se apreciará posteriormente. Aquí sólo se
dará una explicación breve, usando como ilustración el significado de las Ecs. (2.60) y (2.58). Supóngase que ϕ(t)
es una función continua y zε(t) es una función de área unitaria que se anula fuera del intervalo (0, ε), como en la
Fig. 2.20. Si ε es lo suficientemente pequeño, entonces ϕ(t) es casi constante en el intervalo (0, ε). Por tanto,
ε ε

∫ 0
ϕ ( t ) zε ( t ) dt ≈ ϕ (0 )
∫ 0
zε ( t ) dt = ϕ(0 )

De esta relación se deduce que


∞ ε

∫ 0
ϕ ( t ) zε ( t ) dt =
∫ 0
ϕ ( t ) zε ( t ) dt → ϕ (0 )
ε→0

Así, aunque zε(t) no tiene un límite ordinario, la integral del producto zε(t)ϕ(t) tiene un límite conforme ε → 0 y el
límite es igual a ϕ(0). Sin embargo, su integral, uε(t), tiende a la función escalón u(t). La afirmación de que
du
pε ( t ) → δ ( t ) = conforme ε → 0
dt

significa entonces que la integral de pε(t) tiende a u(t). La misma conclusión se mantiene si pε(t) se reemplaza por
zε(t) y uε(t) por la integral Zε(t) de zε(t).
La importancia de la utilización del impulso en el análisis de sistemas reside en la siguiente propiedad. En el
dominio del tiempo, un sistema lineal se describe en términos de su respuesta al impulso, la cual se define como la
respuesta del sistema (con cero condiciones iniciales) a una función impulso unitario o función delta δ(t) aplicada a la
entrada del sistema. Si el sistema es invariable en el tiempo, entonces la forma de la respuesta al impulso es la misma
sin importar cuando se aplica el impulso unitario al sistema. Así pues, suponiendo que la función impulso
unitario se aplica en el instante t = 0, podemos denotar la respuesta al impulso de un sistema LIT por h(t).
Suponga que el sistema está sometido a una excitación arbitraria x(t). La respuesta, y(t), del sistema se define en
términos de la respuesta al impulso h(t) por

y (t ) =
∫ −∞
x ( τ ) h ( t − τ ) dτ (2.73)

la cual se denomina la integral de convolución. En forma equivalente, se puede escribir



y (t ) =
∫ −∞
h ( τ ) x ( t − τ ) dτ (2.74)

Por tanto, la convolución es conmutativa.


José R. Morón 34

En la integral de convolución están involucradas tres escalas de tiempo diferentes: el tiempo de excitación τ, el a
tiempo de respuesta t y el tiempo de memoria del sistema t − τ. Esta relación es la base para el análisis en el dominio
del tiempo de sistemas LIT. De acuerdo con la Ec. (A2.15), el valor presente de la respuesta de un sistema LIT es
una integral ponderada sobre la historia pasada de la señal de entrada, ponderada de acuerdo con la respuesta
al impulso del sistema. De modo que la respuesta al impulso actúa como una función de memoria para el sistema.

2.4.5 Diferenciación

La derivada de x(t) se obtiene derivando cada término de su serie de Fourier:


∞ ∞
dx ( t )
∑ dt ( ) ∑ jkω c e
d
= c k e jkω0 t = 0 k
jkω0 t
(2.75)
dt k =−∞ k =−∞

y se observa que los coeficientes de Fourier para la función dx(t)/dt son iguales a los coeficientes de x(t)
multiplicados por el factor jkω0. La magnitud de cada armónico es ampliada por el factor kω0, y el espectro tiene
un contenido de frecuencias mucho mayor.
Como una aplicación de esta propiedad, considere el tren de pulsos de la Fig. 2.12a, cuya serie de Fourier se
obtuvo en el Ejemplo 2. Su derivada se muestra en la Fig. 2.12b y contiene sólo impulsos.
Los coeficientes de Fourier ck para x’(t) son dados por
T0 2
1 ⌠   T0   T0   − jkωo t
ck = 
T0 ⌡ −T
Aδt +
2
 − Aδt −
2
 e dt

2     
0

=
T0
A
(e jkω0 τ 2
− e − jkω0 τ 2
) = 2TjA sen ( kω τ 2 )
0
0

y los coeficientes de Fourier correspondientes para la serie de pulsos en la Fig. 2.12a, de acuerdo con la Ec. (2.75),
son
c A sen ( kω0 τ 2 )
c k′ = k =
jkω0 T0 kω0 2

que es el mismo resultado obtenido en el Ejemplo 2, pero con un menor esfuerzo.

x(t)
A

... ...

– T0 −τ/2 0 τ/2 T0 t

(a )

x'(t)
...
A A

...

– T0 −τ/2 0 τ/2 T0 t

–A –A –A

(b)

Figura 2.12
José R. Morón 35

2.4.6 Teorema de la Potencia de Parseval

El teorema de Parseval relaciona la potencia promedio P de una señal periódica con los coeficientes de su serie
de Fourier. Para derivar el teorema, comenzamos con la relación

1 1
∫ ∫ x ( t ) x * ( t ) dt
2
P= x(t ) dt =
T0 T0
T0 T0

Ahora se reemplaza x*(t) por su serie exponencial



 ∞  ∞
x * (t ) =  ∑
 n =−∞
cn e jnω0 t  =
 n =−∞

c∗n e − jnω0 t

de modo que
⌠  ∞  ∞  
1 1
∑ ∑ ∫ x ( t ) e − jnω0 t dt  cn∗

P=  x( t )  cn∗ e − jnω0 t  dt =
T0   n =−∞   T0 

T0
n =−∞
 T0 

y la expresión entre corchetes es igual a cn. Entonces


∞ ∞
P= ∑
n =−∞
cn cn∗ = ∑
n =−∞
cn 2
(2.76)

que es el teorema de Parseval.


La interpretación de este resultado es extraordinariamente sencilla: la potencia promedio se puede determinar
elevando al cuadrado y sumando las magnitudes |c n | = |c ( n ω 0 ) | de las líneas de amplitud. Observe que la
Ec. (2.76) no involucra el espectro de fase. Para una interpretación adicional de la Ec. (2.76), recuerde que la serie
exponencial de Fourier expande x(t) como una suma de fasores de la forma cn e jnω0 t . Se puede demostrar
fácilmente que la potencia promedio de cada fasor es
2 2
cn e jnω0 t = cn (2.77)

Por tanto, el teorema de Parseval implica la superposición de la potencia promedio, puesto que la potencia promedio
total de x(t) es la suma de las potencias promedios de sus componentes fasoriales.

2.5 Transformadas de Fourier y Espectros Continuos

Ahora se pasará de señales periódicas a señales no periódicas concentradas en intervalos de tiempo muy cortos.
Si una señal no periódica tiene energía total finita, su representación en el dominio de la frecuencia será un
espectro continuo obtenido a partir de la transformada de Fourier.

2.5.1 La Transformada de Fourier

La serie de Fourier da un método para representar una señal periódica como una suma ponderada de
exponenciales cuyas frecuencias son múltiplos de una frecuencia fundamental. Esta representación es valiosa en
muchas aplicaciones, pero tiene sus limitaciones y, en consecuencia, una utilidad limitada en el análisis de
sistemas lineales. Básicamente, sólo permite usar excitaciones periódicas; la mayoría de las señales prácticas no
lo son. Esta limitación se puede superar representando señales no periódicas a través de la integral de Fourier, la
cual puede considerarse como una extensión de la serie de Fourier.
La Fig. 2.13 muestra dos señales no periódicas típicas. El pulso rectangular (Fig. 2.13a) está estrictamente
limitado en tiempo ya que x(t) es idénticamente igual a cero fuera de la duración del pulso. La otra (Fig. 2.13b)
José R. Morón 36

está asintóticamente limitada en el tiempo en el sentido que x ( t ) → 0 conforme t → ± ∞. Tales señales también se
2
pueden describir como “pulsos”. En cualquier caso, si se intenta promediar x(t) o x(t ) para todo el tiempo, se
encontrará que estos promedios son iguales a cero. Por consiguiente, en lugar de hablar sobre potencia
promedio, una propiedad más significativa de una señal no-periódica es su energía.

x(t) x(t)
A A

−τ/2 0 τ/2 t –1/b 0 1/b t


(a) (b)
Figura 2.13

Como ya se dijo anteriormente, si x(t) es el voltaje en una resistencia, la energía total suministrada se
encontraría integrando la potencia instantánea x2(t)/R. Por lo tanto, aquí se repite la fórmula para la energía
normalizada de la señal


2
E≜ x(t ) dt (2.78)
−∞

Algunos cálculos de la energía pueden hacerse por inspección ya que E es sencillamente el área bajo la curva de
2
x(t ) . Por ejemplo, la energía de un pulso rectangular de duración τ y amplitud A es E = A2τ.

Cuando la integral en la Ec. (2.78) existe y da como resultado que 0 < E < ∞, se dice que la señal x(t) tiene
energía bien definida y se denominará una señal de energía no periódica. Casi todas las señales limitadas en el
tiempo que son de interés práctico caen en esta categoría, la cual es la condición esencial para el análisis de
Fourier usando la transformada de Fourier.
Considere la señal periódica definida por

1, t < T1

x(t ) =  T0
0 , T1 < t <
 2

donde T0 es el período. Los coeficientes de la serie de Fourier para esta señal son

2 sen k ω0 T1 2π
ck = , ω0 = (2.79)
kω0 T0 T0

En la Fig. 2.14 se grafica T0ck en vez de ck y también se modifica la separación horizontal en cada gráfico. El
significado de estos cambios se puede ver examinando la Ec. (2.79). Multiplicando ck por T0 se obtiene

2 sen k ω0 T1 2 sen ωT1


T0 c k = = (2.80)
k ω0 ω ω= kω0

Entonces, con ω considerada como una variable continua, la función ( 2 sen ωT1 ) / ω representa la envolvente de
T0ck y estos coeficientes son muestras igualmente espaciadas de esta envolvente. También, para un valor T1 fijo,
la envolvente de T0ck es independiente de T0. Sin embargo, en la Fig. 2.14 se observa que conforme T0 aumenta (o,
equivalentemente, ω0 disminuye), la envolvente es muestreada con un espaciamiento más y más corto.
Conforme T0 se vuelve arbitrariamente grande, la onda cuadrada periódica original se aproxima a un pulso
rectangular, es decir, todo lo que queda en el dominio del tiempo es una señal aperiódica correspondiente a un
período de la onda cuadrada. También, los coeficientes de la serie de Fourier, multiplicados por T0 se convierten
en muestras menos separadas de la envolvente, así que de alguna forma el conjunto de los coeficientes de la
serie de Fourier tiende a la función envolvente conforme T0 → ∞ .
José R. Morón 37

TT00cakk

−2ω 0 2ω 0

ω
0
(a)

TT00cakk

−4ω 0 4ω 0

ω
0
(b)

TT00cakk

−8ω 0 8ω 0

ω
0
(c)

Figura 2.14. Coeficientes de Fourier y sus envolventes para la onda periódica cuadrada: (a).
T0 = 4T1; (b) T0 = 8T1; (c) T0 = 16T1.

Este ejemplo ilustra la idea básica detrás del desarrollo de Fourier de una representación para señales no
periódicas. Específicamente, se considera una señal aperiódica como el límite de una señal periódica conforme el
período se vuelve arbitrariamente grande y se analiza la conducta en el límite de la representación en serie de
Fourier de esta señal. Considere una señal aperiódica general x(t) de duración finita. Es decir, para algún valor
T1, x(t) = 0 si x(t ) > T1 . En la Fig. 2.15a se ilustra una señal de este tipo. Partiendo de esta señal aperiódica es
posible construir una señal periódica xɶ ( t ) para la cual x(t) es un período, como se indica en la Fig. 2.15b.
Conforme se incrementa el período T0, xɶ ( t ) se hace más idéntica a x(t) por intervalos más largos, y conforme
T0 → ∞ , xɶ ( t ) se vuelve igual a x(t) para cualquier valor finito de x(t).

x(t)

–T1 0 T1 t
(a)
~
x (t )
... ...

–T0 –T1 0 T1 T0 2T0 t


(b)

Figura 2.15. (a) Señal aperiódica x(t): (b) señal periódica xɶ ( t ) , construida para que sea igual a x(t) por
un período.
José R. Morón 38

Examínese ahora qué efecto tiene esto sobre la representación en serie de Fourier de xɶ ( t ) :

xɶ ( t ) = ∑c e
k =−∞
k
jkω0 t
(2.81)

1 T0 2
ck =
T0 ∫ − T0 2
xɶ ( t ) e − jkω0 t dt (2.82)

La separación entre los coeficientes ck es ∆ω = ( k + 1)ω0 − kω0 = ω0 .

Puesto que xɶ ( t ) = x ( t ) para t < T0 2 y también como x(t) = 0 fuera de este intervalo, la Ec. (2.82) puede
escribirse de nuevo como

1 T0 2 1 ∞
ck =
T0 ∫ − T0 2
x ( t ) e − jkω0 t dt =
T0 ∫ −∞
x ( t ) e − jkω0 t dt

Por tanto, definiendo la envolvente X(ω) de T0ak como



X ( ω) =
∫ −∞
x ( t ) e − jωt dt (2.83)

se encuentra que los coeficientes ak pueden expresarse como

1
ck = X ( k ω0 ) (2.84)
T0

Combinando las Ecs. (2.84) y (2.81), es posible expresar xɶ ( t ) en función de X(ω) como

1
xɶ ( t ) = ∑T
k =−∞ 0
X ( kω0 ) e jkω0 t

o equivalentemente, como 2π/T0 = ω0 = ∆ω, por


∞ ∞
1 1
2π ∑ 2π ∑
jkω0 t jkω0 t
xɶ ( t ) = X ( kω ) e 0 ω0 = X ( kω ) e 0 ∆ω (2.85)
k =−∞ k =−∞

Conforme T0 → ∞, xɶ ( t ) tiende a x(t) y por consiguiente, la Ec. (2.83) se convierte en una representación de x(t).
Adicionalmente, ∆ω = ω0 → 0 conforme T0 → ∞, la frecuencia discreta kω0 tiende a la variable de frecuencia
continua ω y el lado derecho de la Ec. (2.85) pasa a ser una integral. Por tanto, usando el hecho de que
xɶ ( t ) → x ( t ) conforme T0 → ∞ , las Ecs. (2.85) y (2.83) se convierten, respectivamente, en

1 ∞ ∞
x(t ) =
2π ∫ −∞
X ( ω ) e jωt dω =
∫ −∞
X ( f ) e j 2 π f t df (2.86)

∞ ∞
X ( ω) =
∫ −∞
x ( t ) e − jωt dt =
∫ −∞
x ( t ) e − j 2 π f t dt = X ( f ) (2.87)

Las Ecs. (2.86) y (2.87) se conocen como el par de transformadas de Fourier; la función X(ω) [o X(f)] dada por la Ec.
(2.87) se conoce como la transformada de Fourier o integral de Fourier de x(t) y la Ec. (2.86) como la ecuación de la
transformada de Fourier inversa. La ecuación de síntesis (2.86) juega un papel para las señales aperiódicas
semejante al de la Ec. (2.21) para señales periódicas, ya que ambas corresponden a una descomposición de una
señal en una combinación lineal de exponenciales complejas. Para señales periódicas, estas exponenciales
complejas tienen amplitudes {ck} dadas por la Ec. (2.25) y ocurren en un conjunto discreto de frecuencias
relacionadas armónicamente kω0, k = 0, ±1, ±2, …. Para señales aperiódicas, estas exponenciales complejas
ocurren en un continuo de frecuencias y, de acuerdo con la ecuación de síntesis (2.86), tienen “amplitud”
José R. Morón 39

X(ω)(dω/2π). En analogía con la terminología usada para los coeficientes de la serie de Fourier para una señal
periódica, la transformada X(ω) [o X ( f ) ] de una señal aperiódica x(t) se conoce comúnmente como el espectro
de X(ω)[o de X ( f ) ], ya que nos da la información concerniente de cómo x(t) está compuesta de señales
sinusoidales de diferentes frecuencias.

2.5.2 Convergencia de las Transformadas de Fourier

Aunque el argumento usado para deducir el par de transformadas de Fourier supuso que x(t) era de duración
arbitraria pero finita, las Ecs. (2.86) y (2.87) se mantienen válidas para una clase extremadamente amplia de
señales de duración infinita. De hecho, la deducción de la transformada de Fourier sugiere que aquí también
debe ser aplicable un conjunto de condiciones como las requeridas para la convergencia de la serie de Fourier, y
ciertamente se puede demostrar que éste es el caso. Específicamente, considere la evaluación de X(ω) de acuerdo
con la Ec. (2.87) y sea xˆ ( t ) la señal obtenida al usar X(ω) en el lado derecho de la Ec. (2.86); es decir,

1 ∞
xˆ ( t ) =
2π ∫ ∞
X ( ω ) e jω t d ω

Lo que nos gustaría saber es cuándo es válida la Ec. (2.86) [es decir, cuándo xˆ ( t ) es una representación válida de
la señal original x(t)]. Si x(t) es una señal cuyo cuadrado es integrable tal que


2
x(t ) dt < ∞ (2.88)
−∞

entonces se está garantizando que X(ω) es finita [la Ec. (2.87) converge] y, si se denota por e(t) el error que existe
entre xˆ ( t ) y x(t) [es decir, e ( t ) = xˆ ( t ) − x ( t ) ], entonces


2
e( t ) dt = 0 (2.89)
−∞

Las Ecs. (2.88) y (2.89) son las contrapartes aperiódicas de las Ecs. (2.50) y (2.53) para señales periódicas. Así,
igual que en el caso de señales periódicas, si x(t) es cuadrado integrable, entonces aunque x(t) y su
representación de Fourier xˆ ( t ) pueden diferir significativamente en valores individuales de t, en su diferencia
no hay energía.
Igual que con las señales periódicas, existe un conjunto alterno de condiciones que son suficientes para
asegurar que xˆ ( t ) sea igual a x(t) para cualquier t excepto en una discontinuidad, donde es igual al valor
promedio de la discontinuidad. Estas condiciones, igualmente conocidas como las condiciones de Dirichlet,
requieren que:
1. x(t) sea absolutamente integrable, es decir,

∫ −∞
x ( t ) dt < ∞ (2.90)

2. x(t) tenga un número finito de máximos y mínimos dentro de cualquier intervalo finito.
3. x(t) tenga un número finito de discontinuidades dentro de cualquier intervalo finito. Adicionalmente, cada una de
estas continuidades debe ser finita.
Por tanto, las señales absolutamente integrables que son continuas o tienen un número finito de discontinuidades poseen
transformadas de Fourier.
Aunque los dos conjuntos alternos de condiciones que hemos dado son suficientes para garantizar que una
señal tiene una transformada de Fourier, en la próxima sección veremos que señales periódicas, que no son
absolutamente integrables ni cuadrado integrables en un intervalo infinito, pueden considerarse que poseen
transformadas de Fourier si se permiten funciones impulso en la transformada. Esto tiene la ventaja de que la
serie y la transformada de Fourier pueden incorporarse en un marco de análisis común y esto será muy
José R. Morón 40

conveniente para diferentes tipos de análisis. Antes de examinar este punto un poco más en la próxima sección,
primero se debe señalar que la transformada de Fourier es una transformación lineal; es decir,
a1 x1 ( t ) + a2 x 2 ( t ) ↔ a1 X 1 ( ω ) + a2 X 2 ( ω )

Se deja para el lector la demostración de esta propiedad. Consideremos ahora algunos ejemplos de la
transformada de Fourier.

2.5.3 Ejemplos de Transformadas de Fourier en Tiempo Continuo

Ejemplo 5. Considere la señal

x ( t ) = e − at u ( t )

Si a < 0, entonces x(t) no es absolutamente integrable y, por tanto, X(ω) no existe. Para a > 0, X(ω) se obtiene a
partir de la Ec. (2.87) como
∞ 1 ∞

∫ e (
− a + jω ) t
X ( ω) = e − at e − jωt dt = −
0 a + jω 0

Es decir,
1
X ( ω) = , a>0
a + jω

Puesto que esta transformada de Fourier tiene partes real e imaginaria, para graficarla en función de la
frecuencia ω, la expresamos en términos de su magnitud y fase:

1 ω
X ( ω) = , ∠X(ω )= − tan −1  
a 2 + ω2 a

Cada una de estas componentes se grafica en la Fig. 2.16. Observe que si a es compleja, entonces x(t) es
absolutamente integrable siempre que Re{a} > 0, y en este caso el cálculo precedente produce la misma forma
para X(ω), es decir,

1
X ( ω) = , Re { a } > 0
a + jω

X ( ω)
1/a ∠X (ω)
1 2a π/2
π/4
a
–a ω
−π/4
ω
–a a −π/2
(a) (b)

Figura 2.16 Transformada de Fourier de la señal x(t) = e−atu(t).

Ejemplo 6. Sea
−a t
x(t ) = e

donde a > 0. Esta señal se grafica en la Fig. 2.17.


José R. Morón 41

x(t)
1

0 t

Figura 2.17 Señal x(t) = e-a| t | .

El espectro de esta señal es dado por


∞ 0 ∞

∫ ∫ ∫
−a t
X ( ω) = e e − jωt dt = e at e − jωt dt + e − at e − jωt dt
−∞ −∞ 0
1 1 2a
= + =
a − jω a + jω a + ω2
2

En este caso X( ω) es real y se ilustra en la Fig. 2.18.

X(ω)
2/a

1/a

−a 0 a ω

Figura 2.18 Transformada de Fourier de la señal en la Fig. 2.17.

Ejemplo 7. Considere el pulso rectangular

1, t < T1
x(t ) =  (2.91)
0 , t > T1

como se muestra en la Fig. 2.19a.


x(t)
1

–T1 0 T1 t
(a)

X(ω)

2T1

π ω
− Tπ 0 T1
1

(b)

Figura 2.19. El pulso y su transformada de Fourier.


José R. Morón 42

Aplicando la definición de la transformada, se encuentra que ésta está dada por


T1 sen ωT1
X ( ω) = ∫ − T1
e − jωt dt = 2
ω
(2.92)

Como se explicó al comienzo de esta sección, la señal dada en la Ec. (2.91) puede considerarse como la forma
límite de una onda cuadrada periódica conforme el período se hace arbitrariamente grande. Por lo tanto, es de
esperar que la convergencia de la ecuación de síntesis para esta señal se comporte en una forma similar a la
observada para la onda cuadrada, y, de hecho, éste es el caso.

Ejemplo 8. Considérese la señal x(t) cuya transformada de Fourier está dada por

1, ω >W
X ( ω) =  (2.93)
0 , ω <W

Esta transformada se ilustra en la Fig. 2.20(a). Usando la ecuación de síntesis, se puede determinar a x(t):

1 W sen W t
2π ∫
x(t ) = e j ω t dω = (2.94)
−W πt

la cual se muestra en la Fig. 2.20(b).


x(t)

W π

π
t
− Wπ 0 W
(a)
X(ω)
1

–W 0 W ω
(b)

Figura 2.20 Par de transformadas de Fourier del Ejemplo 8.

Comparando las Figs. 2.19 y 2.20, o equivalentemente, las Ecs. (2.91) y (2.92) con las Ecs. (2.93) y (2.94), se
observa una relación interesante. En cada caso, el par de transformadas de Fourier consiste de una función del
tipo ( sen x ) / x y un pulso rectangular. Sin embargo, en el Ejemplo 7 es la señal x(t) la que es un pulso, mientras
que en el Ejemplo 8, es la transformada. La relación especial que aparece aquí es una consecuencia directa de la
propiedad de dualidad para las transformadas de Fourier, la cual se discute más adelante.

2.6 La Transformada de Fourier de Señales Periódicas

En la sección anterior se desarrolló la transformada de Fourier para señales aperiódicas considerando el


comportamiento de la serie de Fourier para señales periódicas conforme el período se hace arbitrariamente
grande. Como lo indican los resultados, las representaciones en serie de Fourier y en transformadas de Fourier
están íntimamente relacionadas y en esta sección se analiza un poco más esa relación y también se desarrolla
una representación en serie de Fourier para señales periódicas.
José R. Morón 43

2.6.1 Los Coeficientes de la Serie de Fourier como Muestras de la Transformada

Como un primer paso, recuerde que en la derivación de la transformada de Fourier se hizo la observación de
que era posible obtener los coeficientes de Fourier de una señal periódica xɶ (t ) a partir de muestras de una
envolvente, que se determinó era igual a la transformada de Fourier de una señal aperiódica x(t) y que a su vez
era igual a un período de xɶ (t ) . Específicamente, sea T0 el período fundamental de xɶ (t ) como se ilustra en la Fig.
2.21. Como ya se vio, si x(t) se define como

xɶ ( t ), − T0 2 ≤ t ≤ T0 2
x(t ) =  (2.95)
0 , t < − T0 2 o t > T0 2
entonces los coeficientes de Fourier ak de xɶ ( t ) pueden expresarse en función de las muestras de la transformada
de Fourier X( ω) de x(t):

1 T0 /2 1 T0 /2
ck =
T0 ∫ − T0 /2
xɶ ( t ) e − jkω0 t dt =
T0 ∫ − T0 /2
x ( t ) e − jkω0 t dt

1 ∞ 1
=
T0 ∫ −∞
x ( t ) e − jkω0 t dt =
T0
X ( kω0 ) (2.96)

x(t)

... ...

–T0 T0 0 T0 T0 t

2 2

Figura 2.21. Una Señal Periódica.

Sin embargo, puesto que los coeficientes de Fourier ak se pueden integrando en cualquier intervalo de longitud T0,
se puede efectivamente obtener una expresión más general que la dada en la Ec. (2.96). Específicamente, sea s un
punto arbitrario en el tiempo y defínase la señal x(t) como igual a xɶ ( t ) en el intervalo s ≤ t ≤ s + T0 y cero para
otros valores de s. Es decir,

xɶ ( t ), s ≤ t ≤ s + T0
x(t ) =  (2.97)
0 , t < s o t > s + T0

Entonces los coeficientes de la serie de Fourier de xɶ ( t ) vienen dados por

1
ck = X ( kω0 ) (2.98)
T0

donde X( ω) es la transformada de Fourier de x(t) en la forma definida en la Ec. (2.97). Observe que la Ec. (2.98) es
válida para cualquier selección de s y no únicamente para s = −T0/2. Sin embargo, esto no significa que la
transformada X(ω) es la misma para todos los valores de s, pero sí implica que el conjunto de muestras X(kω0) es
independiente de s.
En vez de dar una demostración de la validez de la Ec. (2.98) en general, la ilustramos mediante el siguiente
ejemplo.

Ejemplo 9. Sea xɶ ( t ) la onda periódica cuadrada con período T0 ilustrada en la Fig. 2.22a, y sean x1(t) y x2(t)
señales como las mostradas en las Figs. 2.22b y c. Estas señales son iguales a xɶ ( t ) en intervalos diferentes de
longitud T0. La transformada de Fourier de x1(t) ya se obtuvo anteriormente y ella es
José R. Morón 44

2 sen ωT1
X1 ( ω ) = (2.99)
ω
La transformada de Fourier de x2(t) puede calcularse a partir de la fórmula de definición:
∞ T1 T0
X2 ( ω ) =
∫ −∞
x2 ( t ) e − jωt dt =
∫ 0
e − jωt dt +
∫ T0 −t
e − jω t dt

1 1
=

(1 − e − jωT1
) + jω e − jωT0
(e jωT1
−1 )
1 1
=

(
e − jωT1 /2 e jωT1 /2 − e − jωT1 /2 + ) jω
e
− jω(T0 −T1 /2 )
(e jωT1 /2
− e − jωT1 /2 )
2  ωT   − jωT1 /2
+ e ( 0 1 ) 
− jω T −T /2
= sen  1   e (2.100)
jω  2  

xɶ ( t )
1

–T0 –T1 0 T1 T0 t
(a )
x1(t)
1

–T1 0 T1 t
(b )
x2(t)
1

0 T1 T0 – T1 t
(c)

Figura 2.22

Las transformadas X1(ω) y X2(ω) no son iguales. De hecho, X1( ω) es real para todos los valores de ω mientras que
X2(ω) no lo es. Sin embargo, para ω = k ω0, la Ec. (2.100) se convierte en

2  kω T  − jkω0 T1 /2
X 2 ( kω0 ) = sen  0 1   e + e − jkω0 T0 e jkω0 T1 /2 

kω0  2 

Puesto que ω0T0 = 2π, ésta relación se reduce a

2  kω T 
X 2 ( kω0 ) = sen  0 1   e − jkω0 T1 /2 + e jkω0 T1 /2 
kω0  2  
4  kω T   kω T 
= sen  0 1  cos  0 1 
kω0  2   2 
2 sen ( kω0 T1 )
= = X1 ( kω0 )
kω0
José R. Morón 45

la cual confirma el resultado dado en la Ec. (2.98), es decir, que los coeficientes de Fourier de una señal periódica
pueden obtenerse a partir de muestras de la transformada de Fourier de una señal aperiódica que sea igual a la
señal periódica original en cualquier intervalo arbitrario de longitud T0 y que sea cero fuera de ese intervalo.

2.6.2 La Transformada de Fourier de Señales Periódicas

Considérese una señal x(t) cuya transformada de Fourier X( ω) es un solo impulso de área 2π en ω = ω0 , es
decir,

X ( ω ) = 2 πδ ( ω − ω0 ) (2.101)

Para determinar la señal x(t) a la que corresponde esta transformada de Fourier, se aplica la relación de la
transformada de Fourier inversa para obtener

1 ∞
x(t ) =
2 π −∞ ∫ 2 πδ ( ω − ω0 ) e jωt dω

= e jω0 t

Si X(ω) está en la forma de una combinación lineal de impulsos igualmente espaciados en frecuencia, es decir, si

X ( ω) = ∑ 2 π c δ ( ω − kω )
k =−∞
k 0 (2.102)

entonces la aplicación de la propiedad de linealidad produce la relación



x(t ) = ∑c e
k =−∞
k
jkω0 t
(2.103)

y esta última corresponde exactamente a la representación en serie de Fourier de una señal periódica. Así que la
transformada de Fourier de una señal periódica con coeficientes de su serie de Fourier {ck}, puede interpretarse
como un tren de impulsos que ocurren en las frecuencias relacionadas armónicamente y donde el área de la k-
ésima frecuencia armónica kω0 es 2π veces el k-ésimo coeficiente de la serie de Fourier ck.

Ejemplo 10. Considérese de nuevo la onda cuadrada ilustrada en la Fig. 2.19a. Los coeficientes de la serie de
Fourier para esta señal son
sen kω0 T1
ck =
πk
y su transformada de Fourier es
∞ 2 sen kω0 T1
X ( ω) = ∑ k
δ ( ω − ω0 )
k =−∞

la cual se grafica en la Fig. 2.23 para T0 = 4T1.


X (ω)
π
2 2

− ω0 ω0 ω

Figura 2.23. Transformada de Fourier de una onda cuadrada periódica simétrica.


José R. Morón 46

Ejemplo 11. Considere el tren de impulsos periódicos dado por



x(t ) = ∑ δ (t − kT )
k =−∞

y dibujado en la Fig. 2.24a. Esta señal es periódica con período fundamental T. Para determinar la transformada
de Fourier de esta señal, se determinan primero sus coeficientes de Fourier:

1 T /2 1
T∫
ck = δ ( t ) e − jkω0 t dt =
− T /2 T

x(t
1 )
... ...

–2T –T 0 T 2T t

(a)

X(ω)

T
... ...

− 4Tπ − 2Tπ 0 2π 4π ω
T T
(b)

Figura 2.24. (a) Tren de impulsos periódicos; (b) su transformada de Fourier.

Insertando ésta en la Ec. (2.103), se obtiene



2π  2 πk 
X ( ω) =
T ∑ δ  ω −
k =−∞
T 

La transformada de un tren impulsos en el tiempo es entonces un tren de impulsos en frecuencia, como se


muestra en la Fig. 2.24b. Aquí se ve de nuevo una ilustración de la relación entre los dominios del tiempo y de
frecuencia. Conforme la separación entre los impulsos en el tiempo se hace mayor, la separación entre los
impulsos en frecuencia se hace menor.

2.7 Propiedades Adicionales de la Transformada de Fourier

Ahora se entra a considerar varias propiedades de la transformada de Fourier que ayudan a entender mejor la
transformada y la relación entre las descripciones de la señal en los dominios del tiempo y la frecuencia.
Adicionalmente, muchas de estas propiedades con frecuencia son útiles en la reducción de la complejidad en la
evaluación de las transformada y para estudiar mejor la relación entre las representaciones en serie de Fourier y
en transformada de Fourier de una señal periódica.. A través de la presentación también se usará la notación

x ( t ) ↔ X ( ω ) = F { x ( t )}

para referirnos al par de transformadas x(t) y X(ω).


José R. Morón 47

2.7.1 Retardo en el Tiempo y Cambio de Escala

Dada una función del tiempo x(t), a partir de ella se pueden generar otras formas de ondas mediante una
modificación del argumento de la función. Específicamente, reemplazando t por t − td produce la señal retardada
en el tiempo x(t − td). La señal retardada tiene la misma forma que x(t) pero está desplazada td unidades hacia la
derecha en el eje del tiempo. Para establecer esta propiedad, supóngase que

x(t) ↔ X(ω)
Considere entonces la transformada de la función retardada:

F { x ( t − td } = ∫ x ( t − td ) e − jωt dt
−∞

Haciendo el cambio de variable σ = t − td, se obtiene



F { x ( t − td )} = ∫ x (σ) e
− jω( σ+ td )
dσ = e − j ω t d X ( ω )
−∞
es decir,
x ( t − td ) ↔ e − jωtd X ( ω ) = e − j 2 πftd X ( f ) (2.104)

El retardo en una señal produce un desplazamiento de fase lineal en el espectro. El desplazamiento de fase en la
transformada es una función lineal de ω. Si td es una cantidad negativa, la señal es adelantada en el tiempo y la
fase añadida tiene pendiente positiva.
Antes de proceder con el siguiente ejemplo, se define el pulso rectangular de la Fig. 2.25, el cual por ser tan
común merece un símbolo propio. Se adoptará la notación

1 t < τ /2
Π(t /τ) ≡  (2.105)
0 t > τ /2

x(t)
A

−τ/2 0 τ/2 t Figura 2.25

la cual representa una función rectangular con amplitud unitaria y duración τ centrada en t = 0 [este pulso
también se denota por rect ( t τ ) ]. El pulso en la figura se escribe entonces como

x(t ) = AΠ (t τ) (2.106)
y su transformada de Fourier es
τ/2 2A ωτ ωτ
X ( ω) =
∫ − τ/2
A e − jωt dt =
ω
sen
2
= Aτ sinc

(2.107)

Ejemplo 12. La señal en la Fig. 2.26 se construye usando dos pulsos rectangulares del tipo x(t ) = AΠ ( t τ ) tales
que
za ( t ) = x ( t − t d ) + ( −1 ) x  t − ( t d − T ) 

donde t0 = td + T/2. Aplicando los teoremas de superposición (linealidad) y de retardo, se obtiene

Za ( ω ) = X ( ω )  e − jωtd − e ( d ) 
− jω t +T
 
José R. Morón 48

donde X( ω) está dada por la Ec. (2.107).

Si t0 = 0 y T = τ, za(t) se degenera en la onda de la Fig. 2.26b donde

zb ( t ) = A Π ( t +τ/2
τ ) − AΠ ( t −τ/2
τ )
El espectro se convierte entonces en
(
Zb ( ω ) = Aτ sinc 2ωτπ ) ( j 2 sen ωτ 2 )
ωτ
= ( jωτ ) Aτ sinc 2
2
El espectro es puramente imaginario ya que zb(t) tiene simetría impar.

za(t) zb(t)
T/2 T/2
A
A
τ
td + T
0 td t0 t 0 τ t
τ −τ
–A

(a) (b)

Figura 2.26

Otra operación en el eje del tiempo es un cambio de escala, el cual produce una imagen de x(t) escalada
horizontalmente al reemplazar t por α t . La señal escalada x(αt) será expandida si α < 1 o comprimida si α > 1 ;
un valor negativo de α produce inversión en el tiempo y también expansión o compresión, dependiendo de su
magnitud.
El cambio de escala en el dominio del tiempo se convierte en un cambio de escala recíproco en el dominio de la
frecuencia; es decir, la compresión de una señal en el tiempo resulta en su expansión espectral y la expansión en
el tiempo resulta en su compresión espectral. Si

x(t) ↔ X(ω)
entonces
1 ω
x ( αt ) ↔ X  (2.108)
α α

donde α es una constante real. Se demostrará la Ec. (2.108) para el caso α < 0, escribiendo α = − α y haciendo
ahora el cambio de variable λ = − α t , y dt = − dλ α , se tiene que


F { x( − α t) = } ∫ −∞
x ( − α t ) e − jωt dt

1 −∞
=−
α ∫ ∞
x ( λ ) e − j ωλ α dλ

1 ∞

∫ x ( λ ) e ( ) dλ
− j ω/α λ
=
α −∞

1  ω
= X 
α α
José R. Morón 49

2.7.2 Diferenciación en el Dominio del Tiempo

Diferenciando la Ec. (2.86) (definición de la transformada inversa) con respecto al tiempo, se obtiene

dx ( t ) 1 ∞

2π ∫
j ωt
=  jωX ( ω ) e dω
dt −∞

Pero la expresión entre corchetes en el lado derecho, por definición, es la transformada de la derivada dx ( t ) dt
y así obtenemos el par de transformadas

dx ( t )
↔ jωX ( ω ) (2.109)
dt

Es muy fácil demostrar para el caso general que

dn x ( t )
↔ ( j ω )n X ( ω ) (2.110)
dt n

2.7.3 Integración en el Dominio del Tiempo

Suponga que a partir de x(t) se genera otra función por integración, es decir,
t
y(t ) =
∫ −∞
x ( λ ) dλ .

El teorema de integración dice que si



X (0) =
∫ −∞
x(λ ) dλ = 0

entonces
t 1 1
∫ −∞
x ( τ ) dτ ↔

X ( ω) =
2 πf
X( f ) (2.111)

La condición de que el área neta sea cero asegura que la señal integrada tiende a cero conforme t tiende a
infinito. Puesto que la integración es la inversa de la diferenciación, la Ec. (2.111) muestra que la operación en el
dominio de la frecuencia correspondiente a la integración en el dominio del tiempo es la multiplicación por
1 jω .

2.7.4 Dualidad (Simetría)

Si se comparan las relaciones para la transformada y la transformada inversa

1 ∞ ∞
x(t ) =
2π ∫ −∞
X ( ω ) e jωt dω =
∫ 0
X ( f ) e j 2 πft df (2.112)


X ( ω) =
∫ −∞
x ( t ) e − jωt dt = X ( f ) (2.113)

se observa que hay una simetría bien definida, difiriendo solamente por la variable de integración y el signo en
el exponente. De hecho, esta simetría conduce a una propiedad de la transformada de Fourier conocida como
dualidad. Específicamente, considere dos funciones relacionadas a través de la expresión integral

f (u) =
∫ −∞
g ( v ) e − ju v dv (2.114)

Comparando esta ecuación con las ecuaciones de análisis y síntesis (2.112) y (2.113), se ve que con u = ω y v = t,

f ( ω ) = F { g ( t )} (2.115)
José R. Morón 50

en tanto que con u = t y v = ω,

1
g ( −ω ) = F { f ( t )} (2.116)

Es decir, si se da el par de transformadas de Fourier para la función temporal g(t):

g( t ) ↔ G( ω) (2.117)

y después se considera la función del tiempo f(t), su par de transformadas de Fourier es

 2 πg ( −ω)
G(t ) ↔  (2.118)
 g ( − f )

Las implicaciones de estas dos últimas ecuaciones son importantes. Por ejemplo, suponga que

1, v <M
g( v ) =  (2.119)
0 , v >M

Entonces, de la Ec. (2.116),

2 sen uM  uM 
f (u) = = 2 M sinc   (2.120)
u  π 

Ese resultado, junto con la Ec. (2.111) o, equivalentemente, la Ec. (2.119), produce el par de transformadas en la
Ec. (2.110) para M = τ/2, mientras que si se usa la Ec. (2.117) o la Ec. (2.119), se obtiene el par en la Ec. (2.96) con
M = W. Por lo tanto, la propiedad de dualidad permite obtener ambas de estas transformadas duales a partir de
una evaluación de la Ec. (2.114). Esto a veces permite una reducción en la complejidad de los cálculos
involucrados en la determinación de las transformadas y las transformadas inversas. Como ilustración de esta
propiedad, se considerará el siguiente ejemplo.

Ejemplo 13. Supóngase que se desea evaluar la transformada de Fourier de la señal


2
x(t ) = 2
t +1
Si se toma
2
f (u) = 2
u +1
entonces de la Ec. (2.119), se tiene el par de transformadas de Fourier
2
g( t ) ↔ f ( ω) = 2
ω +1
Del Ejemplo 6 se sabe que
− t
g(t ) = e
Adicionalmente, usando el par de transformadas dado por la Ec. (2.120), se concluye que, puesto que f(t) = x(t),
entonces
−ω
X ( ω ) = F { f ( t )} = 2 πg ( −ω ) = 2 πe

La propiedad de dualidad también puede usarse para determinar o sugerir otras propiedades de la
transformada de Fourier. Específicamente, si existen características de una función del tiempo que tienen
implicaciones sobre la transformada de Fourier, entonces las mismas características asociadas con una función
de la frecuencia tendrán implicaciones duales en el dominio del tiempo. Por ejemplo, se sabe que una función del
José R. Morón 51

tiempo periódica tiene una transformada de Fourier que es un tren de impulsos ponderados e igualmente
espaciados. Debido a la propiedad de dualidad, una función del tiempo que es un tren de impulsos ponderados e
igualmente espaciados tendrá una transformada de Fourier que es periódica en frecuencia. Esto es una
consecuencia de las Ecs. (2.71) y (2.72). Similarmente, algunas de las propiedades de la transformada de Fourier
ya consideradas también implican propiedades duales. Por ejemplo, se vio que la diferenciación en el dominio
del tiempo corresponde a multiplicar por j ω en el dominio de la frecuencia. De la discusión anterior se podría
entonces intuir que la multiplicación por jt en el dominio del tiempo corresponde a alguna forma de
diferenciación en el dominio de la frecuencia. Para determinar la forma precisa de esta propiedad dual, se
procede en la forma siguiente: Se diferencia la ecuación de síntesis con respecto a ω para obtener

dX ( ω ) ∞


=
∫ −∞
− jtx ( t ) e − jωt dt

Es decir,
dX ( ω )
− jtx ( t ) ↔ (2.121)

que es la propiedad dual de la Ec. (2.111).


En forma similar, otras propiedades duales son la del desplazamiento en frecuencia

e jω0 t x ( t ) ↔ X ( ω − ω0 ) (2.122)
y
1 ω

jt
x ( t ) + π x (0 ) δ ( t ) ↔
∫ −∞
X ( η ) dη (2.123)

que se obtiene a partir de la Ec. (2.130) más adelante.

2.7.5 La Relación de Parseval

Si x(t) y X(ω) forman una par de transformadas de Fourier, entonces, la energía de una señal x(t) está relacionada
con su espectro por la relación
∞ 1 ∞ ∞

∫ ∫ ∫
2 2 2
E= x ( t ) dt = X ( ω ) dω = X ( f ) df (2.124)
−∞ 2 π −∞ −∞

Esta expresión, conocida como la relación de Parseval, se deduce de una aplicación directa de la transformada
de Fourier. Específicamente,
∞ ∞ ∞  1 ∞ 
∫ ∫ ∫ ∫
2
x ( t ) dt = x ( t ) x * ( t ) dt = x(t )  X * ( ω ) e − jωt dω dt
−∞ −∞ −∞  2 π −∞ 

Al invertir el orden de integración se obtiene


∞ 1 ∞  ∞ 
∫ ∫ ∫
2
x(t ) dt = X * ( ω)  x ( t ) e − jωt dt  dω
−∞ 2 π −∞  −∞ 

Pero la cantidad entre corchetes es sencillamente la transformada de Fourier de x(t); por consiguiente,
∞ ∞ ∞

∫ ∫ ∫
2 1 2 2
x(t ) dt = 2π
X ( ω) dω = X( f ) df
−∞ −∞ −∞

La relación de Parseval expresa que la energía total puede determinarse bien sea calculando la energía por
unidad de tiempo [ |x ( t ) | 2 ] e integrando para todo el tiempo o calculando la energía por unidad de frecuencia
2 2
X( f ) e integrando para todas las frecuencias. Por esta razón, a X( f ) también se le refiere como el la
densidad espectral de energía de la señal x(t). Con esto se quiere decir que la energía en cualquier banda diferencial
2
de frecuencias df es igual a X( f ) df . Hay contribuciones iguales de energía tanto de las componentes de
José R. Morón 52

frecuencia positiva como de las negativas, ya que para una señal real X ( f ) es una función par de la frecuencia.
Por tanto, la densidad espectral de energía es simétrica en frecuencia con respecto al origen y la energía total de
la señal se puede expresar como


2
E=2 X( f ) df (2.125)
0

Ejemplo 14. Considérese el par de transformadas

1, t < T1 2 sen ωT1  ω T1 


x(t ) =  ↔ X ( ω) = = 2 T1 sinc  
0 , t > T1 ω  π 

La energía total de la señal es dada entonces por

1 ∞  ωT1  T1

2π ∫ −∞
( 4 T1 )2 sinc2 
 π
 dω =
 ∫ − T1
( 1 )2 dt = 2 T1

Como se observa, es mucho más fácil integrar el lado derecho que el lado izquierdo.

2.8 La Propiedad de Convolución

Esta propiedad juega un papel importante en el estudio de los sistemas LIT. La propiedad expresa que si
x( t ) ↔ X ( ω)
h ( t ) ↔ H ( ω)
entonces
y (t ) = x( t ) ∗ h( t ) ↔ Y ( ω) = X ( ω) H ( ω) (2.126)

La demostración se obtiene directamente a partir de la definición de la integral de convolución, vale decir, se


quiere Y( ω), la cual es
∞  ∞ 
Y ( ω) = F { y ( t ) } =
∫  ∫
−∞ −∞
x ( τ ) h ( t − τ ) dτ  e − jωt dt

Intercambiando el orden de integración y observando que x(τ) no depende de t, tenemos


∞  ∞ 
Y ( ω) =
∫ −∞
x( τ) 
 ∫ −∞
h ( t − τ ) e − jωt dt  dτ

Por el teorema del retardo, el término entre corchetes es simplemente H(ω) e −jωτ, y entonces
∞ ∞
Y ( ω) =
∫ −∞
x ( τ ) e − jωτ H ( ω ) dτ = H ( ω )
∫ −∞
x ( τ ) e − jωτ dτ

= H ( ω)X ( ω)

Así que una convolución en el dominio del tiempo equivale a una multiplicación en el dominio de la frecuencia,
lo cual, en muchos casos, es conveniente y se puede hacer por inspección. El uso de la propiedad de convolución
para sistemas LIT se demuestra en la Fig. 2.27. El espectro de amplitud y el de fase de la salida y(t) están
relacionados con los espectros de la entrada x(t) y la respuesta al impulso h(t) en la forma

Y ( ω) = X ( ω) H ( ω)
∠Y ( ω ) = ∠X ( ω ) + ∠H ( ω )
José R. Morón 53

x(t) h (t ) y(t) = x(t)∗h(t)


LIT
X(ω) H(ω) Y(ω) = X(ω)H(ω)

Figura 2.27. Propiedad de convolución de sistemas LIT.

La función H(ω) o H(f ) , la transformada de Fourier de la respuesta al impulso del sistema, generalmente se
conoce como la respuesta de frecuencia del sistema. Muchas de las propiedades de sistemas LIT pueden
interpretarse convenientemente en términos de H(ω). Por ejemplo, ya se estudió que la respuesta al impulso de
la conexión en cascada de dos sistemas LIT es la convolución de las respuestas al impulso de los sistemas
individuales y que la respuesta completa no depende del orden en el cual los sistemas están en la cascada.
Usando la Ec. (2.121) es posible definir esto en términos de las respuestas de frecuencia. Como se ilustra en la
Fig. 2.28, la respuesta de frecuencia total de los dos sistemas en cascada es simplemente el producto de las
respuestas de frecuencia individuales, y de esto está claro que la respuesta total no depende del orden de la
cascada.

x(t) H1(ω) H2(ω) y(t)

(a)

x(t) H1(ω)H2(ω) y(t)

(b)
x(t) H2(ω) H1(ω) y(t)

(c)

Figura 2.28. Tres sistemas LIT equivalentes.

2.8.1 Funciones Escalón y Signo

La falta de simetría en la función escalón crea un problema cuando se desea de determinar su transformada en el
límite. Para resolver este problema, se comienza con la función signo, Fig. 2.29, la cual se define como

 +1 t>0
sgn t ≜ 
 −1 t<0

y que presenta simetría impar.

sgnt

0 t
–1

Figura 2.29

La función signo puede considerarse como un caso límite de la función

+ e − bt t>0
z( t ) = 
+ bt
− e t<0
José R. Morón 54

tal que z ( t ) → sgn t si b → 0 . La transformada de z(t) es

− j 4 πf
F { z (t ) } = Z ( f ) =
b − ( j 2 πf )2
2

y, por tanto,
1
F { sgn t } = lím Z( f ) =
b →0 j πf
de donde se obtiene el par de transformadas
1
sgn t ↔
j πf
Las funciones escalón y signo están relacionadas por
1 1 1
u( t ) = ( sgn t + 1) = sgn t +
2 2 2
y, por consiguiente,
1 1
u( t ) ↔ + δ( f ) (2.127)
j 2 πf 2

Ahora se quiere deducir la propiedad de integración cuando la señal a integrar tiene un área neta diferente de
cero. Esta propiedad se obtiene mediante la convolución de u(t) con una señal de energía arbitraria x(t),
∞ t
x ( t ) ∗ u( t ) =
∫ −∞
x ( λ ) u ( t − λ ) dλ =
∫ −∞
x ( λ ) dλ

Pero por el teorema de la convolución y la Ec. (2.127), se tiene que

 1 1 
F { x ( t ) ∗ u( t ) } = X ( f )  + δ ( f )
 j 2 πf 2 
por lo que
t 1 1
∫ −∞
x ( λ ) dλ ↔
j 2 πf
+
2
X (0 ) δ ( f ) (2.128)

la cual se reduce a nuestro teorema de integración previo cuando X(0) = 0.

Ejemplo 15. Considérese un sistema LIT con respuesta al impulso

h ( t ) = e − at u ( t )

y cuya excitación es la función escalón unitario u(t). La transformada de Fourier de la salida es

 1  1 
{ 
}
Y ( ω ) = F { u ( t )} F e − at u ( t ) =  π δ ( ω ) +   
jω   a + jω 
π 1
= δ( ω) +
a jω ( a + jω )
1 1  1 1
=  πδ ( ω ) +  −
a jω  a a + j ω

Tomando la transformada de Fourier inversa de ambos lados resulta en


José R. Morón 55

1 1
y(t ) = u ( t ) − e − at u ( t )
a a
1
=  1 − e − at  u ( t )
a 

2.9 Modulación

La propiedad de convolución expresa que la convolución en el dominio del tiempo se corresponde con una
multiplicación en el dominio de la frecuencia. A causa de la propiedad de dualidad entre los dominios del tiempo
y de la frecuencia, es de esperar que también se cumpla una propiedad dual. Específicamente, si

x(t) ↔ X(ω)
m(t) ↔ M(ω)
entonces
1
x ( t )m( t ) ↔

[ X ( ω ) ∗ M ( ω )] = X ( f ) ∗ M ( f ) (2.129)

La convolución de señales de frecuencia se ejecuta exactamente en la misma forma que la convolución en el


dominio del tiempo; es decir,
∞ ∞
X ( ω) ∗ H ( ω) =
∫ σ=−∞
X ( σ ) H ( ω − σ ) dσ =
∫ σ=−∞
H ( σ ) X ( ω − σ ) dσ

La multiplicación de la señal deseada x(t) por m(t) es equivalente a alterar o modular la amplitud de x(t) de
acuerdo con las variaciones en m(t), y por ello también se denomina modulación de amplitud. La importancia de
esta propiedad se ilustrará con algunos ejemplos.

Ejemplo 16. Sea x(t) una señal cuyo espectro X( ω) se muestra en la Fig. 2.30a. También considere la señal m(t)
definida por
m ( t ) = cos ω0 t
Entonces
M ( ω ) = π δ ( ω − ω0 ) + π δ ( ω + ω0 )

S(ω)
A

−ω1 0 ω1 ω

(a)
1
R(ω) = 2π
[ S (ω) ∗ P(ω)]
P(ω)
π π
A/2

−ω0 0 ω0 ω −ω0–ω1 −ω0 −ω0+ω1 0 ω0–ω1 ω0 ω0+ω1 ω

(b) (c)

Figura 2.30. La propiedad de modulación.

como se muestra en la Fig. 2.30b, y el espectro ( 1 2 π ) M(ω) ∗ X(ω) de m(t)x(t) se obtiene aplicando la Ec. (2.129):
José R. Morón 56

1 1
M ( ω)∗ X (ω) = 2
X ( ω − ω0 ) + 21 X ( ω + ω0 ) = R ( ω )

el cual se grafica en la Fig. 2.30c. Aquí se tomó ω0 > ω1 para que las partes diferentes de cero de R( ω) no se
solapen. Se ve entonces que el espectro de la onda resultante de la multiplicación en el tiempo consiste de la
suma de dos versiones desplazadas y escaladas de X(ω).
De la Ec. (2.129) y de la Fig. 2.30 está claro que toda la información en la señal x(t) se preserva cuando se
multiplica por una señal sinusoidal, aunque la información ha sido corrida hacia frecuencias mayores. Este
hecho forma la base para los sistemas de modulación de amplitud sinusoidal y en el próximo ejemplo se da una
mirada a cómo es posible recuperar la señal original x(t) a partir de la señal modulada.

Ejemplo 17. Considérese ahora la señal r(t) = m(t)x(t) en el Ejemplo 16 y sea


g(t) = r(t)m(t)

donde, de nuevo, m ( t ) = cos ω0 t . Entonces, las transformadas R( ω), M( ω) y G( ω) son como se muestra en la Fig.
2.31.
R(ω)
A/2

−ω0 0 ω0 ω

(a)
M(ω) G(ω)
π π
A/2
A/4

−ω0 0 ω0 ω −2ω0 0 2ω0 ω


(c)
(b)

Figura 2.31. Espectros de las señales en el Ejemplo 17.

De la Fig. 2.28c y de la linealidad de la transformada de Fourier, se ve que g(t) es la suma de 1


2
x ( t ) y una señal
con un espectro que es diferente de cero solamente para las frecuencias más altas (centradas alrededor de ±2ω0).
Suponga que se aplica la señal g(t) como la entrada a un sistema LIT con respuesta de frecuencia H(ω) que es
constante para frecuencias bajas (digamos para | ω | < ω0 y cero para las frecuencias altas ω > ω0 ). Entonces la
salida de este sistema tendrá como su espectro H(ω)G(ω), la cual, debido a la selección particular de H(ω), será
una réplica a escala de X(ω). Por lo tanto, la salida misma será una versión a escala de x(t).

2.10 Generación de Otros Pares de Transformadas


El impulso y el escalón unitarios están relacionados por la identidad

d
δ ( t − td ) = u ( t − td ) (2.130)
dt

la cual proporciona otra interpretación del impulso en términos de la derivada de una discontinuidad en
escalón. Esta ecuación, junto con la ecuación de definición del impulso, facilita ciertos cálculos de transformadas
y ayuda a predecir el comportamiento de alta frecuencia de una señal. El método es el siguiente: Se diferencia
repetidamente la señal bajo análisis hasta que aparezcan por primera vez una o más discontinuidades
José R. Morón 57

escalonadas. La siguiente derivada, dígase la n-ésima, incluye entonces un impulso Ak δ ( t − t k ) por cada
discontinuidad de amplitud Ak, por lo que

dn
dt n
x( t ) = y ( t ) + ∑ A δ( t − t
k
k k ) (2.131)

donde y (t ) es una función que no contiene impulsos. Transformando la Ec. (2.131) da

( j 2 πf )n X ( f ) = Y ( f ) + ∑A e
k
k
− j 2 π f tk
(2.132)

la cual puede resolverse para obtener X ( f ) si se conoce Y ( f ) .

Ejemplo 18. La Fig. 2.32 muestra una forma de onda llamada el pulso coseno levantado definida por

A πt   t 
x(t ) =  1 + cos Π  
2 τ   2τ 

Se usará el método de diferenciación para determinar el espectro X ( f ) y el comportamiento en alta frecuencia.

A
x(t ) A
2

(a) t
−τ −τ 2 0 τ2 τ
dx π A
dt τ 2

−τ τ t
0

2
d2x  π A
 
  2
τ
dt 2
(b) t
−τ 0 τ

d 3x 3
 π A
dt 3  
τ 2
t
−τ 0 τ
2
π A
 
τ 2
(c) Aτ

X( f )

Aτ 2 fτ 1 − (2 fτ) 2
2

f
0 1 2τ 1τ 3 2τ 2τ

Figura 2.32. Pulso coseno levantado. (a) Forma de onda; (b) derivadas; (c) espectro de amplitudes.
José R. Morón 58

Al diferenciar se encuentra que

dx ( t ) A π πt   t  A  πt 
=  − sen  Π   +  1 + cos  [ δ ( t + τ ) − δ ( t − τ )]
dt 2 τ τ   2τ  2  τ 
A π πt   t 
=  − sen  Π  
2 τ τ   2τ 

la cual no tiene discontinuidades.


Se continúa derivando y se obtiene
2
d2 x ( t ) Aπ πt  t  A π πt
=−   cos Π  − sen  δ ( t + τ ) − δ ( t − τ )
dt 2 2 τ τ  2τ  2 τ τ 
2
Aπ πt  t 
=−   cos Π  
2 τ τ  2τ 

Ésta sí tiene discontinuidades en t = ±τ de manera que, al derivar una vez más, se obtiene
2 2
d3 x ( t )  π  dx ( t ) A  π 
= −  +    δ ( t + τ ) − δ ( t − τ )
dt 3  τ  dt 2 τ

y luego al tomar la transformada, se obtiene


2 2
3 π  π  A j 2 πft
( j 2 πf ) X( f ) = − 
τ
( j 2 πf ) X ( f ) +  
τ 2
e (
− e − j 2 πft )
para obtener finalmente que
jA sen 2 πf τ Aτ sinc 2 f τ
X( f ) = 2 3
=
j 2 πf + ( τ π ) ( j 2 πf ) 1 − ( 2 f τ )2

cuyo espectro de amplitudes se muestra en la Fig. 2.32 para f ≥ 0 . Observe que X( f ) tiene un
comportamiento de tercer orden (n = 3), mientras que un pulso rectangular con
X ( f ) = sinc f τ = (sen πf τ ) ( πf τ ) tendría solamente un comportamiento de primer orden.

2.11 Densidad Espectral de Potencia

Existe una clase importante de señales, a saber, las señales de potencia no-periódicas, para las cuales todavía en
este trabajo no se ha desarrollado un modelo en el dominio de la frecuencia. La serie de Fourier no existe para
señales de potencia no periódicas que no están limitadas en el tiempo. Para esas señales, la transformada de
Fourier puede existir o no y no es aplicable el concepto de densidad espectral de energía. Sin embargo, puesto
que se supone que la potencia promedio es finita, es posible usar funciones de la densidad espectral de potencia
para describir señales de potencia no periódicas en el dominio de la frecuencia.
Suponga que se nos da una señal de potencia x(t). Fórmese una versión truncada xT(t) de x ( t ) como se ilustra
en la Fig. 2.33. La potencia promedio normalizada de xT(t) está dada por

1 T 2

T∫
2
STx = x(t ) dt (2.133)
−T 2
José R. Morón 59

x(t)

–T/2 0 T/2 t

(a)
xT(t)

–T/2 0 T/2 t

(b)

Figura 2.33. (a) Una señal de potencia. (b) Versión truncada de la señal.

Ahora se introduce la función de autocorrelación RTxx ( τ ) de xT(t) definida como

1 T 2
RTxx ( τ ) =
T ∫ −T 2
xT ( t ) xT ( t + τ ) dτ (2.134)

La transformada de Fourier de RTxx ( τ ) es


∞ 1 ∞  ∞ 
∫ ∫
−∞
−∞
RTxx ( τ )exp( − j 2 πf τ ) dτ =
T −∞ ∫
exp( − j 2 πf τ ) 
 ∫ −∞
xT ( t ) xT ( t + τ ) dt  dτ

1  ∞ ∞ 
= ∫ ∫
T −∞  −∞
xT ( t ) xT ( t + τ )exp( − j 2 πf ( t + τ ))exp( j 2 πft ) dt  dτ

1 ∞  ∞ 
=
T −∞ ∫
xT ( t )exp( j 2 πft ) 
 −∞ ∫
xT ( t + τ )exp( − j 2 πf ( t + τ )) dτ  dt

1
= XT ( − f ) XT ( f )
T
(2.135)
donde XT ( f ) es la transformada de Fourier de xT(t).

Puesto que x(t) es real, se tiene que XT ( − f ) = XT∗ ( f ) y, por tanto,

∞ 1

2
RTxx ( τ )exp( − j 2 πf τ ) dτ = XT ( f )
−∞ T
T
Haciendo Rxx ( τ ) = lím Rxx ( τ ) y tomando el límite cuando T → ∞ en ambos lados de la ecuación anterior, se
T →∞
obtiene que
∞ 1

2
Rxx ( τ )exp( − j 2 πf τ ) dτ = lím XT ( f ) (2.136)
∞ T →∞ T

El lector debe observar que el límite en el lado derecho de la Ec. (2.136) puede no existir en algunos casos. El
lado izquierdo de la Ec. (2.136) es la transformada de Fourier de la función de autocorrelación de la señal de
2
potencia x(t). En el lado derecho está XT ( f ) , que es la densidad espectral de energía de xT(t) y, por tanto,
José R. Morón 60

2
XT ( f ) T da la distribución de potencia en el dominio de la frecuencia. Por esta razón se puede usar la
relación en la Ec. (2.119) para definir la densidad espectral de potencia (DEP) Gx ( f ) de x(t) como

Gx ( f ) = F { Rxx ( τ )} (2.137)

2
XT ( f )
= lím (2.138)
T →∞ T
La relación dada en la Ec. (2.136) se conoce como el teorema de Wiener – Khintchine y tiene gran importancia en la
teoría de señales aleatorias.

La función de autocorrelación Rxx(τ) proporciona una medida de lo cercano que la señal x(t) se adapta a una
copia de sí misma cuando la copia es desplazada τ unidades en el tiempo. La variable τ juega el papel de un
parámetro de escaneo. Rxx(τ) no es una función del tiempo, es sólo una función de la diferencia del tiempo τ
entre la señal y su copia desplazada.
Se usará la DEP definida en la Ec. (2.138) como la descripción en el dominio de la frecuencia de señales de
potencia no periódicas. Ya se definió previamente la DEP para señales de potencia periódicas como

Gx ( f ) = ∑C
n =−∞
x ( nf 0 )
2
δ ( f − nf 0 )

El lector puede verificar que la definición dada en la Ec. (2.138) en efecto se reduce a la ecuación anterior para
señales periódicas. En ambos casos, para una señal de potencia se tiene que

1 T 2
Sx = lím
T →∞ T ∫ −T 2
x 2 ( t ) dt

= Rxx (0 )

=
∫ −∞
Gx ( f ) df

La función de autocorrelación de una señal periódica real tiene las propiedades siguientes:

1. Rxx ( τ ) = Rxx ( −τ ) ; es simétrica con respecto al origen.

2. Rxx ( τ ) ≤ Rxx ( 0 ) para todo τ; el valor máximo ocurre en el origen.

3. Rxx ( τ ) ↔ Gx ( f ) ; la autocorrelación y la DEP forman un par de transformadas de Fourier.

1 T0 2
4. Rxx (0) =
T0 ∫
−T0 2
x 2 (t )dt ; el valor en el origen es igual a la potencia promedio de la señal.

Si x(t) es una señal de corriente o de voltaje que alimenta una resistencia de carga de un ohmio, entonces Sx
tiene las unidades de vatios y por tanto a Gx ( f ) se le da las unidades de vatios por hertz. Si la resistencia de
carga tiene un valor diferente de un ohmio, entonces Gx ( f ) usualmente se especifica en términos de volts2 por
hertz.
Se debe señalar aquí que la función de la densidad espectral de potencia (y la función de autocorrelación) no
describe en forma única una señal. La DEP retiene solamente la información de la magnitud y se pierde la
información de la fase. Así que para una señal de potencia dada, hay una densidad espectral de potencia, pero
hay muchas señales que tienen la misma densidad espectral de potencia. En contraste, las series de Fourier y las
transformadas de Fourier de señales, cuando existen, describen en forma única una señal en todos los puntos de
continuidad.
José R. Morón 61

Ejemplo 19. La función de autocorrelación de una señal de potencia no periódica es

Rxx ( τ ) = exp( − τ2 2 σ 2 )

Determine la DEP y el contenido de potencia promedio normalizada de la señal.

Solución. Por el teorema de Wiener – Khintchine, la DEP de la señal está dada por

Gx ( f ) ≜
∫ −∞
exp( − τ2 2 σ2 )exp( − j 2 πf τ ) dτ

= 2 πσ2 exp  − ( 2 πf σ )2 2 
 

La potencia promedio normalizada está dada por

1 T 2

T∫
SX = lím x 2 ( t ) dt = Rxx (0 ) = 1
T →∞ −T 2

Ejemplo 20. Determinar la función de autocorrelación y la densidad espectral de potencia de una forma de onda
rectangular con un período T0, una amplitud pico igual a A y un valor promedio de A/2 (Fig. 2.34).

Solución: Puesto que x(t) es periódica, es necesario obtener el “promedio en el tiempo” para la correlación por un
período solamente, es decir,

1 T0 2
Rxx ( τ ) =
T0 ∫ − T0 2
x ( t ) x ( t + τ ) dt

En la Fig. 2.34 se muestran dibujos de x(t) y x(t + τ). Para 0 < τ < T0 2 , el valor de Rxx ( τ ) es igual al área
sombreada en la Fig. 2.34c:

A2  T0  1 τ  T0
Rxx ( τ ) =  − τ  = A2  − , 0<τ<
T0  2   2 T0  2

Se puede verificar fácilmente que Rxx(τ) es una función par y que será periódica con un período igual a T0. En la
Fig. 2.34d se muestra un dibujo de Rxx ( τ ) . La DEP de x(t ) está dada por






A2

 4 


Rxx ( τ )exp( − j 2 πf τ ) dτ = 
Gx ( f ) =
∫ −∞ 1 +
 4
 2 2  exp( j 2 πnf 0 τ ) exp( − j 2 πf τ ) dτ
 n =−∞  π n  
⌡ −∞
 n impar 
donde el término entre corchetes dentro de la integral es la serie de Fourier para Rxx(τ). Completando la
integración, se obtiene
 
A2  


4
Gx ( f ) =  δ( f ) + δ ( f − nf 0 ) 
4  n =−∞
π2 n 2 
 n impar 
José R. Morón 62

x(τ)
A
(a) ,,, ,,,

–T0 –T0/2 0 T0/2 T0 τ

x(t +τ )
A
,,, T0/2 ,,,
(b)
–T0 –T0/2 0 T0/2 T0 τ

A2 x(t)x(t +τ )

(c) ,,, ,,,

–T0 –T0/2 0 T0/2 T0 τ

x(t)x(t +τ )
A2/2 Rxx(τ)
(d) ,,, ,,,

–T0 –T0/2 0 T0/2 T0 τ

Figura 2.34 (a) Señal x(t ) . (b) x(t + τ) , la cual es integrada desde − T0 2 hasta T0 2 para
obtener Rxx ( τ) . (d) Rxx ( τ) .

2.12 Representación y Clasificación de Sistemas


2.12.1 Representación de Sistemas

El concepto y la teoría de sistemas se necesitan en casi todos los campos de la ingeniería eléctrica y en
prácticamente todas las disciplinas de la ingeniería y de las ciencias. Ahora se introduce la descripción y
representación matemática de sistemas y sus clasificaciones
Los sistemas físicos en el sentido más amplio son un conjunto de componentes o bloques funcionales
interconectados para alcanzar un objetivo deseado. Para nuestros propósitos, un sistema es un modelo
matemático de un sistema físico que relaciona las señales de entrada al sistema (excitaciones) con sus señales de
salida (respuestas). Por ejemplo, un sistema de alta fidelidad toma una señal de audio grabada y reproduce esa
señal. Si el sistema tiene controles de tono, se puede cambiar la calidad tonal de la señal reproducida; en otras
palabras, el sistema procesa la señal de entrada. De igual modo, la red sencilla de la Fig. 2.35 se puede considerar
como un sistema que procesa un voltaje de entrada ve(t) y produce un voltaje de salida vs(t). Un sistema para
realzar imágenes transforma una imagen de entrada en una imagen de salida con algunas propiedades deseadas
como, por ejemplo, un mayor contraste entre colores.

v e (t ) +_ C vs (t )
_

Figura 2.35
José R. Morón 63

Si x y y son las señales de entrada y de salida, respectivamente, de un sistema, entonces el sistema se considera
como una transformación de x en y. Esta representación se denota por

y = ℑ[ x ] (2.139)

donde ℑ es el operador que representa alguna regla bien definida mediante la cual x es transformada en y. La
relación (2.139) se ilustra en la Fig. 2.36a para el caso de un sistema de una sola entrada y una sola salida. La Fig.
2.36b ilustra un sistema con entradas y salidas múltiples. En este texto solamente nos ocuparemos de sistemas
con una sola entrada y una sola salida.

x1 y1
x Sistema y
⋮ Sistema ⋮

xn yn
(a) (b)
Figura 2.36

2.12.2 Clasificación de Sistemas

1. Sistemas en Tiempo Continuo y en Tiempo Discreto

Un sistema en tiempo continuo es un sistema en el cual las señales de entrada y de salida x(t) y y(t) son de tiempo
continuo (Fig. 2.37a). Si las señales de entrada y de salida son señales en tiempo discreto o secuencias, entonces
el sistema se llama un sistema en tiempo discreto (Fig. 2.37b). Ambos sistemas también se denotarán
simbólicamente por

x (t ) → y (t ) ( a)
(2.140)
x [n] → y [n] (b)

El resto de este capítulo se ocupará básicamente de sistemas en tiempo continuo.

x(t) Sistema de y(t) x[n} Sistema de y[n]


Tiempo Continuo Tiempo Discreto

(a) (b)

Figura 2.37

Ejemplo 21. Considere la red RC de la Fig. 2.35. Si se toma al voltaje ve(t) como la señal de entrada y al voltaje
vs(t) como la señal de salida, entonces, aplicando la ley de Ohm, la corriente que pasa por el resistor R es

ve ( t ) − vs ( t )
i (t ) =
R
Esta corriente está relacionada con el voltaje en el capacitor, vs(t), por

d vs ( t )
i (t ) = C
dt

y de estas dos últimas relaciones, se obtiene la ecuación diferencial que conecta la entrada con la salida:
d vs ( t ) 1 1
+ vs ( t ) = ve ( t ) (2.141)
dt RC RC
José R. Morón 64

En general, los sistemas en tiempo continuo de una sola variable se describen mediante ecuaciones
diferenciales ordinarias. En el Ejemplo 21, la ecuación diferencial ordinaria es una de coeficientes constantes,
lineal y de primer orden, de la forma

d y (t )
+ a y (t ) = b x (t ) (2.142)
dt

en la cual x(t) es la entrada y y(t) es la salida y a y b son constantes.


Como lo sugiere el Ejemplo 21, las descripciones matemáticas de sistemas provenientes de una gran variedad
de aplicaciones, con frecuencia tienen mucho en común, y este hecho es una de las mayores motivaciones para el
desarrollo de herramientas que faciliten el análisis de señales y sistemas. Aquí la clave del éxito está en
identificar clases de sistemas que posean dos características importantes:
1. Los sistemas deben tener propiedades y estructuras que se puedan explotar para obtener una mejor comprensión de
su comportamiento y para desarrollar herramientas efectivas para el análisis.
2. Los sistemas de importancia práctica deben poder modelarse con precisión usando modelos teóricos en esta clase.
La mayor parte de este libro está enfocado en la primera de estas características y su aplicación a sistemas
lineales e invariantes en el tiempo (sistemas LIT). En la próxima sección se introducirán las propiedades que
caracterizan este tipo de sistemas como también otras propiedades básicas de mucha importancia.
La segunda característica mencionada es de una importancia obvia para que cualquier técnica de análisis tenga
valor práctico. Los sistemas que se estudiarán pueden modelar bastante bien una gran variedad de sistemas
físicos. Sin embargo, un punto crítico es que cualquiera sea el modelo utilizado para analizar un sistema físico,
ese modelo es una idealización y, por consiguiente, cualquier análisis basado en el modelo será tan bueno como lo
sea el modelo. En el caso de resistores y capacitores reales, por ejemplo, los modelos idealizados son bastante
precisos para muchas aplicaciones y proporcionan resultados y conclusiones útiles, siempre y cuando las
variables físicas – voltajes y corrientes – permanezcan dentro de las bandas de operación establecidas por los
modelos. Por ello, es importante en la práctica de la ingeniería tener siempre presente los intervalos de validez
de las suposiciones hechas para elaborar el modelo y también asegurarnos que cualquier análisis o diseño no
viola esas suposiciones.

2. Sistemas Lineales

Un sistema lineal, en tiempo continuo o discreto, es aquél que posee la importante propiedad de la superposición.
Para esta clase de sistemas, si una entrada consiste de la suma ponderada de varias señales, entonces la salida es
la superposición – es decir, la suma ponderada – de las respuestas del sistema a cada una de esas señales. En
forma más precisa, en tiempo continuo, si y1(t) es la respuesta a la entrada x1(t), y y2(t) es la respuesta a x2(t),
entonces el sistema es lineal si

(a) La respuesta a x1 ( t ) + x2 ( t ) es y1 ( t ) + y 2 ( t ) . Propiedad aditiva.

(b) La respuesta a αx1(t) es αy1(t), donde α es cualquier constante. Propiedad de homogeneidad o de


escalamiento.
Las dos propiedades que definen un sistema lineal pueden combinarse en una sola expresión:

Tiempo continuo: αx1 ( t ) + βx2 ( t ) → αy1 ( t ) + β y2 ( t ) (2.143)

donde α y β son constantes. Adicionalmente, es muy sencillo demostrar a partir de la definición de linealidad
que si x k ( t ), k = 1, 2 , … , forman un conjunto de entradas a un sistema lineal de tiempo continuo con salidas
correspondientes y k ( t ), k = 1, 2 , … , entonces la respuesta a una combinación lineal de estas entradas,

x(t ) = ∑ α x (t )
k
k k (2.144)

es
José R. Morón 65

x(t ) = ∑ α y (t )
k
k k (2.145)

Este hecho, de mucha importancia en el análisis de sistemas lineales, se conoce como la propiedad de superposición,
y se cumple para sistemas tanto de tiempo continuo como discreto.
Una consecuencia directa de la propiedad de superposición es que, para sistemas lineales, una entrada que es
igual a cero para todo el tiempo resulta en una salida que también es igual a cero para todo el tiempo (propiedad
de homogeneidad).

Ejemplo 22. Un sistema tiene la relación de entrada-salida

y = x2

Demuestre que el sistema es no lineal.


Se tiene que

x1 → y1 = x12
x2 → y 2 = x23

y, por tanto,

x1 + x2 → ( x1 + x2 )2 = x12 + 2 x1 x2 + x22 ≠ x12 + x22

Así que el sistema es no lineal.

Ejemplo 23. Considere un sistema cuya relación de entrada-salida está dada por

y(t ) = t x (t )
Entonces,
x1 ( t ) → y1 ( t ) = t x1 ( t )
x 2 ( t ) → y 2 ( t ) = t x2 ( t )
y si
x 3 ( t ) = a x1 ( t ) + b x 2 ( t )

donde a y b son constantes arbitrarias, entonces, para la entrada x3 ( t ) se obtiene

t x 3 ( t ) = a t x1 ( t ) + b t x 2 ( t )
= a y1 ( t ) + b y 2 ( t )
y el sistema es lineal

Ejemplo 24. Considere el sistema representado por

ℑ[x(t)] = x*(t)

donde ℑ es el operador que representa al sistema y x*(t) es el conjugado complejo de x(t). ¿Es este sistema lineal?
Solución:
ℑ[ x1 ( t ) + x2 ( t )] = [ x1 ( t ) + x2 ( t )]* = x1∗ ( t ) + x∗2 ( t )
= ℑ[ x1 ( t )] + ℑ[ x2 ( t )]

la cual indica que se satisface la condición de aditividad. Se debe verificar si también se cumple la condición de
homogeneidad. Sea α cualquier constante compleja arbitraria. Entonces
José R. Morón 66

ℑ[ αx ( t )] = [ αx ( t )]* = α * x * ( t ) = α * ℑ [ x ( t )] ≠ αℑ[ x ( t )]

lo que indica que la condición de homogeneidad no se satisface y el sistema no es lineal.

3. Sistemas Causales

Se dice que un sistema es causal si su salida en cualquier instante arbitrario depende solamente de los valores de
la entrada en ese instante y en el pasado. Es decir, la salida de un sistema causal en el tiempo presente depende
sólo de los valores presente y pasados de la entrada. A estos sistemas también se les refiere como no-
anticipatorios, ya que el sistema no anticipa valores futuros de la entrada, es decir, no adivinan. Como
consecuencia, si dos entradas a un sistema causal son idénticas hasta algún punto en el tiempo t0 o n0, entonces
las salidas correspondientes a esas entradas también deben ser idénticas. El circuito RC de la Fig. 2.35 es un
sistema causal ya que, por ejemplo, el voltaje en el capacitor responde solamente a los valores presente y
pasados del voltaje de la fuente.
Un sistema se llama no-causal, si no es causal. Un ejemplo de un sistema no-causal es

y ( t ) = x ( t + 1) (2.146)

Aunque los sistemas causales son de gran importancia, ellos no constituyen los únicos sistemas de
significación práctica. Por ejemplo, la causalidad no es con frecuencia una restricción esencial en aplicaciones en
las cuales la variable independiente no es el tiempo, como en el procesamiento de imágenes. También, en el
procesamiento de datos grabados con anterioridad, como sucede a menudo con señales de voz, geofísicas o
meteorológicas, para nombrar algunas, no se está en modo alguno restringido a un procesamiento causal.
Para comprobar la causalidad de un sistema es importante observar cuidadosamente la relación de entrada-
salida. Como ilustración, se comprobará la causalidad de un sistema específico.

Ejemplo 25. Es importante distinguir cuidadosamente los efectos sobre la entrada de cualesquiera otras
funciones usadas para definir un sistema. Por ejemplo, considere el sistema definido por la relación

y ( t ) = x ( t )cos( t + 1) (2.147)

En este caso, la salida en cualquier instante t, y(t), depende de la entrada x(t) multiplicada por un número que
varía con el tiempo. Es decir, solamente el valor presente de x(t) influye en el valor presente de la salida y(t) y
concluimos entonces que este sistema es causal (y ¡sin memoria!).

4. Invariabilidad en el Tiempo

Conceptualmente, un sistema es invariable en el tiempo si su conducta y sus características son fijas en el tiempo.
El circuito RC de la Fig. 2.35 es un sistema con esta propiedad si los valores de los parámetros R y C son
constantes; es de esperar que experimentos idénticos produzcan los mismos resultados sin importar el momento
en que se realicen. Por supuesto, esos resultados no serían los mismos si R o C o ambos cambian con el tiempo.
Esta propiedad puede expresarse en una forma muy sencilla para las señales y sistemas que se han estudiado
hasta ahora. Específicamente, se dice que un sistema es invariable en el tiempo si un desplazamiento en el tiempo
(retraso o avance) en la señal de entrada resulta en un desplazamiento igual en la señal de salida. Entonces, para un
sistema de tiempo continuo, el sistema no varía con el tiempo si

x ( t − t 0 ) → y ( t − t0 ) (2.148)

para cualquier valor real t0.


José R. Morón 67

Ejemplo 26. Considérese el sistema definido por


y ( t ) = sen[ x ( t )]
Sea y1(t) la respuesta a la entrada x1(t); es decir,
y1 ( t ) = sen[ x1 ( t )] (2.149)
y sea y2(t) la respuesta a la entrada desplazada x1 ( t − t0 ) ; es decir,
y2 ( t ) = sen [ x1 ( t − t0 )]
De la Ec. (2.145) se obtiene
y1 ( t − t0 ) = sen[ x1 ( t − t0 )] = y 2 ( t )

y, por lo tanto, el sistema es invariable en el tiempo.

5. Sistemas lineales e Invariantes en el Tiempo (LIT)

Si el sistema es lineal e invariante en el tiempo, entonces el sistema se denomina un sistema lineal e invariante en
el tiempo (LIT).

2.13 Respuesta al Impulso y Respuesta de Frecuencia


2.13.1 Respuesta al Impulso

La respuesta al impulso h(t) de un sistema LIT se define como la respuesta del sistema cuando la entrada es un
impulso δ(t), esto es,
δ(t ) → h (t ) (2.150)

La función h(t) es arbitraria y no tiene que ser cero para t < 0. Si

h ( t ) = 0 para t < 0 (2.151)

entonces el sistema es causal.

Ejemplo 27. Considere la red RC mostrada en la Fig. 2.38a.


(a) Determine la ecuación diferencial que relaciona el voltaje de salida y(t) y el voltaje de entrada x(t).

(b) Halle la respuesta de frecuencia H(ω) y la respuesta al impulso h(t) de la red.

Figura 2.38

Solución:
(a) De la ley de voltajes de Kirchhoff, se obtiene la relación

R i (t ) + y (t ) = x (t )

o
José R. Morón 68

dy ( t )
RC + y (t ) = x (t )
dt

que es la ecuación diferencial requerida que relaciona la señal del voltaje de entrada con la señal del voltaje
de salida.
(b) Tomando la transformada de Fourier de ambos lados de la ecuación diferencial anterior, se obtiene

jωRCY ( ω ) + Y ( ω ) = X ( ω )
o
( jωRC + 1) Y ( ω ) = X ( ω )
Por tanto,
Y ( ω) 1 1 1
H ( ω) = = = (2.152)
X ( ω) jωRC + 1 RC jω + 1 ( RC )

cuya transformada de Fourier inversa es

1
h ( t ) = F −1 [ H ( ω )] = e − [ 1 ( RC ) ]t u ( t ) (2.153)
RC

la cual se grafica en la Fig. 2.38b.

2.13.2 Respuesta a una Entrada Arbitraria

La respuesta y(t) de un sistema LIT a una entrada arbitraria x(t) puede expresarse como la convolución de x(t)
y la respuesta al impulso h(t) del sistema, es decir,

y (t ) = x (t ) ∗ h (t ) =
∫ −∞
x ( τ ) h ( t − τ ) dτ (2.154)

Puesto que la convolución es conmutativa, la salida también puede expresarse como



y (t ) = h (t ) ∗ x (t ) =
∫ −∞
h ( τ ) x ( t − τ ) dτ (2.155)

2.13.3 Respuesta de Sistemas Causales

De las Ecs. (2.151) y (2.154) o (2.155), la respuesta de un sistema LIT causal está dada por
t ∞
y (t ) =
∫ −∞
x ( τ ) h ( t − τ ) dτ =
∫ 0
x ( t − τ ) h ( τ ) dτ (2.156)

Si la entrada x(t) también es causal, entonces


t t
y (t ) =
∫ 0
x ( τ ) h ( t − τ ) dτ =
∫ 0
x ( t − τ ) h ( τ ) dτ (2.157)

2.13.4 Respuesta de Frecuencia

Aplicando el teorema de la convolución en el tiempo de la transformada de Fourier a la Ec. (2.154), obtenemos

Y ( ω) = X ( ω) H ( ω) (2.158)

en la cual X ( ω ) = F  x ( t )  , Y ( ω) = F  y ( t )  y H ( ω) = F  h ( t )  . H(ω) se conoce como la respuesta de frecuencia (o


función de transferencia) del sistema. Así pues,
José R. Morón 69

Y ( ω)
H ( ω ) = F [ h ( t )] = (2.159)
H ( ω)

Las relaciones representadas por las Ecs. (2.150), (2.154) y (2.158) se ilustran en la Fig. 2.39.

1 H (ω)

δ (t ) h (t )
Sistema
x (t ) LIT y (t ) = x (t ) ∗ h (t )

X (ω) Y (ω) = X (ω) H (ω)

Figura 2.39 Relaciones entre las entradas y las salidas en un sistema LIT

Tomando la transformada de Fourier inversa de la Ec. (2.158), la salida se convierte en

1 ∞

2π ∫
y (t ) = X ( ω ) H ( ω ) e jωt dω (2.160)
−∞

Vemos entonces que bien sea la respuesta de amplitud h(t) o la respuesta de frecuenta H( ω) caracterizan
completamente al sistema LIT.

2.14 Características de Filtrado de los Sistemas Lineales


2.14.1 Espectros de Frecuencia

La respuesta de frecuencia H( ω) es una propiedad característica de un sistema LIT. En general, es una cantidad
compleja, es decir,
H ( ω ) = H ( ω ) e jθh ( ω ) (2.161)

En el caso de un sistema LIT con una respuesta al impulso h(t) de valores reales, H( ω) exhibe simetría
conjugada, es decir,
H ( −ω ) = H * ( ω ) (2.162)
Lo que significa que
H ( −ω ) = H ( ω ) ( a)
(2.163)
θh ( −ω ) = −θh ( ω ) (b)

Es decir, la amplitud H ( ω ) es una función par de la frecuencia, mientras que la fase θh ( ω ) es una función
impar de la frecuencia. Sean
jθy ( ω )
Y ( ω) = Y ( ω) e X ( ω ) = X ( ω ) e jθx ( ω )

Escribiendo de nuevo la Ec. (2.158), se obtiene


jθ y ( ω )
Y ( ω) e = X ( ω ) e jθx ( ω ) H ( ω ) e jθh ( ω )
(2.164)
= X ( ω ) H ( ω ) e j [ θx ( ω )+θh ( ω )]
y se tiene entonces que
Y ( ω) = X ( ω) H ( ω) ( a)
(2.165)
θy ( ω ) = θx ( ω ) + θh ( ω ) (b)
José R. Morón 70

Obsérvese que el espectro de amplitud de la señal de salida está dado por el producto del espectro de
amplitud de la señal de entrada y la amplitud de la respuesta de frecuencia. El espectro de fase de la salida está
dado por la suma del espectro de fase de la entrada y la fase de la respuesta de frecuencia. Por lo tanto, un
sistema LIT actúa como un filtro sobre la señal de entrada. Aquí la palabra filtro se usa para denotar un sistema
que exhibe algún tipo de conducta de selección de frecuencias.

2.15 Filtros

Virtualmente todo sistema de comunicación incluye uno o más filtros con el propósito de separar una señal
portadora de información de contaminaciones indeseables tales como interferencia ruido y productos de
distorsión. Un filtro es un sistema cuya respuesta de frecuencia H( ω) tiene valores significativos solamente en
ciertas bandas de frecuencia. Los filtros usualmente se clasifican como de pasabajas, pasa-altas, pasabanda o de
rechazo de bandas.

2.15.1 Filtro Ideal de Pasabajas

Un filtro de pasabajas (LPF, por sus siglas en inglés) se define por su respuesta al impulso δ(t) como

 e − jωtd ω ≤ ωc
H LPF ( ω ) =  (2.166)
 0 otros valores de ω

donde td es el retardo temporal. La amplitud y la fase de HLPF( ω) se muestran en la Fig. 2.40a. El LPF ideal pasa
todas las componentes de la señal de entrada con frecuencias inferiores a ωc sin distorsión; ωc se denomina la
frecuencia de corte. Todas las componentes de la señal por encima de ωc son rechazadas.

HLPF(ω)
h LPF
1

ωc
π
−ωc 0 ωc ω

θ h (ω)

0 td t

−ωc 0 ωc ω 2π
ωc

(a) (b)

Figura 2.40 Respuesta de frecuencia y al impulso de un LPF ideal

La respuesta al impulso del LPF ideal puede determinarse tomando la transformada de Fourier inversa de la
Ec. (2.166), lo cual da
sen ωc ( t − td )
hLPF ( t ) = (2.167)
π ( t − td )

La respuesta al impulso hLPF(t) se muestra en la Fig. 2.40(b). Puesto que hLPF(t) es la respuesta a δ(t) y hLPF(t) tiene
valores diferentes de cero para t < 0, la salida aparece antes de que la entrada sea aplicada. Este tipo de filtro se llama
anticipatorio o no causal y la parte de la salida que aparece antes de la entrada se llama una precursora.
Indudablemente, esta conducta es físicamente imposible y, por lo tanto, el filtro debe ser irrealizable.
La aproximación pasiva más sencilla a un filtro de pasabajas es el circuito con solo elemento que almacena
energía. Un ejemplo es el circuito RC ilustrado en la Fig. 2.38. Si la salida se toma a través del capacitor, este
José R. Morón 71

circuito aproxima un filtro de pasabajas. La función de transferencia es dada por la Ec. (2.152). La magnitud y la
fase vienen dadas por
1
H( f ) = , θ( f ) = − tan −1 ( 2 πfRC ) , ω = 2 πf
2
1 + ( 2 πfRC )

Si se toma f = 1/2πRC, la magnitud de la función de transferencia cae a 1 2 de su valor máximo. Ésta


frecuencia se denomina la frecuencia de corte de 3 dB del filtro ya que 20 log ( 1 2 ) es aproximadamente −3 dB.

2.15.2 Filtro de Pasa-Altas Ideal

Un filtro de pasa-altas ideal (HPF, por sus siglas en inglés) está definido por

 e
− j ωt d
ω ≥ ωc
H HPF ( ω ) =  (2.168)
 0 otros valores de ω

La amplitud y fase de HHPF( ω) se ilustran en la Fig. 2.41. El HPF ideal rechaza todas las componentes de la señal
de entrada con frecuencias menores que ωc y pasa todas las componentes superiores a ωc sin distorsión.
La respuesta de frecuencia del HPF ideal puede expresarse como

H HPF ( ω ) = e − jωtd − H LPF ( ω ) (2.169)

donde HLPF( ω) está dada por la Ec. (2.166).

2.15.3 Filtro de Pasabanda Ideal

Un filtro de pasabanda (BPF, por sus siglas en inglés) ideal está definido por

 e − jωtd ωc1 ≤ ω ≤ ωc2


H BPF ( ω ) =  (2.170)
 0 otros valores de ω

La amplitud y fase de HBPF(ω) se muestran en la Fig. 2.42.

H HPF (ω) H BPF (ω)

1 1

− ωc 0 ωc ω − ωc 2 − ωc1 0 ωc1 ωc 2 ω
θh (ω) θh (ω)

ωc ωc1 ωc2
− ωc 0 ω − ωc 2 − ωc1 0 ω

Figura 2.41 Respuesta de frecuencia de un HPF ideal Figura 2.42 Respuesta de frecuencia de un
BPF ideal
José R. Morón 72

La aproximación pasiva más sencilla a un filtro de pasabanda ideal es circuito con dos elementos que
almacenan energía. Un ejemplo es el circuito RLC mostrado en la Fig. 2.43.

+ +

vent L C v sal

− −

Figura 2.43. Filtro de pasabanda RLC.

Si la salida se toma a través de la combinación LC en paralelo, este circuito aproxima un filtro de pasabanda. La
función de transferencia es dada por

j 2 πfL
H( f ) = 2
(2.171)
R − ( 2 πf ) RLC + j 2 πfL

cuya magnitud es

1
H( f ) =
2 2
R ( 1 2 πfL ) − 2 πfC  + 1

La magnitud tiene un pico en 2 πf = 1 LC . Este punto se conoce como la frecuencia de resonancia del filtro.

2.15.4 Filtro Rechaza Banda Ideal

Un filtro rechaza bandas (BSF, por sus siglas en inglés) ideal está diseñado para rechazar solamente aquellas
señales en una banda de frecuencias especificada entre ωc1 y ωc2 y pasar las componentes restantes sin
distorsión. La amplitud y fase de la respuesta de frecuencia del BSF ideal se muestran en la Fig. 2.44.

HBSF(ω)

−ωc2 −ωc1 0 ωc1 ωc2 ω

θh(ω)

ωc1 ωc2
−ωc2 −ωc1 0 ω

Figura 2.44 Respuesta de frecuencia de un BSF ideal.


José R. Morón 73

La respuesta de frecuencia del BSF ideal se puede expresar como

H BSF ( ω ) = e − jωtd − H BPF ( ω ) (2.172)

donde HBPF( ω) está dada por la Ec. (2.170).

2.15.5 Filtro Causal

Observe que todos los filtros ideales discutidos en las secciones precedentes son no causales puesto que
h ( t ) ≠ 0 para t < 0. No es posible construir filtros ideales. Como lo muestra la Ec. (2.151), para un filtro causal (o
filtro físicamente realizable) su respuesta al impulso h(t) debe satisfacer la condición
h(t) = 0 para t < 0

2.16 Ancho de Banda


2.16.1 Ancho de Banda del Filtro (o del Sistema)

El ancho de banda WB de un filtro de pasabajas ideal es igual a su frecuencia de corte, es decir, WB = ωc [Fig.
2.40(a)]. El ancho de banda de un filtro de pasabanda ideal está dado por WB = ωc2 − ωc1 (Fig. 2.42). El punto
medio ω0 = 12 ( ωc1 + ωc2 ) es la frecuencia central del filtro. Un filtro de pasabanda se llama de banda angosta si
WB ≪ ω0 . Para los filtros de pasa-altas o de rechazo de banda no se define ningún ancho de banda.

Para filtros prácticos o no ideales, una definición común del ancho de banda del filtro (o del sistema) es el
ancho de banda de 3 dB, W3 dB . En el caso de un filtro de pasabajas, W3 dB se define como la frecuencia positiva
en la cual el espectro de amplitud H ( ω ) cae a un valor igual a H (0 ) 2 , como se ilustra en la Fig. 2.45a.

H ( ω)
A

A
2

– ω1 ω1 ω

ωB

(a)

H ( ω)
A
2

– ω2 – ω1 ω1 ω0 ω2 ω

ωB
(b)

Figura 2.45 Ancho de banda de un filtro

En el caso de un filtro de pasabanda W3 dB se define como la diferencia entre las frecuencias en las cuales
H ( ω ) cae a un valor igual a 1 2 veces el valor pico H ( ω0 ) en la frecuencia central ω0, como se ilustra en la
Fig. 2.45b. Esta definición es algo arbitraria y puede hacerse ambigua y no única con respuestas de frecuencia
José R. Morón 74

que tengan picos múltiples, pero es un criterio ampliamente aceptado de medir el ancho de banda de un
sistema. Observe que cada una de las definiciones precedentes del ancho de banda se define a lo largo del eje de
frecuencias positivas solamente y siempre define sólo el ancho de banda unilateral o para frecuencias positivas
solamente.

2.16.2 Ancho de Banda de una Señal

El ancho de banda de una señal puede definirse como la banda de frecuencias en la cual está contenida la
“mayor parte” de la energía o de la potencia de la señal. Esta definición es más bien ambigua y está sujeta a
varias convenciones. Por ello hay numerosas definiciones para el ancho de banda de una señal. Por ejemplo, el
ancho de banda de potencia de una señal se define como ω2 − ω1, donde ω1 < ω < ω2 define la banda de frecuencias
en la cual reside 99 por ciento de la potencia total.
El ancho de banda de una señal x(t) también puede definirse sobre una base similar a la del ancho de banda de
3 dB de un filtro, usando el espectro de magnitud X ( ω ) de la señal. En efecto, si se reemplaza H ( ω ) por
X ( ω ) en las Figs. 2.40, 2.41 y 2.42, se obtienen gráficas en el dominio de la frecuencia de señales de pasabajas,
de pasa-altas y de pasabanda.

2.17 La Transformada de Hilbert

La transformada de Fourier es de mucha utilidad en la separación de señales basadas en el contenido de


frecuencias de una señal de energía o, en el límite, de una señal de potencia. Por esa razón, proporciona las bases
matemáticas para analizar y diseñar filtros selectivos (discriminadores) en frecuencia. Otro método de separar
señales se basa en la selectividad de fase, el cual usa los corrimientos de fases entre señales para alcanzar la
separación buscada. El corrimiento de fase más sencillo es el de 180 grados, que es sencillamente una inversión
de polaridad en el caso de una señal sinusoidal. Otro corrimiento de fase interesante es el de ±90º. En particular,
cuando los ángulos de fase de todas las componentes de una señal dada son desplazadas por ±90º, la función del
tiempo resultante se conoce como la transformada de Hilbert de la señal. Esta función se obtiene mediante el
llamado filtro de cuadratura.
Un filtro de cuadratura es una red pasa todo que desplaza las fases de las componentes de frecuencias
positivas por −90º y las de frecuencias negativas por +90º. Puesto que un desplazamiento de fase de ±90º es
equivalente de multiplicar por e ± j 90º = ± j , la función de transferencia se escribe en términos de la función signo
como

 − j, f >0
HQ ( f ) = − j sgn f =  (2.173)
 + j, f <0

la cual se grafica en la Fig. 2.46. La respuesta al impulso correspondiente (transformada inversa) es


1
hQ (t ) = (2.174)
πt

HQ(f)

f
0
−j

Figura 2.46. Función de transferencia de un filtro de cuadratura.


José R. Morón 75

Ahora, sea x(t) una señal de entrada arbitraria a un filtro de cuadratura y X ( f ) su transformada de Fourier. La
transformada de Hilbert de x(t), la cual se denotará por xˆ (t ) , se define como

1 ∞ x( τ )
xˆ (t ) =
π ∫−∞ t − τ
dτ (2.175)

Observe que la transformación de Hilbert es la convolución de x(t) y hQ(t) y no cambia el dominio; es decir, x(t) y
xˆ (t ) son ambas funciones del tiempo. Claramente, la transformación de Hilbert de x(t) es una operación lineal.
La transformada de Hilbert inversa se define como

1 ∞xˆ ( τ)
x( t ) = −
π ∫ −∞ − τ
t
dτ (2.176)

Las x(t) y xˆ (t ) forman un par de transformadas de Hilbert. Por el teorema de la convolución sabemos que la transformada
de la convolución de dos funciones en el dominio del tiempo es el producto de las transformadas de las funciones. Por tanto,
la transformada de Fourier (o espectro) de xˆ (t ) es

Xˆ ( f ) = F [ xˆ (t )] = ( − j sgn f ) X ( f ) (2.177)

La Ec. (2.177) establece que dada una señal x(t), su transformada de Hilbert xˆ (t ) se puede obtener pasándola a
través de una red de dos puertos cuya respuesta de frecuencia sea igual a − j sgn( f ) . Esta red puede
considerarse como una que produce un desplazamiento de fase de −90º para todas las frecuencias positivas de la
señal de entrada y +90º para todas las frecuencias negativas. Sin embargo, las amplitudes de todas las
componentes de frecuencia se la señal de entrada no son afectadas por el filtro. Esta red ideal se conoce como un
transformador de Hilbert o filtro de cuadratura. Obviamente, este dispositivo es no causal [Ec. (2.174)] y por tanto
físicamente irrealizable.
Aunque la transformada de Hilbert difiere de la transformada de Fourier en que opera exclusivamente en el
dominio del tiempo, tiene varias propiedades útiles, algunas de las cuales se dan a continuación. Si la señal x(t)
es real, se puede establecer lo siguiente:
1. Una señal x(t) y su transformada de Hilbert xˆ (t ) tiene el mismo espectro de amplitud. Además, la señal y su
transformada tienen energía o potencia iguales.
2. Si xˆ (t ) es la transformada de Hilbert de x(t), entonces la transformada de Hilbert de xˆ (t ) es −x(t).

3. Una señal x(t) y su transformada de Hilbert xˆ (t ) son ortogonales en todo el intervalo ( −∞ , ∞ ) ; es decir,

∫−∞
x(t )xˆ (t )dt = 0

para señales de energía, y


1 T 2
lím
T →∞ T ∫ −T 2
x(t )xˆ (t )dt = 0

para señales de potencia.

Ejemplo 28. Para un filtro de cuadratura, si la señal de entrada es


x(t ) = A cos ( ω0 t + ϕ )
entonces
A
Xˆ ( f ) = − j sgn f X( f ) = − j δ ( f − f 0 ) − δ ( f + f 0 ) 
2
A
= δ ( f − f 0 ) − δ ( f + f 0 ) 
2j 
y xˆ (t ) = A sen ( ω0 t + ϕ ) .
José R. Morón 76

2.18 Efecto de la Función de Transferencia sobre las Densidades Espectrales

Puesto que se usarán las densidades espectrales como modelos importantes de señales, vale la pena investigar
cómo es modificada la densidad espectral de una señal de entrada por el sistema. Si la señal es modelada por la
densidad espectral de potencia, entonces
2
Gy ( ω ) = H ( ω ) Gx ( ω ) (2.178)

La ecuación anterior se deduce a partir de la Ec. (2.138) y se usará extensivamente en este estudio de los sistemas
de comunicación.

2.19 Interconexión de Sistemas

Una idea que se usará a través de estas notas, ya mencionado en relación con la convolución, es el concepto de la
interconexión de sistemas. Muchos sistemas reales son conformados como interconexiones de varios
subsistemas; un ejemplo es un sistema de audio, el cual involucra la interconexión de un radio receptor, un
reproductor de discos compactos o un grabador con un amplificador y una o más bocinas. Considerando tales
sistemas como una interconexión de sus componentes, podemos usar nuestros conocimientos de los
componentes y de su interconexión para analizar la operación y conducta del sistema completo.
Adicionalmente, al describir un sistema en función de una interconexión de subsistemas más sencillos, podemos
de hecho definir formas útiles para sintetizar sistemas complejos a partir de bloques de construcción básicos más
simples.
Aun cuando se puede construir una gran variedad de interconexiones de sistemas, hay varias formas básicas
que se encuentran con mucha frecuencia. Una interconexión en serie o en cascada de dos sistemas se ilustra en la
Fig. 2.47a. Esta clase de diagramas se conoce como diagramas de bloques. Aquí, la salida del sistema 1 es la entrada
al sistema 2. Un ejemplo de una interconexión en serie es un receptor de radio conectado a un amplificador. En
la misma forma se puede definir una interconexión en serie de tres o más sistemas.
En la Fig. 2.47b se ilustra una interconexión en paralelo de dos sistemas. Aquí, la señal de entrada se aplica
simultáneamente a los sistemas 1 y 2. El símbolo ⊕ en la figura denota la operación de adición, así que la salida
de la interconexión en paralelo es la suma de la salida de los sistemas 1 y 2. Un ejemplo de esta interconexión es
un sistema de audio sencillo, en el cual varios micrófonos alimentan un solo amplificador. Adicionalmente a la
interconexión en paralelo sencilla de la Fig. 2.45b, podemos definir la interconexión en paralelo de más de dos
sistemas y podemos combinar interconexiones en cascada y en paralelo para obtener interconexiones más
complicadas. Un ejemplo es este tipo de interconexión se ilustra en la Fig. 2.47c.

Sistema 1
Entrada Salida Salida
Sistema 1 Sistema 2
Entrada
Sistema 2
(a
(b)

Salida
Sistema 1 Sistema 2
Entrada Salida
Sistema 4

Sistema 3
(c)

Figura 2.47. Interconexión de sistemas.


José R. Morón 77

Otro tipo importante de interconexión de sistemas es la llamada interconexión de realimentación; un ejemplo de


ella se muestra en la Fig. 2.48. Aquí, la salida del sistema 1 es la entrada al sistema 2, mientras que la salida del
sistema 2 es realimentada y sumada a la entrada externa para producir la entrada efectiva al sistema 1.

Entrada Salida
Sistema 1

Sistema 2

Figura 2.48. Sistema realimentado.

Los sistemas realimentados surgen en una gran variedad de aplicaciones. Por ejemplo, el sistema de control de
la velocidad de crucero de un automóvil mide la velocidad del vehículo y ajusta el flujo de combustible para
mantener la velocidad en el nivel deseado. También, los circuitos eléctricos con frecuencia son considerados
como si tuviesen interconexiones realimentadas. Como un ejemplo, considérese el circuito mostrado en la Fig.
2.49a. Como se indica en la Fig. 2.49b, este sistema puede analizarse considerándolo como la interconexión
realimentada de los elementos del circuito.

Capacitor
i (t ) + i1 (t ) t
+
∫ i (t) dt
i1 (t ) i 2 (t ) 1 v(t)
_ v (t ) = 1
C
i (t ) C R v(t) −∞

i 2 (t ) Resistor
v (t )
i 2 (t ) =
R

(a) (b)

Figura 2.49
José R. Morón 78

PROBLEMAS

2.1 La serie exponencial de Fourier de una cierta señal periódica x(t) está dada por

x ( t ) = j exp( − j 4 t ) − ( 3 − j 3)exp( − j 3 t ) + ( 2 + j 2 )exp( − j 2 t )


+ ( 2 − j 2 )exp( j 2 t ) − ( 3 + j 3)exp( j 3 t ) − j exp( j 4 t

(a) Grafique el espectro de magnitud y el de fase de los dos espectros bilaterales de frecuencia.
(b) Escriba x(t) en la forma trigonométrica de la serie de Fourier.
2.2 La señal mostrada en la Fig. P2.2 es creada cuando una onda de voltaje o de corriente en forma de coseno
es rectificada por un solo diodo, un proceso conocido como rectificación de media onda. (a) Deduzca la
serie de Fourier exponencial para la señal rectificada de media onda; (b) Determine la expansión en serie de
Fourier trigonométrica.

x(t ) = cos t
1

,,, ,,,

−2 π − 3π
− π
0 π 3π 2π 5π t
2 2 2 2 2
Figura P2.2

2.3 La señal en la Fig. P2.3 se crea cuando una onda de voltaje o de corriente en seno es rectificada por un
circuito con dos diodos, un proceso conocido como rectificación de onda completa. Determine la expansión
en serie de Fourier exponencial para la señal rectificada de onda completa.

x(t ) = sen t

,,, ,,,

−2π −π 0 π 2π t
Figura P2.3

2.4 Determínese la representación en serie de Fourier trigonométrica para la señal en el Problema 2.3.
2.5 Halle las representaciones en series de Fourier exponenciales de las señales mostradas en la Fig. P2.5. En
cada caso, grafique los espectros de magnitud y de fase.
2.6 Determine las representaciones en serie de Fourier trigonométrica de las señales mostradas en la Figura
P2.6.

x(t) x(t)
1
... ... ... ...
(a) (b)
–1 0 1 2 t –1 0 1 2 t

–1 –2

x(t) x(t)

1 1
... ... ...
... 2
(c) (d)
–2 –1 0 1 2 t –2 –1 0 1 t

–1
Figura P2.6
José R. Morón 79

2.7 (a) Demuestre que si una señal periódica es absolutamente integrable, entonces c n < ∞ .

(b) ¿Tiene representación en serie de Fourier la señal periódica x ( t ) = sen ( 2 π t ) ? Justifique su respuesta.

(c) ¿Tiene representación en serie de Fourier la señal periódica x ( t ) = tan 2 πt ? ¿Por qué?

2.8 (a) Demuestre que x ( t ) = t 2 , − π < t ≤ π , x ( t + 2 π ) = x ( t ) tiene la serie de Fourier

π2  1 1 
x( t ) = − 4  cos t − cos 2t + cos 3t − + ⋯ 
3  4 9 
(b) Haga t = 0 para obtener la relación

( −1)n + 1 π2

∑ n =1
n2
=
12

2.9 Los coeficientes de Fourier de una señal periódica con período T son

0 , n=0

cn =   nπ 
1 + exp  − j 3  − 2 exp ( − jnπ ) , n ≠ 0
  

¿Representa esto una señal real? ¿Por qué o por qué no? A partir de la forma de cn, deduzca la señal de
tiempo x(t). Sugerencia: Use la relación

∫ exp( − jnω t ) δ ( t − t 1 ) dt = exp( − jnω t1 )

2.10 (a) Grafique la señal


M
1 2
∑ nπ sen 4 cos 2 nπt

x(t ) = +
4 n=1

para M = 1, 3 y 5.

(b) Prediga la forma de x(t) conforme M → ∞.


2.11 Halle las series de Fourier exponencial y trigonométrica para los trenes de impulsos mostrados en la Fig.
P2.11.

x(t) x(t)

1 1
... ... ... ...
–2 2
–2 –1 0 1 2 3 t –1 0 1 3 t

Figura P2.11

2.12 Especifique los tipos de simetría para las señales mostradas en la Figura P2.12. Especifique también los
términos que son iguales a cero.
José R. Morón 80

x(t) x(t)
1 2
... ... ... ...
–2 –1 0 1 2 t –4 –2 0 2 4 t
–2

(a) (b)

x(t) x(t)
2
... ... ... ...
–3 1 2
–T 0 T 2T t –2 –1 0 3 t

(c) (d)

Figura P2.12

2.13 Demuestre que el valor cuadrático medio de una señal periódica real x(t) es igual a la suma de los valores
cuadráticos medios de sus armónicos.
2.14 Conociendo la expansión en serie de Fourier de x1(t) mostrada en la Fig. P2.14a, determine los coeficientes
de x2(t) mostrada en la Fig. P2.14b.

x2(t)
x1(t) 2

1
1
... ... ... ...

–T 0 τ T T+τ t –3 –1 0 2 3 5 t
(a) (b)

Figura P2.14

2.15 Considere la onda triangular mostrada en la Fig. P2.15. Usando la técnica de diferenciación, determine (a)
la serie de Fourier exponencial de x(t), y (b) la serie de Fourier trigonométrica de x(t).

x(t)
A

–T0 0 T0 2T0 t

Figura P2.15

2.16 La convolución periódica o circular es un caso especial de la convolución general. Para señales periódicas
con el mismo período T, la convolución periódica se define mediante la integral

1
z(t ) =
T ∫ x ( τ ) y ( t − τ ) dτ
T

(a) Demuestre que z(t) es periódica.


(b) Demuestre que la convolución periódica es asociativa y conmutativa.
José R. Morón 81

2.17 Determine la convolución periódica de las dos señales mostradas en la Fig. P2.17.

x(t y(t
1 )
1
... ... ... ...

–2 –1 –½ 0 ½ 1 2 t –2 –1 0 1 2 t
Figura P2.17

2.18 Considere la señal periódica x(t) cuya serie exponencial de Fourier es



x(t ) = ∑c
n =−∞
n exp( jnω0 t ), c0 = 0

(a) Integre término por término para obtener la expansión de Fourier de y(t) = ∫x(t)dt y demuestre que
y(t) es también es periódica.
(b) ¿Cómo se comparan las amplitudes de los armónicos de y(t) con las amplitudes de los armónicos de
x(t)?
(c) ¿La integración les quita o les pone énfasis a las componentes de alta frecuencia?
(d) Usando la parte (c), ¿es la onda integrada más suave que la original?
2.19 La representación en serie de Fourier de la señal triangular en la Figura P2.19(a) es

8  1 1 1 
x(t ) = 2 
sen t − sen 3 t + sen 5 t − sen 7 t + ⋯ 
π  9 25 49 

Use este resultado para obtener la serie de Fourier para la señal en la Figura P2.19b.

x(t)
x(t) 2

1 ... ...
... ...

−2π −π 0 π 2π t −2π −π 0 π 2π t
–1

(a) (b)

Figura P2.19

2.20 Un voltaje x(t) se aplica al circuito mostrado en la Figura P.2.20. Si los coeficientes de Fourier de x(t) están
dados por

1 π
cn = 2
exp  jn 
n +1  3

(a) Demuestre que x(t) debe ser una señal real del tiempo.
(b) ¿Cuál es el valor promedio de la señal?
(c) Determine los tres primeros armónicos de y(t) diferentes de cero.
(d) ¿Qué efecto tiene el circuito sobre los términos de alta frecuencia de la entrada?
(e) Repita las partes (c) y (d) para el caso donde y(t) es el voltaje en el resistor.
José R. Morón 82

2.21 Si el voltaje de entrada al circuito mostrado en la Fig. P2.20 es

x ( t ) = 1 + 2(cos t + cos 2 t + cos 3 t )

determine el voltaje de salida y(t).


1Ω

+
x ( t ) _+ 1F y (t)
_
Figura P2.20

2.22 La entrada

x(t ) = ∑c
n =−∞
n exp( jnω0 t )

se aplica a cuatro sistemas diferentes cuyas respuestas son



y1 ( t ) = ∑ ( α − 3) c
n =−∞
n exp  j ( nω0 t + φ − 3 nω0 t0 ) 


y2 ( t ) = ∑α c
n =−∞
n exp  jnω0 ( t − t0 ) 


y3 ( t ) = ∑α
n =−∞
2
cn exp  j nω0 t + φ − n 2 ω0 t0 
 (  )

y4 ( t ) = ∑ nα c
n =−∞
n exp  j ( nω0 t − φ ) 

¿Cuál, si hay alguno, es un sistema sin distorsión?


2.23 Para el circuito mostrado en la Fig. P2.23,

(a) Determine la función de transferencia (respuesta de frecuencia) H(jω).

(b) Grafique | H(jω)| y ∠ H(j ω).

(c) Considere la entrada x ( t ) = 10 exp( jωt ). ¿Cuál es la frecuencia más alta que se puede usar de forma
que

y (t ) − x(t )
< 0.01 ?
x( t )

(d) ¿Cuál es la mayor frecuencia que se puede usar de modo que ∠ H(j ω) se desvíe de la característica
lineal ideal por menos de 0.02?
2.24 Se pueden usar dispositivos no lineales para generar armónicos de la frecuencia de entrada. Considere el
sistema no lineal descrito por

y(t ) = Ax(t ) + Bx 2 (t )

Determine la respuesta del sistema a x ( t ) = a1 cos ω0 t + a2 cos 2 ω0 t . Haga una lista de todos los nuevos
armónicos generados por el sistema y también sus amplitudes.
José R. Morón 83

1 kΩ
+
x (t ) 1 nF y (t )

Figura P2.23

2.25 Se usa una fuente de frecuencia variable para medir la función del sistema H(j ω) de un sistema LIT cuya
respuesta al impulso es h(t). La salida de la fuente y (t ) = exp( jω t ) se conecta a la entrada del sistema LIT.
La salida H (ω)exp( jω t ) se mide para frecuencias diferentes. Los resultados se muestran en la Fig. P2.25.

H (ω) ∠H (ω)
π
12 2

–4×103 0 4×103 ω 0 ω
2π − π
2

Figura P2.25

Determine la respuesta del sistema para la señal de entrada siguiente:

x(t)
1

... ...

–700 –500 –300 –200 0 200 300 500 700 ω

2.26 Para el sistema mostrado en la Fig. P2.26, la entrada x(t) es periódica con período T. Demuestre que yc(t) y
ys(t) en cualquier tiempo t > T1 después de aplicar la entrada se aproximan a Re{cn} e Im{cn},
respectivamente. En efecto, si T1 es un múltiplo entero del período t de la señal de entrada x(t), entonces
las salidas son exactamente iguales a los valores deseados. Discuta las salidas para los casos siguientes:
(a) T1 = T
(b) T1 = mT

(c) T1 >> T pero T1 ≠ T

h(t)
h(t) yc(t)

1/T1
cos nω 0 t 2π
x(t) ω0 =
sen nω 0 t T
0 T1 t
h(t) ys(t)

Figura P2.26

2.27 La ecuación diferencial siguiente es un modelo para un sistema lineal con entrada x(t) y salida y(t):

d y(t )
+ 2 y (t ) = x (t )
dt

Si la entrada x(t) es una onda cuadrada de período 2 s, duración 1 s y amplitud unitaria, determine las
amplitudes del primer y tercer armónicos en la salida.
2.28 Repita el Problema 2.27 para el sistema representado por la ecuación diferencial
José R. Morón 84

y ′′ ( t ) + 4 y ′ ( t ) + 3 y ( t ) = 2 x ( t ) + x ′ ( t )

2.29 Considere el circuito mostrado en la Fig. P2.29. La entrada es la señal rectificada de media onda del
Problema 2.2. Halle la amplitud del segundo y cuarto armónico de la salida y(t).
500 Ω

+
x(t) 100 µF 500 Ω y(t )

Figura P2.29

2.30 Considere el circuito mostrado en la Fig. P2.30. La entrada es la señal rectificada de media onda del
Problema 2.2. Determine la amplitud del segundo y del cuarto armónico de la salida y(t).

0. 1 H

+
x ( t) +
_ 100 µ F y( t )
_

Figura P2.30

2.31 Considere el circuito mostrado en la Fig. P2.30. La entrada es la señal rectificada de onda completa del
Problema 2.3. Determine la componente cd y la amplitud del segundo armónico de la salida y(t).
2.32 Considere el circuito mostrado en la Fig. P2.30. La entrada el la señal rectificada de onda completa del
Problema 2.4. Determine la componente cd y la amplitud del segundo y el cuarto armónico de la salida
y(t).
2.33 Demuestre que las relaciones siguientes son identidades:

 1 
N
sen  n +  ω0 t 
 2
(a) ∑
n =− N
exp( jnω0 t ) =
sen ( ω0 t 2 )

T 2
 1 
⌠ sen  n +  ω0 t 

1   3  
(b)  dt = 1
T  sen ( ω0 t 2 )


−T 2

2.34 Para la señal x(t) mostrada en la Fig. P2.14a, mantenga T fijo y discuta el efecto de variar τ (con la
restricción τ < T) sobre los coeficientes de Fourier.
2.35 Considere la señal mostrada en la Fig. P2.14a. Determine el efecto sobre la amplitud del segundo
armónico de x(t) cuando hay un error muy pequeño en la medición de τ. Sugerencia: Para hacer esto, haga
τ = τ0 − ε , donde ε << τ0 y determine la variación del segundo armónico con respecto a ε. Determine el
cambio porcentual en |c2| cuando T = 10 y ε = 0.1.
2.36 En la Figura P2.36 se muestra una onda sinusoidal truncada.
(a) Determine los coeficientes de la serie de Fourier.
(b) Calcule la amplitud del tercer armónico para B = A/2.
José R. Morón 85

(c) Obtenga t0 de manera que |c3| Sea un máximo. Este método se usa para generar contenido armónico a
partir de una forma de onda sinusoidal.
x(t)
A sen t

−2π −π 0 t0 π−t0 π 2π t
–B

Figura P2.36

2.37 Para la señal x(t) mostrada en la Fig. P2.37 determine:


(a) Los coeficientes de la serie de Fourier exponencial.
(b) Resuelva por el valor de t0 para el cual |c3| es máximo.
(c) Compare el resultado con la parte (c) del Problema 2.38.

x(t)
Asen t
B
–π +t0 0 π +t0 2π
–2π –2π +t0 –π t0 π t

Figura P2.37

2.38 La señal mostrada en la Fig. P2.38 es la salida es la señal rectificada de media onda suavizada. Las
constantes t1, t2 y A satisfacen las relaciones siguientes:

ω t1 = π − tan −1 ( ωRC )

 t 
A = sen ω t1 exp  1 
 RC 

 t 
A exp  − 2  = sen ω t2
 RC 

RC = 0.1 s , ω = 2 π× 60 = 377 rad/s

(a) Verifique que ωt1 = 1.5973 rad, A = 1.0429, y ωt 2 = 7.316 rad.

(b) Determine los coeficientes de la serie de Fourier exponencial.


(c) Determine la relación entre las amplitudes del primer armónico y la componente CD.

sen ωt
A
A exp(−10t )
1

π +t0
0 ωt1 π 2π ωt2 t Figura P2.38
José R. Morón 86

2.39 La transformada de Fourier de una señal x(t) [Fig. P2.39] está dada por
1
X ( ω) = 2
pa ( ω − ω0 ) + 21 pa ( ω + ω0 )

Determine y dibuje x(t).

X(ω
1/2 )

−ω0 –½ 0 ω0–a ω0 ω0+a ω

Figura P2.39

2.40 Usando el teorema de convolución, determine la transformada de Fourier inversa de

1
X ( ω) =
( a + j ω )2

Determine la transformada de Fourier de las señales siguientes:

(a) x(t) = x(−t)

(b) x ( t ) = e at u ( − t ), a > 0

2.41 Determine la transformada de Fourier del pulso gaussiano


2
x ( t ) = e − at , a > 0
2.42 Halle la transformada de Fourier inversa de

1
(a) X ( ω ) =
( a + j ω )N

1
(b) X ( ω ) = 2
2 − ω + j 3ω

2.43 Halle la transformada de Fourier de las señales siguientes, usando la propiedad de multiplicación:
(a) x ( t ) = cos ω0 t u ( t )
(b) x ( t ) = sen ω0 t u ( t )
(c) x ( t ) = e − at cos ω0 t u ( t ), a > 0
(d) x ( t ) = e − at sen ω0 t u ( t ), a > 0

2.44 Sea x(t) una señal cuya transformada de Fourier está dada por

 1 ω <1
X ( ω) = 
 0 ω >1

Considere la señal
d2 x ( t )
y (t ) =
dt 2
Determine el valor de
José R. Morón 87


2
y (t ) dt
−∞

2.45 Sea x(t) una señal real cuya transformada de Fourier es X( ω). La señal analítica x+(t) asociada con x(t) es
una señal compleja definida por
x + ( t ) = x ( t ) + j xˆ ( t )

donde xˆ (t ) es la transformada de Hilbert de x(t).

(a) Halle la transformada de Fourier X+( ω) de x+(t).


(b) Halle la señal analítica x+(t) asociada con cos ω0 t y su transformada de Fourier X+( ω).

2.46 Considere una señal real x(t) y sea

X ( ω ) = F { x ( t )} = A ( ω ) + j B ( ω )

x ( t ) = x p ( t ) + xi ( t )

donde xp(t) y xi(t) con las componentes par e impar de x(t), respectivamente. Demuestre que

xp ( t ) ↔ A( ω)
xi ( t ) ↔ jB ( ω )

2.47 Considere un sistema LIT de tiempo continuo con respuesta de frecuencia H( ω). Determine la
transformada de Fourier S(ω) de la respuesta al escalón unitario s(t) del sistema.
2.48 Si la respuesta al impulso unitario de un sistema LIT causal no contiene un impulso en el origen,
demuestre que la respuesta al impulso viene dada por

H ( ω ) = A ( ω ) + jB ( ω )

donde A( ω) y B( ω) satisfacen las ecuaciones siguientes (par de transformadas de Hilbert):



1
⌠ B( λ )
A ( ω ) =  dλ
π ⌡ ω−λ
−∞

1 ⌠ A( λ )
B( ω) = −   dλ
π ⌡ ω−λ
−∞

2.49 Un filtro gaussiano es un sistema lineal cuya respuesta de frecuencia está dada por
2
H ( ω ) = e − aω e − jωt0

Calcule (a) el ancho de banda de 3 dB, W3dB , y (b) el ancho de banda equivalente, Weq, definido por

1 1
Weq =
2 H (0 )
−∞
∫ H ( ω ) dω

2.50 Un filtro de pasabajas de Butterworth tiene una función de transferencia cuya magnitud es

1
H ( ω) =
1 + ( ω ω0 )2 n
José R. Morón 88

donde n es el número de componentes reactivos (es decir, inductores y capacitores).

(a) Demuestre que conforme n → ∞, H ( ω ) se aproxima a la característica del filtro de pasabajas ideal
con ω0 = ωc.
2
(b) Determine n de modo que H ( ω ) sea constante hasta dentro de 1 dB en la banda de frecuencias
ω = 0.8 ω0 .
CAPÍTULO 3

MODULACIÓN DE AMPLITUD

3.1. Introducción

Ahora nos ocuparemos de uno de los problemas básicos de las comunicaciones: la transmisión simultánea de
mensajes individuales formados por señales continuas (analógicas) a través de un solo canal de comunicación.
Cada señal de mensaje se selecciona de un número infinito de formas de ondas posibles. Por ejemplo, en la
transmisión de radio y televisión se tiene un número infinito de mensajes posibles y no todas las señales se
conocen. Esa colección de mensajes y señales puede ser modelada convenientemente mediante procesos
aleatorios continuos, en donde cada función miembro del proceso aleatorio corresponde a una forma de onda
del mensaje. Para el análisis se define la transmisión de señales analógicas como la transmisión por un canal
dado de una señal x(t) de pasabajas, arbitraria y de energía finita. En algunos casos se tomará a x(t) como una
señal de un solo tono (sinusoidal o de potencia, con una frecuencia única).
Si el canal es de pasabajas por naturaleza, la señal de pasabajas portadora de la información (o señal del
mensaje) puede transmitirse por el canal sin modificaciones. Esta clase de transmisión se conoce como
comunicación en la banda base; el término banda base se usa para designar la banda de frecuencias que representa
la señal original en la forma que la entrega la fuente de información. La transmisión de esa señal por un canal de
comunicaciones de pasabanda, como una línea telefónica o un canal satelital, requiere una adaptación obtenida
mediante un corrimiento de la banda de frecuencias contenidas en la señal a otra banda de frecuencias adecuada
para la transmisión y un desplazamiento correspondiente para regresar las frecuencias a la banda original luego
de la recepción. Este corrimiento o traslación se alcanza mediante modulación. La modulación se define como el
proceso mediante el cual alguna característica de una señal portadora es variada de acuerdo con una señal moduladora.
Aquí, a la señal del mensaje se le refiere como la señal moduladora y el resultado de la modulación se conoce
como la señal modulada. En el extremo receptor del sistema, usualmente se requiere la restauración de la señal de
banda base original. Esto se obtiene mediante un proceso conocido como demodulación, que es el proceso inverso
del proceso de modulación.

3.1.1 Necesidad de la Modulación

Una parte importante de las situaciones de comunicación actuales consiste de señales adecuadas para el oído
humano. Como no se conoce la forma exacta de una señal hablada, ¿qué se puede decir sobre el sistema que se
requiere para transmitir esa señal? En otras palabras, ¿existe alguna semejanza entre diferentes señales de
información que sea de ayuda en el diseño de un sistema de transmisión universal?
En el caso de la señal de audio, la respuesta proviene de la fisiología. El oído humano puede responder a
señales con frecuencias en la banda de aproximadamente 20 Hz a 20 kHz. De hecho, la mayoría de las personas
no puede oír en la porción superior de esta banda y la frecuencia de corte superior de una persona disminuye
con la edad. La banda de respuesta se toma para frecuencias inferiores a aproximadamente 15000 Hz. De manera
que si nuestro objetivo principal es la recepción de señales de este tipo, es razonable suponer que la
transformada de Fourier de la señal de tiempo sea igual a cero para f > 15 kHz. Es decir

X ( f ) = 0, | f |> f m

donde fm = 15 kHz.
56 Texto de Comunicaciones: José Morón

Se podría estudiar si las cuerdas vocales, u otros generadores de sonido, son capaces de producir componentes
con frecuencias superiores a 15 kHz, aunque el oído humano no pueda oírlas. Esto es cierto. Sin embargo, si una
de estas señales se pasase por un filtro de pasabajas con frecuencia de corte igual a 15 kHz, la salida del filtro se
oiría igual que la entrada. Así que estamos justificados en suponer que nuestras señales de información están
limitadas en banda a una frecuencia superior de aproximadamente 15 kHz. Aunque esto podría no parecer una
observación significativa, esta suposición demostrará ser suficiente para el diseño de sistemas de comunicación
sofisticados.
Cuando en las señales de información se incluyen señales de video y datos, la frecuencia superior de 15 kHz
pierde precisión. Sin embargo, los amplificadores, dispositivos electrónicos y el canal proporcionan una
limitación para la frecuencia superior. Aunque esta frecuencia superior podría ser considerablemente mucho
más alta que la impuesta por el oído humano, ella siempre está presente y es posible definirla. Por tanto, la
restricción de la frecuencia de corte de la señal aplica a todas las señales de información de interés, aunque esa
frecuencia de corte superior depende de la fuente y de las aplicaciones respectivas de la señal.
En el caso de transmisión a corta distancia, estas señales de baja frecuencia a menudo son enviadas a través de
alambres., algo que se dificulta para distancias más largas. Adicionalmente, como la transmisión es de punto a
punto, se debe especificar la ubicación de cada terminal. Por ejemplo, en el caso de la televisión, el alambre
tendría que terminar en la casa de habitación de cada usuario. La comunicación móvil mediante alambres es casi
imposible. Por estas razones, la transmisión por radiodifusión ha sido una forma popular de transmisión.
Suponga que se toma una señal de audio y se intenta transmitirla a través del aire. La longitud de onda de una
señal de 3 kHz en el aire es de aproximadamente 100 km. Una antena de un cuarto de longitud de onda tendría
entonces que tener una longitud de 25 km y levantar antenas de ese tamaño sería bastante impráctico. Pero si se
hiciese, todavía se tendría que enfrentar dos problemas muy serios. El primero está relacionado con las
características del aire para frecuencias de audio. En tanto que la transmisión es posible a frecuencias inferiores a
10 kHz, estas frecuencias no se transmiten con eficiencia por el aire. Todavía más serio es el segundo problema,
el de la interferencia. Supóngase que se desea transmitir más de una señal a la vez. Es decir, suponga que más de
una de las muchas estaciones de radio locales desean transmitir simultáneamente. Cada una tendría antenas de
25 km y contaminarían el aire con muchas señales de audio. El radio oyente tendría una antena de 25 km y
recibiría una suma ponderada de todas las señales. Como la única información que tiene el receptor sobre las
señales es que están limitadas en banda a la misma frecuencia de corte superior, no habría absolutamente forma
alguna de separar una estación de las demás.
Por estas razones es deseable modificar la señal de baja frecuencia antes de enviarla de un punto a otro. Se
obtiene una bonificación adicional si la señal modificada es menos susceptible al ruido que la señal original. El
método más común de obtener esta modificación es usar la señal de baja frecuencia para “modular” (modificar
parámetros de) otra señal de frecuencia superior. A menudo está señal de frecuencia más alta es una sinusoide
pura.
Antes de comenzar una discusión cuantitativa sobre los sistemas de modulación, se examinarán las ventajas de
usar señales moduladas para la transmisión de información. Ya se mencionó que se requiere modulación para
adaptar la señal al canal. Sin embargo, esta adaptación envuelve varios aspectos importantes que merecen una
explicación adicional.

Modulación para Facilidad de Radiación. Si el canal de comunicación consiste del espacio libre, entonces se
necesitan antenas para irradiar y para recibir la señal. La radiación electromagnética eficiente requiere de
antenas cuyas dimensiones sean del mismo orden de magnitud que la longitud de onda de la señal que está
siendo radiada. Muchas señales, incluyendo las de audio, tienen componentes de frecuencia que llegan hasta 100
Hz o menos. Como ya se mencionó, para estas señales, se necesitarían antenas de alrededor de 300 Km de
longitud si la señal se va a radiar directamente. Si se usa modulación para imprimir la señal del mensaje sobre
una señal portadora de alta frecuencia, digamos a 100 MHz, entonces las antenas no necesitan una longitud de
más de un metro (longitud transversal).

Modulación para Concentración o Multicanalización. Si más de una señal usa un solo canal, la modulación
puede usarse para trasladar diferentes señales a posiciones diferentes en el espectro de frecuencias permitiendo
así al receptor la selección de la señal deseada. Las aplicaciones de la multicanalización (“multiplexing”, en inglés)
57 Texto de Comunicaciones: José Morón

incluyen la telemetría de datos, radiodifusión FM estereofónica y telefonía de larga distancia. La


multicanalizacón en frecuencia involucra el uso de una señal auxiliar denominada portadora y la operación
realizada sobre esta señal resulta en la generación de una onda cuya amplitud, frecuencia o fase,
individualmente o en combinación, varía con el tiempo.

Modulación para Superar Limitaciones en el Equipo. El rendimiento de los dispositivos de procesamiento de


señales tales como filtros y amplificadores, y la facilidad con la cual estos dispositivos pueden construirse
depende de la ubicación de la señal en el dominio de la frecuencia y de la relación entre la frecuencia más alta y
la frecuencia más baja de la señal. La modulación puede usarse para trasladar la señal a una posición en el
dominio de la frecuencia donde se cumplan fácilmente los requerimientos de diseño. La modulación también
puede usarse para convertir una “señal de banda ancha” (una señal para la cual la relación entre la frecuencia
mayor y la menor es grande) en una señal de “banda angosta”.
Ocasionalmente, en aplicaciones de procesamiento de señales, la banda de frecuencias de la señal a procesar y
la banda de frecuencias del aparato procesador pueden no adaptarse. Si el procesador es elaborado y complejo,
puede ser mejor dejar que opere en alguna banda de frecuencias fija y, más bien, trasladar la banda de
frecuencias de la señal para que se corresponda con esta banda fija del equipo. La modulación puede usarse para
obtener esta traslación de frecuencias.

Modulación para Asignación de Frecuencias. La modulación permite que varias estaciones de radio o
televisión se transmitan simultáneamente por un mismo canal con frecuencias portadoras diferentes y permite
“sintonizar” diferentes receptores para seleccionar estaciones diferentes.

Modulación para Reducir el Ruido y la Interferencia. El efecto del ruido y la interferencia no pueden ser
eliminados completamente en un sistema de comunicación. Sin embargo, es posible minimizar sus efectos
usando ciertos tipos de esquemas de modulación. Estos esquemas generalmente requieren un ancho de banda
de transmisión mucho mayor que el ancho de banda de la señal del mensaje. Por esta razón se intercambia
ancho de banda por reducción de ruido – un aspecto importante del diseño de sistemas de comunicación.

3.2. Tipos de Modulación Analógica

En este capítulo se inicia el estudio de la modulación de onda continua (OC), operación básica de los sistemas
de modulación analógica. En la modulación de onda continua, se usa una señal sinusoidal
xc ( t ) = Ac cos( ωc t + φ ) como una señal portadora. Entonces una señal portadora modulada general puede ser
representada matemáticamente como

xc ( t ) = A ( t ) cos ωc t + φ ( t ) , ωc = 2 πf c (3.1)

En la Ec. (3.1), fc se conoce como la frecuencia portadora, A(t) es la amplitud instantánea de la portadora y φ(t) es el
ángulo o desviación de fase instantánea de la señal portadora. La fuente de la señal portadora xc(t) es físicamente
independiente de la señal de la banda base que contiene el mensaje. Cuando A(t) está relacionada linealmente
con la señal del mensaje x(t), el resultado es la modulación de amplitud. Si φ(t) o su derivada está linealmente
relacionada con x(t), entonces se tiene modulación de fase o de frecuencia. Se usa el nombre genérico de modulación
angular para denotar tanto la modulación de fase como la de frecuencia.
Mientras la modulación es el proceso de transferir información a una portadora, la operación inversa de
extraer la señal portadora de la información de la portadora modulada se conoce como demodulación. Para
diferentes tipos de esquemas de modulación se considerarán diferentes métodos de demodulación y se
supondrá que la demodulación se efectúa en la ausencia de ruido. El efecto del ruido sobre la calidad de la señal
de salida de diferentes métodos de transmisión modulada será el objetivo del análisis en un capítulo posterior.
En el análisis de los esquemas de modulación OC se prestará mucha atención a tres parámetros importantes: la
potencia transmitida, el ancho de banda de transmisión y la complejidad del equipo para modular y demodular.
Estos parámetros, junto con la calidad de la señal de salida en la presencia de ruido, proporcionarán la base para
la comparación de diferentes esquemas de modulación.
58 Texto de Comunicaciones: José Morón

3.3. Transmisión de Señales de Banda Base Analógicas

Los sistemas de comunicación en los cuales ocurre la transmisión de señales sin modulación se denominan
sistemas de banda base. En la Fig. 3.1 se muestran los elementos funcionales de un sistema de comunicación de
banda base. El transmisor y el receptor amplifican la potencia de la señal y realizan las operaciones de filtrado
apropiadas. En el sistema no se ejecutan operaciones de modulación ni demodulación. El ruido y la distorsión de
la señal debidos a las características no ideales del canal hacen que la señal de salida y(t) sea diferente de la señal
de entrada x(t). Ahora se identificarán diferentes tipos de distorsión, sus causas y las curas posibles. En un
capítulo posterior se discutirán los efectos del ruido sobre la calidad de la señal y el diseño óptimo del
transmisor y receptor que minimiza esos efectos.

Ruido

x(t) Canal
a Transmisor Receptor b
Señal de Hc(f)
Señal de salida
entrada
+ ruido

Figura 3.1 Un sistema de comunicación de banda base.

3.3.1 Distorsión de la Señal en la Transmisión en la Banda Base

Se dice que la señal de salida y(t) no está distorsionada si “se parece” a la señal de entrada x(t). Más
específicamente, si y(t) difiere de x(t) por una constante de proporcionalidad y un retardo temporal finito,
entonces se dice que la transmisión no está distorsionada. Es decir,

y ( t ) = Kx ( t − td ) (3.2)

para transmisión sin distorsión. La constante K es la atenuación y td es el retardo temporal. La pérdida de


potencia en la transmisión es 20 log 10 K y en la Tabla 1 se dan valores típicos de pérdidas de transmisión para
varios medios.
El requisito para transmisión sin distorsión expresado por la Ec. (3.2) puede cumplirse si la función de
transferencia total del sistema entre los puntos a y b en la Fig. 3.1 es

H ( f ) = K ( f )exp ( − j 2 πftd ) para f < fx


(3.3)
= K ( f ) e − jθ ( f )

donde fx es el ancho de banda de la señal en la banda base. Esta relación se ilustra en la Fig. 3.2. Como H(f) es
compleja, se ha graficado su magnitud y fase. Las partes real e imaginaria también hubiesen sido suficientes
pero no serían tan instructivas.
Si se supone que el transmisor y el receptor no producen distorsión de la señal, entonces la respuesta del canal
tiene que satisfacer la relación

H c ( f ) = K exp ( − j 2 πftd ) para f < fx (3.4)

para tener una transmisión sin distorsión.


59 Texto de Comunicaciones: José Morón

Tabla 1. Valores típicos de pérdidas de transmisión


Pérdida,
Medio de Transmisión Frecuencia
dB/km
Par de alambres (0.3 cm de 1 kHz 0.05
diámetro)
10kHz 2
Par de alambres trenzados (calibre
100 kHz 3
16)
300kHz 6
100 kHz 1
Cable coaxial (1 cm de diámetro) 1 MHz 2
3 MHz 4
Cable coaxial (15 cm de diámetro) 100 MHz 1.5
Guía de onda rectangular (5×3.5 10 GHz 5
cm)
Guía de onda helicoidal (5 cm de 100 GHz 1.5
diámetro)
3.6×1014 Hz 3.5
Cable de fibra óptica 3.4×1014 Hz 0.5
1.8×1014 Hz 0.2

x(t) y(t)
H(f)

|H(f)| Fase de |H(f)|


K
Pendiente =
−2πtd
f f

Figura 3.2. Característica de un sistema sin distorsión.

La condición dada por la Ec. (3.4) es bastante fuerte y, en el mejor de los casos, los canales reales sólo pueden
satisfacer esta condición aproximadamente. Por ello, siempre ocurrirá algo de distorsión en la transmisión de
señales aunque ella se puede minimizar mediante un diseño apropiado. Un enfoque conveniente para
minimizar la distorsión de una señal es identificar diferentes tipos de distorsión e intentar minimizar sus efectos
dañinos por separado.
Los tres tipos comunes de distorsión encontrados en un canal son:

1. Distorsión de amplitud debida a |Hc(f)| ≠ K.


2. Distorsión de fase (o retardo) debida a que
θ( f ) = ángulo{H c ( f )} ≠ −2 πftd ± mπ (m es un entero > 0)
3. Distorsión no lineal debida a elementos no lineales presentes en el canal.
Las primeras dos categorías se conocen como distorsión lineal y la tercera como distorsión no lineal. Ahora se
analizarán por separado.
60 Texto de Comunicaciones: José Morón

3.3.2 Distorsión Lineal

Si la respuesta de amplitud del canal no es plana en la banda de frecuencias para las cuales el espectro de la
entrada es diferente de cero, entonces las diferentes componentes espectrales de la señal de entrada son
modificadas en forma diferente. El resultado se conoce como distorsión de amplitud. Las formas más comunes de
la distorsión de amplitud son la atenuación excesiva o el realce de las bajas frecuencias en el espectro de la señal.
Resultados experimentales indican que si |Hc(f)| es constante hasta dentro de ±1 dB en la banda del mensaje,
entonces la distorsión de amplitud será despreciable. Más allá de estas observaciones cualitativas, no se puede
decir mucho sobre la distorsión de amplitud sin un análisis más detallado.
Considérese la Fig. 3.2 en una forma intuitiva. Parece razonable que la magnitud de la respuesta haya
resultado ser una constante. Esto indica que todas las frecuencias de x(t) son multiplicadas por el mismo factor.
Pero ¿por qué la fase resultó ser una función lineal de la frecuencia? ¿Por qué no todas las frecuencias son
desplazadas por la “misma cantidad”? La respuesta se aclara de un ejemplo sencillo. Supongamos que queremos
desplazar una sinusoide de 1 Hz, x(t ) = cos 2 πt , por un segundo. Esto representa un desplazamiento de fase de
2π radianes, o 360°. Si ahora queremos desplazar una señal que tiene el doble de la frecuencia, x(t ) = cos 4πt ,
por la misma cantidad de un segundo, tendríamos que desplazar la fase por 4π radianes, o 720°. Si desplazamos
la señal por solamente 360°, solamente se retardaría en 0.5 segundos en vez del tiempo de 1 segundo requerido.
Consideremos ahora una señal general formada por muchas componentes de frecuencia. Si retardamos todas
las componentes por la misma fase angular, no estaríamos retrasándolas por la misma cantidad de tiempo y la
señal se distorsionaría severamente. Para retardar por la misma cantidad, el desplazamiento de fase debe ser
proporcional a la frecuencia.
Supongamos que los canales que encontramos son lineales. Por tanto, las frecuencias de la salida son las
mismas que las de la entrada. Aunque hemos supuesto linealidad, debemos reconocer que algunas formas de
distorsión no lineal son significativas en altas frecuencias de transmisión. Efectivamente, las frecuencias más altas
son afectadas por turbulencia en el aire, lo que ocasiona una variación de la frecuencia (esto es, corrimiento
Doppler).
La distorsión lineal se caracteriza por tener una dispersión en tiempo debida ya sea a efectos de trayectorias
múltiples (ecos) o a las características del canal. Por ahora, se estudiarán los efectos que pueden caracterizarse
rápidamente mediante la función del sistema del canal.
Si el desplazamiento de fase es arbitrario, diferentes componentes de la señal de entrada sufren retardos
temporales diferentes lo cual resulta en distorsión de fase o de retardo. Una componente espectral de la entrada con
frecuencia f sufre un retardo td(f),

ángulo de { H ( f )}
td ( f ) = − (3.5)
2 πf

El lector puede verificar que un ángulo de { H ( f )} = −2 πtd f ± mπ resultará en una respuesta y ( t ) = ± x ( t − td ) , es


decir, no se produce ninguna distorsión. Cualquier otra respuesta de fase, incluyendo un desplazamiento
constante de fase θ, θ ≠ ± mπ , producirá distorsión.
La distorsión por retardo es un problema crítico en la transmisión de pulsos (datos). No obstante, el oído
humano es sorprendentemente insensible a esta distorsión y por tanto la distorsión por retardo no es
preocupante en la transmisión de audio.

Distorsión de Amplitud. Supóngase primero que la fase θ(f) es lineal con la frecuencia. La función de
transferencia tiene entonces la forma
H ( f ) = K ( f )e − j 2 πftd (3.6)

Aunque se requerirá de alguna manipulación matemática, se usará el tiempo suficiente para examinar los
efectos de la distorsión de amplitud. La estrategia que se usará representa uno de muchos enfoques posibles
para obtener resultados matemáticos. El mejor enfoque depende de la forma particular de la distorsión.
61 Texto de Comunicaciones: José Morón

Se analizará la expresión en la Ec. (3.6) expandiendo K(f) en una serie. Por ejemplo, puede ser posible expandir
K(f) en una serie de Fourier. Esto puede hacerse si K(f) está limitada a una cierta banda de frecuencias. En esos
casos, se puede escribir

H( f ) = ∑H ( f )
n=0
n (3.7)

donde los términos en la sumatoria son de la forma


 nπf  − j 2 πtd
H n ( f ) = an cos  e (3.8)
 fm 
Cada uno de estos términos caracteriza un filtro coseno, cuya característica de amplitud sigue una onda coseno en
la banda de paso. Esto se muestra en la Fig. 3.3 para n = 2 y t d = 0 .

H(f)

a
A

f
−fm fm
Figura 3.3. Filtro coseno.

La función del sistema para este filtro es

 2 π  − j 2 πft d
H ( f ) =  A + a cos t e
 f m 
(3.9)
a   1  a   1 
= Ae − j 2 πft d + exp  j 2 πf  − t d   + exp  j 2 πf  − − td 
2   fm  2   fm 
La función del sistema de la Ec. (3.9) indica que la respuesta al impulso consiste de tres impulsos retrasados y
escalados.
Si la entrada al filtro coseno, x(t), está limitada en banda, la salida es dada por
a  1  a  1 
s(t ) = Kx ( t − t d ) + x t+ − td  + x  t − − td  (3.10)
2  fm  2  f m 
La Ec. (3.10) indica que la respuesta está en la forma de una versión no distorsionada de la entrada añadida a
dos versiones desplazadas en el tiempo (ecos o multitrayectorias).
Regresando al caso general del filtro, se observa que la salida de un sistema con distorsión de amplitud es una
suma de impulsos desplazados. Entonces, con

 nπf  − j 2 πft d
H( f ) = ∑a
n=0
n cos 
 fm
e

(3.11)

la salida debida a una entrada r(t) es dada por



an  
∑ 2 x  t + 2 f  
n n
s(t ) = − td  + x  t − − td  (3.12)
n=0 m   2 fm 
La Ec. (3.12) puede ser difícil de evaluar. Por tanto, este método está usualmente restringido a casos donde la
serie de Fourier contiene relativamente pocos términos significativos.
62 Texto de Comunicaciones: José Morón

Ejemplo 3.1
Considere la característica triangular de un filtro mostrada en la Fig. 3.3. Suponga que la característica de fase es
lineal, con pendiente −2 πt d . Halle la salida de este filtro cuando la señal de entrada es

sen ( 400 πt )
r (t ) =
t

f
−1000 1000
Figura 3.3. Filtro triangular.

Solución. Primero se debe expandir H(f) en una serie de Fourier para obtener

1 4  πf  4  3πf  4  5πf 
H( f ) = + cos  + cos  + cos  + ⋯
2 π2  1000  9 π 2  1000  25π 2  1000 
r(t) está limitada en banda de manera que el filtro pasa todas las frecuencias. Esto es cierto ya que R(f) es cero
para frecuencias superiores a 200 Hz y la frecuencia de corte del filtro es f = 1000 Hz. Si retenemos los tres
primero términos diferentes de cero en la serie, la salida se convierte en

1  
2 1   1 
s(t ) = x (t − td ) + 3
 x  t − 1000 − t d  + x  t + 1000 − t d  
2 π 
2   3   3 
+ 2 x  t − − td  + x  t + − td 
9π   1000   1000 
El resultado se dibuja en la Fig. 3.4 para t0 = 0.05 segundos.

s(t) Picos de s(t) no distorsionada


se indican con X

Figura 3.4. Resultado del Ejemplo 3.1.

Distorsión de Fase
Las desviaciones de la fase con respecto al caso sin distorsión (fase lineal) pueden ser caracterizadas mediante
variaciones en la pendiente de las características de fase y en la pendiente de una recta desde el origen hasta un
punto en la curva. Se define el retardo de fase y el retardo de grupo (también conocido como retardo de envolvente)
como
θ( f ) 1 dθ( f )
t ph ( f ) ≜ , t gr ( f ) ≜ (3.13)
2 πf 2 π df
63 Texto de Comunicaciones: José Morón

La Fig. 3.5 ilustra estas definiciones para una característica de fase representativa. Si el canal fuese ideal y sin
distorsión, la característica de fase sería lineal (una línea recta que interseca el origen) y los retardos de grupo y
de fase serían constantes para toda f. De hecho, para esta caso ideal, ambos de estos retardos serían iguales al
retardo td entre la entrada y la salida.
La característica de fase puede ser aproximada como una curva lineal por tramos. Como un ejemplo, examine
la característica de fase de la Fig. 3.5. Si fuésemos a operar en una banda relativamente estrecha en torno a f0, la
fase podría aproximarse como los primeros dos términos en una expansión en serie de Taylor:
dθ ( f 0 )
θ( f ) = θ ( f 0 ) + ( f − f0 )
df (3.14)
= 2 πf 0 t ph ( f 0 ) + ( f − f 0 ) 2 πt gr ( f 0 )

θ(f) s(t) Picos de s(t) no distorsionada


se indican con X

Pendiente = 2πtph(f0 )

Pendiente = 2πtgr(f0 )

f
f0 fC
Figura 3.5. Retardos.

La Ec. (3.14) aplica para frecuencias positivas, y la negativa de esta ecuación aplica para frecuencias negativas.
Esto es válido puesto que la característica de fase para un sistema real debe ser una función impar de la
frecuencia.
Suponga ahora que el factor de amplitud es constante, K(f) = K y una onda x(t ) cos 2 πf 0 t forma la entrada al
sistema. La transformada de Fourier de la entrada se determina a partir de la propiedad de modulación de la
transformada:
1
F {x(t ) cos 2 πf 0 t} =  X ( f − f 0 ) + X ( f + f 0 )  (3.15)
2
La transformada de Fourier de la salida, X(f), es dada por el producto de la transformada de la entrada con la
función del sistema. Así,
1
Y( f ) = X ( f − f 0 ) K exp  jt ph ( f 0 ) 2 πf 0  exp  j 2 π ( f − f 0 ) t gr ( f 0 )  (3.16)
2
La Ec. (3.16) se escribió para f positiva. Para f negativa, el valor de la expresión es el conjugado complejo de su
valor para f positiva.
Ahora se determina la función de tiempo correspondiente a esta transformada de Fourier. La transformada
puede simplificarse tomando nota de las siguientes tres relaciones de la transformada de Fourier:
64 Texto de Comunicaciones: José Morón

1 − j 2 π( f − f 0 )t 0 1 − j 2 π( f + f 0 )t 0
F {x ( t − t0 ) cos 2 πf 0 t} = X ( f − f0 ) e + X ( f + f0 ) e
2 2
1
F {x ( t − t 1 ) cos 2 πf 0 ( t − t 1 )} =  X ( f − f 0 ) + X ( f + f 0 )  e − j 2 πft1
2 (3.17)
1 − j 2 π( f − f 0 )( t 0 −t 1 )
F {x ( t − t 0 ) cos 2 πf 0 ( t − t1 )} = X ( f − f 0 ) e
2
1 − j 2 π( f + f 0 )( t 0 −t1 )
+ X ( f + f0 ) e
2
Usando estas relaciones para simplificar la Ec. (3.16), se encuentra que

y(t ) = Kx t − t gr ( f 0 )  cos 2 πf 0 t − t ph ( f 0 )  (3.18)

puesto que se supuso que la entrada era r (t ) cos 2 πf 0 t . La salida de la Ec. (3.18) indica que la amplitud variable
en el tiempo de la sinusoide de entrada es retrasada por una cantidad igual al retardo de grupo y la parte
oscilante por una cantidad igual al retardo de fase. Ambos retardos son evaluados en la frecuencia de la
sinusoide. Este resultado demostrará su importancia posteriormente. Si se adelanta un poco el juego, se trabajará
con dos tipos de receptores: coherentes e incoherentes. Los receptores incoherentes operan solamente sobre la
amplitud de la señal recibida, de modo que el retardo de grupo es crítico en la operación del receptor. Por otra
parte, los receptores coherentes usan toda la información de la señal, de modo que el retardo de fase también es
importante.
La distorsión por retardo es un problema crítico en la transmisión de pulsos (datos). No obstante, el oído
humano es sorprendentemente insensible a esta distorsión y por tanto la distorsión por retardo no es
preocupante en la transmisión de audio.

3.3.3 Compensación

El remedio teórico para la distorsión lineal es la compensación mostrada en la Fig. 3.5. Si la función de
transferencia del compensador satisface la relación

K exp ( − j 2 πftd )
H eq = para f < fx (3.19)
Hc ( f )

se tiene entonces que Hc ( f ) H eq ( f ) = K exp( − j 2 πftd ) y no se tendrá distorsión. Sin embargo, es muy raro que
se pueda diseñar un compensador que satisfaga exactamente la Ec. (3.19). Pero son posibles aproximaciones
excelentes, especialmente con un filtro transversal como el mostrado en la Fig. 3.6.

x(t) Canal Compensador salid


Hc(f) Heq(f) a

Figura 3.5 Compensador del canal.

La salida del compensador mostrado en la Fig. 3.6 puede escribirse como


y ( t ) = c −1 x ( t ) + c 0 x ( t − ∆ ) + c 1 x ( t − 2 ∆ )

a partir de la cual obtenemos la función de transferencia del filtro como


H eq ( f ) = c−1 + c0 exp( − jω∆ ) + c1 exp( − jω 2 ∆ ), ω = 2 πf
65 Texto de Comunicaciones: José Morón

entrada Retardo Retardo


x(t ∆ ∆
)
c–1 c0 c1

+ + y(t
+ + )
salida

Figura 3.6 Un filtro transversal compensador de tres derivaciones.

Generalizando esta relación a un compensador con 2M + 1 derivaciones, se tiene entonces que

 M 
H eq ( f ) = exp( − jωM ∆ ) 

 m =− M

cm exp( − jωm∆ ) 


(3.20)

que está en la forma de una serie de Fourier exponencial con periodicidad 1/∆. Por tanto, si se va a compensar el
canal en la banda fx del mensaje, se puede aproximar el lado derecho de la Ec. (3.19) mediante una serie de
Fourier (en el dominio de la frecuencia) con periodicidad 1 ∆ ≥ 2 f x . Si la aproximación mediante una serie de
Fourier tiene 2M + 1 términos, entonces se necesita un compensador con 2 M + 1 derivaciones.

3.3.4 Distorsión No Lineal y Compansión

Los canales y dispositivos electrónicos prácticos, tales como amplificadores, con frecuencia exhiben
características de transferencia no lineales que resultan en una distorsión no lineal de la señal. En la Fig. 3.7 se
muestra un ejemplo de la característica de transferencia de un elemento no lineal sin memoria. En general, estos
dispositivos actúan linealmente cuando la entrada x(t) es pequeña, pero distorsionan la señal cuando la
amplitud de la entrada es grande.

Aproximación
Entrada lineal
x(t)
Característica de
transferencia
Salida real
y(t)

Figura 3.7 Característica de transferencia de un dispositivo no lineal.

Para investigar la naturaleza de la distorsión no lineal de la señal, supóngase que la característica de


transferencia del dispositivo no lineal puede ser modelada por la relación

y ( t ) = a1 x ( t ) + a2 x 2 ( t ) + a3 x 3 ( t ) + ⋯ (3.21)
Ahora, si la entrada es la suma de dos ondas coseno, digamos cos 2 πf 1 t + cos 2 πf 2 t , entonces la salida contendrá
términos de distorsión armónica en las frecuencias 2f1, 2f2 y términos de distorsión de intermodulación en las
frecuencias f 1 ± f 2 , 2 f 2 ± f 1 , 2 f 1 ± f 2 , y así sucesivamente. En un caso general, si x(t ) = x1 ( y ) + x2 (t ) , entonces
66 Texto de Comunicaciones: José Morón

y(t) contendrá los términos x12 ( t ), x22 ( t ), x1 ( t ) x2 ( t ) , y así sucesivamente. En el dominio de la frecuencia es fácil
ver que aunque X1(f) y X2(f) puedan estar separadas en frecuencia, el espectro de x1 ( t ) x2 ( t ) [obtenido a partir
de X1 ( f ) ∗ X 2 ( f ) ] puede solaparse con X1(f) o X2(f) o con ambas. Esta forma de distorsión por intermodulación
(o diafonía) es importante en sistemas donde varias señales son concentradas (multicanalizadas) y transmitidas
por el mismo canal.
La característica de transferencia mostrada en la Fig. 3.7 sugiere que una solución para minimizar la distorsión
no lineal es mantener la amplitud de la señal dentro de la banda lineal de operación de la característica. Esto se
obtiene usualmente mediante dos dispositivos no lineales, un compresor y un expansor, como se muestra en la
Fig. 3.8.
Un compresor esencialmente reduce la banda de amplitudes de una señal de entrada de manera que caiga
dentro de la banda lineal del canal. Para una señal x(t) de valores positivos, por ejemplo, se puede usar un
compresor con una característica de transferencia gcomp [ x ( t )] = log e [ x ( t )] . Puesto que un compresor reduce la
banda de la señal de entrada, también reduce la banda de la señal de salida. La señal de salida es expandida
entonces al nivel apropiado mediante el expansor que opera en la salida del canal. Idealmente, un expansor tiene
una característica de transferencia gexp que produce gexp { gcomp [ x ( t )]} = x ( t ) . Por ejemplo, si
gcomp [ x ( t )] = log e [ x ( t )] , entonces gexp [ y ( t )] = exp[ y ( t )] producirá gexp { gcomp [ x ( t )]} = x ( t ) . La operación
combinada de comprimir y expandir se denomina compansión. La compansión se usa extensivamente en sistemas
telefónicos para compensar por la diferencia en el nivel de la señal entre oradores altos y bajos.

x(t) Canal y(t)


Compresor (supuesto Expansor
no lineal)

Figura 3.8 Compansión.

3.4. Esquemas de Modulación Lineales de Onda Continua (OC)

La modulación lineal se refiere al corrimiento directo de frecuencias del espectro del mensaje usando una
portadora sinusoidal. La portadora modulada es representada por
xc ( t ) = A ( t ) cos ωc t (3.22)

en donde la amplitud de la portadora A(t) está relacionada linealmente con la señal del mensaje x(t).
Dependiendo de la naturaleza de la relación espectral entre x(t) y A(t), se tienen los siguientes tipos de esquemas
de modulación lineal: modulación de banda lateral doble (DSB, por sus siglas en inglés), modulación de amplitud
(AM), modulación de banda lateral única (SSB, por sus siglas en inglés) y modulación de banda lateral residual (VSB,
por sus siglas en inglés). Cada uno de estos esquemas tiene sus propias ventajas distintivas, desventajas y
aplicaciones prácticas. Para simplificar la exposición sin afectar los resultados, se supondrá que la fase de la
onda portadora es cero. Ahora se estudiarán estos diferentes tipos de esquemas de modulación lineal recalcando
tópicos tales como los espectros de las señales, potencia y ancho de banda, métodos de demodulación y la
complejidad de transmisores y receptores.
En la discusión sobre esquemas de modulación lineales, se usará uno de tres modelos diferentes para la señal
del mensaje x(t): un solo tono de frecuencia, fx, una combinación de tonos restringidos en frecuencia a f ≤ fx, o
una señal arbitraria de pasabajas de energía finita con una transformada de Fourier X ( f ) , la cual es
idénticamente igual a cero para |f | > fx.

3.5.1 Modulación de Banda Lateral Doble con Portadora Suprimida (DSB-SC)

La posición de una señal en la banda de frecuencias puede cambiarse por multiplicación. Un ejemplo de esto es
la modulación de banda lateral doble (DSB, por sus siglas en inglés), también llamada modulación de banda lateral
doble con portadora suprimida (DSB-SC, por sus siglas en inglés) la cual resulta cuando la amplitud A(t) de la señal
67 Texto de Comunicaciones: José Morón

en la Ec. (3.22) es proporcional a la señal del mensaje x(t), es decir, el mensaje de banda base x(t) es multiplicado
por una forma de onda portadora Ac cos ωc t , como se muestra en la Fig. 3.9a. La señal modulada resultante xc(t)
es
xc ( t ) = Ac x ( t ) cos ωc t = A ( t ) cos ωc t , ωc = 2 πf c (3.23)

y se llama la señal modulada en banda lateral doble. La Ec. (3.23) revela que la amplitud instantánea de la portadora
A(t) es proporcional a la señal del mensaje o de banda base* x(t) (señal que se quiere enviar por el canal). Un
ejemplo en el dominio del tiempo de la señal modulada x(t) se muestra en la Fig. 3.9d para una señal de mensaje
sinusoidal. Ac es la amplitud de portadora y fc es la frecuencia portadora.
Si se preguntase cómo varía A(t) de acuerdo con x(t), el método más sencillo que se podría sugerir sería que
A(t) fuese igual a x(t). Esto produciría una señal modulada de la forma
xc (t ) = x(t ) cos 2 πf c t (3.24)

Del teorema de modulación se deduce que el espectro de la señal DSB-SC dada en la Ec. (3.23) o (3.24) es

Xc ( f ) = 1
2
Ac  X ( f + f c ) + X ( f − f c ) (3.25)

donde fc = ωc/2π y X ( f ) es la transformada de la señal del mensaje x(t). Las representaciones en el dominio de
la frecuencia de X ( f ) y X c ( f ) se muestran en las Figs. 3.9e y 3.9f para una señal de mensaje de pasabajas. La
forma del espectro mostrado en la figura es sólo para ilustración. Observe que la modulación de una portadora
con s(t) ha desplazado las frecuencias de x(t) tanto hacia arriba como hacia abajo por la frecuencia de la
portadora.
La banda espectral ocupada por la señal del mensaje se denomina la banda de frecuencias de la banda base y la
señal del mensaje usualmente se conoce como la señal de la banda base. La operación de multiplicar señales se
llama mezclado o heterodinaje. Como un resultado del proceso de modulación, el espectro de la señal del mensaje
x(t) para frecuencias negativas se vuelve visible siempre que la frecuencia portadora satisfaga la condición fc > fx.
En la señal trasladada, la parte del espectro de la señal de la banda base que está sobre fc aparece en el intervalo
fc a fc + fx y se denomina la señal de la banda lateral superior. La parte de la señal modulada que está entre fc − fx y fc
se llama la señal de la banda lateral inferior. La señal portadora de frecuencia fc también se conoce como la señal del
oscilador local, la señal mezcladora o la señal heterodina. Como se observa en la Fig. 3.9f, el espectro de X c ( f ) no
tiene una portadora identificable. Por ello, este tipo de modulación, como se mencionó anteriormente, también
se conoce como modulación de banda lateral doble con portadora suprimida (DSB-SC). Lo anterior indica que la señal
modulada, xc(t), contiene componentes con frecuencias entre f c − f x y f c + f x . Mientras que las señales en esta
banda de frecuencias se transmitan con eficiencia y se puedan construir antenas de longitudes razonables, se ha
resuelto entonces el primero de los dos problemas de transmisión. Introdúzcase algunos valores de audio
típicos. Suponga que la frecuencia máxima de x(t), fx, es 15 kHz y que la frecuencia portadora, fc, es 1 MHz.
Entonces la banda de frecuencias ocupada por la señal modulada va desde 985000 Hz hasta 1015000 Hz.
La frecuencia portadora fc es normalmente mucho más alta que el ancho de banda de la señal de la banda base
fx. Es decir,

f c >> f x (3.26)

El segundo objetivo es el de la separabilidad del canal. Observe que si una señal de información modula una
portadora de frecuencia fc1 y otra señal de información modula una portadora de frecuencia fc2, las
transformadas de Fourier de las dos portadoras moduladas no se solapan en frecuencia siempre y cuando fc1 y fc2
estén separadas por al menos 2fx. Como las señales están “apiladas” en frecuencia, a este proceso se le refiere
como multicanalización (“multiplexing”) por división de frecuencias (FDM, por sus siglas en inglés).

* El término señal de banda base (analógica) se refiere a señales con transformadas de Fourier que ocupan frecuencias que se
extienden hasta cero o muy cerca de cero. Sus frecuencias no son desplazadas en el eje de frecuencias. Típicamente se
transmiten sin modificación a través de cables o alambres.
68 Texto de Comunicaciones: José Morón

z(t) Filtro de
y(t)
x(t xc(t xr(t)
) ) pasabajas

Ac cos ωc t 2 cos ωc t
(a) Modulador (b) Demodulador

(c) Moduladora sinusoidal

Inversión de fase

(d) Señal modulada


X(f)

–fx 0 fx f
(e) Espectro del mensaje
Banda lateral
Xc(f) inferior2fx
Banda lateral
superior
–fc – fx –fc –fc + fx 0 fc – fx fc fc + fx f

(e) Espectro DSB


Z(f) Respuesta del filtro
de banda base

–2fc –fx 0 fx 2fc – fx 2fc 2fc + fx f

(f)

Figura 3.9 Modulación de banda lateral doble. (a) Modulador. (b) Demodulador sincrónico
(o coherente). (c) Señal moduladora sinusoidal. (d) Señal modulada. (e) Espectro del
mensaje para una x(t) arbitraria. (f) Xc(f). (g) Z(f).

Si las frecuencias de las dos señales moduladas no están muy separadas, ambas señales pueden hasta
compartir la misma antena. Esto es, aunque la longitud óptima de la antena no es la misma para ambos canales,
el ancho de banda total puede hacerse relativamente pequeño comparado con la frecuencia de la portadora. En
la práctica, una antena es útil en una banda de frecuencias en vez de ser exactamente efectiva en una sola
frecuencia. Si esto no fuese cierto, la radiodifusión no existiría.
69 Texto de Comunicaciones: José Morón

Como un ejemplo, la longitud de la antena de un automóvil no tiene que reajustarse cada vez que cambiamos
de estación. La efectividad de la antena no varía demasiado entre el límite de una frecuencia y el de la otra. Las
instrucciones que acompañaban las antenas en los primeros automóviles sugerían que la longitud debía
acortarse a aproximadamente 75 centímetros al cambiar de AM a FM. Los receptores modernos tienen
sensibilidad suficiente de modo que esta sintonización ya no es necesaria, aun cuando la frecuencia cambie en
hasta dos órdenes de magnitud.

Ejemplo 3.2
Una señal de información tiene la forma
sen 2 πt
x( t ) =
t
Esta señal modula una portadora de frecuencia 10 Hz. Dibuje la señal AM y su transformada de Fourier.

Solución. La señal AM es dada por la ecuación


sen 2 πt
x c (t ) = cos 20 πt
t
Esta función se dibuja en la Fig. 3.10.
Observe que cuando la portadora, cos πt , es igual a 1, xc(t) = x(t) y cuando la portadora es igual a −1, xc(t) =
−x(t). Al dibujar la señal AM, comenzamos por dibujar x(t) y su imagen, −x(t), como una guía. La señal AM toca
periódicamente cada una de estas curvas y varía suavemente entre esos puntos periódicos. En esta forma
desarrollamos el dibujo de la señal. En las situaciones más prácticas, la frecuencia de la portadora es mucho más
alta que la ilustrada en este ejemplo. De hecho, es tan alta que si se observase sc(t) en un osciloscopio, no se
podrían ver las oscilaciones al menos que se expandiese bastante el eje del tiempo. Más bien, lo que se vería
serían los bosquejos de x(t) y −x(t) y lo que parecería ser una sombra entre esos bosquejos.
La transformada de Fourier de la señal de información, x(t), se muestra en la Fig. 3.11. La transformada de la
señal modulada la da la siguiente ecuación, en la cual hemos aplicado el teorema de modulación:
1
Xm ( f ) =  X ( f − 10 ) + X ( f + 10 ) 
2
Ésta se muestra en la Fig. 3.12.

xmsc m((t))
t(t)

½ 1

Figura 3.10. Señal AM para el ejemplo.


70 Texto de Comunicaciones: José Morón

X(f)
π

f
−1 1

Figura 3.11. Transformada de Fourier de x(t)

Xm(f)

π/2

f
−11 −9 9 11

Figura 3.12. Transformada de Fourier de la señal modulada.

Potencia y Ancho de Banda de la Señal Transmitida. De la Fig. 3.9f vemos que el ancho de banda BT requerido
para transmitir una señal del mensaje con ancho de banda fx usando modulación de banda lateral doble es 2fx
Hz:
BT = 2 f x (3.27)

Para calcular la potencia transmitida promedio ST de la señal modulada, supongamos que x(t) es una señal de
potencia. Entonces,

1 T 2
ST = lím
T →∞ T ∫ −T 2
Ac2 x 2 ( t ) cos 2 ( ωc t ) dt

1 ⌠ T 2 Ac2 2 T 2
Ac2 2 
= lím  x ( t ) dt + ⌠ x ( t )cos 2 ωc t dt 
T →∞ T ⌡ 2 ⌡ −T 2 2 
 −T 2
El valor de la segunda integral es cero, y si definimos la potencia promedio de la señal Sx como

1 T 2
Sx = lím
T →∞ T ∫ −T 2
x 2 ( t ) dt

entonces
ST = Sc Sx (3.28)

donde Sc = Ac2 2 es la potencia promedio de la portadora.

Demodulación de la Señal de la Banda Base. Si el canal es ideal, entonces la señal recibida xr(t) tendrá la
misma forma que xc(t). Es decir,
xr ( t ) = ac x ( t ) cos ωc t

donde ac/Ac es la atenuación del canal. Como Xc(f) se derivó a partir de X(f) mediante un desplazamiento de
todas las componentes de frecuencia de x(t) por fc, deberíamos poder recuperar x(t) a partir de xc(t) desplazando
una vez más las frecuencias por la misma cantidad, pero esta vez en la dirección opuesta.
La señal del mensaje en la banda base x(t) puede ser recuperada de la señal recibida xr(t) multiplicando xr(t)
por una portadora local y filtrando a pasabajas la señal producto. La salida del multiplicador es
71 Texto de Comunicaciones: José Morón

z ( t ) = [ ac x ( t ) cos ωc t ]2 cos ωc t
= ac x ( t ) + ac x ( t )cos 2 ωc t

y el espectro de Z(f) está dado por

Z ( f ) = ac X ( f ) + 12 ac  X  f − 2 f c  + X ( f + f c ) 

El espectro de Z(f) se muestra en la Fig. 3.9g, de la cual es obvio que si


f x < 2 fc − f x o fc > f x

entonces no hay solapamiento de X ( f ) con X(f − 2fc) o con X(f + 2fc). Por lo tanto, filtrando Z( f ) mediante un
filtro de pasabajas con una frecuencia de corte B, f x < B < 2 f c − f x producirá una señal de salida y(t),

y(t) = acx(t)
que es una réplica de la señal del mensaje transmitida x(t).

Aunque el ancho de banda del filtro de pasabajas puede estar entre fx y 2fc − fx, él debe ser tan pequeño como
sea posible para reducir los efectos de cualquier ruido que pueda acompañar a la señal recibida. Si hay ruido
presente, entonces se debe insertar un filtro de pasabanda con una frecuencia central fc y un ancho de banda de
2fx antes del multiplicador en la Fig. 3.6b para limitar la potencia de ruido que entra al demodulador.
El esquema de recuperación de la señal mostrado en la Fig. 3.6b se denomina un esquema de demodulación
sincrónico o coherente. Este esquema requiere que en el receptor esté disponible una señal de un oscilador local
que esté perfectamente sincronizado con la señal portadora usada para generar la señal modulada. Éste es un
requisito bastante rígido y no puede obtenerse fácilmente en sistemas prácticos. La falta de sincronismo
resultará en distorsión de la señal. Suponga que la señal del oscilador local tiene una desviación de frecuencia
igual a ∆ω y una desviación de fase igual a θ. Entonces la señal producto z(t) tendrá la forma
z ( t ) = ac x ( t ) cos( ∆ωt + θ ) + términos de frecuencia doble

y la señal de salida y(t) será


y ( t ) = ac x ( t )cos( ∆ωt + θ ) (3.29)

Más adelante se verificará que cuando ∆ω = 0 y θ = π 2 , la señal se pierde completamente. Cuando θ = 0 ,


entonces y ( t ) = ac x ( t ) cos ∆ωt variará y provocará una seria distorsión de la señal. Este problema es bastante
grave ya que usualmente fc >> fx de modo que aun un error porcentual pequeño en fc ocasionará una desviación
∆f que puede ser ¡comparable o mayor que fx! La evidencia experimental indica que para señales de audio, una
desviación ∆f > 30 Hz es algo inaceptable. Para señales de audio puede ser posible ajustar manualmente la
frecuencia y la fase de la portadora local hasta que la salida “suene o se oiga” bien. Desafortunadamente, las
desviaciones de fase y de frecuencia de la portadora con frecuencia son cantidades que varían con el tiempo
requiriendo entonces ajustes casi continuos.
Existen varias técnicas usada para generar una portadora coherente para la demodulación. En el método
mostrado en la Fig. 3.13, se extrae una componente de la portadora de la señal DSB usando un circuito
cuadrático y un filtro de pasabandas. Si x(t) tiene un valor de CD igual a cero, entonces xc(t) no tiene ninguna
componente espectral en fc. No obstante, x2(t) tendrá una componente CD diferente de cero y por tanto del
espectro de xr2 ( t ) se puede extraer una componente de frecuencia discreta en 2fc usando un filtro con una
pasabanda angosta. La frecuencia de esta componente puede ser reducida a la mitad para proporcionar la
portadora deseada para la modulación.
72 Texto de Comunicaciones: José Morón

Circuito BPF centrado Divisor de


cuadrático en 2fc frecuencia
Señal DSB Señal de
xr(t) sincronización

Figura 3.13. Un sincronizador cuadrático.

En el segundo método mostrado en la Fig. 3.14, una pequeña señal portadora (piloto) se transmite junto con la
señal DSB (Fig. 3.11a); en el receptor, la portadora piloto puede extraerse, amplificarse y usarse como una
portadora local sincronizada para la demodulación (Fig. 3.11b).

Señal
DSB + LPF
x(t) xc(t) y(t)
portadora
Filtro de
Amplificador
Ac cos ωc t portadora

(a) (b)

Figura 3.14. Sistema DSB con portadora piloto. (a) Transmisor. (b) Receptor.

Si la amplitud de la portadora insertada es lo suficientemente grande, entonces la señal recibida puede ser
demodulada sin tener que generar la portadora en el receptor. Una señal DSB con una componente de
portadora discreta grande se denomina simplemente una señal modulada en amplitud (AM).

Ejemplo 3.3. Evalúe el efecto de un error de fase en el oscilador local en el proceso de demodulación de banda
lateral doble sincrónica.

Solución. Suponga que el error de fase del oscilador local es φ. Entonces la portadora local es expresada como
cos( ωc t + φ ) . Ahora,
xDSB ( t ) = m ( t ) cos ωc t

donde m(t) es la señal del mensaje y si designamos la salida del multiplicador en la Fig. 3.9b por d(t), entonces

d ( t ) = [ m ( t ) cos ωc t ]cos( ωc t + φ )
1
= m ( t )[cos φ + cos( 2 ωc t + φ )
2
1 1
= m ( t )cos φ + m ( t )cos( 2 ωc t + φ )
2 2
El segundo término en el lado derecho es eliminado por el filtro de pasabajas y obtenemos

1
y (t ) = m ( t )cos φ (3.30)
2
Esta salida es proporcional a m(t) cuando φ es una constante. La salida se pierde completamente cuando
φ = ± π 2 . La salida remodulada como cero, la cual ocurre para φ = ± π 2 , representa el efecto nulo de cuadratura
del detector coherente. Así pues, el error de fase en la portadora local produce atenuación en la señal de salida
sin ninguna distorsión siempre que φ sea constante pero diferente de ±π/3. Si el error de fase varía
aleatoriamente con el tiempo, entonces la salida también variará aleatoriamente y se vuelve indeseable.

Ejemplo 3.4. Evalúe el efecto de un pequeño error en la frecuencia del oscilador local en la demodulación DSB
sincrónica.
73 Texto de Comunicaciones: José Morón

Solución. Suponga que el error de frecuencia del oscilador local es ∆ω. La portadora local es expresada
entonces como cos ( ωc + ∆ω ) t . Así que

d ( t ) = m ( t ) cos ωc t cos( ωc + ∆ω ) t
1 1
= m ( t ) cos( ∆ω ) t + m ( t ) cos 2 ωc t
2 2
y
1
y (t ) = m ( t ) cos( ∆ω ) t (3.31)
2
Es decir, la salida es la señal m(t) multiplicada por una onda sinusoidal de baja frecuencia. Es decir, un efecto de
“batido” y, como ya se mencionó, es una distorsión muy indeseable.

3.5.2 Modulación de Amplitud Ordinaria (AM)

En la sección previa estudiamos la AM de banda lateral doble con portadora suprimida. Vimos que la señal
resultante de la multiplicación de la señal de información con una sinusoide portadora posee propiedades
deseables. En particular, el proceso de modulación desplaza las frecuencias desde una banda en torno a cero
hasta una banda alrededor de la frecuencia portadora. Esto permite una transmisión eficiente y también permite
la transmisión simultánea de más de una señal.
Una señal modulada en amplitud es generada añadiendo una componente grande de portadora a la señal DSB.
La señal AM tiene la forma
xc ( t ) = Ac [ 1 + ka x ( t )]cos ωc t (3.32)

= A ( t ) cos ωc t (3.33)

donde A(t) es la envolvente de la portadora modulada y ka es una constante denominada la sensibilidad de amplitud
del modulador responsable por la generación de la señal modulada x c (t ) . La señal en la Ec. (3.32) o (3.33) se
conoce como una señal de banda lateral doble con portadora transmitida (DSB-TC, por sus siglas en inglés o
simplemente AM). Para una recuperación fácil de la señal usando esquemas de demodulación sencillos, la
amplitud de la señal k a x(t ) tiene que ser pequeña y la componente CD de la señal tiene que ser igual a cero, es
decir,

1 T 2
ka x ( t ) < 1 y lím
T →∞ T ∫ −T 2
ka x ( t ) dt = 0 (3.34)

Más adelante se explicará la necesidad de estas restricciones.


La transformada de Fourier de la onda AM (DSB-TC) es la suma de la transformada de Fourier de la señal DSB
(portadora suprimida) y la transformada de Fourier de la portadora pura. En el dominio de la frecuencia, el
espectro de la señal AM está dado por

Xc ( f ) = 1
2
Ac  X ( f − f c ) + X ( f + f c ) 
(3.35)
+ 1 Ac  δ ( f − f c ) + δ ( f + f c ) 
2

En la Fig. 3.15 se muestran ejemplos de señales AM en el dominio del tiempo y en el de la frecuencia.


Observe en la Fig. 3.13(b) que la envolvente de xc(t) tiene esencialmente la misma forma que la señal de la banda
base x(t) siempre que se satisfagan los dos requisitos en la Ec. (3.34). Acepte por ahora la afirmación de que la
adición de la portadora facilita la demodulación. El precio que se paga es eficiencia. Una porción de la potencia
trasmitida está siendo usada para enviar una sinusoide pura que no lleva ninguna señal de información útil.
74 Texto de Comunicaciones: José Morón

x(t) xc(t) envolvente

t t

(a) (b)
X(f)

–fx 0 fx f
(c)
Xc(f) portadora
banda lateral banda lateral
inferior superior
–fc 0 fc – fx fc fc + fx f
(d)

Figura 3.15 Modulación de amplitud. (a) señal del mensaje sinusoidal. Señal AM. (c) Espectro del
mensaje para una señal arbitraria x(t). (d) Espectro de la señal modulada.

3.5.3 Índice de Modulación

Dos características únicas de la señal AM son que está presente una componente con frecuencia de la
portadora y que la envolvente A(t) de la portadora modulada tiene la misma forma que x(t) siempre que
f c >> f x , donde fx es el ancho de banda del mensaje, y que A ( t ) = Ac [ 1 + ka x ( t )] no se haga negativa. Nuestra
suposición de que k a x(t ) < 1 garantiza que la envolvente A(t) nunca se hará negativa. Si k a x(t ) > 1 , entonces
A(t) se hace negativa y resulta una distorsión de envolvente, como se muestra en la Fig. 3.16. En este caso se dice
que la onda portadora está sobremodulada, lo que resulta en inversiones de fase siempre que el factor 1 + ka x(t )
cruza el eje del tiempo. Si la condición f c >> f x no se satisface, no se puede visualizar una envolvente en forma
satisfactoria y, por tanto, no puede ser detectada.

xc (t )
m<1
Ac (1 + m)
Ac
Ac (1 − m)
t

(a)
xc (t ) m>1
Ac

Distorsión de (b)
envolvente

Figura 3.16 Distorsión de envolvente de una señal AM. (a) Señal modulada (m < 1).
(b) Señal sobremodulada (m < 1).
75 Texto de Comunicaciones: José Morón

La extensión con la cual una portadora ha sido modulada en amplitud se expresa en términos de un porcentaje
de modulación o índice de modulación m, el cual se define como

[ A ( t )]máx − [ A ( t )]mín
m= (3.36)
[ A ( t )]máx + [ A ( t )]mín

Cuando m es mayor que 1 se dice que la portadora está sobremodulada, lo que resulta en distorsión de envolvente.
Se puede observar que la señal puede ser recuperada de la señal modulada con un índice de modulación menor
que uno, pero no de la señal sobremodulada.
Observe en el espectro resultante de la onda modulada en la Fig. 3.13(d), lo siguiente:

1. El proceso de modulación hace que el espectro de la señal del mensaje para frecuencias negativas de −fx a 0
se vuelva completamente visible para frecuencias positivas, siempre que la frecuencia portadora satisfaga la
condición f c >> f x .

2. Para las frecuencias positivas, la parte del espectro de una onda AM que está sobre la frecuencia portadora
fc se conoce como la banda lateral superior, en tanto la porción simétrica por debajo de fc se denomina la banda
lateral inferior. La condición fc > fx garantiza que las bandas laterales no se solapen.
3. Para frecuencias positivas, la componente de frecuencia más alta de la onda AM es igual a fc + fx y la de
menor frecuencia es igual a fc − fx.

3.5.4 Potencia y Ancho de Banda de la Señal Transmitida

De la Fig. 3.13d vemos que el ancho de banda de transmisión de la señal AM es la diferencia entre las frecuencias
mayor y menor de las bandas laterales, esto es,
BT = 2fx
Suponiendo que x(t) es una señal de potencia, podemos calcular la potencia promedio de la señal transmitida
como
T 2 2
ST = lím
T →∞ ∫ −T 2
Ac2  1 + x ( t )  cos 2 ωc t dt

T 2
Ac2
= lím ⌠ [1 + x 2 ( t ) + 2 x ( t )][1 + cos 2 ωc t ] dt
T →∞ ⌡ −T 2 2
= Sc + Sc Sx (3.37)

donde Sc = Ac2 2 y Sx es la potencia promedio normalizada de la señal.

La onda portadora por sí sola, sin modulación, no transporta ninguna información hasta el receptor. Por ello,
se puede concluir que una porción de la potencia transmitida ST es “desperdiciada” en la portadora. Más
adelante se verá que la simplicidad de los demoduladores AM depende de esta potencia y, por tanto, la
portadora no es del todo una pérdida.
Para señales AM, el porcentaje de la potencia total que lleva información se usa como una medida de la
eficiencia de potencia. Ésta se denota por η y se define como

Sc Sx
η= (3.38)
Sc + Sc Sx

Se deja como un ejercicio demostrar que la máxima eficiencia para una señal arbitraria x(t) es 50% y, como se
demostrará más adelante, la máxima eficiencia para una señal de mensaje en onda seno es 33.3% (recuerde que
|x(t)|< 1 y por tanto Sx ≤ 1).
76 Texto de Comunicaciones: José Morón

Ejemplo 3.5. Una estación AM comercial está transmitiendo con una potencia promedio de 10 kW. El índice de
modulación es 0.707 para una señal del mensaje sinusoidal. Determine la eficiencia de potencia de transmisión y
la potencia promedio en la componente de portadora de la señal transmitida.

Solución. Para una señal del mensaje sinusoidal con un índice de modulación de 0.707, la señal modulada está
dada por
xc ( t ) = Ac (1 + 0.707 cos ωx t ) cos ωc t
Por lo tanto,
Sx = 12 (0.707 )2 = 0.25
0.25 Sc
η= = 20%
Sc + 0.25 Sc

Ahora, Sc + 0.25Sc = 10 kW, y de aquí que Sc = 8 kW. Note la proporción entre la potencia usada para transmitir
información y la usada para transmitir la portadora.

Ejemplo 3.6. Otra forma de escribir la eficiencia η de la modulación AM ordinaria es como el porcentaje de la
potencia total llevada por las bandas laterales, es decir,

Ps
η= (3.39)
Pt

donde Ps es la potencia transportada por las bandas laterales y Pt es la potencia total de la señal AM. (a)
Determine η para m = 0.5 (50 % de modulación). (b) Demuestre que para AM de un solo tono, ηmáx es 33.3 %
para m = 1.

Solución. Para modulación de un solo tono


x ( t ) = am cos ωm t
el índice de modulación es
am
m=
Ac
Por tanto,
x ( t ) = am cos ωm t = mAc cos ωm t
y la señal AM es entonces
xc ( t ) = [ Ac + x ( t )]cos ωc t = Ac [1 + m cos ωm t ]cos ωc t
o
xc ( t ) = Ac cos ωc t + mAc cos ωm t cos ωc t
= Ac cos ωc t + 12 mAc cos( ωc − ωm ) t + 21 mAc cos( ωc + ωm ) t
entonces
Pc = potencia en la portadora = 1
2
Ac2


( 21 mAc ) + ( 21 mAc )  = 1 m2 A2
2 2
1
Ps = potencia en las bandas laterales = 2   4 c

La potencia total Pt es
Pt = Pc + Ps = 1
2
Ac2 + 14 m2 Ac2 = 1
2 ( 1+ 1
2
m2 Ac2)
Así pues,
Ps 1
4
m2 Ac2 m2
η= × 100% = × 100% = × 100%
Pt ( 1
2 )
+ 14 m2 Ac2 2 + m2

con la condición que m ≤ 1.


77 Texto de Comunicaciones: José Morón

(a) Para m = 0.5,


( 0.5)2
η= × 100% = 11.1%
2 + ( 0.5)2

(b) Como m ≤ 1, se puede ver que ηmáx ocurre para m = 1 y está dada por

η = 12 × 100% = 33.3%

3.5.5 Demodulación de Señales AM

Los demoduladores los dividimos en dos amplias clasificaciones: coherente e incoherente. Los demoduladores
coherentes deben configurarse para aprovecharse de toda la información recibida, incluyendo la amplitud, fase
y coordinación de las señales. Los demoduladores incoherentes no necesitan establecer relaciones de
coordinación (de fase) absolutas.
La ventaja de la modulación AM sobre la DSB es que un esquema muy sencillo, conocido como detección de
envolvente, puede ser usado para la demodulación si se transmite suficiente potencia de portadora. La señal del
mensaje en la banda base x(t) puede ser recuperada de la señal AM xr(t) usando el circuito sencillo mostrado en
la Fig. 3.15a. La Ec. (3.32) muestra que siempre que |x(t)| < 1, la envolvente de la señal recibida nunca pasará
por cero y la porción positiva de la envolvente se aproxima a la señal del mensaje x(t) sin depender de la fase o
frecuencia exactas de la portadora. La parte positiva de la envolvente es recuperada mediante la rectificación de
xr(t) y suavizando la onda rectificada usando una red RC. Durante el semiciclo positivo de la señal de entrada, el
diodo es polarizado directamente y el capacitor C se carga rápidamente hasta el valor pico de la señal. Conforme
la señal de entrada cae por debajo de su máximo, el diodo se abre y se produce una descarga lenta del capacitor
a través del resistor R hasta el próximo semiciclo positivo, cuando la señal de entrada excede el voltaje del
capacitor y el diodo conduce de nuevo. El capacitor se carga hasta el nuevo valor pico, y el proceso se repite.
Para una mejor operación, la frecuencia de la portadora debe ser mucho más alta que fx, y la constante de
tiempo de la descarga del circuito RC debe ser ajustada de modo que la pendiente máxima negativa de la
envolvente nunca excederá la tasa de descarga exponencial. Si la constante de tiempo es demasiado grande,
entonces el detector de envolvente no puede seguir a la envolvente (Fig. 3.15c). Si la constante es demasiado
pequeña se generará una onda demasiado distorsionada (Fig. 3.15d) y la demodulación se hace ineficiente.
Bajo condiciones de operación ideales, la salida del demodulador es
z ( t ) = k1 + k 2 x ( t )

donde k1 es una desviación de CD debida a la portadora y k2 es la ganancia del circuito demodulador. Se puede
usar un capacitor de acoplamiento o un transformador para remover la desviación de CD; sin embargo,
cualquier término de CD en la señal del mensaje x(t) también será eliminado [una de las razones para la
suposición de que el valor promedio de x(t) es igual a cero]. Además de remover componentes CD, el filtro de
eliminación de CD atenuará las componentes de baja frecuencia de la señal del mensaje. Por ello, la AM no es
adecuada para transmitir señales de mensajes que contienen contenidos significativos de baja frecuencia.

Ejemplo 3.7. La entrada a un detector de envolvente (Fig. 3.17a) es una señal AM de un solo tono
xc ( t ) = A (1 + µ cos ωx t ) cos ωc t , donde µ es una constante, 0 < µ < 1 y ωc >> ωx.

(a) Demuestre que si la salida del detector va a seguir la envolvente de xc(t), se requiere que en todo instante t0

1  µ sen ωx t0 
≥ ωx   (3.40)
RC  1 + µ cos ωx t0 

(b) Demuestre que si la salida del detector va a seguir la envolvente todo el tiempo, se requiere que

1 1 − µ2
RC ≤ (3.41)
ωx µ
78 Texto de Comunicaciones: José Morón

Envolvente

Portadora

Envolvente

Portadora

Envolvente

Portadora

Figura 3.17 Demodulación de envolvente de señales AM. (a) Detector de


envolvente. (b) Demodulación correcta. (c) RC demasiado grande. (d) RC
demasiado pequeña.

Solución:
(a) La Fig. 3.18 muestra la envolvente de xc(t) y la salida del detector (el voltaje en el capacitor en la Fig. 3.17).
Supóngase que el capacitor se descarga de su valor pico E0 = A ( 1 + µ cos ωx t0 ) en t0 = 0. Entonces el voltaje
vc(t) en el capacitor de la Fig. 3.17 está dado por

vc ( t ) = E0 e ( )
−t RC

El intervalo entre dos picos sucesivos de la portadora es 1/fc = 2π/ωc y RC >> 1/ωc. Esto significa que la
constante de tiempo RC es mucho mayor que el intervalo entre dos picos sucesivos de la portadora. En
consecuencia, vc(t) puede ser aproximada por

 t 
vc ( t ) ≈ E0  1 − 
 RC 
79 Texto de Comunicaciones: José Morón

vc(t) Envolvente

E0

t
t0 t0 +1/fc

Figura 3.18

Así que si vc(t) va a seguir la envolvente de xc(t), se requiere que en cualquier instante t0

 1   1 
( 1 + µ cos ωx t0 )  1 −  ≤ 1 + µ cos ωx  t0 + 
 RCf c   fc 

Ahora, si ωx << ωc, entonces

 1   ω 
1 + µ cos ωx  t0 +  = 1 + µ cos  ωx t0 + x 
 fc   fc 
ω ωx
= 1 + µ cos ωx t0 cos x − µ sen ωx t0 sen
fc fc
ωx
≈ 1 + µ cos ωx t0 − µ sen ωx t0
fc
y, por tanto,
 1  µωx
( 1 + µ cos ωx t0 )  ≥ sen ωx t0
 RCf c  fc
o
1  µ sen ωx t0 
≥ ωx  
RC  1 + µ cos ωx t0 

(b) Escribiendo de nuevo la Ec. (3.25), tenemos que

1 µ
+ cos ωx t0 ≥ µωx sen ωx t0
RC RC
o
 1  1
µ  ωm sen ωm t0 − cos ωm t0  ≤
 RC  RC
o
2
 1   −1 1  1
µ ωx2 −   sen  ωx t0 − tan ≤
 RC   ωx TC  RC

Como esta desigualdad debe cumplirse para todo t0, se debe tener que
2
 1  1
µ ω2x +   ≤
 RC  RC
o
  1    1 
2 2
2 2
µ  ωx +   ≤ 
  RC    RC 

A partir de la cual obtenemos la relación
80 Texto de Comunicaciones: José Morón

1 1 − µ2
RC ≤
ωx µ

La señal AM también puede ser demodulada pasando la señal recibida xr(t) a través de un dispositivo de ley
cuadrática (o cualquier otro tipo de alinealidad que no tenga simetría de función impar) y filtrando la salida al
cuadrado. Los detalles de un demodulador de ley cuadrática se dejan como un ejercicio.
Los demoduladores de envolvente y de ley cuadrática para señales AM no requieren de una señal
sincronizada (coherente) de un oscilador local. Esto detectores son simples, eficientes y su construcción es de
bajo costo. Solamente los ahorros en el costo de construir los receptores justifican su uso en muchas aplicaciones
de la AM, como, por ejemplo, en la radiodifusión comercial. Los factores que conspiran contra las ventajas de la
simplicidad del equipo son la potencia desperdiciada en la portadora y la pobre respuesta de baja frecuencia de
los sistemas AM que usan demoduladores de envolvente o de ley cuadrada.

Demodulación Coherente. Previamente se señaló que x(t) se recupera a partir de xc(t) demodulando a xc(t) y
entonces pasando el resultado a través de un filtro de pasabajas. Esto produce el diagrama de bloques del
sistema demodulador de la Fig. 3.19. Éste se conoce como un demodulador sincrónico (estudiado en la sección
previa). Toma su nombre de la observación que el oscilador está sincronizado en frecuencia y fase con la
portadora recibida.

sm(t) Filtro de 1
s(t )
pasabajas 2

sc(t)

Figura 3.19. Demodulador AM sincrónico.

Como el multiplicador en esta figura no difiere del multiplicador usado en el modulador, se podría esperar que
los moduladores usados allá, con algunas variaciones, sean aplicables al proceso de demodulación.

Demodulador de Compuerta. El demodulador de compuerta se muestra en la Fig. 3.20. p(t) es una función de
tipo compuerta consistente de un tren periódico de pulsos de amplitud unitaria y puede expresarse en una serie
de Fourier como

p(t ) = a0 + ∑a
n=1
n cos 2 πnf c t (3.42)

Compuerta
xc(t) Filtro de
pasabajas
1
2 a 1 x (t )

p (t )

Figura 3.20. Demodulador de compuerta

La entrada al filtro de pasabajas es dada entonces por

 ∞ 
xc (t )p(t ) = x(t ) cos 2 πf c t  a0 +


n =1
an cos 2 πnf c t 

(3.43)

x( t )
= a0 x(t ) cos 2 πf c t +
2 n =1 ∑
an [ cos(n − 1)2 πf c t + cos(n + 1)2 πf c t ]
81 Texto de Comunicaciones: José Morón

por lo que la salida del filtro de pasabajas es dada por


1
x o (t ) = a1 x ( t ) (3.44)
2
y se alcanza la demodulación.

Hemos ilustrado la operación del demodulador de compuerta para AM con portadora suprimida. Si
sustituimos x(t) por A + x(t ) en la Ec. (3.43), vemos que el demodulador de compuerta produce una salida igual
a
1
x o (t ) = a1 [ A + x(t )] (3.45)
2
Ésta representa la señal de información original desplazada por una constante de amplitud. Si el sistema
contiene dispositivos de acoplamiento ca, la constante no aparecerá en la salida. Si todos los amplificadores en el
sistema son de acoplamiento cd, podríamos querer remover la constante usando un capacitor en serie
relativamente grande, el cual se carga al valor promedio de la señal. Estamos suponiendo que el valor promedio
de la información, x(t), es cero. Si esto no fuese cierto, la remoción de la constante también removería parte de la
señal. Afortunadamente, la mayoría de las señales de información tiene un valor cd igual a cero.

Demodulador de Ley Cuadrada. Ahora investigamos el efecto de añadir la onda AM a un término de portadora
pura y de luego elevar al cuadrado. Esto da

[ x(t ) + A cos 2 πf c t ]2 (3.46)

Consideremos primero el caso de la portadora suprimida. La expresión (3.46) se convierte entonces en


2
{[ x(t ) + A] cos 2 πf c t} 2
= [ x(t ) + A] cos 2 2 πf c t
(3.47)
=
[ x(t ) + A]2 + [ x(t ) + A]2 cos 4 πf c t
2
El segundo término en el numerador de la Ec. (3.47) es una onda AM con una frecuencia portadora de 2fc. Por
tanto, puede ser rechazada fácilmente por un filtro de pasabajas. El primer término lo expandimos como

x 2 (t ) + A 2 + 2 Ax(t ) (3.48)

Desafortunadamente, el contenido de frecuencia de x 2 (t ) se solapa con el de x(t) y éstos no pueden ser


separados. Hemos recuperado así el cuadrado de la suma de A con x(t). Podríamos entonces tomar la raíz
cuadrada de ésta para obtener
0.707 x(t ) + A (3.49)

El formar la magnitud de una señal representa una forma severa de distorsión. Como un ejemplo sencillo,
suponga que la señal fuese una sinusoide pura. La magnitud sería la onda seno rectificada completamente con
una frecuencia fundamental igual al doble de la frecuencia original. La onda seno rectificada ya no contiene una
sola frecuencia y contiene armónicos. Si la oyésemos en una bocina, la sinusoide original sería un tono puro, en
tanto que la onda seno con rectificación de onda completa sería de un tono áspero una octava más alta. Si la
señal original estuviese compuesta de una mezcla de muchas frecuencias, el efecto de la distorsión sería mucho
más severo. En efecto, la voz con rectificación de onda completa podría no ser ni siquiera inteligible.
Pero suponga que A es lo suficientemente grande de modo que x(t ) + A nunca se hace negativa. En ese caso, la
magnitud de x(t ) + A es igual a x(t ) + A y hemos obtenido la demodulación. Esto significa que la portadora
añadida en el receptor debe tener una amplitud mayor que o igual a la desviación negativa máxima de x(t).
Pronto veremos que si A es lo suficientemente grande para cumplir con esta condición, hay formas mucho más
fáciles para demodular.
82 Texto de Comunicaciones: José Morón

La modulación de amplitud es el método más antiguo de realizar modulación. Su mayor virtud es la sencillez
de su implementación. Sin embargo, recuerde que la potencia transmitida y el ancho de banda del canal son
nuestros dos recursos principales en las comunicaciones y deben usarse en forma eficiente. En este contexto,
encontramos que la forma estándar de la modulación de amplitud sufre de dos limitaciones fundamentales:
1. La modulación de amplitud desperdicia potencia. La onda portadora es completamente independiente de la
señal portadora del mensaje. La transmisión de la onda portadora, como ya vimos en los ejemplos,
representa entonces un desperdicio de potencia, lo que significa que en la modulación de amplitud sólo una
fracción de la potencia transmitida total es afectada realmente por x(t).
2. La modulación de amplitud desperdicia ancho de banda. Las bandas laterales de una onda AM están relacionadas
en forma única entre sí debido a su simetría en torno a la frecuencia portadora; por tanto, si se dan los
espectros de magnitud y de fase de cualquiera de las bandas laterales, podemos determinar la otra en forma
unívoca. Esto significa que en lo que respecta a la transmisión de información, solamente es necesaria una
banda lateral y por tanto el canal de comunicación sólo necesita proveer un ancho de banda igual al de la
señal de banda base. En vista de esta observación, la modulación de amplitud desperdicia ancho de banda
ya que requiere un ancho de banda de transmisión igual al doble del ancho de banda del mensaje.

3.5.6 Modulación de Banda Lateral Única (SSB)

El requisito de potencia del transmisor y el ancho de banda de transmisión son parámetros importantes de un
sistema de comunicación. Los ahorros en el requerimiento de potencia y en el ancho de banda son altamente
deseables. El espectro de frecuencias es un recurso natural. La conservación de este recurso crítico es de
importancia fundamental. Mientras se requiera un ancho de banda mayor para cada canal, menos estaciones
pueden comunicar simultáneamente. Tomando esto en consideración se buscó una solución para enviar
información usando un ancho de banda menor que 2fx. Como acabamos de mencionar el esquema AM
despilfarra tanto potencia transmitida como ancho de banda de transmisión. El esquema de modulación DSB
tiene menos requerimientos de potencia que la AM pero usa el mismo ancho de banda que ella. Ambas, la
modulación DSB y la AM, retienen las bandas laterales superior e inferior de la señal del mensaje resultando en
un ancho de banda de transmisión que es el doble del ancho de banda de la señal del mensaje. También, la señal
de banda base puede recuperarse a partir una señal DSB, multiplicando ésta por la misma portadora. Es posible
demostrar que la señal de banda base también puede recuperarse en una forma similar aún si sólo está
disponible una banda lateral.
Las limitaciones mencionadas para la AM y la DSB pueden superarse mediante ciertas modificaciones:
supresión de la portadora y modificación de las bandas laterales. Estas modificaciones resultan naturalmente en
un aumento en la complejidad del sistema. En efecto, intercambiamos complejidad en el sistema por un mejor
uso de los recursos de comunicación. Las bases para este intercambio se estudian a continuación.
El espectro de cualquier señal x(t) de valores reales debe exhibir la condición de simetría dada por
X( f ) = X *(− f )

y por ello las bandas laterales de la AM y DSB están relacionadas en forma única entre sí por la simetría. Dadas
entonces la amplitud y la fase de una, siempre es posible reconstruir la otra. De aquí que el ancho de banda
puede ser reducido a la mitad si se elimina completamente una banda lateral. Esto conduce a la modulación de
banda lateral única (SSB, por sus siglas en inglés). En la modulación SSB, el ahorro en ancho de banda es
acompañado por un aumento considerable en la complejidad del equipo. En principio, dos sistemas de banda
lateral única pueden ahora ocupar la banda espectral ocupada anteriormente por un sistema AM o uno DSB.
La señal de banda base puede no ser recuperada a partir de una señal de banda lateral única mediante el uso
de un modulador a diodo. Esto se ve fácilmente considerando, por ejemplo que la señal moduladora es una
sinusoide de frecuencia f. Aquí, la señal de banda lateral única consistirá también de una sola sinusoide de
frecuencia fc + f, y no hay ninguna variación de la amplitud en la frecuencia de la banda base a la que el
modulador a diodo pueda responder; es decir, se necesita un equipo más complejo. Además de la complejidad
del equipo, los sistemas SSB prácticos tienen una pobre respuesta en baja frecuencia. Es posible una reducción en
la complejidad del equipo y mejoras en la respuesta de baja frecuencia si solamente se suprime parcialmente una
83 Texto de Comunicaciones: José Morón

banda lateral en lugar de eliminarla completamente. Los esquemas de modulación en los cuales se transmite una
banda lateral más un residuo de la segunda banda lateral se conocen como esquemas de modulación de banda lateral
residual (VSB, por sus siglas en inglés). La modulación VSB se usa ampliamente para transmitir señales de
mensajes que tienen anchos de banda muy grandes y contenidos significativos de baja frecuencia (tales como en
la transmisión de datos de alta velocidad y en televisión).
En la modulación SSB sólo se transmite una de las dos bandas laterales que resultan de la multiplicación de la
señal del mensaje x(t) con una portadora. En la Fig. 3.21a se muestra la generación de una señal SSB de banda
lateral superior mediante un modulador de producto y el filtrado de una señal DSB, esto se conoce como el
método de discriminación de frecuencia. La recuperación de la señal de la banda base mediante demodulación
sincrónica se muestra en la Fig. 3.21b. En las Figs. 3.21c, d y e muestran la representación en el dominio de la
frecuencia de las operaciones importantes en un esquema de modulación SSB. La descripción en el dominio del
tiempo de señales SSB es algo más difícil, excepto por el caso de modulación de tono. El requisito más severo
para la generación de la SSB usando el método de discriminación de frecuencia proviene de la banda lateral no
deseada.

Señal DSB
x(t Filtro de xc(t) xc(t) z(t) Filtro de y(t)
)
banda lateral banda base

Ac cos ωc t 2 cos ωc t

(a) Modulador (b) Demodulador


X(f)

–fx 0 fx f

(c) Espectro de la señal

HSSB(f)

–fc – fx 0 fc fc + fx f
(d)
Xc(f)

–fc – fx –fc 0 fc fc + fx f

(e) Espectro de la señal transmitida


Xc(f)

– fx 0 fx f

(f) Señal reconstruida

Figura 3.21. Modulación de banda lateral única.


84 Texto de Comunicaciones: José Morón

De la Fig. 3.21 se puede verificar que el ancho de banda de la señal SSB es


BT = f x (3.50)

y el promedio de la potencia transmitida es

ST = 21 Sc Sx (3.51)

Las operaciones de modulación y demodulación para la señal SSB como se muestran en la Fig. 3.19 parecen
muy sencillas. Sin embargo, la implementación práctica es bastante difícil por dos razones. Primero, el
modulador requiere de un filtro de banda lateral ideal; segundo, el demodulador requiere de una portadora
sincrónica.
El requisito de eliminación de una banda lateral exige unas características agudas del corte requerido del filtro
de banda lateral HSSB(f), las cuales no pueden ser sintetizadas exactamente. Por ello, se debe atenuar una parte de
la banda lateral deseada o pasar una porción de la banda lateral no deseada. Afortunadamente, muchas (no
todas) señales de mensaje tienen poco o ningún contenido de bajas frecuencias. Estas señales (por ejemplo, de
voz o música) tienen “agujeros de energía” a frecuencia cero y estos agujeros aparecen como un espacio vacante
centrado en la frecuencia de la portadora. La región de transición de un filtro de banda lateral práctico puede ser
acomodada en esta región como se muestra en la Fig. 3.22. Como una regla empírica, la relación 2α/fc no puede
ser menor que 0.01 si se desea una frecuencia de corte razonable. La anchura de la región de transición 2α está
limitada a la anchura del “agujero” en el espectro y para una fc dada, puede no ser posible obtener un valor
razonable para la relación 2α/fc. Para esos casos, el proceso de modulación puede hacerse en dos o más etapas
usando una o más frecuencias portadoras.

X(f) Xc(f)
HSSB(f)

fx f 0 fc f
0

(a) Espectro del mensaje (b) Espectro DSB

Figura 3.22. Características del filtro de banda lateral. (a) Espectro del mensaje. (b) Espectro DSB.

Al diseñar el filtro de pasabanda usado en el discriminador de frecuencias para generar una onda SSB, se
deben cumplir tres requisitos:
1. La banda lateral deseada debe estar dentro de la banda de paso del filtro.
2. La banda lateral no deseada debe estar dentro de la banda de rechazo del filtro.
3. La banda de transición del filtro que separa la pasabanda de la banda de rechazo, es el doble de la
componente de frecuencia más baja de la señal del mensaje.
Este tipo de discriminación de frecuencia usualmente requiere del uso de filtros altamente selectivos, los cuales
sólo pueden realizarse en la práctica mediante resonadores a cristal.
La señal SSB puede ser generada por otro método denominado el método de desplazamiento o corrimiento de fase,
el cual no requiere de un filtro de banda lateral. Para ilustrar cómo trabaja este método, supóngase que la señal
del mensaje tiene la forma
85 Texto de Comunicaciones: José Morón

n
x(t ) = ∑ X cos( 2 πf t + θ ),
i =1
i i i fn ≤ fx (3.52)

Entonces la señal SSB (banda lateral superior) correspondiente a x(t) es dada por
n
Ac
xc ( t ) =
2 ∑ X cos[ 2 π( f
i=1
i c + f i ) t + θi ]

Podemos reescribir xx(t) como

Ac     n  
n
xc ( t ) =  
2   i=1 ∑ X i cos( 2 πf i t + θ i ) 

cos 2 πf c t − 
 i =1
X i ∑
sen ( 2 πf i t + θi ) 

sen 2 πf c 
t

 (3.53)
A A
= c [ x ( t )cos 2 πf c t ] − c xˆ ( t )sen 2 πf c t
2 2
donde xˆ ( t ) se define como
n
xˆ ( t ) = ∑ X sen ( 2 πf t + θ )
i =1
i i i (3.54)

Las Ecs. (3.52), (3.53) y (3.54) sugieren que una señal SSB puede ser generada a partir de dos señales de doble
banda lateral (DSB) que tienen portadoras en cuadratura 21 Ac cos ωc t y 21 Ac sen ωc t moduladas por x(t) y xˆ ( t ) .
La componente de la señal en cuadratura xˆ ( t ) [conocida como la transformada de Hilbert de x(t)], se obtiene a
partir de x(t) desplazando la fase de cada componente espectral de x(t) por 90º. En la Fig. 3.23 se muestra un
modulador SSB de desplazamiento de fase consistente de dos moduladores DSB (de producto) y redes
apropiadas de desplazamiento de fase. El diseño de circuitos para el desplazamiento de fase no es trivial y un
diseño imperfecto generalmente resulta en distorsión de las componentes de baja frecuencia.

1
2
Ac x ( t ) cos ωc t

Ac cos ωc t

½ x(t) + Señal SSB


Desplazamiento
de 90° −

Desplazamiento
de 90° 1
Ac xˆ ( t ) sen ωc t
2

Figura 3.23. Modulador SSB por desplazamiento de fase.

Como la señal de banda lateral única reside en un subconjunto de la banda de frecuencias ocupada por la señal
de banda lateral doble, ella satisface dos de los requisitos de un sistema de modulación. Es decir, mediante una
selección adecuada de la frecuencia portadora, podemos mover la señal modulada hacia una banda de
frecuencias que transmita eficientemente. También podemos usar bandas diferentes para señales diferentes,
permitiendo de esta manera la transmisión simultánea de múltiples señales. La señal original también puede ser
recuperada a partir de la señal de banda lateral única (SSB, por sus siglas en inglés), como se verá cuando
estudiemos demoduladores más adelante en el capítulo.
86 Texto de Comunicaciones: José Morón

3.5.7 Demodulación de Señales SSB

Para demodular una señal SSB, se puede usar un detector coherente, el cual multiplica xc(t) por una portadora
generada localmente y luego el resultado se pasa por un filtro de pasabajas. Este método supone un sincronismo
perfecto entre el oscilador en el detector coherente y el oscilador usado para proporcionar la onda portadora en
el transmisor. Este requisito usualmente se cumple en una de las formas siguientes:
1. Se transmite una portadora piloto de baja frecuencia además de la banda lateral elegida.
2. En el receptor, se usa un oscilador de alta estabilidad, sintonizado a la misma frecuencia que la frecuenta
portadora.
En lugar de usar un demodulador sincrónico se puede añadir una componente de portadora a la señal SSB
(preferiblemente en el transmisor) e intentar demodular la señal SSB usando un demodulador de envolvente. Sin
embargo, este procedimiento conducirá a alguna distorsión de la señal y a desperdiciar potencia transmitida
como se discute en la sección siguiente.

Ejemplo 3.8. Demuestre que si la salida del modulador de corrimiento de fase (Fig. 3.24) es una señal SSB, (a) la
diferencia de las señales en la unión de suma produce la SSB de banda lateral superior (USB, por sus siglas en
inglés) y (b) la suma produce la señal SSB de banda lateral inferior (LSB, por sus siglas en inglés). Es decir,
ˆ ( t )sen ωc t
xc ( t ) = xUSB ( t ) = m ( t )cos ωc t − m (3.55)

es una señal SSB de banda lateral superior y


ˆ ( t )sen ωc t
xc ( t ) = xLSB ( t ) = m ( t ) cos ωc t + m (3.56)

es una señal SSB de banda lateral inferior.

Solución:
(a) Supongamos que
m(t ) ↔ M ( ω) y ˆ (t )
m ↔ ˆ ( ω)
M

Entonces aplicando el teorema de modulación o la propiedad de corrimiento de frecuencia de la


transformada de Fourier, tenemos

1 1
m ( t )cos ωc t ↔ M ( ω − ωc ) +M ( ω + ωc )
2 2
1 ˆ 1 ˆ
ˆ ( t )sen ωc t
m ↔ M ( ω − ωc ) − M ( ω + ωc )
2j 2j

m ( t ) cos ωc t

cos ωc t
+
π
− ∓
2
+
sen ωc t

π

2 mˆ ( t ) sen ωc t
Figura 3.24
87 Texto de Comunicaciones: José Morón

Tomando la transformada de Fourier de la Ec. (3.55), se obtiene

1 1  1 ˆ 1 ˆ 
Xc ( ω ) = M ( ω − ωc ) + M ( ω + ωc ) −  M ( ω − ωc ) − M ( ω + ωc )
2 2 2 j 2j 
También sabemos que
ˆ ( ω − ω ) = − j sgn ( ω − ω ) M ( ω − ω )
M c c c
ˆ ( ω + ω ) = − j sgn ( ω + ω ) M ( ω + ω )
M c c c
y entonces
1 1
Xc ( ω ) = M ( ω − ωc ) + M ( ω + ωc )
2 2
 1 1 
−  − sgn ( ω − ωc ) M ( ω − ωc ) + sgn ( ω + ωc ) M ( ω + ωc )
 2 2 
1 1
= M ( ω − ωc )[ 1 + sgn ( ω − ωc )] + M ( ω + ωc )[ 1 − sgn ( ω + ωc )]
2 2
Puesto que
2 ω > ωc
1 + sgn ( ω − ωc ) = 
0 ω < ωc
y
2 ω < −ωc
1 − sgn ( ω + ωc ) = 
0 ω > −ωc
tenemos

0 ω < ωc

Xc ( ω ) =  M ( ω + ωc ) ω < −ωc
 M (ω − ω ) ω > ωc
 c

la cual se dibuja en la Fig. 3.25b. Vemos que xc(t) es una señal SSB de banda lateral superior.

M(ω)

ω
–ωM 0 ωM
(a )
Xc(ω
M(ω + ωc) ) M(ω – ωc)

–ωx 0 ωc ω
(b )

Xc(ω
M(ω + ωc) ) M(ω – ωc)

–ωx 0 ωc
ω
(c)

Figura 3.25
88 Texto de Comunicaciones: José Morón

(b) En una forma similar, tomando la transformada de Fourier de la Ec. (3.56), tenemos que

1 1
Xc ( ω ) = M ( ω − ωc )[ 1 − sgn ( ω − ωc )] + M ( ω + ωc )[ 1 + sgn ( ω + ωc )]
2 2
Como
2 ω < ωc
1 − sgn ( ω − ωc ) = 
0 ω > ωc
y
2 ω > −ωc
1 + sgn ( ω + ωc ) = 
0 ω < −ωc
Tenemos
0 ω > ωc

Xc ( ω ) =  M ( ω − ωc ) ω < ωc
 M (ω + ω ) ω > −ωc
 c

la cual se dibuja en la Fig. 3.25c. Vemos que xc(t) es una señal SSB de banda lateral inferior.

Ejemplo 3.9. Demuestre que una señal SSB puede ser demodulada por el detector sincrónico de la Fig. 3.26, (a)
Dibujando el espectro de la señal en cada punto y (b) obteniendo la expresión en el dominio del tiempo de las
señales en cada punto.

xSSB d(t) y(t)


LPF

cos ωc t
Figura 3.26. Detector sincrónico.

Solución:
(a) Sea M(ω), el espectro del mensaje m(t), como se muestra en la Fig. 3.27a. Suponga también que xSSB(t) es una
señal SSB de banda lateral inferior y que su espectro es XSSB(ω), como se muestra en la Fig. 3.27b. La
multiplicación por cos ωc t desplaza el espectro de XSSB(ω) hasta ±2ωc y obtenemos D(ω), el espectro de d(t),
1
Fig. 3.27c. Después de un filtrado de pasabajas, obtenemos Y ( ω ) = 2
M ( ω ) , el espectro de y(t). Así pues,
obtenemos y ( t ) = 21 m ( t ) , que es proporcional a m(t).

(b) De la Ec. (3.53), la señal xSSB(t) puede ser expresada como


ˆ ( t )sen ωc t
xSSB ( t ) = m ( t ) cos ωc t ∓ m

Así que

d ( t ) = xSSB ( t )cos ωc t
= m ( t )cos 2 ωc t ∓ m
ˆ ( t )sen ωc t cos ωc t
= 21 m ( t )(1 + cos 2 ωc t ) ∓ 21 m
ˆ ( t )sen 2 ωc t
= 21 m ( t ) + 21 m ( t ) cos 2 ωc t ∓ 12 m
ˆ ( t )sen 2 ωc t

Por lo tanto, después del filtrado de pasabajas se obtiene

y ( t ) = 21 m ( t )
89 Texto de Comunicaciones: José Morón

M(ω)

–ωM 0 ωM ω
(a)
XSSB(ω)

–ωx 0 ωc ω
(b)
D(ω)

–2ωx 0 2ωc ω
(c)
Y(ω) = ½ M(ω)

0 ω
(d)

Figura 3.27

3.5.8 Modulación de Banda Lateral Residual (VSB)

La ventaja de la SSB sobre la DSB es la economía en el uso de la frecuencia. Es decir, la SSB usa la mitad del
ancho de banda correspondiente requerido para la transmisión de DSB. La desventaja principal de la SSB es la
dificultad para construir un transmisor o un receptor efectivo. Adelantándonos en el juego, un problema con la
SSB es que cuando intentamos construir un filtro con corte agudo para remover una de las bandas laterales, la
característica de fase del filtro desarrolla rizos. Mientras más nos acerquemos a la característica de amplitud
ideal del filtro, más empeora la característica de fase. Un área donde la conservación de frecuencia se vuelve
crítica es en la televisión, donde los anchos de banda tienen órdenes de magnitud mucho mayores que los de la
voz. La distorsión de fase en una señal de video produce desviación de la imagen escaneada resultante y eso se
ve como imágenes fantasmas en la pantalla. El ojo es mucho más sensible a estas formas de distorsión que lo es
el oído a formas equivalentes de distorsión de la voz. Por tanto, tenemos razón en buscar alguna forma de
compromiso entre la SSB y la DSB.
Muchas señales de mensajes como la de video en TV, facsímile y señales de datos de alta velocidad tienen un
ancho de banda muy grande y un contenido significativo de baja frecuencia. La modulación SSB tiene una pobre
respuesta de baja frecuencia. Aun cuando la modulación DSB trabaja bien para mensajes con alto contenido de
bajas frecuencias, el ancho de banda de transmisión de la DSB es el doble del de la SSB. Un esquema de
modulación que ofrece el mejor compromiso entre la conservación del ancho de banda, respuesta de baja
frecuencia mejorada y mejor eficiencia de potencia es la modulación de banda lateral residual (VSB, por sus siglas en
inglés). En este tipo de modulación, una de las bandas laterales es suprimida parcialmente y se transmite un
residuo o vestigio de la segunda banda lateral para compensar la supresión.
La modulación VSB se deriva filtrando señales DSB o AM en una forma tal que se pasa casi completamente
una banda lateral pero solo un residuo de la otra banda. En la Fig. 3.28 se muestra una función de transferencia
90 Texto de Comunicaciones: José Morón

de un filtro VSB típico; el diseño especial del filtro de pasabanda es lo que distingue la modulación VSB de la
SSB. Un requisito importante y esencial del filtro de VSB, HVSB(f), es que debe tener simetría impar con respecto a
la frecuencia de la portadora fc y una respuesta relativa (normalizada) de ½ en fc.

x(t)
Modulador
HVSB(f) VSB + portadora
de amplitud

Ac cos ωc t
(a) Modulador

HVSB(f)

HSSB(f)
Hα(f) = HSSB(f) – HVSB(f)

Hα(f)

fc – α fc + α f

(b) Características del filtro

Figura 3.28. Modulación VSB. (a) Modulador. (b) Características del filtro.

El filtro de banda lateral VSB tiene un intervalo de transición de anchura 2α Hz y el ancho de banda de
transmisión de la señal VSB es
BT = f x + α , α < fx (3.57)

Para derivar una expresión en el dominio del tiempo para la señal VSB, H VSB ( f ) se expresa como
H VSB ( f ) = H SSB ( f ) − [ H α ( f )] (3.58)

donde H α ( f ) representa la diferencia entre las respuestas de los filtros SSB y VSB. Se requiere que H α ( f )
tenga simetría impar con respecto a fc (la razón de este requerimiento se aclarará cuando se trabaje el Prob. 3.26).
La entrada al filtro VSB es Ac [1 + x ( t )]cos ωc t y la señal de salida puede expresarse en la forma

xc ( t ) = 12 Ac cos ωc t + 12 Ac [ x ( t ) cos ωc t − xˆ ( t )sen ωc t ] − 21 Ac xα ( t )sen ωc t (3.59)


     
VSB + portadora señal SSB
portadora 
señal VSB

1
En la Ec. (3.59), la porción 2
Ac xα ( t )sen ωc t es la respuesta de H α ( f ) a la entrada Ac x ( t )cos ωc t . La Ec. (3.59)
también se puede escribir como
1
xc ( t ) = 2
Ac [1 + x ( t )]cos ωc t − 21 Ac γ ( t )sen ωc t (3.60)

donde γ ( t ) = xˆ ( t ) + xα ( t ) . Si γ ( t ) = 0 , entonces la Ec. (3.60) se reduce a una señal AM y cuando γ ( t ) = xˆ ( t ) ,


tenemos una señal SSB + portadora, es decir, la modulación SSB puede considerarse como un caso especial de la
modulación VSB. El papel de la componente en cuadratura es interferir con la componente en fase para así
reducir parcialmente la potencia en una de las bandas laterales de la onda modulada y retener simplemente un
residuo de la otra banda lateral, como se desea.
91 Texto de Comunicaciones: José Morón

Aunque no es fácil derivar una expresión exacta para la potencia promedio transmitida en un proceso de
modulación VSB, se pueden obtener cotas para ST como

Sc + 21 Sc Sx ≤ ST ≤ Sc Sx + Sc (3.61)

donde Sc es la potencia de la portadora y Sx es la potencia de la señal.


El lector puede verificar que la señal VSB puede ser demodulada mediante un demodulador sincrónico. Sin
embargo, resulta que podemos demodular una señal VSB con una pequeña distorsión usando demodulación de
envolvente si se ha añadido una componente grande de portadora a la señal VSB en el transmisor.

Demodulación de Envolvente de Señales SSB. A menudo es deseable combinar la demodulación de envolvente


de la AM con la conservación del ancho de banda de las señales de banda lateral suprimida. La demodulación
de envolvente perfecta y libre de distorsión requiere ambas bandas laterales y una señal portadora grande.
Añadiendo una portadora a la señal VSB, se tiene que

xc ( t ) = Ac { [ 1 + x ( t )] cos ωc t − γ ( t )sen ωc t} (3.62)

Para modulación AM, γ ( t ) = 0 ; y γ ( t ) = xˆ ( t ) para SSB + portadora. Para VSB + portadora, el factor γ ( t ) toma
un valor intermedio.

La envolvente de xc ( t ) se encuentra escribiendo

xc ( t ) = R ( t )cos[ ωc t + φ ( t )]

donde R(t) es la envolvente dada por

{ [ 1 + x ( t )] }
12
2
R ( t ) = Ac + [ γ ( t )]2

  γ(t )  2 
12 (3.63)
 
= Ac [1 + x ( t )] 1 +   
  1 + x ( t )  

La Ec. (3.63) muestra que la envolvente está distorsionada (la envolvente sin distorsión, igual que en el caso AM,
es Ac [1 + x ( t )] ). Sin embargo, si γ ( t ) ≪ 1 , la distorsión es despreciable y R ( t ) ≈ Ac [1 + x ( t )] , igual que en el
caso AM. Así que la clave para el éxito de la detección de envolvente de señales de banda lateral suprimida es
mantener pequeña la componente de cuadratura γ ( t ) .

Para la señal SSB + portadora, γ ( t ) = xˆ ( t ) y, por tanto, γ(t) no puede ignorarse. Adicionalmente, en la
portadora se desperdicia una cantidad substancial de potencia, mucho más que en la AM. Para una señal VSB
con una banda lateral no demasiado pequeña, la mayor parte del tiempo γ ( t ) es pequeña comparada con
x ( t ) . Así que la demodulación de envolvente puede usarse sin una distorsión excesiva. También, para una
señal VSB + portadora, se puede demostrar que la potencia transmitida promedio es
ST ≈ Sc + Sc Sx
que es esencialmente la misma que en AM.
El ancho permisible de la banda lateral residual dependerá de las características espectrales de x(t) y de la
cantidad de distorsión que se pueda tolerar. Las transmisiones de TV comercial utilizan modulación VSB +
portadora con un 30% de banda lateral residual. Mientras que la distorsión puede ser bastante apreciable, la
evidencia experimental indica que la calidad de la imagen no se degrada mucho. Posteriormente discutiremos
varios aspectos interesantes de las señales de la TV comercial.
92 Texto de Comunicaciones: José Morón

3.4.9 Demodulación de Banda Lateral Residual

La banda lateral residual resulta de pasar una señal AM de banda lateral doble a través de un filtro de
pasabanda que admite esencialmente una banda lateral completa y parte de la otra. La transformada de Fourier
de la banda lateral residual es por tanto dada por
X ( f + fc ) + X ( f − fc )
X ν ( f ) = X c ( f )H ( f ) = H( f ) (3.64)
2
H(f) es la función de transferencia del filtro que remueve la mayor parte de una banda lateral. Suponga ahora
que esta señal forma la entrada a un demodulador sincrónico (coherente). Cuando la señal VSB es multiplicada
por un coseno en la frecuencia portadora, la transformada de Fourier se desplaza hacia arriba y hacia abajo en
una cantidad igual a la frecuencia portadora. La parte que se desplaza hacia abajo pasa a través del filtro de
pasabajas. La parte que se desplaza hacia arriba reside en torno a 2fc y es rechazada por el filtro. La salida del
filtro tiene entonces una transformada dada por

X ( f + f c )  H ( f + f c ) + H ( f − f c ) 
Xo ( f ) = (3.65)
4
La Ec. (3.65) puede usarse para establecer las condiciones sobre el filtro. La suma entre corchetes se muestra en
la Fig. 3.29 para una H(f) típica.

H(f)

f
−fc fc

H ( f + fc ) + H ( f − f c )
Suma

f
−2fc 2 fc

Figura 3.29. Restricción del filtro de pasabanda para VSB

La función de transferencia del filtro, H ( f ) , debe tener simetría impar para frecuencias en torno a la portadora
de forma que la suma de los dos términos aproxime una característica constante. La cola de la característica del
filtro debe ser asimétrica en torno a f = f c . Esto es, la mitad de la salida de la cola debe doblarse y llenar
cualquier diferencia entre los valores de la mitad interna y el valor para un filtro ideal.

3.5. Modulación ASK y MASK

Suponga ahora que la señal de banda base es una señal digital NRZ-L*. x(t) toma entonces solamente uno de dos
valores, A0 o A1. La señal modulada, x(t ) cos 2 πf c t es entonces ya sea A0 cos 2 πf c t o A1 cos 2 πf c t , dependiendo
de si se envía un cero o un uno. Una onda típica podría parecerse a la mostrada en la Fig. 3.30(a).
Al comunicar una señal digital de banda base binaria usando modulación de amplitud, vemos que la amplitud
se desplaza entre dos niveles posibles. Aunque esto es simplemente un caso especial de AM, se le da un nombre
separado: conmutación por cambio de amplitud (ASK, por sus siglas en inglés).

* Éste es un tipo de formato usado en la comunicación digital. Una forma de transmitir una sucesión de unos y ceros es

transmitir una señal de +V voltios para un uno digital y una señal de 0 voltios para un cero digital (transmisión unipolar).
Una modificación es enviar una constante de +V voltios para un uno digital y −V voltios para un cero digital (transmisión
bipolar). Si el pulso de voltaje permanece en su valor durante todo el intervalo sin regresar a cero, el formato se conoce como
NRZ o de no regreso a cero. Si el nivel de voltaje se corresponde con el nivel lógico, el tipo de formato se conoce como NRZ-L.
93 Texto de Comunicaciones: José Morón

Supongamos que A0 se fija igual a cero. La amplitud es entonces cambiada entre A1 y cero y la onda
correspondiente a la Fig. 3.30(a) aparecería como en la Fig. 3.30(b). Observe que enviamos un pulso sinusoidal
de amplitud A1 para enviar un uno binario y apagamos el generador para enviar un cero binario. A este tipo de
comunicación se le da el nombre descriptivo conmutación on-off (OOK, por sus siglas en inglés). Cuando
estudiemos este sistema más adelante en este capítulo, encontraremos que fijar A0 en cero es la mejor selección
para comunicación digital. De hecho, hay muy pocas razones para escoger cualquier otro valor, así que cuando
se habla de ASK, se puede suponer automáticamente que se trata de OOK a menos que se diga lo contrario.

1 0 1 0
A1

A0

(a) ASK con dos amplitudes no cero

1 0 1 1
A1

(b) Conmutación ON-OFF

Figura 3.30. Formas de Onda ASK.

La transformada de Fourier de una señal modulada en amplitud consiste de un desplazamiento por la


frecuencia de la portadora de la transformada de la banda base. Lo mismo es cierto para la densidad espectral de
potencia, de modo que la densidad espectral de potencia de una señal OOK aleatoria es como muestra la Fig.
3.31. El área total bajo la densidad espectral de potencia está relacionada con la potencia promedio de la señal; es
decir,
∞ A12
PASK = 2

0
S ASK ( f ) df =
4
(3.66)

La potencia promedio de una sinusoide de amplitud A1 es A12 (esto es, la mitad del cuadrado de la amplitud).
Como la señal OOK es cero durante la mitad del tiempo en promedio, su potencia promedio es A12 4 . Ésta
especifica el área total baja la densidad espectral de potencia.

MASK
La Fig. 3.31 muestra que el ancho de banda nominal (hasta los primeros ceros de la densidad de potencia
espectral) de la ASK binaria es el doble de la tasa de bits. Así, por ejemplo, si se quisiese transmitir con una tasa
de 56 kbps, se necesitaría un ancho de banda de aproximadamente 112 kHz. Para poner esto en perspectiva,
observamos que las líneas telefónicas no condicionadas tienen un ancho de banda de menos de 4 kHz. Entonces,
¿cómo evadimos esta seria limitación en velocidad? Por supuesto, siempre se podría disminuir (hacerla más
lenta) la tasa de bits hasta que el ancho de banda se adapte al ancho de banda del canal. En algunas aplicaciones,
94 Texto de Comunicaciones: José Morón

se podría tener esta opción (¡un lujo!). Suponga, por ejemplo, que se estuviesen transmitiendo fotografías desde
una locación lejana y el tiempo real no constituyese un problema. Se podrían enviar los elementos de imagen
muy lentamente (quizás tomando varias horas para enviar una sola foto). Otro método sería usar compresión de
datos para reducir el número de bits que se tienen que enviar. Por ahora nos concentraremos en las técnicas de
reducción del ancho de banda.

Densidad de potencia espectral Rb = tasa de bits

f
fc − 2Rb fc − Rb fc fc + Rb fc + 2Rb

Figura 3.31. Densidad de potencia espectral de la OOK.

Conforme se estudie la derivación del ancho de banda de la ASK, nos daremos cuenta que es inversamente
proporcional a la longitud de los pulsos sinusoidales usados para enviar unos y ceros. Suponga ahora que
combinásemos cada par de bits en un solo símbolo. El símbolo tomaría uno de cuatro valores posibles (0, 1, 2 o 3)
y tendríamos un sistema 4-ario. Si ahora transmitimos los símbolos usando pulsos sinusoidales de cuatro
amplitudes diferentes, tenemos un ejemplo de la MASK, donde m = 4. Como cada pulso sinusoidal ahora dura
2Tb, el ancho de banda es exactamente la mitad de la ASK binaria. Por supuesto, se paga un precio. Conforme
necesitemos más y más niveles de amplitud, las amplitudes tienden a acercarse entre sí y es de esperar que se
cometan más errores. Más adelante en este capítulo examinamos el rendimiento.
Estudiemos un ejemplo de ASK (4-aria) de cuadratura. En este caso, la amplitud toma uno de cuatro valores
posibles: cero, A1, A2 o A3. Como un ejemplo, suponga que queremos transmitir la secuencia de bits 101101.
Primero combinamos los bits en pares: 10 11 01, lo cual se convierte en 231 en un sistema de base cuatro. Para
transmitir esto usando MASK, enviamos una portadora de amplitud A2 para los primeros períodos de dos bits,
luego cambiamos la amplitud a A3 para los dos períodos siguientes y finalmente hacemos la amplitud igual a A1
para los períodos de dos bits siguientes. Esto se ilustra en la Fig. 3.32.

A3
A2
A1

0
−1
−2
−3
0 1 2 3 4 5

Figura 3.32. Señal MASK


95 Texto de Comunicaciones: José Morón

3.5.1 Moduladores de ASK Digital

Los moduladores estudiados hasta ahora en esta sección pueden aplicarse a señales de banda base que sean
analógicas o digitales. Sin embargo, en la aplicación digital son posibles implementaciones mucho más sencillas.
Cuando hablamos de AM digital, se entiende conmutación por cambio de amplitud (ASK) y cuando usamos el
término ASK, normalmente nos referimos, como ya se mencionó, a conmutación on-off (OOK) de encendido –
apagado.
Se tienen dos métodos para generar la señal ASK. Una técnica comienza con la señal de banda base y la usa
para modular en amplitud una portadora sinusoidal. Como la señal de banda base consiste de segmentos de
onda diferentes, la señal AM también consiste de segmentos modulados diferentes.
Otro método es generar primero la onda AM directamente sin formar primero la señal de banda base. En el
caso binario, el generador sólo tendría que ser capaz de formular uno de dos segmentos distintos de la onda
AM. Para conmutación on-off, simplemente necesitamos conmutar un oscilador entre encendido y apagado,
como muestra la Fig. 3.33. Este sistema representa un generador de PAM con muestreo natural. También es el
“extremo delantero” del modulador de compuerta. Por tanto, su implementación sigue el formato ya presentado
anteriormente en esta sección.
0

+
cos 2 πf c t

Figura 3.33. Modulador para OOK y ASK binaria

Los moduladores ASK binarios pueden ser adaptados fácilmente a sistemas M-arios. Por ejemplo, si queremos
generar MASK 4-aria usando la técnica directa descrita anteriormente, simplemente comenzamos con una señal
NRZ de banda base, la cual sería simplemente una función tipo escalera tomando uno de cuatro niveles de
amplitud. El resultado sería la señal MASK. Como la amplitud (teóricamente) cambia instantáneamente, el
diseñador tendría que poner atención a la respuesta transitoria del circuito particular usado en el modulador.
Otra técnica es alimentar la salida del oscilador de portadora a un amplificador de ganancia variable. La
ganancia debe ser capaz de tomar uno de M valores (por ejemplo, cuatro valores en ASK 4-aria, de los cuales
uno probablemente sería cero). Esto podría hacerse mediante conmutación de resistores de valores diferentes en
la entrada de un amplificador operacional.
Un modulador semejante al de la Fig. 3.33 tendría cuatro fuentes sinusoidales alimentando un conmutador.
Éste seleccionaría cuál de las cuatro fuentes se conectaría en la salida.

3.5.2 Demodulación ASK

Ahora estudiaremos el detector coherente para la AM digital, esto es, la ASK. Si fuésemos a usar el demodulador
sincrónico para ASK (OOK), la salida sería una función constante por tramos. Suponga, por ejemplo, que la
entrada es un pulso sinusoidal de amplitud A cuando se está enviando un uno y que la entrada es cero cuando
se está enviando un cero. La salida del demodulador sincrónico sería una señal de banda base unipolar que varía
en amplitud entre cero y A voltios.

3.6. Multicanalización por Portadora en Cuadratura

El efecto nulo de cuadratura del detector coherente puede ponerse a buen uso en la construcción del llamado
multicanalización por portadora en cuadratura o modulación de portadora en cuadratura (QAM, por su siglas en inglés).
Este esquema permite que dos ondas DSB-SC (resultantes de la aplicación de dos señales de mensaje físicamente
96 Texto de Comunicaciones: José Morón

independientes) ocupen el mismo ancho de banda en un canal y al mismo tiempo también permite la separación
de las dos señales en el recepto. Es por tanto un esquema de conservación de ancho de banda.
En la Fig. 3.34 se muestra un diagrama de bloques del sistema QAM. La parte transmisora del sistema,
mostrada en la Fig. 3.34(a), involucra el uso de dos moduladores de producto separados que son alimentados
por dos ondas portadoras de la misma frecuencia pero que difieren en fase por −90°. La señal transmitida xc(t)
consiste de la suma de estas dos salidas de los moduladores y es dada por

xc (t ) = Ac m1 (t )cos ( 2 πf c t ) + Ac m2 (t )sen ( 2 πf c t ) (3.67)

donde m1(t) y m2(t) denotan las dos señales de mensaje diferentes aplicadas a los moduladores de producto. De
manera que xc(t) ocupa un ancho de banda de 2fx centrado en la frecuencia portadora fc, donde fx es el ancho de
banda del mensaje m1(t) o m2(t). De acuerdo con la Ec. (3.67), podemos considerar a Ac m1 (t ) como la
componente en fase de la señal de pasabanda combinada xc(t) y − Ac m2 (t ) como su componente de cuadratura.

La parte receptora del sistema se muestra en la Fig. 3.34(b). La señal combinada xc(t) se aplica simultáneamente
a dos detectores coherentes separados que son alimentados con dos portadoras locales de la misma frecuencia
pero que difieren en fase por −90°. La salida del detector en la parte superior es Ac m1 (t ) , en tanto que la salida
del detector en la parte inferior es Ac m2 (t ) . Para que el sistema opere en forma satisfactoria, es importante que
se mantengan relaciones correctas para la fase y la frecuencia entre los osciladores locales en el transmisor y
receptor del sistema.

Mensaje Modulador
m1(t) Señal
de producto
combinada
xc(t)
Ac cos ( 2 πf c t )

Desp. de
fase −90°

Ac sen ( 2 πf c t )

Mensaje Modulador
m2(t) de producto

(a)

Modulador Filtro de
Acm1(t)
de producto pasabajas

2 cos ( 2 πf c t )
Señal
combinada Desp. de
xc(t) fase −90°

2 sen ( 2 πf c t )

Modulador Filtro de
Acm2(t)
de producto pasabajas

(b )

Figura 3.34. Sistema de multicanalización en cuadratura. (a) Transmisor. (b) Receptor.


97 Texto de Comunicaciones: José Morón

Para mantener esta sincronización, se puede enviar una señal piloto por fuera de la banda de paso de la señal
modulada. En este método, la señal piloto consiste típicamente de un tono sinusoidal de pasabajas cuya
frecuencia y fase están relacionadas con la portadora; en el receptor, la señal piloto es extraída mediante un
circuito sintonizado adecuado y luego trasladada a la frecuencia correcta para su uso en el detecto coherente.

3.7. Conversión de Frecuencias (Mezclado)

La traslación de frecuencias, también conocida como conversión de frecuencias o mezclado, es la operación más
importante en los sistemas de modulación lineal. La modulación traslada el espectro del mensaje hacia
frecuencias superiores y la demodulación es básicamente una operación de traslación de frecuencias hacia abajo.
La traslación de frecuencias también se usa a menudo para trasladar una señal de pasa-bandas con una
frecuencia portadora hasta una nueva frecuencia central.. Esto se puede obtener multiplicando la señal de pasa-
bandas por una señal periódica como se indica en la Fig. 3.35.
La idea de la traslación de frecuencia puede generalizarse así. Suponga que tenemos una onda modula x1(t)
cuyo espectro está centrado en una frecuencia portadora f1; el requerimiento es trasladarla hacia arriba en
frecuencia de modo que su frecuencia portadora se cambie de f1 a un nuevo valor f3. Esto puede alcanzarse
usando el mezclador mostrado en la Fig. 3.35. Específicamente, el mezclador es un dispositivo que consiste de un
modulador de producto seguido por un filtro de pasabanda.

x ( t ) cos ω1t BPF x ( t ) cos ω2 t


centrado
en ω2

2 cos ( ω1 + ω2 ) t

Figura 3.35 Conversión de frecuencia o mezclado.

Modulador Balanceado. Un modulador balanceado que genera una señal DSB (producto) se muestra en la Fig.
3.36. El modulador balanceado consiste de dispositivos de suma (amplificadores operacionales) y dos elementos
no lineales acoplados (como, por ejemplo, diodos polarizados apropiadamente). Si suponemos que la no
linealidad puede representarse mediante una característica en serie de potencias con dos términos, entonces

y ( t ) = a1 [ Ac cos ωc t + x ( t )] + a2 [ Ac cos ωc t + x ( t )] 2 − a1 [ Ac cos ωc t − x ( t )] − a2 [ Ac cos ωc t − x ( t )] 2


= 2 a1 x ( t ) + 4 a2 x ( t ) Ac cos ωc t

Si x(t) está limitada en banda a fx y si fc > 2fx, entonces la salida del filtro de pasabanda será
x ( t ) = ( 4 a2 Ac ) x ( t ) cos ωc t

que es la señal producto deseada. Con frecuencia se usan diodos semiconductores como los dispositivos no
lineales en los moduladores balanceados. El rendimiento de este tipo de modulador depende de lo bien que se
puedan acoplar las características de los diodos.

Modulador de Conmutación. Otro circuito que se usa para mezclar dos señales se muestra en la Fig. 3.34.
Cuando el voltaje de la portadora es positivo, hay un voltaje de salida v(t); y cuando la portadora es negativa, el
voltaje de salida es igual a cero. Así que los diodos operan como conmutadores con una frecuencia fc y la salida
v(t) se puede escribir como
v( t ) = x( t ) s( t )
98 Texto de Comunicaciones: José Morón

+ x1 (t )
Alinealidad a1 x1 + a2 x12
+ +
x (t ) BPF xc (t )
Ac cos ωc t centro fc
BW = fx
+ x (t ) −
− 2
Alinealidad a1 x2 + a2 x22

(a)

x (t ) xc (t )

Ac cos ωct

(b )

Figura 3.33 Modulador balanceado. (a) Diagrama de bloques de un modulador


modulador balanceado. (b) Diagrama del circuito de un modulador balanceado.

Señal DSB

Ac cos ωc t xc (t )
Señal del mensaje v (t ) BPF
x (t )
centro f c
ancho de banda = 2 f x

Figura 3.34. Modulador de conmutación.

donde s(t) es una función de conmutación con un período 1/fc. Suponiendo un valor de CD igual a cero para la
señal del mensaje x(t) y usando la expansión en serie de Fourier para s(t), podemos escribir v(t) como
v ( t ) = k0 x ( t ) + k1 x ( t ) cos( ωc t ) + k3 x ( t )cos( 3 ωc t ) + ⋯ (3.68)

= término de la banda base + término DSB + armónicos


Al derivar la Ec. (3.68) hemos supuesto que s(t) es una onda cuadrada simétrica, lo que implica que los
coeficientes de la serie de Fourier k2 , k4 , … son todos iguales a cero. Mediante filtrado de pasa-banda de v(t)
obtenemos la salida como

xc ( t ) = k1 x ( t ) cos ωc t

que es la señal DSB deseada.


En los sistemas prácticos, los osciladores, dispositivos de suma y filtros se construyen usando componentes
RLC y redes activas tales como transistores y amplificadores operacionales en circuitos integrados. Para
frecuencias de microondas, estos dispositivos se convierten en sistemas de parámetros distribuidos.
99 Texto de Comunicaciones: José Morón

3.8. Multicanalización por División de Frecuencias

Otra operación importante de procesamiento de señales es la multicanalización (multiplexing, en inglés). La


transmisión simultánea de varias señales de mensajes por un solo canal se denomina multicanalización y
consiste en combinar varias señales independientes en una señal compuesta apropiada para transmisión por un
canal común. Hay dos tipos básicos de técnicas de multicanalización: multicanalización por división de frecuencias
(FDM, por sus siglas en inglés) y multicanalización por división de tiempo (TDM, por sus siglas en inglés). En la
FDM, el ancho de banda disponible en el canal es dividido en varias “ranuras” que no se solapan y a cada señal
de mensaje se le asigna una ranura de frecuencias dentro de la pasa-banda del canal. Las señales individuales
pueden ser extraídas de la señal FDM mediante un filtrado apropiado. La FDM se utiliza en la telefonía de larga
distancia, telemetría de sondas espaciales y en otras aplicaciones.
El principio de la FDM se ilustra en la Fig. 3.35 para tres señales de mensajes que se supone están limitadas en
banda. En general, si las señales de mensajes no están estrictamente limitadas en banda, entonces será necesario
un filtrado de pasabajas. Las señales limitadas en banda modulan individualmente las subportadoras cuyas
frecuencias son f c1 , f c2 y f c3 . La modulación de subportadoras mostrada en el ejemplo es SSB, pero se puede
emplear cualquier técnica de modulación. Las señales moduladas son sumadas para producir una señal
multicanalizada completa x (t ) cuyo espectro se muestra en la Fig. 3.35c.

Si se escogen adecuadamente las frecuencias subportadoras, entonces cada mensaje de señal ocupa una banda
de frecuencias sin ningún solapamiento. Aunque los mensajes individuales están identificados en el dominio de
la frecuencia, la señal combinada no teendrá ningún parecido con las señales de mensaje en el dominio del
tiempo. La señal multicanalizada x(t) puede ser transmitida directamente o usada para modular otra portadora
de frecuencia f c antes de la transmisión.

fc1
X1(f)
x 1 (t ) xc1(t)
LPF Modulador SSB
f
–fx1 fx1 fc2
X2(f)
+
x 2 (t ) xc2(t) x (t ) Modulador
LPF Modulador SSB de portadora
f + xc(t)
–fx2 fx2 fc3 +
X3(f)
x 3 (t ) xc3(t)
LPF Modulador SSB
f
–fx3 fx3

(a) Espectros del mensaje (b) Transmisor FDM

X (f ) Banda de guarda Filtro receptor para xc3

fc1 fc1 + fx1 fc2 fc2 + fx2 fc3 fc3 + fx3 f

(c) Espectro de la señal multicanalizada

Figura 3.35. Multicanalización por división de frecuencia (FDM) (a) Espectros del mensaje. (b) Transmisor
FDM. (c) Espectro de la señal multicanalizada.
100 Texto de Comunicaciones: José Morón

La recuperación de las señales de mensajes individuales se muestra en la Fig. 3.36. El primer paso en la
recuperación es la demodulación para extraer x(t) a partir de xc(t). Un filtrado de pasa-bandas de la portadora
modulada xc ( t ) separa a xc1 ( t ), xc2 ( t ) y xc3 ( t ) . Finalmente, los mensajes son recuperados demodulando
individualmente a xc1 ( t ), xc2 (t ) y xc3 ( t ) . Al equipo de multicanalización y de des-multicanalización a menudo
se le refiere por las siglas “MUC”.
Uno de los problemas principales con la FDM es la diafonía, es decir, el acoplamiento cruzado indeseado entre
un mensaje y otro. La diafonía (intermodulación) surge principalmente a causa de no-linealidades en el sistema
y se deben tomar precauciones considerables para reducirlas en dispositivos que procesan señales FDM. Una
segunda fuente de diafonía es una separación espectral imperfecta de las señales debido a filtrado imperfecto y a
derivas (pequeñas desviaciones) en las frecuencias de las subportadoras. Para reducir la posibilidad de
solapamiento espectral, los espectros modulados son separados en frecuencia mediante bandas de guarda, en las
cuales se puedan acomodar las regiones de transición del filtro.

BPF LPF x 1 (t )
fc1 fx1

fc1
xc(t) Demodulación BPF LPF x 2 (t )
de portadora fc2 fx2

fc2
BPF LPF x 3 (t )
fc3 fx3

fc3

Figura 3.36. Receptor de FDM.

El ancho de banda mínimo de una señal FDM es igual a la suma de los anchos de banda de todas las señales de
mensajes. Si se usa un esquema de modulación diferente de la SSB para multicanalizar, el ancho de banda de la
señal FDM será mayor. La presencia de las bandas de guarda aumenta aún más el ancho de banda.
La FDM tiene bastante uso en los sistemas telefónicos para transmitir un gran número de señales de voz por
un solo canal. Un sistema usado anteriormente por la compañía Bell usa una estructura FDM modular donde se
multicanalizan hasta 3600 canales de voz para transmisión por cable coaxial. La multicanalización se hace
usando modulación SSB con subportadoras derivadas de un oscilador común y se transmite una portadora
piloto de 512 kHz junto con la señal multicanalizada para sincronización. El agrupamiento de canales como se
muestra en la Tabla 2 posibilita el evitar requerimientos excesivos de las bandas de guarda. Adicionalmente, el
agrupamiento facilita la conmutación y el enrutamiento de la señal y permite el diseño modular del equipo.

Tabla 3. Jerarquía FDM del Sistema Bell


Banda de Ancho de banda Número de
Designación Composición frecuencias canales
(kHz) (kHz) de voz
12 canales de
Grupo 60 – 108 48 12
voz
Supergrupo 5 grupos 312 – 552 240 60
Grupo maestro 10 supergrupos 564 –3084 2520 600
Supergrupo 6 grupos
500 – 17500 17000 3600
maestro maestros
101 Texto de Comunicaciones: José Morón

Para suministrar transmisión de dos vías, como en telefonía, tenemos que duplicar completamente las
facilidades de multicanalización para el transmisor y el receptor, con las componentes conectadas en orden
inverso.
En las secciones siguientes se discuten otras aplicaciones de la FDM tales como la radiodifusión de FM estéreo
y TV.

3.9. Radiodifusión Comercial

El espectro electromagnético ha sido descrito como un recurso natural. La definición en el diccionario de recurso
es “algo que está listo para usarse o al que se puede recurrir como ayuda o para satisfacer una necesidad”. Un
recurso natural se define como “aquellas formas reales y potenciales de riqueza suministradas por la naturaleza”.
Es interesante que este término sea apropiado para algo que no es realmente un ente. El espectro
electromagnético efectivamente está listo para usarse como recurso para satisfacer una necesidad – la necesidad
de comunicarnos. Es una forma potencial de riqueza, y aunque no puede gastarse en el sentido del petróleo o el
gas natural, si puede usarse en el sentido de que sólo un número limitado de usuarios pueden tener acceso a él
en cualquier instante.
Por estas razones, la regulación de este recurso valioso es necesaria. Es un tributo a la ingeniosidad de los
legisladores que ha sido legalmente posible regular el uso del aire. No solamente se regulado la transmisión,
sino que también se ha regulado la recepción. Problemas legales interesantes rodean la recepción de los canales
de radio de la policía o de los canales de entretenimiento satelitales. En los primeros días del entretenimiento
satelital, un individuo legendario que fue demandado por montar una antena en su patio para recibir canales de
entretenimiento satelitales, contrademandó a la compañía transmisora por inyectar señales en su propiedad
privada sin su permiso. Así creo fuentes de trabajo seguras para los abogados.
Cuando los cuerpos reguladores en los Estados Unidos de Norteamérica debatían soluciones técnicas al
espionaje en teléfonos celulares, optaron más bien por ilegalizar la intercepción de esas señales. No obstante, la
necesidad de la regulación es reconocida mundialmente. La Unión Internacional de Comunicaciones (UIT) basada
en Ginebra, Suiza, es la encargada de la regulación mundial e incluye membresía de todas las naciones del
mundo. Ha designado bandas anchas de frecuencia y emitido regulaciones dentro de cada banda. Las bandas
son:

VLF 3-30 kHz


LF 30-300 kHz
MF 300-3000 kHz
HF 3-30 MHz
VHF 30-300 MHz
UHF 300-3000 MHz
SHF 3-30 GHz
EHF 30-300 GHz

Las transmisiones VLF tienen la forma de ondas de superficie y pueden recorrer largas distancias. La energía
de radio frecuencia en esta banda es capaz de penetrar océanos, de manera que esta banda se usa en
comunicaciones con submarinos. Las bandas VHF y UHF se usan para televisión. Adicionalmente, la telefonía
celular usa porciones de la banda UHF.
El cuerpo regulador en los Estados Unidos que establece las reglas (dentro de las normas generales de la UIT
es la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés). En Venezuela la regulación la establece la
Comisión Nacional de Telecomunicaciones (CONATEL).
La radiodifusión comercial usando radiación electromagnética comenzó en la primera parte del siglo 20 con la
invención de la radio AM. La primera transmisión permanente la comenzaron las estaciones de radio WWJ de
102 Texto de Comunicaciones: José Morón

Detroit y KDKA de Pittsburgh en 1920. La red CBS comenzó la radiodifusión comercial en 1927 con una cadena
de 16 estaciones. Actualmente, la industria de la radiodifusión consiste de miles de estaciones de AM, FM y TV.

3.5.1 Radiodifusión y Recepción de AM

La asignación de frecuencias portadoras para la radiodifusión AM comercial está en la banda de 540 a 1700 kHz
con una separación de 10 kHz (esto equivale a una frecuencia máxima en el mensaje de 5 kHz). esta separación,
la banda completa puede soportar hasta 117 asignaciones de portadoras. Sin embargo, separación no es
suficiente para evitar el solapamiento espectral para AM con una señal de audio de fidelidad altamente
razonable. Por tanto, las estaciones AM con frecuencias portadoras adyacentes son situadas muy lejanas
geográficamente para minimizar la interferencia. A las estaciones que están muy cercanas usualmente se les
asignan frecuencias portadoras que difieren por 30 kHz o más. El ancho de banda de transmisión está
restringido a 10 kHz, resultando en un ancho de banda para el mensaje de 4 a 5 kHz. La interferencia entre
transmisiones es controlada mediante una combinación de asignación de frecuencias, potencia del transmisor,
diagrama de transmisión de la antena y otras restricciones tales como estabilidad de la portadora (±20 Hz). La
potencia promedio permisible, para una portadora no modulada, va desde 1 kW para estaciones locales hasta 50
kW para estaciones regionales. Todas las estaciones están obligadas a mantener una modulación de 85 a 90%.
La ubicación de la antena es importante ya que una estación de baja potencia en un área rural puede tener menos
restricciones que una estación de alta potencia en un área metropolitana grande donde muchas estaciones
compiten por un espacio de frecuencias limitado. Si a dos estaciones de alta potencia se les asignase frecuencias
portadoras adyacentes, las demandas de filtrado sería excesivas. La altura de la antena y la altitud también
afectan el alcance de la transmisión.
La potencia radiada afecta el alcance de la transmisión. La FCC debe ser cuidadosa y no asignar frecuencias
portadoras idénticas a dos estaciones diferentes que serán recibidas en un mismo punto.
El diagrama de antena también afecta el alcance en función del direccionamiento de la antena. Una estación de 5
kW que transmite en forma omnidireccional crea mucho menos interferencia con una estación que esté a 500 km
de distancia que una estación de 5 kW que dirige toda su potencia en una dirección particular.
El tiempo de radiodifusión afecta el alcance. Las características de transmisión del aire a frecuencias medias
dependen de la temperatura y la humedad. No es extraño que una estación que se oye a distancias de hasta 150
km durante el día sea recibida a 500 km en la noche. Por tanto, algunas estaciones reciben licencias para operar
solamente durante las horas del día.
Con esto como una introducción, estamos ahora en posición de entender la operación del receptor estándar de
radiodifusión AM. En cualquier receptor pueden identificarse varias operaciones básicas. La primera es la
separación de las estaciones. Debemos escoger la señal deseada y rechazar todas las otras señales. La segunda
operación es la de amplificación. La señal interceptada por la antena de radio es demasiado débil (en el orden de 1
µV) para alimentar la electrónica en el receptor y debe ser amplificada primero. La tercera operación es la de
demodulación. La señal recibida está modulada en amplitud y contiene frecuencias centradas en torno a la
frecuencia portadora.
Separar un canal de los demás requiere un filtro de pasabanda muy preciso con una característica aguda de
frecuencia de corte. Suponga, por ejemplo, que queremos oír una estación con portadora en 1.01 MHz (1010 en el
dial AM). Esta estación ocupa frecuencias de 1.005 a 1.015 MHz. Las estaciones adyacentes ocupan 0.995 a 1.005
y 1.015 a 1.025 MHz, de manera que el filtro de pasabanda debe estar muy cerca del ideal. La FCC intenta
ayudar en esta situación evitando dar licencias a estaciones poderosas en bandas de frecuencias adyacentes. No
obstante, el receptor debe suponer que esas estaciones locales sí existen. Suponiendo que el oyente querría tener
la capacidad de sintonizar el receptor a cualquier estación en la banda, el filtro tendría que ser ajustable. Es decir,
la banda de frecuencias que deja pasar debe ser ajustable.
Para hacer que un filtro de pasabanda se acerque a las características ideales, necesitamos múltiples etapas de
filtrado. Un solo circuito RLC no tiene una Q suficientemente alta para alcanzar la separación de las estaciones.
La sintonización de filtros de múltiples secciones no es una tarea sencilla. Por ejemplo, se podría tener que variar
tres capacitores desiguales en una forma particular para alcanzar el ajuste de la frecuencia central de un filtro
Butterworth de tercer orden. Los primeros receptores AM contenían esos filtros y típicamente tenían tres diales
103 Texto de Comunicaciones: José Morón

de sintonización (controles de capacitores variables) que tenían que ser ajustados en forma simultánea. La
familia se reunía alrededor del radio y el jefe de la casa (en esos días probablemente, un hombre) jugaría con los
tres botones. Era causa principal de celebración cuando aparecía una estación (junto con ruido) en la bocina.
Afortunadamente, Edwin Armstrong cambió todo esto cuando inventó el receptor superheterodino en 1918. Este
concepto sencillo eliminó la necesidad del ajuste complejo del filtro e introdujo la era de la radio.
El receptor superheterodino es un tipo especial de receptor que cumple con las tres funciones siguientes:
 Sintonización de la frecuencia portadora, cuyo objetivo es separar la señal deseada, es decir, la estación
deseada.
 Filtrado, para separar la señal deseada de las otras señales moduladas que pueden captarse.
 Amplificación, para compensar por la pérdida de la señal incurrida en el curso de la transmisión.
En la Fig. 3.37 se muestra el diagrama de bloques de un receptor AM del tipo superheterodino. Consiste
básicamente de un amplificador de RF sintonizado a la frecuencia de la portadora deseada. Un arreglo de un
oscilador-mezclador local traslada la señal de radio frecuencia (RF) a una señal de frecuencia intermedia (IF) con
una frecuencia de portadora fIF = 455 kHz. Esta operación es la que se conoce como heterodinaje o mezclado. El
amplificador de IF está sintonizado en la frecuencia IF fija de 455 kHz y proporciona la mayor parte de la
ganancia y selectividad de frecuencias en el sistema. El amplificador de audio sigue al detector e incrementa el
nivel de potencia al requerido por la bocina. Los requerimientos de potencia de la bocina varían desde una
fracción de un vatio hasta muchos vatios (con una impedancia de bocina de 8 o 16 ohmios).
La banda de sintonización en RF es por supuesto de 540 a 1700 kHz, mientras que el oscilador local debe
sintonizar entre 995 y 2055 kHz si fOL = f c + f IF , y de 85 a 1145 kHz si fOL = f c − f IF . La banda de sintonización
es aproximadamente de 2 : 1 para el primer caso y de 13 : 1 para el segundo caso, el cual es más difícil de
implementar. Por lo tanto, fOL = f c + f IF se toma como la frecuencia del oscilador local.

El ancho de banda del amplificador de RF debe ser igual al ancho de banda de transmisión BT.. Si BRF es mucho
mayor, las señales desde dos estaciones podrían llegar al amplificador de IF resultando en interferencia.
Suponga que hay dos señales de RF en f c = fOL − f IF y f c′ = fOL + f IF . Ahora bien, si estamos tratando de recibir
la estación en f c = fOL − f IF , la señal del oscilador local tendrá que estar en fOL . Cuando la señal del oscilador
local es mezclada con las señales entrantes, también recogeríamos la señal en f c′ , la cual se denomina la
frecuencia imagen. El lector puede verificar que la señal con la frecuencia imagen será rechazada por el filtro de
RF si el ancho de banda del filtro RF es menor que 2 f IF .

Antena
CAV BAF ≈ fx ≈ 5 kHz
BT < BRF < 2fIF

RF IF Detector AF
Bocina
BIF ≈ BT = 10 kHz
fIF = 455 kHz
Oscilador
local (OL)
fOL = fc ± fIF

Figura 3.37 Receptor superheterodino.

Los receptores algunas veces responden a frecuencias espurias diferentes de las frecuencias imagen. Por
ejemplo, cuando una señal fuerte de frecuencia 21 f IF llega a la entrada del amplificador IF, cualquier segundo
armónico producido por no-linealidades en el amplificador de IF estará en la frecuencia IF. Este segundo
104 Texto de Comunicaciones: José Morón

armónico será amplificado y aparecerá en la salida del detector como interferencia. Se requiere un diseño
cuidadoso con múltiples mezcladores y amplificadores de IF para obtener una fuerte discriminación contra esta
interferencia.
Una característica importante de los receptores AM es el control automático de volumen o CAV. La señal de
RF en la entrada del receptor a menudo cambia lentamente con respecto al tiempo debido a desvanecimiento.
Esto resulta en cambios en el nivel de la señal de audio en la salida, lo que podría resultar molesto. El CAV se
ocupa de estas variaciones usando la desviación CD de la salida del detector para controlar la ganancia del
amplificar de IF. Puesto que la desviación CD es proporcional al nivel de la señal de RF, el arreglo de
realimentación compensa las variaciones en el nivel de la señal RF controlando la ganancia de los amplificadores
de IF mediante una polarización adecuada.

PROBLEMAS

3.1. Dos señales x1 (t ) y x2 (t ) cuyas transformadas de Fourier X1 ( f ) y X2 ( f ) se muestran en la Fig. 3.38, se


combinan para formar la señal
y ( t ) = x1 ( t ) + 2 x2 ( t ) cos 2 πf c t , f c = 20000 Hz

(a) Determine el ancho de banda de la señal y(t).

(b) Dada y(t), ¿cómo se separarían x1(t) y 2 x2 ( t )cos 2 πf c t ?

X 1 (f ) X 2 (f )
10–4
10–4

–5 0 5 f (kHz) –10 0 10 f (kHz)


Figura 3.38

3.2. Una señal m(t)tiene una transformada de Fourier

1, f 1 ≤ f ≤ f 2 , f 1 = 1 kHz; f 2 = 10 kHz


M( f ) = 
0, otros valores de f

Suponga que se forma una señal y ( t ) = m ( t )cos 2 π (10)6 t . Halle la banda de frecuencias para la cual y(t)
tiene componentes espectrales diferentes de cero. También determine la relación entre las frecuencias más
alta y más baja [para las cuales Y ( f ) ≠ 0 ] de y(t). Compare esta relación con f2/f1. ¿Es y(t) una señal de
banda angosta? (Se dice que una señal de pasa-bandas es una señal de banda angosta si f alta f baja ≈ 1. )

3.3. Considere un sistema con la amplitud y respuesta de fase mostradas en la Fig. 3.39 y las tres entradas
siguientes:
x1 (t ) = cos 500πt + cos 2000πt
x2 (t ) = cos 500 πt + cos 2500 πt
x3 (t ) = cos 2500 πt + cos 3500πt

(a) Determine las salidas y1 ( t ), y2 ( t ) y y3 ( t ) .

(b) Identifique el tipo de distorsión, si la hay, sufrida por cada una de las señales de entrada.
105 Texto de Comunicaciones: José Morón

H(f) arg H ( f )
90°

–1.5
–2 –1 0 1 2 (kHz) 0 1.5 (kHz)

–90°

(a) (b )

Figura 3.39 (a) Respuesta de amplitud. (b) Respuesta de fase

3.4. Demuestre que un filtro RC de pasabajas da una transmisión casi libre de distorsión si la entrada al filtro
está limitada en banda a f x ≪ f 0 = 1 2 πRC .

3.5. Supóngase que una función de transferencia con “rizos” en la respuesta de amplitud puede ser
aproximada por

( 1 + α cos ωt0 ) exp ( − jωtd ) , α < 1, f < fx


H( f ) = 
0 otros valores de f

donde fx es el ancho de banda de la señal de entrada x(t). Demuestre que la salida y(t) es

α
y ( t ) = x ( t − td ) + x ( t − td + t0 ) + x ( t − td − t0 
2
es decir, y(t) tiene un par de ecos.
3.6. La función de transferencia de un canal se muestra en la Fig. 3.40. La entrada al canal es una señal de
pasabajas x(t) con un ancho de banda igual a fx. Diseñe un compensador de cinco derivaciones para este
canal. (Sugerencia: Expanda 1 H c ( f ) como una serie de Fourier en el intervalo [ − f x , f x ] y use los
coeficientes de la serie para ajustar las ganancias de las tomas del compensador.)

  f 2 
1 H c ( f ) = exp  −   
  2 fx  
 

0 f

Figura 3.40 Hc(f) para el Problema 3.6.

3.7. Un elemento no-lineal en un sistema de comunicación tiene la característica de transferencia

y ( t ) = x ( t ) + 0.2 x 2 ( t ) + 0.02 x 3 ( t )

La salida deseada es el primer término. Si la entrada a la no-linealidad es x ( t ) = cos 700 πt + cos 150 πt ,
determine:
(a) los términos de distorsión en las frecuencias de la señal de entrada;
(b) los términos de distorsión de segundo armónico;
(c) los términos de distorsión de tercer armónico;
(d) los términos de distorsión por intermodulación.
106 Texto de Comunicaciones: José Morón

3.8. Considérese una señal x ( t ) = x2 ( t ) + x1 ( t ) cos 2 πft , donde x1(t) y x2(t) tienen los espectros mostrados en la
Fig. 3.38 y fc = 2000 Hz. Suponga que x(t) se aplica a una no-linealidad con una característica de
transferencia y ( t ) = x ( t ) + 0.002 x 2 ( t ) . Dibuje las componentes que forman el espectro de y(t) e identifique
los términos de intermodulación (productos cruzados).
3.9. Suponga que se tienen disponibles dispositivos no lineales para los cuales la corriente de salida io y el
voltaje de entrada están relacionados por

i o = a1 vi + a3 vi3

donde a1 y a3 son constantes. Explique cómo se pueden usar estos dispositivos para proporcionar (a) un
modulador de producto y (b) un modulador de amplitud.
3.10. Una señal de pasabajas x(t) con un ancho de banda de 10 kHz es multiplicada por cos ωc t para producir
xc(t). Determine el valor de fc para que el ancho de banda de xc(t) sea un 1% de fc.

3.11. Una señal de pasabajas x ( t ) = 2 cos 2000 πt + sen 4000 πt es aplicada a un modulador DSB que opera con
una frecuencia de portadora igual a 100 kHz. Dibuje la densidad espectral de potencia de la salida del
modulador.
3.12. Se pueden generar señales DSB multiplicando la señal del mensaje por una portadora no-sinusoidal como
se muestra en la Fig. 3.41.
(a) Demuestre que el esquema mostrado en la figura trabajará si g(t) no tiene componente CD y la
frecuencia de corte del filtro es fc + fx, donde fc es la frecuencia fundamental de g(t) y fx es el ancho de
banda de x(t).

(b) Suponga que x ( t ) = 2 cos1000 πt y que g(t) es como se muestra en la Fig. 3.41. Determine el ancho de
banda del filtro. Escriba una expresión para la salida xc(t).
(c) ¿Cómo modificaría el sistema si g(t) tiene una componente CD?

g(t)
x(t) xc(t)
LPF 1

g(t)
(Señal periódica) –1
1 µseg

Figura 3.41. Modulador DSB para el Prob. 3.13.

3.13. Demuestre que es posible demodular una señal DSB xc ( t ) = Ac x ( t ) cos 2 πf c t multiplicándola por una onda
rectangular con un período T = 1 f c y luego pasando la salida por un filtro de pasabajas (suponga que la
onda rectangular es una función par de t).

3.14. Demuestre que la potencia promedio de una señal DSB xc ( t ) = Ac x ( t )cos ωc t es Sc Sx [Ec. (3.14)] probando
que
1 T2 2
lím
T →∞ t −T 2 ∫
x ( t ) cos 2 ωc tdt = 0

Suponga que x ( t ) está limitada en banda a fx y que f c ≫ f x .


3.15. Una forma de onda modulada en amplitud tiene la forma
107 Texto de Comunicaciones: José Morón

xc ( t ) = 10(1 + 0.5 cos 2000 π t + 0.5 cos 4000 π t )cos 20000 π t

(a) Dibuje el espectro de amplitudes de xc(t).


(b) Determine la potencia promedio contenida en cada componente espectral incluyendo la portadora.
(c) Halle la potencia total, la potencia en las bandas laterales y la eficiencia en potencia.
(d) ¿Cuál es el índice de modulación?
3.16. En la Fig. 3.42 se muestra una forma de onda AM. Suponga que la señal del mensaje es sinusoidal.
(a) Determine el índice de modulación.
(b) Calcule Sc, Sxy la eficiencia en potencia.

xc(t)
10 V
5
0
t
–5
–10 V

Figura 3.42. Forma de onda para el Prob. 3.16.

3.17. Un transmisor AM desarrolla una salida de potencia no modulada de 400 vatios a través de una carga
resistiva de 50 ohmios. La portadora es modulada por una señal de un solo tono con un índice de
modulación de 0.8.
(a) Escriba la expresión para la señal AM xc(t) suponiendo que fx = 5 kHz y fc = 1 MHz.
(b) Halle la potencia promedio total de la salida del modulador.
(c) Halle la eficiencia de potencia del modulador.
3.18. Los moduladores prácticos con frecuencia tienen una limitación de potencia pico además de una limitación
de potencia promedio. Suponga que un modulador DSB y un modulador AM están operando con una
señal
x ( t ) = 0.8 cos 200 πt

y con una forma de onda portadora igual a 10 cos 2 πft ( f c ≫ 100 Hz).

(a) Determine la potencia pico (instantánea) de las señales DSB y AM.


(b) Obtenga la relación entre la potencia pico y la potencia promedio en las bandas laterales para las
señales DSB y AM y compare las relaciones.
3.19. Considere el modulador de conmutación mostrado en la Fig. 3.43.

(a) Suponiendo que máx x ( t ) ≪ Ac y que el diodo actúa como un conmutador ideal, demuestre que

v0 ( t ) ≈ Ac  cos( 2 πf c t ) + mx ( t )  g p ( t )

donde gp(t) es un tren de pulsos rectangulares con período 1/fc y un ciclo de trabajo de ½.
(b) Sustituyendo la serie de Fourier para gp(t) en la ecuación anterior, demuestre que v0(t) tiene un
componente de la forma A [ 1 + mx ( t )] cos( 2 πf c t ) .

(c) Suponiendo que x(t) es una señal de pasabajas limitada en banda a fx Hz ( f x ≪ f c ) , demuestre que es
posible generar una señal AM mediante un filtrado de pasa-bandas de v0(t).
108 Texto de Comunicaciones: José Morón

Ac cos 2πf ct

x (t ) vi (t ) v0 (t )

(a )
v0 ( t )

v0 = vi

vi (t )
(b)

Figura 3.43. (a) Modulador de conmutación. (b) Características del diodo ideal.

3.20. Una señal AM de la forma Rx ( t ) cos( 2 πf c t ) pasa por un canal de pasabanda con una función de
transferencia H ( f ) = K exp  jθ ( f ) . La respuesta de fase del canal es de tal forma que puede ser
aproximada por una serie de Taylor con dos términos como

d θ( f )
θ ( f + fc ) ≈ θ ( fc ) + f
df f = fc

Demuestre que la señal en la salida del canal puede ser representada por
y ( t ) = KRx ( t − t R )cos[ 2 πf c ( t − tc )]

Donde el retraso de la portadora tc y el retraso de la envolvente tR están dados por

1 dθ ( f ) θ ( fc )
tR = − , tc = −
2π df f = fc
2 πf c

3.21. Considere el demodulador de ley cuadrática para señales AM mostrado en la Fig. 3.44.
(a) Dibuje el espectro de la salida xɶ ( t ) .

(b) Demuestre que si x ( t ) ≪ 1 , entonces xɶ ( t ) ≈ a + kx ( t ) , donde a y k son constantes.

xc ( t ) = Ac 1 + x ( t )  cos ωc t

z
Filtro de xɶ (t )
pasabajas
y
Frecuencia
No linealidad de corte fx
z = ay2

Figura 3.44. Demodulador de ley cuadrática para señal AM.

3.22. La señal xc ( t ) = 2 (1 + 0.4 cos 6000 πt )cos 106 πt es aplicada a un dispositivo de ley cuadrática con una
característica de transferencia y = ( x + 4)2 . La salida del dispositivo de ley cuadrática es filtrada por un
LPF ideal con una frecuencia de corte de 8000 Hz. Dibuje el espectro de amplitudes de la salida del filtro.
109 Texto de Comunicaciones: José Morón

3.23. Una señal x ( t ) = 2 cos 1000 πt + cos 2000 πt es multiplicada por una portadora igual a 10 cos 10 5 πt . Escriba
la expresión para los términos de la banda lateral superior de la señal producto.
3.24. Considere la señal AM
xc (t ) = Ac  1 + µ cos ( 2 πf m t )  cos ( 2 πf c t )
producida por una señal moduladora sinusoidal de frecuencia fm. Suponga que el factor de modulación
µ = 2 y que la frecuencia portadora fc es mucho mayor que fm. La señal AM xc(t) se aplica a un detector de
envolvente ideal y se produce la salida v(t).
(a) Determine la representación en serie de Fourier de v(t).
(b) ¿Cuál es la razón entre la amplitud del segundo armónico y la amplitud fundamental de v(t)?
3.25. Con frecuencia se usa un esquema de modulación de multietapas para generar una señal SSB usando
filtros con 2 α f c < 0.01 (Fig. 3.21). Suponga que queremos usar el esquema mostrado en la Fig. 3.45 para
generar una señal SSB con una frecuencia portadora fc = 1 MHz. El espectro de la señal moduladora se
muestra en la Fig. 3.46. Suponga que se tienen filtros de pasa-bandas que proporcionarán 60 dB de
atenuación en un intervalo de frecuencias que es aproximadamente 1% de la frecuencia central del filtro.
Especifique las frecuencias portadoras y las características del filtro para esta aplicación.

x (t ) Filtro Filtro xc(t)

Portadora Portadora
fc1 fc 2

Figura 3.45 Un modulador SSB de dos etapas.

X (f )

–3000 –300 0 300 3000 f

Figura 3.46. Espectro de la señal para el Prob. 3.25.

3.26. La Fig. 3.47 muestra el modulador SSB de Weaver. Analice su operación tomando x ( t ) = cos 2 πf x t ( f x < 2 B ) .
Demuestre que xc(t) es una señal SSB.

LPF
f1 = B
BW = B
f2 = fc ± B
f1 f2 + f x < 2B
x(t )
−90o −90o xc (t )
±

LPF
BW = B

Figura 3.47. Modulador SSB de Weaver (compare este modulador con el de la Fig. 3.23).

3.27. Dibuje el diagrama esquemático de un demodulador sincrónico para una señal VSB. Demuestre que el
filtro VSB que se usa para general la señal VSB debe tener la simetría mostrada en la Fig. 3.28.
110 Texto de Comunicaciones: José Morón

3.28. Verifique la afirmación que sigue a la Ec. (3.58).

3.29. Obtenga una expresión para una señal VSB generada con x ( t ) = cos 2 πf x t y H VSB ( f c + f x ) = 0.5 + a ,
H VSB ( f c − f x ) = 0.5 − a , (0 < a < 0.5). Escriba la respuesta en la forma de envolvente y de fase y en la forma
de cuadratura. Tome a = 0.25 y evalúe el término de distorsión en la Ec. (3.40).
3.30. Dibuje el diagrama de bloques para un modulador AM que usa un dispositivo no-lineal cuya característica
3
de transferencia es vsal = a1 ven + a3 ven .

3.31. Suponga que los elementos no-lineales usados en un modulador balanceado (Fig. 3.33a) no están
2 3
sintonizados. Es decir, uno de ellos tiene la característica de transferencia vsal = a11 ven + a12 ven + a13 ven ,
2 3
mientras que el segundo tiene la característica de transferencia vsal = a21 ven + a22 ven + a23 ven . Halle la señal
de salida.
3.32. Dada una señal real m(t), defina una señal
ˆ (t )
m+ = m ( t ) + jm

donde ˆ (t ) es la transformada de Hilbert de m(t) y m+(t) se llama una señal analítica.


m
(a) Demuestre que
2 M ( ω) ω > 0
F [ m+ ( t )] = M+ ( ω ) = 
0 ω<0
(b) Demuestre que
Re[ m ( t ) e jωc t ]

es una señal SSB de banda lateral superior y

Re[ m+ ( t ) e− jωc t ]

es una señal SSB de banda lateral inferior.


3.33. La señal vin(t) mostrada en la Fig. 3.48 forma la entrada a un detector de envolvente. Dibuje la onda de
salida.

+ +

v in (t ) 1Ω 1F vout (t )

− −

Figura 3.48

3.34. Una versión particular de un sistema AM estéreo usa multicanalización de cuadratura. Específicamente, la
portadora Ac cos ( 2 πf c t ) se usa para modular la señal suma

m1 (t ) = V0 + mi (t ) + md (t )

donde V0 es una compensación CD incluida con el propósito de transmitir la componente de portadora,


mi(t) es la señal de audio izquierda y md(t) es la señal de audio derecha. La portadora de cuadratura
Ac sen ( 2 πf c t ) se usa para modular la señal diferencia

m 2 ( t ) = m i (t ) − m d ( t )
111 Texto de Comunicaciones: José Morón

(a) Demuestre que se puede usar un detector de envolvente para recuperar la suma mi (t ) + md (t ) de la
señal multicanalizada en cuadratura. ¿Cómo minimizaría la distorsión de la señal producida por el
detector de envolvente?

(b) Demuestre que un detector coherente puede recuperar la diferencia mi (t ) − md (t ) .

(c) ¿Cómo se obtienen finalmente las señales mi(t) y md(t) deseadas?


3.35. Como se explicó, dos señales de mensaje x1(t) y x2(t) pueden ser moduladas sobre la misma portadora
usando el esquema de multicanalización de cuadratura mostrado en la Fig. 3.49.
(a) Verifique la operación de este esquema de multicanalización de cuadratura.

(b) Si el oscilador local en el receptor tiene una desviación de fase igual a ∆θ con respecto a la portadora
del transmisor, determine las salidas y1(t) y y2(t) (suponga que ∆θ << 1 ).

Filtro
x1 (t ) y1 (t )

+
Canal
90o 90o
+

x2 (t ) y2 (t )
Filtro
Sinc

fc fc

Figura 3.49. Esquema de multicanalización en cuadratura.

3.36. La señal moduladora de un solo tono m(t ) = Am cos ( 2 πf m t ) se usa para generar la señal VSB

1 1
x c (t ) = aAm Ac cos  2 π ( f c + f m ) t  + Am Ac ( 1 − a ) cos  2 π ( f c − f m ) t 
2 2
donde a es una constante menor que uno y representa la atenuación de la frecuencia superior.
(a) Halle la componente de cuadratura de la señal VSB xc(t).

(b) La señal VSB, más la portadora Ac cos ( 2 πf c t ) , se pasa a través de un detector de envolvente.
Determine la distorsión producida por la componente de cuadratura.
(c) ¿Cuál es el valor de la constante a para el cual esta distorsión alcanza la peor condición posible?
3.37. En este problema se estudia la idea de mezcla en un receptor superheterodino. Para ser específicos,
considere el diagrama de bloques del mezclador mostrado en la Fig. 3.50, el cual consiste de un modulador
de producto con un oscilador local de frecuencia variable fl, seguido por un filtro de pasabandas. La señal de
entrada es una onda AM con un ancho de banda de 10 kHz y frecuencia portadora que puede estar en
cualquier parte de la banda de 0.535 a 1.605 MHz; estos parámetros son típicos de radiodifusión AM. Se
requiere trasladar esta señal a una banda de frecuencias centrada en una frecuencia intermedia (IF) de 0.455
MHz. Halle la banda de sintonización que se debe suministrar en el oscilador local para cumplir con este
requerimiento.
112 Texto de Comunicaciones: José Morón

Filtro de
xc(t) v 2 (t )
pasabanda

cos ( 2 πf l t )
Figura 3.50

3.38. Veinticinco estaciones de radio están transmitiendo en la banda entre 3 MHz y 3.5 MHz. Se quiere
modificar el receptor de AM para recibir todas las emisiones. Cada señal de audio tiene una frecuencia
máxima fm = 10 kHz. Describa, en detalle, los cambios que tendría que hacer en el receptor
superheterodino estándar para recibir las estaciones.
3.39. Diseñe un receptor superheterodino que opere sobre señales AM en la banda entre 1.7 y 2 MHz. Como un
mínimo, su diseño debe incluir la selección de una etapa FI y el diseño del circuito del heterodino.
3.40. En la Fig. 3.51 se muestra un receptor de cuadratura. Los osciladores locales se han desplazado por 30°,
como se indica. Halle la salida del receptor si una señal AM con portadora transmitida forma la entrada al
receptor.

Filtro de
pasabajas Cuadrado

+
cos ( 2 πf c t + 30° ) √
Sal.
[ A + s(t )] cos ( 2πf c t + θ) sen ( 2 πf c t + 30° ) +

Filtro de
pasabajas Cuadrado

Figura 3.51

3.41. La Fig. 3.52 muestra un receptor de conversión dual. Suponga que la primera frecuencia FI ( f LO 1 ) es 30
MHz y la segunda ( f LO 2 ) es 10 MHz. Suponga además que el receptor está diseñado para demodular una
banda de canales entre 135 y 136 MHz, cada uno de los cuales tiene un ancho de banda de 100 kHz.
(a) Sugiera la banda de frecuencias para los osciladores locales.
(b) Determine todas las frecuencias imágenes posibles.
(c) ¿Cómo removería las estaciones imágenes no deseadas?

Filtro Filtro Detector


Filtro
FI 1 FI 2 de env.

cos 2 πf LO 1 t cos 2 πf LO 2 t

Figura 3.52

3.42. Sesenta señales de voz de grado telefónico son multicanalizadas usando FDM. El ancho de banda de la
señal de voz es 3 kHz y se requiere una banda de guarda de 1 kHz entre canales de voz adyacentes. La
modulación de la subportadora es SSB (USB) y f c1 = 0 .
113 Texto de Comunicaciones: José Morón

(a) Dibuje el espectro típico de la señal multicanalizada.


(b) Si todos los canales se multicanalizan directamente, calcule el número de osciladores y moduladores
SSB requeridos.
(c) Suponga que la multicanalización se hace usando cinco grupos de 12 canales cada uno para formar
un supergrupo de 60 canales. Dibuje un diagrama de bloques del multicanalizador indicando todas
las frecuencias de las subportadoras. ¿Cuántos osciladores y moduladores se necesitan para
implementar este esquema de multicanalización?
3.43. Los BPF en el receptor FDM para el problema anterior tienen
−1 2
 2n
 f − f c′  
H ( f − f c′ ) =  1 +   
  B  

donde f c′ es la frecuencia de la subportadora +1.5 kHz y B es el ancho de banda de 3 dB del filtro. El


ancho de banda del filtro debe ser 3 kHz y se requiere que el filtro tenga una atenuación de por lo menos
20 dB en la región de rechazo, es decir,

H ( f − f c′ ) < −20 dB para f − f c′ > 1.5 kHz

Determine un valor adecuado de n.


3.44. Dos señales x1(t) y x2(t) son multicanalizadas para formar
x ( t ) = x1 ( t ) + x2 ( t )cos 2 πf c t

x1(t) y x2(t) son señales de paso bajo limitadas en banda a 5 kHz con X1 ( f ) = X 2 ( f ) = 0.0001 para f < 5
kHz y fc = 15 kHz. El canal por el cual se va a transmitir x(t) tiene una característica de transferencia no-
lineal y la salida del canal es

y ( t ) = x ( t ) + 0.2 x 2 ( t )

(a) Dibuje el espectro de x(t) y de y(t). Explique las dificultades asociadas con la demodulación de x1(t) y
x2(t) a partir de y(t).
(b) ¿Cuál de las señales demoduladas sufre la peor distorsión?
3.45. Con referencia al Prob. 3.42, suponga que la señal multicanalizada es
x ( t ) = x1 ( t )cos 2 πf c1 t + x2 ( t ) cos 2 πf c2 t

f c1 >> 5 kHz y f 2 = f c1 + 20 kHz

(a) Dibuje el espectro de x(t) y de y(t).


(b) ¿Pueden recuperarse x1(t) y x2(t) a partir de y(t).
3.46. En la Fig. 3.52a se muestra el espectro de una señal de mensaje m(t). Para asegurar privacidad en la
comunicación, esta señal es aplicada a un sistema (conocido como un perturbador. Scrambler en inglés)
mostrado en la Fig. 3.42b. Analice el sistema y dibuje el espectro de la salida x(t).
114 Texto de Comunicaciones: José Morón

M (ω)

− ωM ωM ω
(a )

m (t ) A B C x (t )
HPF LPF
ωc ωc

2 cos ωct 2 cos ω2t


ω2 = ωc + ωM
(b)

Figura 3.52. (HPF = filtro de pasa-altas)

3.47. Se quiere diseñar un sistema de radar Doppler. Un generador sinusoidal genera continuamente la señal
s(t ) = A cos 2 πf c t . Esta señal es transmitida a un auto en movimiento y la señal reflejada es de la forma
r(t ) = B cos  2 π ( f c + ∆f ) t  . La situación se muestra en la Fig. 3.53. La diferencia en frecuencias (corrimiento
Doppler) es ∆f = 10s , donde s es la velocidad del carro en millas por hora. Se quiere mostrar la velocidad
del carro en un voltímetro que lee desde cero hasta 100 voltios y se quiere que la lectura de voltaje sea la
misma que la velocidad. Es decir, si el carro se está moviendo a 50 millas por hora, se quiere que el
medidor indique 50 V. Usted tiene un laboratorio lleno de equipo, incluyendo filtros, multiplicadores y
cualquier otro tipo de equipo que necesite. Diseñe el sistema.

Carro

Reflexión
B cos  2 π ( f c t + ∆f t 

Generador
A cos 2 πf c t
Figura 3.52

S-ar putea să vă placă și