Sunteți pe pagina 1din 24

Índice general

Índice general I

3. Representación de Señales de Tiempo Continuo 1


3.1. Descomposición de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3.2. Aproximación de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3.2.1. Aproximación de un vector en el plano . . . . . . . . . . . . . . . . . . . 3
3.2.2. Aproximación de una señal en un intervalo acotado . . . . . . . . . . . . . 4
3.3. Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3.1. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3.3. Método de ortogonalización de Gram-Schmidt . . . . . . . . . . . . . . . 11
3.4. Representación de señales en un intervalo de tiempo finito . . . . . . . . . . . . . 12
3.5. Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

DERECHOS RESERVADOS
2016
c por JULIÁN QUIROGA SEPÚLVEDA
Bogotá, Colombia

I
FUNDAMENTOS DE SEÑALES Y SISTEMAS
Julián Quiroga Sepúlveda
Capı́tulo 3

Representación de Señales de Tiempo Continuo

Una señal de tiempo continuo puede contener una gran cantidad de información, la cual no siempre
es fácilmente interpretada o analizada en el dominio del tiempo. Sin embargo, si la señal puede
ser expresada en términos de otras señales bien definidas y caracterizadas tanto en tiempo como en
frecuencia, es posible extraer su información más relevante. Para tal fin, es necesario trabajar en
un escenario en el cual una señal arbitraria pueda ser aproximada o representada en términos de
otras señales, para lo cual se requiere la definición de medidas de similitud y distancia entre señales.
Los espacios vectoriales euclı́deos conformados por señales poseen todas las condiciones necesarias
para llevar a cabo esta representación.

3.1. Descomposición de señales

Sin pérdida de generalidad, considere una señal x(t) acotada en valor y con soporte en el intervalo
de tiempo [t1 , t2 ], como la que se ilustra en la Figura 3.1. De acuerdo a su definición x(t) ∈ St1 ,t2 .

x(t )

t1 t2 t

Figura 3.1: Señal de soporte compacto.

Se desea expresar la señal x(t) como una combinación lineal de N señales {φ1 (t), φ2 (t), ..., φN (t)},

1
Capı́tulo 3. Representación de Señales de Tiempo Continuo

en el intervalo [t1 , t2 ], es decir como:


N
P
x(t) = an φn (t) t1 < t < t2 ,
n=1

donde los coeficientes an ∈ C y φn (t) ∈ St1 ,t2 , para n = 1, 2, ..., N . Los coeficientes {an } son
constantes respecto al tiempo y según la definición del conjunto de señales {φn (t)}, pueden dar
información importante sobre la señal en el intervalo [t1 , t2 ]. En particular, suponga que una señal
puede descomponerse como la suma de N exponenciales de diferentes frecuencias, de acuerdo a:

x(t) = a1 ejω1 t + a2 ejω2 t + ... + aN ejωN t ,

entonces los coeficientes {an } contienen información de las componentes de frecuencia presen-
tes en x(t) y la respuesta de un SLIT a la señal puede encontrarse como se ilustra en la Figura
3.2. La función H(ω) depende de la respuesta impulso del sistema, h(t), y de la frecuencia ω del
exponencial complejo de entrada, como se define en la Sección ??.

a1e j1t a1e j1t H (1 )

x(t ) a2 e j2t h(t ) a2 e j2t H (2 ) y (t )



j N t j N t
aN e aN e H ( N )

Figura 3.2: Respuesta de un sistema LTI a una combinación de exponenciales complejos.

El diagrama presentado en la Figura 3.2 permite determinar de forma sencilla la respuesta de un


SLIT a una señal de entrada que puede descomponerse como una suma ponderada de exponenciales
complejos. Como se presenta en capı́tulos posteriores, esta representación además permite conocer
información sobre las componentes de frecuencia en la señal, ası́ como caracterizar la respuesta de
un SLIT ante cualquier señal de entrada. En las siguientes secciones se estudia bajo qué condicio-
nes una señal puede descomponerse como una combinación de señales más simples y cómo dicha
descomposición puede ser realizada e interpretada.

3.2. Aproximación de vectores

Consideremos la tarea de aproximar un elemento de un espacio vectorial euclı́deo en términos de


otro elemento cualquiera del espacio. Para tal fin, es necesario contar con un medida de distancia
entre vectores, la cual puede ser definida en función del producto interno y la norma del espacio.

2
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Sean v1 y v2 dos vectores de un espacio vectorial y sea k·k la norma del espacio, entonces la
distancia entre los dos vectores es definida como d(v1 , v2 ) = kv1 − v2 k.
A continuación se plantea el problema de aproximación en un espacio vectorial, utilizando como
espacio R2 , debido a su fácil visualización. En la Sección 3.2.2 se formula nuevamente el problema
para el espacio vectorial de señales St1 ,t2 .

3.2.1. Aproximación de un vector en el plano

Sean x = (x1 , x2 ) y f = (f1 , f2 ) dos elementos de R2 , como se ilustra en la Figura 3.3. En el


espacio R2 (parejas de reales) el producto interno entre dos vectores x y f se define como hx, f i =
p
x1 f1 + x2 f2 y su distancia como kx − f k = (x1 − f1 )2 + (x2 − f2 )2 .
Se desea aproximar el vector x en términos del vector f como x ≈ cf , donde c ∈ R. La aproxi-
mación óptima se define como aquella que minimiza la norma del vector de error , dado por e =
x − cf . Existen infinitas posibilidades para la aproximación, una para cada valor de c, algunas de
estas se ilustran en la Figura 3.4. Si los vectores x y f son colineales, la aproximación puede llegar
a ser una representación, en caso contrario, como el de la Figura 3.3, se tiene un vector de error
asociado, notado como e en la Figura 3.4.

Figura 3.3: Dos vectores en R2

x x x
e1 e2 e3

c1 f c2 f c3 f

(a) (b) (c)

Figura 3.4: Algunas posibilidades para la aproximación de x en términos de f.

El mı́nimo de kek ocurre cuando la aproximación corresponde a la proyección del vector x sobre el

3
Capı́tulo 3. Representación de Señales de Tiempo Continuo

vector f , caso en el cual el vector de error e es perpendicular a la aproximación cf , como se ilustra


en la Figura 3.4 (b). La constante c que genera la aproximación óptima puede encontrarse por medio
de la norma del error de la aproximación, como se plantea en la siguiente propiedad.

hx,f i
Propiedad 3.1. La función kek = kx − cf k alcanza su mı́nimo si c = hf ,f i .

Demostración. La norma del vector de vector de error es encontrada como:

kek = x21 − 2cx1 f1 + c2 f12 + x22 − 2cx2 f2 + c2 f22 .

Tomando la derivada con respecto a c e igualando a cero se tiene:

d kek
= −2x1 f1 + 2cf12 + −2x2 f2 + 2cf22 = 0 ,
dc
x1 f1 +x2 f2
de donde se obtiene que copt = f12 +f22
.

Por tal motivo, la aproximación óptima es obtenida en términos del producto interno, como:

hx, f i
x= f.
hf , f i

3.2.2. Aproximación de una señal en un intervalo acotado

Sean x(t) y φ(t) dos señales de St1 ,t2 , se desea aproximar la señal x(t) en términos de φ(t) en el
intervalo de tiempo [t1 , t2 ] , es decir:

x(t) ≈ cφ(t) t1 < t < t 2 .

donde c ∈ C. Es necesario encontrar un valor apropiado para la constante c, con el fin de obtener
una aproximación óptima, en algún sentido, de la señal x(t). Definamos la señal e(t) como el error
entre x(t) y su aproximación, es decir:

e(t) = x(t) − cφ(t) t1 < t < t 2 .

Sea Et1 ,t2 la energı́a del error en el intervalo de tiempo [t1 , t2 ], definida como:

Zt2
Et1 ,t2 = |x(t) − cφ(t)|2 dt , (3.1)
t1

4
Capı́tulo 3. Representación de Señales de Tiempo Continuo

entonces la energı́a del error puede escribirse de forma apropiada de acuerdo a:


Zt2 Zt2
Et1 ,t2 = |x(t) − cφ(t)| dt =2
[x(t) − cφ(t)] [x(t) − cφ(t)]∗ dt
t1 t1
Zt2 Zt2 Zt2 Zt2
2 2
= |x(t)| dt − c ∗
x (t)φ(t)dt − c ∗ ∗
x(t)φ (t)dt + |c| |φ(t)|2 dt
t1 t1 t1 t1
Zt2 Zt2
= Ex − c x∗ (t)φ(t)dt − c∗ x(t)φ∗ (t)dt + |c|2 Eφ , (3.2)
t1 t1

donde las constantes Ex y Eφ corresponden a las energı́as en el intervalo [t1 , t2 ] de las señales x(t)
y φ(t), respectivamente.

Definición 3.1. Se denomina aproximación óptima a aquella que minimiza la energı́a del error
entre x(t) y su aproximación.

Propiedad 3.2. La ecuación (3.2) puede reescribirse como:


2 2
Zt2 Zt2
p 1 ∗
1 ∗

Et1 ,t2 = Ex − c Eφ − p x(t)φ (t)dt − 2 x(t)φ (t)dt . (3.3)
Eφ Eφ
t1 t1
Demostración.
 
∗ ∗ 1 2 1 2 2
Et1 ,t2 = Ex − c hx(t), φ(t)i − c hx(t), φ(t)i + |c| Eφ + |hx(t), φ(t)i| − |hx(t), φ(t)i|
Eφ Eφ
   
2 ∗ ∗ 1 2 1 2
= Ex + |c| Eφ − c hx(t), φ(t)i − c hx(t), φ(t)i + |hx(t), φ(t)i| − |hx(t), φ(t)i|
Eφ Eφ
  ∗
1 1
1 1
= Ex + cEφ2 − 1 hx(t), φ(t)i cEφ2 − 1 hx(t), φ(t)i
  
Eφ2 Eφ2
  ∗
 1  1
−  1 hx(t), φ(t)i  1 hx(t), φ(t)i .

Eφ2 Eφ2

En este punto la demostración es directa conociendo que xx∗ = hxi2 .

En la ecuación (3.3) el segundo término es el único que depende de c, por tal motivo, el valor de c
que minimiza la energı́a del error (coeficiente óptimo) es encontrado como:
Rt2
Zt2 x(t)φ∗ (t)dt
1 t1
copt = x(t)φ∗ (t)dt = .
Eφ Rt2 2
t1 |φ(t)| dt
t1

5
Capı́tulo 3. Representación de Señales de Tiempo Continuo

El resultado anterior puede escribirse en términos del producto interno en St1 ,t2 como:
hx(t), φ(t)i
copt = . (3.4)
hφ(t), φ(t)i
La ecuación (3.4) concuerda con el resultado obtenido en la Sección 3.2.1. Para el caso en el cual
las señales x(t) y φ(t) son reales, la constante c es también un real y (3.2) puede escribirse como:
Zt2
Et1 ,t2 = Ex − 2c x(t)φ(t)dt + c2 Eφ .
t1

De acuerdo a esto, el valor de c que minimiza la energı́a del error puede ser encontrado realizando
dEt1 ,t2 /dc = 0, para lo cual se tiene:
Zt2
dEt1 ,t2
= −2 x(t)φ(t)dt + 2cEφ = 0 .
dc
t1

Al despejar c de esta ecuación se obtiene la misma deifnición de coeficiente óptimo que para el caso
de señales complejas. En general, si se desea aproximar una señal x(t) ∈ St1 ,t2 en términos de otra
señal, φ(t) ∈ St1 ,t2 , en el intervalo de tiempo [t1 , t2 ], la aproximación óptima está dada por:

hx(t),φ(t)i
x(t) ≈ hφ(t),φ(t)i φ(t) t1 < t < t 2 .

Ejemplo 3.1. Aproxime la señal x(t) definida como:



 1 0<t<π
x(t) = ,
 −1 π < t < 2π

utilizando la señal φ(t) = sin(t) , sobre el intervalo de tiempo [0, 2π].

Solución. La aproximación de la señal es realizada como:

hx(t),φ(t)i
x(t) ≈ hφ(t),φ(t)i sin(t) 0 < t < 2π ,

donde
Z2π Zπ Z2π
hx(t), φ(t)i = x(t)φ(t)dt = sin(t)dt − sin(t)dt = 4
0 0 π
y
Z2π Z2π Z2π
2 2 1
hφ(t), φ(t)i = φ (t)dt = sin (t)dt = [1 − cos(2t)] dt = π .
2
0 0 0
4
Ası́, la aproximación óptima sobre el intervalo 0 < t < 2π está dada por x(t) ≈ π sin(t).

6
Capı́tulo 3. Representación de Señales de Tiempo Continuo

En general, si se desea obtener una mejor aproximación de un vector dado, es necesario expresarlo
como una combinación lineal de varios elementos del espacio vectorial, cada uno de los cuales
debe realizar una contribución óptima a la combinación. En la siguiente Sección se definen algunos
conceptos necesarios para la aproximación y representación en un espacio vectorial utilizando un
conjunto de vectores.

3.3. Bases Ortogonales

3.3.1. Bases

Considere un espacio vectorial euclı́deo V con campo F .

Definición 3.2. Un conjunto de N vectores {φ1 , φ2 , ..., φN }, del espacio vectorial V , se dice genera
el espacio, si todo elemento de V puede expresarse como una combinación lineal de dichos vectores,
es decir, si:

∀v ∈ V v = α1 φ1 + α2 φ2 + ... + αN φN , (3.5)

donde αi ∈ F , para i = 1, 2, ..., N .

Definición 3.3. Un conjunto de N vectores {φ1 , φ2 , ..., φN }, del espacio vectorial V , es linealmente
independiente, si ningun elemento del conjunto puede expresarse como una combinación lineal de
los otros vectores del conjunto, es decir, si:

α1 φ1 + α2 φ2 + ... + αN φN = 0 ⇔ α1 = α2 = ... = αN = 0 . (3.6)

Observación 3.1. Suponga que α1 φ1 + α2 φ2 + ... + αN φN = 0 con αi 6= 0 para i = 1, 2, ..., N ,


entonces el vector φj , con j ∈ {1, 2, ..., N }, podrı́a expresarse como:
N
1 X
φj = − αi φi ,
αj
i=1,i6=j

contradiciendo la definición de independencia lineal.

Definición 3.4. Un conjunto de N vectores {φ1 , φ2 , ..., φN }, del espacio vectorial V , es una base
del espacio si:

1. El conjunto genera el espacio vectorial, ecuación (3.5)

7
Capı́tulo 3. Representación de Señales de Tiempo Continuo

2. El conjunto es linealmente independiente, ecuación (3.6)

Propiedad 3.3. Cada elemento v ∈ V tiene una representación única en la base.

Demostración. Si v = α1 φ1 + α2 φ2 + ... + αN φN y v = β1 φ1 + β2 φ2 + ... + βN φN entonces


(α1 − β1 )φ1 + (α2 − β2 )φ2 + ... + (αN − βN ) = 0. De acuerdo a (3.6) se debe cumplir que αi = βi
para i = 1, 2, ..., N lo cual implica que la representación en la base es única.

3.3.2. Ortogonalidad

Considere un espacio vectorial V con campo F y producto interno h·, ·i : V × V → F .

Definición 3.5. Dos vectores v1 y v2 , del espacio vectorial V , son ortogonales si su producto interno
es cero, es decir, si hv1 , v2 i = 0.

Dado que la aproximación óptima entre 2 vectores de un espacio vectorial se define por medio del
producto interno, la ortogonalidad entre un par de vectores puede ser interpreda como la imposibi-
lidad de representar (proyectar) uno de los vectores en términos del otro. Por otro lado, aunque el
concepto de ortogonalidad es único en términos del producto, la condición de ortogonalidad entre
un par de vectores depende del espacio vectorial en particular.

Ejemplo 3.2. En RN dos vectores x e y son ortogonales si hx, yi = x1 y1 + x2 y2 + ... + xN yN = 0.

En particular, en St1 ,t2 , la ortogonalidad entre 2 señales φ1 (t) y φ2 (t) se define como:
Zt2
hφ1 (t), φ2 (t)i = φ1 (t)φ∗2 (t)dt = 0 , (3.7)
t1

por tal motivo dos señales son ortogonales en el intervalo [t1 , t2 ] si satisfacen (3.7). Cuando los
vectores de un conjunto son ortogonales entre sı́, la definición de ortogonalidad pueder ser extendida
a todo el conjunto.

Definición 3.6. Los vectores {v1 , v2 , ..., vN } forman un conjunto ortogonal (vectores mutuamente
ortogonales) del espacio vectorial V si hvi , vj i = 0 para i 6= j con i, j = 1, 2, ..., N .

En St1 ,t2 un conjunto de N señales {φ1 (t), φ2 (t), . . . , φN (t)} es ortogonal si:

Zt2  0 i 6= j
hφi (t), φj (t)i = φi (t)φ∗j (t)dt = ,
 E i=j
t1 φi

donde Eφi es la energı́a de la señal φi (t) en el intervalo [t1 , t2 ].

8
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Ejemplo 3.3. Verifique que el conjunto de señales {φn (t)} = {ejnt }, con n ∈ Z, es un conjunto
ortogonal del espacio vectorial S0,2π .

Solución. El conjunto de señales dado es de la forma {φn (t)} = {. . . , e−j2t , e−jt , 1, ejt , ej2t , . . .}.
Conociendo que el conjunto tiene cardinalidad infinita la verificación de ortogonalidad debe rea-
lizarse de forma general, para lo cual se seleccionan dos señales cualquiera del conjunto, φn (t) y
φm (t), con n, m ∈ Z, para las cuales se debe cumplir que si n 6= m entonces:

Z2π Z2π Z2π


hφn (t), φm (t)i = φn (t)φ∗m (t)dt = e jnt −jmt
e dt = ej(n−m)t dt = 0 ,
0 0 0

es decir, que el producto interno entre cualquier par de señales del conjunto es cero.
Si n 6= m entonces (n − m) ∈ Z∗ y el producto interno entre φn (t) y φm (t) puede escribirse como:

Z2π 2π
j(n−m)t
e ej(n−m)2π −1
ej(n−m)t dt = = ,

j(n − m) j(n − m)
0 0

en donde (n − m) ∈ Z∗ , por lo que ej(n−m)2π = 1 y hφm (t), φn (t)i = 0.

Definición 3.7. Los vectores {v1 , v2 , ..., vN } forman un conjunto normalizado (vectores de norma
unitaria) del espacio vectorial V si hvi , vi i = 1 para i = 1, 2, ..., N .

En St1 ,t2 un conjunto de señales {φ1 (t), φ2 (t), . . . , φN (t)} está normalizado si:

Zt2 Zt2
hφi (t), φi (t)i = φi (t)φ∗i (t)dt = |φi (t)|2 dt = 1 ,
t1 t1

es decir, si todas las señales del conjunto tienen energı́a unitaria en el intervalo [t1 , t2 ].
n o
Ejemplo 3.4. Verifique que el conjunto de señales {φn (t)} = √12π ejnt , con n ∈ Z, es un
conjunto normalizado del espacio vectorial S0,2π .

Solución. Sea φn (t), con n ∈ Z, una de las señales del conjunto, entonces:

Z2π Z2π Z2π


1 1 1
hφn (t), φn (t)i = φn (t)φ∗n (t)dt = jnt −jntω
e e dt = dt = 1
2π 2π 2π
0 0 0

Por tal motivo, el conjunto está normalizado.

Definición 3.8. Un conjunto de vectores ortogonal y normalizado es un conjunto ortonormal.

9
Capı́tulo 3. Representación de Señales de Tiempo Continuo

1 (t ) 2 (t ) 3 (t )
1 1 1
2 2 2

1 2 3 t 1 2 3 t 1 2 3 t
1 1 1
  
2 2 2

Figura 3.5: Conjunto ortonormal de señales de S0,3 .

Ejemplo 3.5. Compruebe que las tres señales que se ilustran en la Figura 3.5 conforman un con-
junto ortonormal en el espacio vectorial S0,3 .

Solución. Para verificar ortogonalidad se realiza:

Z3 Z1  2 Z2  2 Z3
1 1
hφ1 (t), φ2 (t)i = φ1 (t)φ∗2 (t)dt = √ dt + − √ dt + 0dt = 0
2 2
0 0 1 2

Z3 Z2   Z3
1
hφ2 (t), φ3 (t)i = φ2 (t)φ∗3 (t)dt = 0 √ dt + 0(1)dt = 0
2
0 0 2

Z3 Z1   Z2   Z3
1 1
hφ1 (t), φ3 (t)i = φ1 (t)φ∗3 (t)dt = 0 √ dt − 0 √ dt + 0(1)dt = 0 .
2 2
0 0 1 2

Para comprobar normalidad se realiza:

Z3 Z2  2 Z3
1
hφ1 (t), φ1 (t)i = φ1 (t)φ∗1 (t)dt = √ dt + 0dt = 1
2
0 0 2

Z3 Z2  2 Z3
1
hφ2 (t), φ2 (t)i = φ2 (t)φ∗2 (t)dt = √ dt + 0dt = 1
2
0 0 2

Z3 Z2 Z3
hφ3 (t), φ3 (t)i = φ3 (t)φ∗3 (t)dt = 0dt + 1dt = 1 .
0 0 2

Definición 3.9. Una base ortogonal es una base cuyos elementos son mutuamente ortogonales.

Propiedad 3.4. Todo conjunto ortogonal de vectores es también linealmente independiente.

10
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Demostración. Sea {v1 , v2 , ..., vN } un conjunto ortogonal de vectores. Suponga que se desea repre-
sentar el vector vi , con i ∈ {1, 2, ..., N }, en términos de los demás vectores del conjunto, entonces
se debe realizar:
N
X
vi = αi vk .
k=1,k6=i

Conociendo que hvi , vj i = 0, para i 6= j, y utilizando (3.4), se encuentra que todos los coeficientes
de la representación son cero.

3.3.3. Método de ortogonalización de Gram-Schmidt

Dado un conjunto linealmente independiente de vectores {φ1 , φ2 , . . . , φN } es posible construir un


conjunto ortogonal de vectores {u1 , u2 , . . . , uN }. Para tal fin, se utiliza el hecho de que en una
aproximación (óptima) de vectores el error obtenido es ortogonal a los vectores utilizados en la
aproximación, como se ilustra en la Figura 3.4 (b). Por ejemplo, si φ1 y φ2 son vectores normaliza-
dos, al aproximar φ1 en términos de φ2 el error dado por φ1 − hφ1 , φ2 i φ2 es ortogonal a φ2 .
De acuerdo esto, un conjunto ortonormal de vectores {u1 , u2 , . . . , uN } es obtenido a partir del
conjunto linealmente independiente de vectores {φ1 , φ2 , . . . , φN } de acuerdo a:

w1 = φ 1
u1 = w1 / kw1 k
w2 = φ2 − hφ2 , u1 i u1
u2 = w2 / kw2 k
w3 = φ3 − hφ3 , u1 i u1 − hφ3 , u2 i u2
u3 = w3 / kw3 k
..
.
wi = φi − i−1
P
k=1 hφi , uk i uk

ui = wi / kwi k .

Este método es conocido como el procedimiento de Gram-Schmidt. Es fácil ver que el resultado no
es único, pues un reordenamiento de los vectores {φi } antes de la ortogonalización resulta en un
conjunto {ui } diferente. Adicionalmente, si {φ1 , φ2 , . . . , φN } es una base de un espacio vectorial
entonces el procedimiento de Gram-Schmidt construye una base ortonormal {u1 , u2 , . . . , uN } para
el mismo espacio.

11
Capı́tulo 3. Representación de Señales de Tiempo Continuo

3.4. Representación de señales en un intervalo de tiempo finito

Suponga que se quiere aproximar la señal x(t) ∈ St1 ,t2 en términos de un conjunto de N señales
{φ1 (t), φ2 (t), . . . , φN (t)} de St1 ,t2 , de acuerdo a:
N
P
x(t) ≈ an φn (t) t1 < t < t2 ,
n=1

donde an ∈ C, para n = 1, 2, .., N . Sea e(t) el error entre la señal x(t) y su aproximación, entonces
la energı́a del error en el intervalo [t1 , t2 ] se define como:
Zt2 XN
2

Et1 ,t2 = x(t) − an φn (t) dt . (3.8)


t1 n=1

Se desea minimizar Et1 ,t2 mediante la elección apropiada de los coeficientes an , con el fin de que
la aproximación obtenida sea “lo más cercana” posible a la señal x(t) en St1 ,t2 . Si el conjunto de
señales {φ1 (t), φ2 (t), . . . , φN (t)} no es linealmente independiente la elección de los coeficientes
{an } óptimos es una tarea bastante difı́cil, pues en este caso la aproximación óptima puede no
ser única. Por otro lado, si el conjunto de señales utilizadas para la aproximación es linealmente
independiente, los coeficientes {an } óptimos pueden ser encontrados utilizando algún método de
mı́nimos cuadrados. Sin embargo, si el conjunto de señales {φ1 (t), φ2 (t), . . . , φN (t)} es ortogonal,
caso considerado en esta Sección, la obtención de los coeficientes {an } es directa.

Propiedad 3.5 (Coeficientes óptimos). Sea {φ1 (t), φ2 (t), . . . , φN (t)} un conjunto ortogonal de
señales de St1 ,t2 entonces los coeficientes {an } que minimizan (3.8) se encuentran de acuerdo a:
Rt2
x(t)φ∗n (t)dt
hx(t), φn (t)i t1
an = = t n = 1, 2, ..., N . (3.9)
hφn (t), φn (t)i R2
|φn (t)|2 dt
t1

Demostración. Conociendo que |x − y|2 = |x|2 − x∗ y − xy ∗ + |y|2 la energı́a del error de la


aproximación, dada por la ecuación (3.8), puede escribirse como:
Zt2 Zt2 N
X Zt2 N
X Zt2 XN
2

Et1 ,t2 = |x(t)|2 dt − x(t) a∗n φ∗n (t)dt − x∗ (t) an φn (t)dt + an φn (t) dt


t1 t1 n=1 t1 n=1 t1 n=1

El último término de la energı́a del error puede expresarse como:


Zt2 XN
2 Zt2
N
! N !∗ Zt2 X
N X
N
X X
an φn (t) = an φn (t) an φn (t) dt = an φn (t)a∗m φ∗m (t)dt .



t1 n=1 t1 n=1 n=1 t1 n=1 m=1

12
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Intercambiando el orden de las sumatorias y la integral se tiene que:

Zt2 XN
2
N X
X N Zt2
an φn (t) = an am φn (t)φ∗m (t)dt .

(3.10)



t1 n=1 n=1 m=1 t1

Dado que {φ1 (t), φ2 (t), . . . , φN (t)} es un conjunto ortogonal entonces:



Zt2  |a |2 E
n φn n = m
an a∗m φn (t)φ∗m (t)dt = .
t1
 0 n 6= m

donde
Zt2
Eφn = hφn (t), φn (t)i = |φn (t)|2 dt n = 1, 2, ..., N .
t1

Por tal motivo, (3.10) puede escribirse como:

Zt2 XN
2
N
X
an φn (t) = |an |2 Eφn ,



t1 n=1 n=1

y reemplazando este resultado en la expresión expandida de Et1 ,t2 se tiene:

Zt2 Zt2 N
X Zt2 N
X N
X
2
|x(t)| dt − x(t) a∗n φ∗n (t)dt − x∗ (t) an φn (t)dt + |an |2 Eφn ,
t1 t1 n=1 t1 n=1 n=1

que puede reescribirse de forma apropiada como:


2 2
Zt2 N Zt2 N Zt2
2
X p 1 ∗
X 1 ∗

|x(t)| dt + Eφ an − p
n x(t)φn (t)dt − p x(t)φn (t)dt .

n=1
Eφn

n=1
Eφn
t1 t1 t1

En esta expresión solo el término central es función de los coeficientes {an }, por lo cual los coefi-
cientes que anulan dicho término son los mismos que mı́nimizan Et1 ,t2 , los cuales deben cumplir:

Zt2
1
x(t)φ∗n (t)dt = 0
p
Eφn an − p n = 1, 2, ..., N .
Eφn
t1

Por tal motivo, los coeficientes óptimos de la aproximación son encontrados como:

Zt2
1 hx(t), φn (t)i
an = x(t)φ∗n (t)dt = n = 1, 2, ..., N .
Eφn hφn (t), φn (t)i
t1

13
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Observación 3.2. Si el conjunto de señales {φn (t)} es ortonormal entonces Eφn = 1, para n =
1, 2, ..., N , y los coeficientes óptimos de la aproximación se encuentran de acuerdo a:

Zt2
an = x(t)φ∗n (t)dt = hx(t), φn (t)i n = 1, 2, ..., N .
t1

Cada coeficiente an representa, en cierto sentido, la similitud entre la señal x(t) y la señal φn (t)
utilizada para su aproximación. De esta forma, cada coeficiente an indica la contribución óptima de
la señal φn (t) en la aproximación de x(t).

Ejemplo 3.6. Considere las siguientes señales:

φ1 (t) = 1 φ2 (t) = t φ3 (t) = 32 t2 − 1


2 .

Demuestre que {φ1 (t), φ2 (t), φ3 (t)} es un conjunto otogonal de S−1,1 y aproxime la señal x(t) =
|t| en el intervalo [−1, 1] por medio del conjunto de señales.

Demostración. Para verificar ortogonalidad se realiza:

Z1 Z1
φ1 (t)φ∗2 (t)dt = tdt = 0
−1 −1

Z1 Z1 Z1
φ1 (t)φ∗3 (t)dt 3 2 1
3t2 − 1 dt = 0
 
= 2t − 2 dt =
−1 −1 0

Z1 Z1 Z1 Z1
φ2 (t)φ∗3 (t)dt 3 3 1 3 3 1

= 2t − 2t dt = 2 t dt − 2 tdt = 0 .
−1 −1 −1 −1

De acuerdo a esto, las señales son mutuamente ortogonales en [−1, −1] y el conjunto {φ1 (t), φ2 (t),
φ3 (t)} es ortogonal. La señal x(t) puede ser aproximada haciendo:

x(t) ≈ a1 φ1 (t) + a2 φ2 (t) + a3 φ3 (t) −1 < t < 1 ,

donde los coeficientes a1 , a2 y a3 son encontrados como:


R1 ∗
R1 R1
−1 x(t)φ1 (t)dt −1 |t| dt 2 0 tdt 1
a1 = R 1 = R1 = =
φ1 (t)φ∗1 (t)dt
−1 1dt −1
2 2
R1 ∗
R1 R0 2
R1
−1 x(t)φ2 (t)dt −1 t |t| dt −1 −t dt + 0 t2 dt
a2 = R1 = R1 = =0
∗ 2 2/3
−1 φ2 (t)φ2 (t)dt −1 t dt

14
Capı́tulo 3. Representación de Señales de Tiempo Continuo

R1 ∗
R1 3 2 1
 R1
3t3 − t dt

−1 x(t)φ3 (t)dt −1 2 t − 2 |t| dt 0 1/4 5
a3 = R1 = = = = .
1 2

R1 3
2/5 2/5 8

2
−1 φ3 (t)φ3 (t)dt −1 2 t − 2 dt
Por tal motivo la aproximación óptima es de la forma:

15 2
x(t) ≈ 12 φ1 (t) + 58 φ3 (t) = 3
16 + 16 t .

En la Figura 3.6 se ilustra la señal original y la aproximación óptima obtenida.

1, 0
t 1, 0
3
16  16
15 2
t

0,5
0,5

t t
1 0 1 1 0 1

(a) (b)

Figura 3.6: (a) Señal original y (b) su aproximación utilizando el conjunto ortogonal de señales.

Observación 3.3. El coeficiente a2 es cero ya que éste pondera la partipación en la aproximación


de la señal impar φ2 (t), la cual no es necesaria debido a que x(t) es par.

Si los coeficientes {an } son encontrados de acuerdo a (3.9), la energı́a del error de la aproximación
puede escribirse como:
Zt2 Zt2
  t 
N Z2
X 1 
Et1 ,t2 = |x(t)|2 dt − p x(t)φ∗n (t)dt  x∗ (t)φn (t)dt
n=1
Eφn
t1 t1 t1
Zt2 N
1
hx(t), φn (t)i hx(t), φn (t)i∗
X
= |x(t)|2 dt − p
n=1
E φ n
t1
Zt2 N
X
= |x(t)|2 dt − Eφn |an |2 . (3.11)
t1 n=1

El número de señales que conforman el conjunto {φn (t)} y sus caracterı́sticas controlan la calidad
de la aproximación obtenida y por ende la energı́a del error. Si {φn (t)} es un conjunto ortogonal
de St1 ,t2 entonces Et1 ,t2 → 0 cuando N → ∞. En particular, si {φn (t)} es una base ortogonal
entonces Et1 ,t2 = 0 y toda señal x(t) ∈ St1 ,t2 puede representarse de forma única de acuerdo a:

P
x(t) = an φn (t) t1 < t < t2 .
n=1

15
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Ejemplo 3.7. Aproxime la señal de la Figura 3.7 en el intervalo [0, 2] empleando el conjunto de
señales sinusoidales dado como {φn (t)} = {sin(nπt)}, con n ∈ Z+ .

x(t )
1

 1 0<t<1
x(t) =
 −1 1 < t < 2
1 2 t
1

Figura 3.7: Señal cuadrada con soporte en [0, 2].

Solución. Se puede comprobar que {φn (t)} es un conjunto ortonormal de S0,2 . Sean φn (t) =
sin(nπt) y φm (t) = sin(mπt), con n, m ∈ Z+ , dos señales del conjunto, entonces:
Z2 Z2
hφn (t), φm (t)i = φn (t)φ∗m (t)dt = sin(nπt) sin(mπt)dt .
0 0

Conociendo la identidad sin(x) sin(y) = 21 [cos(x − y) − cos(x + y)] se puede escribir que:

Z2 Z2 Z2
1 1
sin(nπt) sin(mπt)dt = cos[(n − m)πt]dt− cos[(n + m)πt]dt .
2 2
0 0 0

Si n = m entonces φn (t) y φm (t) son la misma señal y se tiene que:


Z2 Z2 Z2
t 2 1 sin(2nπt) 2

1 1
sin(nπt) sin(mπt)dt = dt − cos(2nπt)dt = −
2 2 2 0 2 2nπ 0
0 0 0
 
1 sin(4nπ)
=1− −0 =1.
2 2nπ
Por tal motivo el conjunto {φn (t)} está normalizado pues hφn (t), φn (t)i = 1 para todo n ∈ Z+ . Si
n 6= m entonces φn (t) y φm (t) son diferentes señales del conjunto por lo que (n ± m) ∈ Z∗ y
Z2 Z2 Z2
1 1
sin(nπt) sin(mπt)dt = cos[(n − m)πt]dt − cos[(n + m)πt]dt
2 2
0 0 0
2
1 sin[(n + m)πt] 2

1 sin[(n − m)πt]

= −
2 (n − m)π 0 2 (n + m)π 0
1 sin[(n − m)2π] 1 sin[(n + m)2π]
= − =0.
2 (n − m)π 2 (n + m)π

16
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Por tal motivo el conjunto {φn (t)} es ortogonal pues hφn (t), φm (t)i = 0 para todo n 6= m con
n, m ∈ Z+ . Para esta señal en particular el conjunto {φn (t)} permite su representación en el inter-
valo [0, 2], por lo que x(t) puede expresarse como:

X
x(t) = an sin(nπt) 0<t<2,
n=1

donde los coeficientes óptimos son encontrados de acuerdo a (3.9) como:


Z2
an = hx(t), φn (t)i = x(t) sin(nπt)dt
0
Z1 Z2
cos(nπt) 0 cos(nπt) 2

= sin(nπt)dt − sin(nπt)dt = +
nπ 1 nπ 1
0 1
1
= [1 − cos(nπ) + cos(2nπ) − cos(nπ)]
nπ 
2  0 n par
= [1 − cos(nπ)] = n = 1, 2, ..., ∞ .
nπ 4
nπ n impar

De acuerdo a esto la señal x(t) puede representarse como:


∞ ∞
4 X 1 4X 1
x(t) = sin(nπt) = sin[(2n − 1)πt]
π n π (2n − 1)
n=1 n=1
nimpar
 
4 1 1
= sin(πt) + sin(3πt) + sin(5πt) + ... .
π 3 5
Si se ultilizan únicamente los primeros N ∈ Z+ elementos del conjunto {φn (t)} se obtiene una
aproximación de la señal de la forma:
N
4 X 1
x(t) = sin(nπt) .
π n
n=1
nimpar

En la Figura 3.8 se ilustra la aproximación obtenida con diferente número de términos. A medida
que se aumenta el número de elementos de {φn (t)}, disminuye el error entre la señal original y su
aproximación. En el lı́mite cuando N → ∞ se utilizan todas las señales del conjunto {φn (t)} y la
aproximación llega a ser una representación.

La representación de una señal x(t) ∈ St1 ,t2 puede realizarse utilizando cualquier base ortgonal del
espacio St1 ,t2 . En particular, como se estudia en la siguiente sección, es de interés la representación
de señales utilizando una base ortogonal de exponenciales complejos.

17
Capı́tulo 3. Representación de Señales de Tiempo Continuo

x(t ) x(t )
1 1

0 0
1 2 t 1 2 t

1 1

(a) (b)

Figura 3.8: Aproximación de la señal rectangular utilizando (a) 3 términos y (b) 100 términos.

3.5. Teorema de Parseval

Si x(t) ∈ St1 ,t2 es representada en el intervalo [t1 , t2 ] por medio de la base ortogonal {φn (t)} (base
de St1 ,t2 ) entonces la ecuación (3.11) llega a ser cero y se cumple que:
Zt2 ∞
X
|x(t)|2 dt = Eφn |an |2 .
t1 n=1

A partir de esto, se puede concluir que la energı́a de la señal en el intervalo [t1 , t2 ] es proporcional
a la suma de los coeficientes de su representación en magnitud al cuadrado. En particular si la base
{φn (t)} es ortonormal, entonces:
Zt2 ∞
X
|x(t)|2 dt = |an |2 ,
t1 n=1

y la energı́a de la señal en el intervalo [t1 , t2 ] se distribuye en los diferentes coeficientes de la


representación, indicando la distribución de la energı́a de x(t) en las diferentes señales utilizadas
para su representación. Este resultado es de gran interés para la serie exponencial y la transformada
de Fourier que se estudian en capı́tulos posteriores, pues permite analizar cómo se distribuye la
energı́a o la potencia de una señal en las diferentes componentes de frecuencia que la conforman.

3.6. Ejercicios

1. Considere las siguientes dos señales:

φ1 (t) = e−|t| φ2 (t) = 1 − Ae−2|t|

18
Capı́tulo 3. Representación de Señales de Tiempo Continuo

a) Determine la constante A para que φ1 (t) y φ2 (t) sean ortogonales en (−∞, +∞).

b) Repita el literal anterior para el intervalo [−1, 1].

2. Sean x1 (t) = e−t u(t) y x2 (t) = e−2t :

a) Demuestre que x1 (t) y x2 (t) pertenecen a L2 .

b) Encuentre el producto interno entre las dos señales en L2 .

3. Considere la señal x(t) = ejπt :

a) Demuestre que pertenece a S0,2 .

b) Determine el valor de k ∈ R para que kx(t) esté normalizada en S0,2 .

c) Compurebe que x(t) y y(t) = ej2πt son ortogonales en S0,2 .

4. Determine un valor de τ ∈ R∗ para el cual el conjunto de señales {φn } = {ejnω0 t }n∈Z , con
ω0 ∈ R∗ , sea ortogonal en el intervalo [0, τ ].

5. Utilice las siguientes tres señales:

φ0 (t) = 1 φ1 (t) = t φ2 (t) = 23 t2 − 1


2 ,

para aproximar en el intervalo [−1, 1], la señal dada por:



 −1 −1 < t < 0
x(t) = .
 1 0<t<1

6. Considere el siguiente conjunto de señales ortogonales:

1 (t ) 2 (t ) 3 (t )
1 1 1
2 2 2

1 2 3 t 1 2 3 t 1 2 3 t
1 1 1
  
2 2 2

Utilice estas tres señales para aproximar la señal de la Figura 3.9, en el intervalo [0, 3].

7. Considere el conjunto de señales de la forma φ(t) = α + βt + γt2 , con α, β, γ ∈ R, definidas


en el intervalo [−1, 1],

19
Capı́tulo 3. Representación de Señales de Tiempo Continuo

1
x(t )

0
1 2 3 t

Figura 3.9: Señal triangular a aproximar

a) Demuestre que este conjunto de señales es un espacio vectorial, con campo los reales.

b) Demuestre que las señales φ1 (t) = a, φ2 (t) = bt y φ3 (t) = c t2 − 31 , con a, b, c ∈ R,




son ortogonales en S−1,1 .

c) Determine los valores de a, b y c para que el conjunto de señales {φ1 (t), φ2 (t), φ3 (t)} se
encuentre normalizado en S−1,1 .
1
d) Utilizando el conjunto de señales φ1 (t) = 2, φ2 (t) = t y φ3 (t) = 3 t2 −

3 , encuentre
el valor de los coeficientes {a1 , a2 , a3 } para representar la señal x(t) = t + 2t2 , como:

x(t) = a1 φ1 (t) + a2 φ2 (t) + a3 φ3 (t) −1 < t < 1 .

8. El conjunto de señales {φn } = {ejnt }n∈Z corresponde a una base ortogonal del espacio
S0,2π , por medio de este conjunto represente en el intervalo [0, 2π] la señal dada por

 e−t 0 < t < 2π
x(t) =
 0 ∼

9. Considere el conjunto de señales:

x1 (t) = e−t u(t) x2 (t) = e−2t u(t) x3 (t) = e−3t u(t)

a) Utilice el método de ortogonalización de Gram-Schmidt, para generar un conjunto de


señales ortonormales {φi (t)}, para i = 1, 2, 3, a partir de x(t).

b) Aproxime la señal x(t) = 3e−4t u(t) utilizando las señales {φ1 (t), φ3 (t), φ3 (t)}.

c) Calcule el error cuadrático medio entre la señal x(t) y su aproximación.

20
Capı́tulo 3. Representación de Señales de Tiempo Continuo

Ejercicios adicionales

I. En la figura se muestra un conjunto de señales φ11 (t), φ12 (t), φ21 (t), φ22 (t), las cuales forman
un conjunto ortonormal en el espacio S0,T .

11 (t ) 12 (t )
A11 A12

0 T 0 T

21 (t ) 22 (t )
A21 A22

0 T 0 T

NOTA: Cada cuadro de tiempo equivale a medio segundo. El producto interno de este espacio
RT
vectorial esta definido como: hφij (t), φnm (t)i = 0 φij (t)φnm (t)dt.

a) Halle el valor de las amplitudes A11 , A12 , A21 y A22 .

b) Exprese en términos de los elementos del conjunto ortogonal la señal mostrada en la figura.

4
3
2
1
0
−1 T
−2
−3
−4
s (t )

II . Sea V el espacio vectorial definido como el conjunto de las señales continuas definidas a trozos
en el intervalo [0, 4), cuyos valores tienen una duración mı́nina de un segundo. La señal z(t)
mostrada en la figura, pertence a dicho espacio vectorial V . Las señales x1 (t), x2 (t) y x3 (t),
mostradas en las siguientes figuras, forman un conjunto ortonormal de V . El producto interno
R4
de este espacio vectorial esta definido como: hxp (t), xq (t)i = 0 xp (t)xq (t)dt.

21
Capı́tulo 3. Representación de Señales de Tiempo Continuo

z (t )
5
4
3
2
1
0
1
1 2 3 4 t

a) Halle el valor de las amplitudes de los elementos del conjunto ortonormal a1 , a2 y a3 .

b) Halle el elemento faltante para completar una base ortonormal.

c) Exprese el elemento z(t) indicado anteriormente, en términos de la base ortonormal.

x1 (t ) x2 (t ) x3 (t )
a1 a2 a3

0 0 0
1 2 3 4 t 1 2 3 4 t 1 2 3 4 t
 a1  a2  a3

22

S-ar putea să vă placă și