Sunteți pe pagina 1din 215

UNIVERSIDAD POLITÉCNICA SALESIANA

SEDE MATRIZ CUENCA


CARRERA DE INGENIERÍA
ELECTRÓNICA

Tesis previa a la obtención del título


de Ingeniero Electrónico.

“MODELACIÓN MATEMÁTICA Y
SIMULACIÓN DE UN FILTRO DIGITAL
HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”

AUTORES:

Hugo Nelson Apolo Castillo


Alejandro Esteban Córdova Medina

DIRECTOR:

Ing. Walter Orozco

Cuenca – Ecuador
2010
“MODELACIÓN MATEMÁTICA Y
SIMULACIÓN DE UN FILTRO DIGITAL
HIBRIDO FIR ADAPTATIVO LINEAL ÓPTIMO”
Declaratoria de Responsabilidad

El análisis de la tesis intitulada “MODELACIÓN MATEMÁTICA Y


SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL
ÓPTIMO”, es el resultado investigativo y los conceptos desarrollados, análisis
realizados y las conclusiones del presente trabajo, son de exclusiva responsabilidad
de los autores.

__________________ __________________

Hugo Apolo Esteban Córdova


Certificación

En calidad de DIRECTOR DE LA TESIS “MODELACIÓN MATEMÁTICA Y


SIMULACIÓN DE UN FILTRO DIGITAL HIBRIDO FIR ADAPTATIVO LINEAL
ÓPTIMO”, elaborada por Hugo Nelson Apolo Castillo y Alejandro Esteban Córdova
Medina, declaro y certifico la aprobación del presente trabajo de tesis basándome en
la supervisión y revisión de su contenido.

________________________
Ing. Walter Orozco
DIRECTOR DEL PROYECTO
Dedicatoria

Hugo

Mi familia y amigos han sido un pilar


fundamental que con todo su cariño y
comprensión han estado siempre
apoyándome e hicieron posible la
culminación de la presente tesis y así dar
este importante paso en mi vida
profesional.

Esteban
A mis abuelos y padres que con su
sabiduría han sabido apoyarme para no
desfallecer en el camino.
A mis amigos, aquellos que me han
impulsado para mejorar.
A profesores y guías que han aclarado
nuestro camino
.

Agradecimiento

Nuestro agradecimiento va dirigido a la Universidad Politécnica Salesiana y a


los docentes de nuestra carrera, que con sus conocimientos han aportado directa e
indirectamente en nuestra formación profesional, de manera muy especial al Ing.
Walter Orozco que nos supo guiar de manera acertada en el desarrollo de nuestro
trabajo de Tesis.

También nuestro agradecimiento va a todas aquellas personas que nos


apoyaron y nos han permitido llegar a este punto tan importante de nuestras vidas
profesionales, ya que es un gran paso para seguir creciendo en todo aspecto.

LOS AUTORES
UPS Índice General

Índice General

Índice de Figuras……………….………………………………………………… I
Índice de Tablas…….…………….………………………………………………. IV
Introducción............................................................................................................ V

CAPITULO I: DIGITALIZACIÓN DE LA SEÑALES


1.1. Conversión Analógico-Digital ............................................................. 2
1.1.1. Muestreo y Mantenimiento ........................................................................ 2
1.1.2. Cuantificación y Decodificación ............................................................... 3
1.1.3. Conversores A/D con Sobremuestreo ........................................................ 7
1.1.4. Ruido de Cuantificación .......................................................................... 12
1.2. Estructuras para la Realización de Sistemas en Tiempo Discreto .................. 14
1.3. Errores Resultantes del Redondeo y Truncamiento ........................................ 15

CAPITULO II: IMPLEMENTACIÓN DE SISTEMAS EN TIEMPO


DISCRETO
2.1. Herramientas Matemáticas .............................................................................. 20
2.1.1. Transformada Z........................................................................................ 20
2.1.2. Transformada de Fourier ......................................................................... 23
2.1.3. Transformada de Fourier Discreta DTF................................................... 25
2.1.4. Transformada Rápida de Fourier FFT ..................................................... 26
2.1.5. Identidad de Parseval ............................................................................... 30
2.1.6. Desigualdad de Bessel ............................................................................. 31
2.1.7. Aliasing .................................................................................................... 32
2.1.8. Estadística ................................................................................................ 33
2.1.8.1. Probabilidad ........................................................................................... 33
2.1.8.2. Valores Esperados.................................................................................. 35
2.1.8.3. Procesos Aleatorios................................................................................ 37
2.1.8.4. Procesos Estocásticos ............................................................................ 37
2.2. Estructuras para Sistemas FIR ............................................................................ 38
UPS Índice General

2.2.1. Estructura en Forma Directa .................................................................... 39


2.2.2. Estructura en Forma de Cascada.............................................................. 40
2.2.3. Estructura de Muestreo en Frecuencia ..................................................... 41
2.2.4. Estructura en Celosía ............................................................................... 43
2.3. Estructuras Para Sistemas IIR ............................................................................. 46
2.3.1. Estructura en Forma Directa .................................................................... 46
2.3.2. Grafos y Estructuras Transpuestas........................................................... 48
2.3.3. Estructura en Forma de Cascada.............................................................. 51
2.3.4. Estructura en Forma Paralela ................................................................... 52
2.3.5. Estructura en Celosía y en Celosía Escalonada para Sistemas IIR .......... 53
2.4. Cuantificación de los Coeficientes del Filtro ...................................................... 55
2.4.1. Análisis de la Sensibilidad a la Cuantificación de los Coeficientes del
Filtro…………………………………………………………………………...… 56
2.4.2. Cuantificación de los Coeficientes en Filtros FIR ................................... 57
2.5. Oscilaciones de Ciclo Límite en Sistemas Recursivos ................................... 58
2.6. Escalado para Prevenir Desbordamiento ........................................................ 59

CAPITULO III: DISEÑO DE FILTROS DIGITALES


3.1. Consideraciones Generales ............................................................................. 62
3.1.1. Causalidad y sus Implicaciones ............................................................... 62
3.1.2. Características de Filtros Prácticos Selectivos en Frecuencia ................. 63
3.2. Diseño de Filtros FIR ...................................................................................... 65
3.2.1. Filtros FIR Simétricos y Asimétricos ...................................................... 65
3.2.2. Diseño de Filtros FIR de Fase Lineal Usando Ventanas ......................... 67
3.2.3. Diseño de Filtros FIR de Fase Lineal Mediante el Método de Muestreo en
Frecuencia............................................................................................................... 69
3.2.4. Diseño de Filtros Óptimos FIR de Fase Lineal y Rizado Constante ....... 70
3.2.5. Diseño de Diferenciadores FIR................................................................ 73
3.2.6. Diseño de Transformadores de Hilbert .................................................... 74
3.2.7. Comparación de Métodos de Diseño para Filtros FIR de Fase Lineal .... 75
3.3. Diseño de Filtros Digitales Basado en el Método De Mínimos Cuadrados.... 76
3.3.1. Método de Aproximación De Padé .......................................................... 76
3.3.2. Método de Diseño de Mínimos Cuadrados.............................................. 77
3.3.3. Filtros Inversos FIR de Mínimos Cuadrados (Wiener) ........................... 79
UPS Índice General

3.3.4. Diseño de Filtros IIR en el Dominio de la Frecuencia ............................ 82


3.4. Predicción Lineal hacia Adelante y hacia Atrás ............................................. 84
3.4.1. Predicción Lineal hacia Adelante ............................................................ 84
3.4.2. Predicción Lineal hacia Atrás .................................................................. 86
3.4.3. Coeficientes de Reflexión Óptimos para los Predictores en Celosía hacia
Delante y hacia Atrás.............................................................................................. 87
3.4.4. Relación de un Proceso AR con la Predicción Lineal ............................. 88
3.5. Propiedades de los Filtros de Error de Predicción Lineal ............................... 88
3.6. Filtros de Wiener para Predicción y Filtrado .................................................. 90
3.6.1. Filtro FIR de Wiener ................................................................................ 90
3.6.2. Principio de Ortogonalidad en Estimación Lineal de Mínimos
Cuadrados…………............................................................................................... 92
3.6.3. Filtro IIR de Wiener................................................................................. 93
3.6.4. Filtro de Wiener no Causal ...................................................................... 96

CAPITULO IV: FILTROS ADAPTATIVOS


4.1. Aplicaciones de los Filtros Adaptativos .......................................................... 99
4.1.1. Identificación ó Modelado del Sistema ................................................. 100
4.1.2. Ecualización del Canal Adaptativa ........................................................ 101
4.1.3. Cancelación del Eco en la Transmisión de Datos a Través de Canales
Telefónicos ........................................................................................................... 103
4.1.4. Supresión de Interferencias de Banda Estrecha en una Señal de Banda
Ancha………………………………………………………………………...… 105
4.1.5. Mejorador de Línea Adaptativo ............................................................ 108
4.1.6. Cancelación de Ruido Adaptativa.......................................................... 109
4.1.7. Codificación Lineal Predictiva de Señales de Voz ............................... 110
4.1.8. Matrices Adaptativas ............................................................................. 113
4.2. Filtros FIR Adaptativos En Forma Directa: Algoritmo LMS ....................... 115
4.2.1. Criterio del Error Cuadrático Medio Mínimo ........................................ 116
4.2.2. El Algoritmo LMS ................................................................................. 117
4.2.3. Algoritmos Estocásticos de Gradiente ................................................... 119
4.2.4. Propiedades del Algoritmo LMS ........................................................... 120
4.3. Filtros FIR Adaptativos en Forma Directa: Algoritmo RLS......................... 124
4.3.1. Algoritmo RLS ...................................................................................... 124
UPS Índice General

4.3.2. Algoritmo de Factorización LDU y de Raíz Cuadrada .............................. 125


4.3.3. Algoritmos RLS Rápidos ....................................................................... 128
4.3.4. Propiedades de los Algoritmos RLS para la Forma Directa .................. 128
4.4. Filtros Adaptativos en Celosía-Escalera ....................................................... 129
4.4.1. Algoritmo Recursivos de Mínimos Cuadrados en Celosía-Escalera ..... 130
4.4.2. Otros Algoritmos en Celosía.................................................................. 140
4.4.3.Propiedades de los Algoritmos en Celosía-Escalera ................................... 141

CAPITULO V: MODELACIÓN MATEMÁTICA Y SIMULACIÓN


DEL NUEVO MODELO HIBRIDO ADAPTATIVO LINEAL ÓPTIMO
5.1. Planteamiento del Nuevo Modelo de Estudio ............................................... 145
5.2. Modelación Matemática ................................................................................ 152
5.3. Diseño del Algoritmo de Simulación del Nuevo Modelo ............................. 162
5.4. Simulación Experimental ............................................................................... 164
5.5. Análisis y Comparación de Resultados ........................................................... 171

Conclusiones y Recomendaciones……………...……………………………...… VI
Bibliografía……………………..……………..……………………………….…XIII
Glosario....................................................................................................................XV
Anexos…………………………………..………………….…………………...XVIII
UPS Índice de Figuras

Índice de Figuras

Fig. 1. 1. Diagrama de bloques de elementos básicos de un conversor A/D ............... 2


Fig. 1. 2. (a) Circuito Electrónico S/H. (b) Respuesta temporal de un circuito S/H
ideal .............................................................................................................................. 3
Fig. 1. 3. Proceso de Cuantificación ............................................................................ 4
Fig. 1. 4. Ejemplo de un Cuantificador con redondeo ................................................. 5
Fig. 1. 5. Características de los Conversores A/D ideales y prácticos ......................... 6
Fig. 1. 6. Codificador y Decodificador para un sistema cuantificador de señal
diferencial predictivo. .................................................................................................. 8
Fig. 1. 7. Sistema de Modulación delta ........................................................................ 9
Fig. 1. 8. Principio básico para la implementación práctica de un sistema DM .......... 9
Fig. 1. 9. Tipos de errores de cuantificación en DM.................................................. 10
Fig. 1. 10. Sistema de modulación sigma delta ......................................................... 10
Fig. 1. 11. (a) SDM simplificado; (b) SDM discreto ................................................. 11
Fig. 1. 12. Magnitud de la respuesta en frecuencia de la función de transferencia del
ruido ........................................................................................................................... 12
Fig. 1. 13. Elementos básicos de un conversor A/D con sobremuestreo ................... 12
Fig. 1. 14. Modelo Matemático del Ruido de Cuantificación. (a) Sistema Real; (b)
Modelo Matemático ................................................................................................... 13
Fig. 1. 15. Errores de Cuantificación (a) por Redondeo, (b) por Truncamiento ........ 17
Fig. 1. 16. Adición de Ruido Aditivo al Proceso de Cuantificación no lineal: (a)
Sistema Real, (b) Modelo para Cuantificación. ........................................................ 17
Fig. 2. 1. No. De operaciones vs. No. De muestras para un algoritmo FFT………. 27
Fig. 2. 2. Señal tomada para la adquisición de muestras con Aliasing ...................... 33
Fig. 2. 3. Sistema FIR en una realización directa ...................................................... 39
Fig. 2. 4. Sistema FIR de fase lineal (M impar) en una realización directa .............. 39
Fig. 2. 5. Sistema FIR en una realización en cascada ............................................... 40
Fig. 2. 6. Sistema FIR de cuarto orden en una realización en cascada ...................... 41
Fig. 2. 7. Sistema FIR en una realización de muestreo de frecuencia ...................... 42
Fig. 2. 8. Filtro en celosía de (M-1) etapas ............................................................... 43
Fig. 2. 9. Realización en Forma Directa I ................................................................. 47
Fig. 2. 10. Realización en Forma Directa II (N=M) ................................................. 47
Fig. 2. 11. Estructura de un filtro de segundo orden (a) y (b) su grafo ..................... 49
Fig. 2. 12. (a) Grafo de la estructura transpuesta de la Fig. 2.11. y (b) su realización
.................................................................................................................................... 49
Fig. 2. 13. Estructura en cascada de estructura de segundo orden y una realización
de cada sección de segundo orden. ............................................................................ 51
Fig. 2. 14. Estructura en paralelo de un sistema IIR ................................................. 52
Fig. 2. 15. Estructura en celosía para un sistema IIR todo polos .............................. 53
Fig. 2. 16. Estructura en celosía escalonada de un sistema de polos-ceros. .............. 54

I
UPS Índice de Figuras

Fig. 2. 17. Posiciones de los polos para un Filtro FIR paso bajo. ............................. 56
Fig. 3. 1. Características de magnitud de los filtros físicamente realizables…..….. 64
Fig. 3. 2. Simetría en las localizaciones de los ceros para un Filtro FIR de fase lineal
.................................................................................................................................... 65
Fig. 3. 3. Características deseadas de respuesta en frecuencia para diferentes tipos de
Filtros ......................................................................................................................... 72
Fig. 3. 4. Diagrama de Flujo del Algoritmo de Intercambio de Remez ..................... 73
Fig. 3. 5. Método de diseño del filtro inverso de mínimos cuadrados ...................... 77
Fig. 3. 6. Método de mínimos cuadrados para determinar polos y ceros de un filtro
.................................................................................................................................... 78
Fig. 3. 7. Filtro Inverso FIR de Mínimos Cuadrados ................................................ 80
Fig. 3. 8. Predicción lineal hacia adelante ................................................................ 84
Fig. 3. 9. Filtro de error de predicción ...................................................................... 85
Fig. 3. 10. Etapa p del filtro en celosía ..................................................................... 86
Fig. 3. 11. Modelo para el problema de Estimación Lineal ...................................... 90
Fig. 4. 1. Aplicación del filtrado adaptativo a la identificación de un sistema...… 101
Fig. 4. 2. Aplicación del Filtrado Adaptativo a la ecualización de un canal ........... 102
Fig. 4. 3. Diagrama de bloques de un sistema de comunicación digital con
canceladores de eco en los módems ......................................................................... 105
Fig. 4. 4. Interferencia de banda estrecha X(f) en un banda ancha W(f). ................. 106
Fig. 4. 5. Filtro adaptativo para eliminar interferencia de banda estrecha en una señal
de banda ancha ......................................................................................................... 107
Fig. 4. 6. Esquema de un sistema de cancelación de ruido adaptativo. .................. 110
Fig. 4. 7. Diagrama de bloques de la generación de una señal de voz. ................... 111
Fig. 4. 8. Diagrama de bloques de la estimación de los parámetros de los polos ... 112
Fig. 4. 9. Matriz de antenas: (a) Con patrón de antena. (b) Con nulidad en la
dirección de interferencia. ........................................................................................ 114
Fig. 4. 10. Sistema de Control de bucle cerrado que representa a 4.2.22 ............... 121
Fig. 4. 11. Velocidad de convergencia de los algoritmos RLS y LMS para un
ecualizado de canal FIR. .......................................................................................... 128
Fig. 4. 12. Filtros en celosía para el algoritmo de mínimos cuadrados................... 131
Fig. 4. 13. Filtro adaptativo RLS en celosía-escalera ............................................. 133
Fig. 4. 14. Complejidad de Cálculos para los Algoritmos de Filtros Adaptativos . 142
Fig. 5. 1. Sistema Adaptativo o Predictor……………………………………….... 145
Fig. 5. 2. Configuración de un Filtro con arreglo lineal .......................................... 146
Fig. 5. 3. Filtro Adaptativo Transversal ................................................................... 147
Fig. 5. 4. Esquema de la Configuración del Filtro con algoritmo LMS .................. 150

II
UPS Índice de Figuras

Fig. 5. 5. Predictor en Cascada de 2 etapas – 1 tap .................................................. 153


Fig. 5. 6. Combinación del Predictor de forma directa lineal y el Predictor de
cascada. .................................................................................................................... 157
Fig. 5. 7. Diagrama de Flujo del Algoritmo utilizado en la simulación .................. 163
Fig. 5. 8. Curva obtenida del Aprendizaje LMS ...................................................... 167
Fig. 5. 9. Número de Iteraciones de la Curva del Aprendizaje LMS ....................... 167
Fig. 5. 10. Curva obtenida del Aprendizaje CLMS ................................................. 168
Fig. 5. 11. Número de Iteraciones de la Curva del Aprendizaje CLMS .................. 168
Fig. 5. 12. Curva obtenida del Aprendizaje FCLMS .............................................. 169
Fig. 5. 13. Número de Iteraciones de la Curva del Aprendizaje FCLMS ................ 169
Fig. 5. 14. Curva de Convergencia de los Taps de Algoritmo LMS........................ 170
Fig. 5. 15. Curva de Convergencia de los Taps de Algoritmo CLMS ..................... 170
Fig. 5. 16. Curva de Convergencia de los Taps de Algoritmo FCLMS ................... 171
Fig. 5. 17. Curvas de Aprendizaje obtenidas de los distintos Aprendizajes ............ 172
Fig. 5. 18. Convergencia de los Taps de los tres tipos de Aprendizaje ................... 173

III
UPS Índice de Tablas

Índice de Tablas

Tabla 1.1. Códigos Bipolares comúnmente utilizados ................................................ 7


Tabla 2.1. Algunos módulos de Segundo Orden para Sistemas Discretos…………50
Tabla 3.1. Funciones Ventana para el diseño de Filtros FIR……………………....68
Tabla 3.2. Funciones para el diseño de Filtros FIR ................................................... 71
Tabla 4.1 Forma LDU del Algoritmo RLS de raíz cuadrada de Complejidad M 2 127
Tabla 4.2. Forma a priori del Algoritmo RLS en celosía-escalera.......................... 133
Tabla 4.3. Actualización directa del algoritmo RLS a priori en celosía-escalera ... 134
Tabla 4.4. Algoritmo FAEST .................................................................................. 138
Tabla 4.5. Algoritmo RLS rápido estandarizado y simplificado............................. 139
Tabla 5.1. Número de iteraciones entre los 3 métodos de Aprendizaje………..… 173

IV
UPS Introducción

Introducción

El hombre desde sus inicios se dio cuenta de la necesidad y gran importancia


de mantenerse comunicado, por lo que con el pasar del tiempo inventó, desarrolló y
mejoró varios medios de comunicación, primero con sistemas primitivos, pasando
por los analógicos hasta llegar en la actualidad a sistemas digitales muy avanzados.

De igual manera se dio cuenta en la importancia de que la información sea


segura, confiable y protegida, con la finalidad de que sea utilizada solo por la
persona a la cual le vaya a ser útil.

En la actualidad la mayor parte de operaciones de información son digitales, y


como ningún sistema es ideal, casi siempre se introducen en las transmisiones ruido,
por lo que es necesario, la utilización de filtros que nos purifiquen la señal, y nos
permitan recuperar las señales en su totalidad de ser posible.

Los filtros utilizan varias etapas con la finalidad de mejorar los resultados
obtenidos, así como de dispositivos DSP, aunque su complejidad computacional
aumenta. Sin embargo con los avances de la ciencia en el campo de la informática se
cuenta elementos más veloces y con mayor capacidad de procesamiento, por lo que
estos inconvenientes disminuyen notablemente, incrementando las posibilidades de
obtener mayor nitidez en las transmisiones.

Dependiendo del tipo de respuesta que nos pueda dar un filtro digital existen
los filtros IIR y FIR, cada uno con diferentes características, motivo por el cual se ha
decidido diseñar un nuevo modelo hibrido, que nos brinde nuevas características para
ser utilizadas en aplicaciones conocidas como en nuevas.

El descubrimiento de un nuevo modelo nos permitirá tener mayores opciones


a la hora del procesamiento digital de señales, para de esta manera tener mejores
resultados.

V
UPS Capítulo I

CAPÍTULO
I

DIGITALIZACIÓN DE
SEÑALES

1
UPS Capítulo I

CAPÍTULO I
DIGITALIZACIÓN DE SEÑALES
La gran mayoría de señales son de naturaleza analógica, es por esto que
previo al procesamiento de estas señales se debe pasar por un proceso de
digitalización, aunque este proceso es complicado en el presente capítulo ayuda a su
comprensión tanto en los pasos necesarios como sus principales términos.

1.1. CONVERSIÓN ANALÓGICO-DIGITAL

Comando de
Conversión

Control
S/H Buffer
Mantiene Conversor Al computador o
ó Canal de comunicación
Muestrea A/D
Bus

Preamplificador
Analógico Estado

Fig. 1. 1. Diagrama de bloques de elementos básicos de un conversor A/D

La conversión de una señal analógica a digital requiere que una vez que
hemos muestreado una señal cuantifiquemos los valores muestreados a un número
finito de niveles, representado cada uno de estos niveles por un cierto número de bits.
Este proceso lo realiza un conversor analógico-digital A/D o ADC, cuyas
características usualmente las encontramos en las especificaciones de los fabricantes
o data sheets.

1.1.1. MUESTREO Y MANTENIMIENTO


El dispositivo encargo del muestreo y mantenimiento es S/H, “Sample and
Hold”, este dispositivo toma el valor instantáneo de la señal analógica cada vez que
recibe una señal del control de conversión y lo mantiene hasta recibir la siguiente
orden, hasta que el conversor cuantifique y devuelva una señal digital codificada de
la señal de entrada, si no hubiera un S/H la señal de entrada no debe cambiar más de
la mitad del escalón de cuantificación durante la conversión. Un S/H ideal no
introduce distorsión en el proceso de cuantificación y se modela con precisión
mediante un muestreador ideal. En la práctica esto no sucede sino que ocurren

2
UPS Capítulo I

degradaciones relacionadas con el tiempo, como errores en la periodicidad del


proceso de muestreo o los llamados “jitter”, variaciones no lineales en la duración de
la apertura de muestreo y cambios en el voltaje mantenido durante la conversión
“droop”.
Entrada digital
de control

- Salida
- A2
Vo A1 +
+
Entrada
to
analógica
C

(a)
Seguimiento de muestras
Entrada

Mantenimiento

S
S
H H S H S H H S
H
Salida S/H

(b)

Fig. 1. 2. (a) Circuito Electrónico S/H. (b) Respuesta temporal de un circuito S/H ideal

1.1.2. CUANTIFICACIÓN Y DECODIFICACIÓN


Un ADC convierte un rango continuo de amplitudes de entrada en un
conjunto discreto de valores formando palabras o códigos digitales, esto implica
cuantificación y codificación. La cuantificación no es lineal ni invertible que traslada
una amplitud dada x(n)  x(nT ) en el tiempo en una amplitud t  nT , tomada de un

conjunto finito de valores xk . Este procedimiento de ilustra en la siguiente figura,

donde el rango de amplitudes de la señal se divide en L intervalos:

I k  xk  x(n)  xk 1 k  1, 2,..., L (1.1.1)

3
UPS Capítulo I

Niveles de
Niveles de decisión
Cuantificación Ik
 
x3 x̂3 x4 x̂4  xk xˆk xk 1
Amplitud Instantánea

Rango del Cuantificador

Fig. 1. 3. Proceso de Cuantificación

Con L  1 niveles de decisión y los niveles de cuantificación x1 , xL ,..., xL1


cuya operación se define como:

xq (n)  Q  x(n)  xˆk if x(n)  I k (1.1.2)

La cuantificación no tiene memoria y se describe como xq  Q  x  . Para

señales como la voz se utiliza cuantificadores no lineales y variantes en el tiempo;


mientras que para aplicaciones de transmisión y almacenamiento de señales se usan a
menudo cuantificadores uniformes o lineales, descritos como:

xˆk 1  xˆk   k  1, 2,..., L  1


(1.1.3)
xk 1  xk   para xk , xk 1 finitas

 es el tamaño del escalón; si se asigna un cero a un nivel de cuantificación


el cuantificador es de tipo redondo (proporciona una salida insensible a cambios
infinitesimales de la señal de entrada alrededor del cero), en cambio si se asigna el
cero a un nivel de cuantificación el cuantificador se denomina de tipo truncamiento.
R es el rango del cuantificador y entre ellos tenemos, FSR: “Full Scale Range”
describe las señales bipolares (positivas y negativas), es decir, rango completo.
FS:”Full Scale” para señales unipolares. El error de cuantificación está siempre en un
rango de  / 2  eq (n)   / 2 . Las muestras excedentes del rango del cuantificador

son recortadas, dándonos un error de cuantificación más grande  / 2 .

4
UPS Capítulo I

Salida x̂  Q  x 

Niveles de
Cuantificación
3 Palabras código en
Complemento a dos
2 011
010
 Niveles de 001
  decisión
000

2 2 x 111
9 7 5 3 3 5 7 9 Entrada 110
    2 2
2 2 2 2 2 2 101

100
2

3

4

Rango R=RFS
(Rango pico a pico)
-FS +FS
Fig. 1. 4. Ejemplo de un Cuantificador con redondeo

Cada nivel de Cuantificación tiene un solo número binario, con L niveles


necesitamos también L números binarios diferentes, con una longitud de b  1 bits de
puede representar 2b1 números binarios distintos, o sea, 2b1  L o b  1  log 2 L , y
el tamaño o resolución del escalón es:
R
 (1.1.4)
2b+1
La gran mayoría de procesadores digitales utilizan la el complemento a dos
debido a que no se necesita ninguna transformación, sino que se opera directamente,
una fracción binaria de (b+1) bits de la forma 0 12 ... B tiene el valor:

0  20  1  2-1  2  2-2  ...  b  2-b (1.1.5)

 0 y  b son los bits más y menos significativos respectivamente, se puede


reducir el error de cuantificación incrementando el número de bits aunque en la
práctica siempre va a ver degradaciones, errores de offset (la primera transición no
puede ocurrir exactamente en +1/2LSB1), ganancia o error de factor de escala (la
diferencia entre los valores a los cuales ocurren la primera y última transición no son
iguales FS-2LSB1), y errores de linealidad (la diferencia entre los valores de

5
UPS Capítulo I

transición son todas iguales o cambian uniformemente); si el error de linealidad


diferencial es bastante grande se puede producir perdidas de una o más palabras
código.

1 8

Entrada analógica cuantificada idealmente


Número digital de salida(código y valor fraccionario)
8

7 111 Conversión
8
A/D
3 6 101 ideal
4 8

5 101
8
Transición
1 4 100
2 8
ideal
Valor
3 011 cuantificado
8 nominal
1 2 010  1 
4 8   LSB 
 2 
1 001 1 1 3 1 5 3 7
8 8 4 8 2 8 4 8
0

0 1 1 3 1 5 3 7 FS
8 4 8 2 8 4 8

Entrada Analógica Normalizada

(a)

111

101

101

100 Error de
ganancia
011

010

001

000
0 FS 0 1 1
Error Offset 3 FS
4 2 4

(b) (c)
111 No-linealidad
Códigos
101
perdidos
101

100

011

010

001

000
0 1 1 3 FS 0 1 1 3 FS
4 2 4 4 2 4

(d) (e)
Fig. 1. 5. Características de los Conversores A/D ideales y prácticos

1
LSB, Bit Menos Significativo o sus siglas en Inglés Least Signnificant Bit

6
UPS Capítulo I

Existen muchos esquemas de codificación binaria con varias ventajas y


desventajas, como por ejemplo los que se presentan en la siguiente tabla, para la
codificación binaria de 3-bits:

Tabla 1. 1. Códigos Bipolares comúnmente utilizados


Fracción Decimal
Número Referencia Referencia Signo + Complemento Desplazamiento Complemento
Positiva Negativa Magnitud a dos Binario a uno
+7 +7/8 -7/8 0111 0111 1111 0111
+6 +6/8 -6/8 0110 0110 1110 0110
+5 +5/8 -5/8 0101 0101 1101 0101
+4 +4/8 -4/8 0100 0100 1100 0100
+3 +3/8 -3/8 0011 0011 1011 0011
+2 +2/8 -2/8 0010 0010 1010 0010
+1 +1/8 -1/8 0001 0001 1001 0001
0 0+ 0- 0000 0000 1000 0000
0 0- 0+ 1000 (0000) (1000) 1111
-1 -1/8 +1/8 1001 1111 0111 1110
-2 -2/8 +2/8 1010 1110 0110 1101
-3 -3/8 +3/8 1011 1101 0101 1100
-4 -4/8 +4/8 1100 1100 0100 1011
-5 -5/8 +5/8 1101 1011 0011 1010
-6 -6/8 +6/8 1110 1010 0010 1001
-7 -7/8 +7/8 111 1001 0001 1000
-8 -8/8 +8/8 (1000) (0000)

1.1.3. CONVERSORES A/D CON SOBREMUESTREO


Este tipo de conversores incrementa la tasa de muestreo hasta que sea posible
la utilización de un cuantificador de baja resolución, el sobremuestreo reduce el
rango dinámico de los valores de la señal entre muestras sucesivas; la varianza del
error de cuantificación en la conversión A/D es  e2   /12 , donde   R / 2b1 , esto
se logra reduciendo en la varianza la señal y así el número de bits del cuantificador,

7
UPS Capítulo I

es decir, una cuantificación diferencial, donde la varianza de la diferencia entre dos


muestras sucesivas de la señal:

d (n)  x(n)  x(n 1) (1.1.6)

Y la varianza de d (n) :


 d2  E  d 2 (n)   E  x(n)  x(n  1) 
2

 d2  E  x 2 (n)   2 E  x(n) x(n  1)   E  x(n  1) 2  (1.1.7)

 d2  2 x2 1   xx (1)

Si  xx (1)  0.5  d2   x2 se debe cuantificar la diferencia d (n) y recuperar

x(n) , a partir de los valores cuantificados de la secuencia d q (n) , la autocorrelación

entre muestras sucesivas de la señal a frecuencias de muestreo superiores a la tasa de


Nyquist; esto se logra por medio de un constante a x(n  1) , o sea ax(n  1)
denominado predictor de primer orden de x(n) , valor que puede ser optimizado:

 xx (1)  xx (1)
a  y  d2   x2 1  a 2  (1.1.8)
 xx (0)  x2

Estos predictores se los utiliza en la codificación de voz y transmisiones sobre


canales telefónicos y son llamados Modulación Diferencial de Código de Pulsos
DPCM, que produce una estimación xˆ (n) a partir de muestras pasadas de x(n) ,
reduciendo el rango dinámico a d (n)  x(n)  xˆ (n) .

d q ( n) xq (n)
Q 
x ( n) d ( n)
 


PR
xˆ (n) PR
xq (n)

Codificador Decodificador

Fig. 1. 6. Codificador y Decodificador para un sistema cuantificador de señal diferencial predictivo.

8
UPS Capítulo I

Se puede evitar la acumulación de errores de cuantificación en el


decodificador mediante el uso de un lazo de realimentación alrededor del codificador
e(n)  d (n)  dq (n)  x(n)  xˆ(n)  d q (n)  x(n)  xq (n) , el error en la señal

cuantificada reconstruida xq (n) es igual al error de cuantificación para la muestra

d ( n) .

1 xq (n)
x ( n) d ( n) d q ( n)
 


 1
xˆ (n)
xq (n) Z 1
xˆ (n) a
Z 1 
a

Codificador Decodificador
Fig. 1. 7. Sistema de Modulación delta

Una forma más simple de realizar la cuantificación diferencial predictiva es


mediante la Modulación Delta DM, que consiste en un cuantificador de 1-bit, de dos
niveles y un predictor de primer orden; este sistema produce una aproximación en
escalera a la señal de entrada, en donde en cada instante se determina el signo de la
diferencia entre la muestra de entrada x(n) y su aproximación más reciente en
escalera xˆ (n)  axq (n  1) , esta señal se actualiza luego mediante un paso  en la

dirección de la diferencia.

xq (n)  axq (n  1)  dq (n) (1.1.9)

T
T
1


1
x(t ) d (t ) 1
 Reloj FPB
 1 xˆ (t ) xˆ (t )

 Integrador
Fig. 1. 8. Principio básico para la implementación práctica de un sistema DM

9
UPS Capítulo I

Este sistema necesita un filtro paso bajo analógico para rechazar las
componentes de fuera de la banda de frecuencias entre B y Fs / 2 , ya que Fs  B
debido al sobremuestreo.

Distorsión por
Sobrecarga de pendiente
x ( n)
Ruido Granular
x(n  1)
T a m a ñ o d e l e s c a ló n 

xa (t )
xˆ (n)

1
T
Fs
Fig. 1. 9. Tipos de errores de cuantificación en DM

En la Figura 1.9. se muestran dos tipos de cuantificación en DM, distorsión


de sobrecarga de pendiente y ruido granular; el primero se puede evitar sí
d x (t ) / dt   / T

Reloj


1
x(t )
 FPB
analógico
 1


Codificador Decodificador

Fig. 1. 10. Sistema de modulación sigma delta

Mientras que el segundo ocurre cuando se sigue una señal de entrada con
cambios lentos (plana), al aumentar  disminuye la distorsión de sobrecarga pero
aumenta el ruido granular, por lo que lo más conveniente es utilizar un sistema de
modulación sigma-delta SDM colocando un integrador delante del DM, dándonos
como efectos el incremento de la correlación de la señal entrante, enfatiza las bajas

10
UPS Capítulo I

frecuencias x(t ) y simplifica el esquema ya que el diferenciador se cancela con el


integrador; además de todo esto aprovecha la tasa de muestreo y distribuye el error
de cuantificación a lo largo de la banda hasta Fs  B , el ruido en la banda libre

B  F  Fs / 2 de la señal se elimina mediante un filtro digital.

Reloj


1
x(t )

FPB
analógico
 1

Codificador Decodificador

(a)
H ( z)
e( n )

x ( n) d ( n) d q ( n)
  z 1 

(b)
Fig. 1. 11. (a) SDM simplificado; (b) SDM discreto

El ruido tiene una función de transferencia:

F
H n ( F )  2 sen (1.1.10)
Fs

La potencia del ruido se reduce aumentando la tasa de muestreo, además de


un doble integrador, manteniendo B fijo; todo esto produce la distribución de la
potencia del ruido de cuantificación sobre una banda de frecuencias mayor
( Fs / 2, Fs / 2) , y luego dando forma a la densidad espectral de potencia del ruido
mediante un filtro.

11
UPS Capítulo I

Para convertir una señal cuantificada con b bits a la tasa de Nyquist, pasamos
la señal a través de un filtro paso bajo analógico con una frecuencia de corte B para
rechazar el ruido fuera de la banda de ( B, Fs / 2) , el resultado es una aproximación de

la señal de entrada, y por último se la remuestrea a una tasa menor.

Sr ( F )
 e2 / Fs Hn (F )


Fs B B Fs F
2 2

Fig. 1. 12. Magnitud de la respuesta en frecuencia de la función de transferencia del ruido

Los conversores A/D con sobremuestreo, se fabrican usualmente como


circuitos integrados que operan a una fase de muestreo 2MHz, se submuestrean a
8kHZ y proporcionan una precisión de 16 bits.

Sección analógica Sección digital

1  bit
x(t ) Filtro d q ( n) FPB b 1 xq (n)
SDM
Anti-aliasing Fs digital FN

Conversor SDM-PCM

Sección digital Sección analógica

b  bits Datos
FPB b  bits SDM 1  bit Filtro de
Muestreados
FN Digital FS Digital Fs Suavizado
FPB

Conversor PCM-SDM Filtros anti-aliasing


Fig. 1. 13. Elementos básicos de un conversor A/D con sobremuestreo

1.1.4. RUIDO DE CUANTIFICACIÓN


Los efectos de la cuantificación son evaluados mediante aproximaciones
estadísticas, donde suponemos que el error de cuantificación tiene naturaleza
aleatoria, esto se hace añadiendo ruido a la señal original; si la señal original

12
UPS Capítulo I

analógica se encuentra dentro del rango del cuantificador eq (n) , el error está

limitado en magnitud eq (n)   / 2 y el error resultante se llama error granular. En

cambio cuando la entrada se encuentra fuera del rango del cuantificador (recorte),
eq (n) es limitado y se lo llama ruido de sobrecarga que produce severas distorsiones

en la señal, la solución es escalar la entrada hasta que esta se encuentre dentro del
rango del cuantificador.

Debemos suponer las propiedades estadísticas que se muestran a continuación


de eq (n) si el tamaño del escalón de cuantificación es pequeño y la secuencia x(n)

de atraviesa varios niveles de cuantificación entre dos muestras sucesivas:

1. El error eq (n) se distribuye uniformemente sobre el rango

 / 2  eq (n)   / 2 .

2. La secuencia de error eq (n) es una secuencia estacionaria de ruido blanco,

el error eq (n) y el error eq (m) para m  n no están correlacionadas entre si.

3. La secuencia de error eq (n) no está correlacionada con la secuencia x(n) .

4. La secuencia x(n) tiene media cero y es estacionaria.

Cuantificador
x ( n) xq (n) x ( n)  xq (n)  x(n)  eq (n)
Q  x ( n) 

eq (n)
(a) (b)

Fig. 1. 14. Modelo Matemático del Ruido de Cuantificación. (a) Sistema Real; (b) Modelo
Matemático

Donde la potencia de la señal es Px   x2  E  x 2 (n)  y la potencia del ruido

de cuantificación Pn   e2  E eq2 (n)  .

13
UPS Capítulo I

El error de cuantificación se distribuye uniformemente en el rango, el valor


medio del error es cero y la varianza o potencia del ruido de cuantificación, está dada
por:

/2 1 /2 2 
Pn   e2 p(e)de   e de  (1.1.11)
 / 2   / 2 2

La relación señal a ruido de la señal depende del rango del Conversor A/D y
de los datos estadísticos de la señal de entrada, en decibelios, es:

Px  R
SQNR  10log10  10log10 x  6.02b  16.81  20log  dB  (1.1.12)
Pn n x

En la práctica el funcionamiento de los circuitos conversores A/D, tienen un


funcionamiento inferior a los valores teóricos, lo que provoca que el número efectivo
de bits de alguna manera sea menor que el número de bits en el conversor A/D.

1.2. ESTRUCTURAS PARA LA REALIZACIÓN DE SISTEMAS EN


TIEMPO DISCRETO
Un Sistema Lineal e Invariante en el tiempo puede ser descrito, por la
siguiente ecuación diferencial lineal con coeficientes constantes:

N M
y (n)   ak y (n  k )   bk x(n  k ) (1.2.1)
k 1 k 1

Cuya Transformada  nos da a conocer la Función de Transferencia racional:


M

b z k
k

H ( z)  k 1
N
(1.2.2)
1   ak z k

k 1

La función de transferencia es muy importante ya que nos da información


sobre los polos y ceros que determinan la respuesta en frecuencia del sistema, estos

14
UPS Capítulo I

datos dependen de los parámetros bk  y ak  , necesarios para la implementación

del sistema ya sea en software o hardware, que nos permiten determinar la secuencia
y (n) de salida a partir de la secuencia x(n) de entrada.

Se puede organizar la ecuación deferencial de varias maneras, cada una de las


cuales representa una estructura diferente para su realización, que se la desarrolla a
través un diagrama de bloque constituido por una interconexión de elementos de
retardo, multiplicadores y sumadores. Cada una de estas representaciones implica
también un grado de complejidad distinta, así como distintos requerimientos
computaciones para su implementación en un ordenador digital.

Para escoger una estructura para la realización de un sistema debemos tomar


en cuenta la complejidad computacional, por tanto, es necesario tomar en analizar el
número de operaciones matemáticas que se van a efectuar, tales como,
multiplicaciones, divisiones y sumas; número de accesos a memoria o número de
veces que se realiza una comparación entre dos números para cada muestra de salida;
número de posiciones necesarias de memoria que utilizan para almacenar los
parámetros del sistema, entradas y salidas anteriores, así como cualquier otro valor
intermedio necesario para determinar la salida y(n) del sistema.

Otro aspecto importante a tomar en cuenta son los efectos de las palabras de
longitud finita, ya que todas las operaciones que se realizan en su implementación
son de precisión finita, y utilizan aritmética de punto fijo o punto flotante, por lo que
necesariamente se debe realizar redondeo o truncamiento a ciertos valores.

1.3. ERRORES RESULTANTES DEL REDONDEO Y TRUNCAMIENTO


El procesamiento digital de una señal involucra diversas operaciones
aritméticas de punto fijo o de punto flotante, en donde los números x se encuentran
representados por bits, por lo que es necesario introducir un error cuyo valor dependa
del número de bits del número original bu respecto al número de bits después de la

cuantificación b , este error puede ser de cuantificación o por truncamiento, donde

15
UPS Capítulo I

b  bu , el error de truncamiento es tomar solamente un cierto número de bits que


representan al número y se lo puede definir como:

Et  Qt ( x)  x (1.3.1)

El truncamiento de números positivos da como resultado un número más


pequeño que el número no cuantificado, reduciendo el número de bits significativos
desde bu hasta b , y el error más grande se evidencia si descartamos bu  b bits,
todos los cuales son unos. En cambio cuando se trata de números negativos en punto
fijo, al realizar una reducción de la magnitud de los números, esta se la hace sin
tomar en cuenta el signo, el efecto de realizar un truncamiento a un número negativo
es incrementar la magnitud del número negativo.

El error de truncamiento para la representación de un número tanto en


magnitud, como en signo es simétrica respecto a cero y se encuentra en el rango de:

  
 2b  2bu  Et  2b  2bu  (1.3.2)

El error de redondeo afecta solo a la magnitud del número,


independientemente del tipo de representación en punto fijo, su valor máximo puede
ser positivo o negativo dependiendo del valor x , este se puede introducir a través de

2 b

 2bu / 2 , y está dado por:

Er  Qr ( x)  x (1.3.3)

Este error es simétrico con respecto a cero y se encuentra en el rango de se


puede introducir a través de  2b  2bu  / 2 , y está dado por:


2

1 b

1
2  2bu  Er  2b  2bu
2
  (1.3.4)

Cabe mencionar que el redondeo o truncamiento se los realiza a la mantisa


del número, como la resolución no es uniforme el error de la representación en punto

16
UPS Capítulo I

flotante es proporcional al número que se cuantifica. En la Figura 1.14. se ilustra las


relaciones descritas anteriormente.

Qr ( x) Qr ( x)

2 b 2 b

2 b
x x
2 b
2

Er  Qr ( x)  x Et  Qt ( x)  x
1 1
 2b  Er  2b 2b  Et  2b
2 2
(a) (b)

Fig. 1. 15. Errores de Cuantificación (a) por Redondeo, (b) por Truncamiento

Usualmente se adopta una metodología estadística para compensar los errores


de truncamiento y redondeo, por lo que se introduce ruido aditivo al valor sin
cuantificar x

Q( x)  x   (1.3.5)

Donde  puede ser por redondeo Er o por truncamiento Et , tal como se ve en

la Figura 1.16.:

x  x 

x Cuantificador x 
Q( x)

(a) (b)

Fig. 1. 16. Adición de Ruido Aditivo al Proceso de Cuantificación no lineal: (a) Sistema Real, (b)
Modelo para Cuantificación.

17
UPS Capítulo I

x puede caer en cualquiera de los niveles del cuantificador, por lo que el error de
cuantificación se modela como una variable aleatoria distribuida uniformemente
dentro de los rangos especificados por la representación en punto fijo; generalmente
en la práctica bu  b ,por lo que es posible presidir del factor 2bu .

18
UPS Capítulo II

CAPÍTULO
II

IMPLEMENTACIÓN DE
SISTEMAS EN TIEMPO
DISCRETO

19
UPS Capítulo II

CAPÍTULO II
IMPLEMENTACIÓN DE SISTEMAS EN TIEMPO DISCRETO
Son muchas las herramientas matemáticas y conceptos importantes que se
utilizaran en el diseño de filtros digitales; en este capítulo se los presenta de una
manera concreta, además se encuentran descritas las principales estructuras y
realizaciones de los Sistemas en Tiempo Discreto así como sus características y
expresiones matemáticas que rigen sus comportamientos en el tiempo y frecuencia.

2.1. HERRAMIENTAS MATEMÁTICAS


2.1.1. TRANSFORMADA Z
Las propiedades que brinda la transformada de Fourier constituyen una
herramienta básica para el análisis de Señales y Sistemas Invariantes en el tiempo.
Es así que la transformada z es usada para señales y sistemas discretos LTI como lo
representa con el mismo papel la transformada de LaPlace en el análisis de señales y
sistemas continuos LTI. Con la transformada z se tiene una manera de caracterizar
los sistemas LTI y sus respuestas para la variedad de señales que se puede tener
localizando sus polos y ceros.

La Transformada Z Directa.
La transformada z de una señal discreta representada por x(n) se indica de la
siguiente:
x(n) 
z
X ( z) (2.1.1)
Sin embargo por facilidad la transformada Z de una señal x(n) se encuentra
denotada por:
X ( z)  Z x(n) (2.1.2)

Es así que la transformada z directa se encuentra representada como se ve a


continuación, debido a que transforma una señal en dominio del tiempo en la señal
compleja X (z ) .

X ( z)   x ( n) z
n  
n

(2.1.3)

20
UPS Capítulo II

Finalmente, a la transformada z se le conoce como la transformada z bilateral


para así poder distinguirla de la transformada z unilateral, la misma que se encuentra
representada por:

X  ( z )   x ( n) z  n
n 0 (2.1.4)

A pesar de esto, el término bilateral será usado si x(n) es causal (es decir si
x(n)=0 para n<0), pues en este caso unilateral como bilateral son equivalentes, y
también se incluirá este término bilateral en casos en los que sea necesario para
evitar ambigüedades, como el que se indicó anteriormente.

La Transformada Z Inversa.
Ocasionalmente en muchos problemas se tiene que la transformada z, y lo que
se quiere determinar es la señal, es así que existen un método denominado la
transformada z inversa, que no es más que el procedimiento para transformar desde
el dominio z al dominio del tiempo. El objetivo en sí es encontrar x(n) a partir de
X(z), por lo que:
1
𝑥 𝑛 = 2𝜋𝑗 𝑋 𝑧 . 𝑧 𝑛−1 𝑑𝑧 (2.1.5)

Sin embargo para simplificar los cálculos existen un método de inversión en


la cual se puede encontrar la inversión de una manera más fácil y esto es utilizando o
ayudándose de tablas.

Propiedades de la transformada Z
Linealidad.
𝑧
𝑆𝑖 𝑥1 𝑛 𝑥1 𝑧
𝑧
𝑦 𝑥2 𝑛 𝑥2 𝑧
𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑥 𝑛 = 𝑎1 𝑥1 𝑛 + 𝑎2 𝑥2 𝑛 𝑋 𝑧 = 𝑎1 𝑋1 𝑧 + 𝑎2 𝑋2 (𝑧)
(2.1.6)

21
UPS Capítulo II

Desplazamiento en el tiempo
Si la ROC de 𝑧 −𝑘 𝑋(𝑧) es la misma X(z), excepto por z=0 si 𝑘 > 0, 𝑦 𝑧 = ∞,
𝑠𝑖 𝑘 < 0. Se da que:
𝑧
𝑆𝑖 𝑥 𝑛 𝑋 𝑧
𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑥(𝑛 − 𝑘) 𝑧 −𝑘 𝑋(𝑧) (2.1.7)

Escalado en el dominio z
𝑧
𝑆𝑖 𝑥 𝑛 𝑋 𝑧 𝑅𝑂𝐶: 𝑟1 < 𝑧 < 𝑟2
𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑎𝑛 𝑥(𝑛) 𝑋 𝑎−1 𝑧 𝑅𝑂𝐶: 𝑎 𝑟1 < 𝑧 < 𝑎 𝑟2 (2.1.8)

En forma polar se tendría que:


1
𝑤 = 𝑎−1 𝑧 = 𝑟 𝑒 𝑗 (𝑤−𝑤 0 ) (2.1.9)
𝑟0

Inversión Temporal.
𝑧
𝑆𝑖 𝑥 𝑛 𝑋 𝑧 𝑅𝑂𝐶: 𝑟1 < 𝑧 < 𝑟2
𝑧 1 1
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑥 −𝑛 𝑋 𝑧 −1 𝑅𝑂𝐶: < 𝑧 <𝑟 (2.1.10)
𝑟2 1

Diferenciación en el dominio z.
𝑧
𝑆𝑖 𝑥 𝑛 𝑋 𝑧
𝑧 𝑑𝑋 (𝑧)
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑛𝑥 𝑛 −𝑧 (2.1.11)
𝑑𝑧

Convolución de dos secuencias


𝑧 𝑧
𝑆𝑖 𝑥1 𝑛 𝑋1 𝑧 𝑦 𝑥2 𝑛 𝑋2 𝑧
𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑥 𝑛 = 𝑥1 𝑛 ∗ 𝑥2 𝑛 𝑋 𝑧 = 𝑋1 𝑧 𝑋2 𝑧 (2.1.12)

Correlación de dos secuencias


𝑧
𝑆𝑖 𝑥1 𝑛 𝑋1 𝑧
𝑧
𝑥2 𝑛 𝑋2 𝑧
𝑧

𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑟𝑥 1 𝑥 2 𝑙 = 𝑛=−∞ 𝑥1 𝑛 𝑥2 𝑛 − 𝑙 𝑅𝑥 1 𝑥 2 𝑧 = 𝑋1 𝑧 𝑋2 (𝑧 −1 )
(2.1.13)

22
UPS Capítulo II

Multiplicación de dos secuencias


𝑧
𝑆𝑖 𝑥1 𝑛 𝑋1 𝑧
𝑧
𝑥2 𝑛 𝑋2 𝑧
𝑧 1 𝑧
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑥 𝑛 = 𝑥1 𝑛 𝑥2 𝑛 𝑋 𝑧 = 2𝜋𝑗 𝑋1 𝑣 𝑋2 𝑣 −1 𝑑𝑣 (2.1.14)
𝑣

Relación de Parseval.

1  1  1
 x (n) x (n)  2 j  X (v) X
n 
1
*
2 1
*
2  *  v dv
v  (2.1.15)

El Teorema del valor inicial.


𝑥 0 = lim𝑧→∞ 𝑋(𝑧) (2.1.16)

2.1.2. TRANSFORMADA DE FOURIER


Lo que hace la Transformada de Fourier básicamente es como su nombre lo
indica, transformar una señal en el dominio del tiempo al dominio de la frecuencia,
de la cual también se puede hacer el procedimiento inverso mediante la anti
transformada para volver al dominio temporal. La transformada de Fourier no solo
facilita para el manejo de información, sino que con ella se puede modificar la misma
por lo que puede ser ampliamente usada en filtros, en las comunicaciones
(modulaciones, líneas de transmisión), en el procesamiento de imágenes, sonidos e
incluso en otras aplicaciones mas teóricas como la estadística, análisis sismográfico,
etc.

Dando un ejemplo práctico de esto, se puede ver como se aplica la


transformada de Fourier en los circuitos electrónicos, tal como es el caso del
ecualizador en un equipo de música, en la que los leds indicadores suben o bajan
según los diferentes componentes frecuenciales de la señal. Este procedimiento se
hace mediante la Transformada de Fourier plasmada en un chip integrado, pero que
normalmente se lo programa con la Transformada Rápida de Fourier o FFT (siglas en
inglés) para que el procesamiento de la información sea realizada lo más rápido
posible.

23
UPS Capítulo II

Representación Matemática.
La Transformada de Fourier se usa generalmente con señales aperiódicas (sin
embargo se puede usarla también para señales periódicas gracias a la función delta) a
diferencia de la serie de Fourier. Una de las condiciones fundamentales para obtener
la Transformada de Fourier es que la señal se totalmente integrable:

∫−∞ 𝑥(𝑡) 2 𝑑𝑡 < ∞ (2.1.17)

La Transformada de Fourier se define como:


 x(t ).e
 jwt
x( w)  dt
 (2.1.18)
Y su antitransformada es:

1
x(t )   x(w).e
jwt
dw
2  (2.1.19)

Como se mencionó anteriormente, para calcular la Transformada de Fourier


de señales periódicas se utiliza la ayuda de la función delta, de la cual se tiene que:
 (t  t0 ) 
F
 e jwt 0
(2.1.20)

Y gracias a la propiedad de dualidad que tiene la Transformada de Fourier se


tiene que:
(2.1.21)
x(t ) 
F
 X ( w)
(2.1.22)
X (t ) 
F
 2 .x( w)

Obtenemos
e jw0t 
F
 2 ( w  w0 ) (2.1.23)

Es así que se puede calcular la Transformada de Fourier para cualquier señal


periódica de potencia media infinita:
1 2

TT x(t ) dt <


(2.1.24)
Es así que para señal x(t) periódica se cumple que:

x(t ) periodica 
F
  an 2 ( w  kw0 )
n  (2.1.25)

24
UPS Capítulo II

2.1.3. TRANSFORMADA DE FOURIER DISCRETA DTF


La Transformada de Fourier Discreta DFT, no es más que un caso particular
de la transformada de Fourier para una secuencia de una longitud finita, en las que se
evalúa el espectro en unas frecuencias concretas. Cabe recalcar que DFT no es lo
mismo que la TFSD (Transformada de Fourier de Secuencias Discretas), ya que esta
se puede aplicar para secuencias en las que puedan tener un intervalo de longitud
infinita.
Como ya se mencionó, con la DFT se puede calcular sobre el intervalo
temporal 0 < 𝑛 < 𝑁 − 1 , siendo N la longitud (secuencia finita). La DFT tiene
diversas aplicaciones, sin embargo las principales de las que se puede nombrar son:
1.- En la estimación espectral, que es el reconocimiento de señales que van
mescladas con ruido e interferencia
2.- La determinación de una salida temporal de un sistema LTI.
3.- Reconocimiento e identificación de la función de transferencia de los
sistemas a partir de su comportamiento frecuencial.

Representación Matemática.
Suponiendo que de una señal se tiene las muestras en frecuencia en un
intervalo finito definido como 𝑋 2𝜋𝑘 𝑁 , 𝑘 = 0,1, … , 𝑁 − 1, que corresponden a
una secuencia periódica de x(n) de período N, se tiene que:

𝑥 𝑛 = 𝑙=−∞ 𝑥(𝑛 − 𝑙𝑁) (2.1.26)

Cuando existe aliasing (como se verá en un punto más adelante), entonces la


señal con aliasing 𝑥𝑝 (𝑛) es una repetición periódica de x(n), si x(n) tiene una
duración finita de longitud 𝐿 ≤ 𝑁, es así que 𝑥𝑝 (𝑛) sobre un período está dada por:
𝑥 𝑛 , 0≤𝑛 ≤𝐿−1
𝑥𝑝 𝑛 = (2.1.27)
0 𝐿≤𝑛 ≤𝑁−1

A veces es necesario el relleno de una función ceros pero que sin embargo no
proporcionan alguna información adicional acerca del espectro X(w) de la señal x(n).
Teniendo a L como el número de muestras equidistantes de X(w), y si es necesario
rellenando con N – L ceros a la secuencia x(n), se puede calcular sin problema la
DFT de N puntos, por lo que se obtendrá una mejor representación de la
transformada de Fourier X(w).

25
UPS Capítulo II

A continuación se mostrará la representación matemática de la transformada


de Fourier de una secuencia x(n) de duración finita y longitud L:
𝐿−1
𝑋 𝑤 = 𝑛=0 𝑥 𝑛 𝑒 −𝑗𝑤𝑛 , 0 ≤ 𝑤 ≤ 2𝜋 (2.1.28)

Si se muestrea X(w) en frecuencias igualmente espaciadas 𝑤𝑘 = 2𝜋𝑘 𝑁 ,


𝑘 = 0,1, … , 𝑁 − 1, donde 𝑁 ≥ 𝐿, las muestras resultantes son:
 2 k  L 1 (2.1.29)
   x ( n )e
 j 2 kn
X (k )  X  N

 N  n 0
N 1
X (k )   x(n)e j 2 kn N
(2.1.30)
n 0

donde k es el intervalo k=0,1,2,….,N – 1


.
El índice superior del sumatorio se ha incrementado de L – 1 a N – 1 por
conveniencia, ya que x(n)=0 para 𝑛 ≥ 𝐿.

A esta ecuación se la denomina la transformada discreta de Fourier (DFT), la


cual permite transformar una secuencia x(n) de longitud 𝐿 ≤ 𝑁, en una secuencia de
muestras en frecuencias de longitud N. De la misma manera, se puede recuperar la
secuencia x(n) a partir de las muestras de frecuencia, en la que la ecuación queda
expresada:
1 𝑁−1 𝑗 2𝜋𝑘𝑛 𝑁
𝑥 𝑛 =𝑁 𝑘=0 𝑋(𝑘)𝑒 , 𝑛 = 0,1,2, … , 𝑁 − 1 (2.1.31)

A esta ecuación se la conoce como la DFT inversa, que también se le


representa por las siglas IDFT.

2.1.4. TRANSFORMADA RÁPIDA DE FOURIER FFT


La transformada rápida de Fourier (FFT por sus siglas en inglés) no es más
que un algoritmo para el cálculo y la rápida evaluación de las integrales de Fourier.
Esta fue desarrollada en los laboratorios de IBM y como ya se dijo su efectividad e
importancia radica en la obtención de resultados de un rápido cálculo durante el
procedimiento del análisis.
Para la aplicación, con este algoritmo se puede obtener rápidamente el
espectro de la señal a partir de la señal temporal de entrada. Esto también puede ser

26
UPS Capítulo II

analizado por la transformada discreta de Fourier pero obviamente tomará mucho


más tiempo para el análisis y el cálculo.
A continuación se presenta una gráfica en la que muestra la diferencia de
tiempo y la velocidad de cálculo entre la tradicional transformada discreta y la FFT.
Se puede ver también que aumenta es tiempo según aumenta el número de muestras
a analizar. En la gráfica se ve que la una aumenta de forma exponencial el número de
operaciones para la resolución, mientras que la otra (FFT) lo hace de forma casi
lineal.
No. Operaciones
necesarias

40000

30000
^ 2
=N
s
ne
io
ac
20000 er
op
e
.D
. No
TF
10000 FFT.
No. De
operaciones=N*LOG2(N)

0 No. de muestras

0 20 40 60

Fig. 2. 1. No. De operaciones vs. No. De muestras para un algoritmo FFT

Lo que intenta la FFT es resolver de la manera más eficiente la DFT o la


ecuación que se presenta a continuación:
1 𝑁−1 𝑗 2𝜋𝑘𝑛 𝑁
𝑥 𝑛 =𝑁 𝑘=0 𝑋(𝑘)𝑒 , 𝑛 = 0,1,2, … , 𝑁 − 1 (2.1.32)

El método presentado a continuación se denomina “doblamiento sucesivo”.


Para simplificar las ecuaciones y sus representaciones, la ecuación (2.1.32) queda
como:
1 𝑁−1 𝑛𝑘
𝑥 𝑛 =𝑁 𝑘=0 𝑋(𝑘) 𝑊𝑁 (2.1.33)

Con la FFT se puede reducir las operaciones de N2 a N*log2(N). Por


definición se tiene que:
WN  e j 2 N

N  2n (2.1.34)

27
UPS Capítulo II

Donde en WN y sus coeficientes no es más que la raíz N-ésima de valor


unidad. Se puede expresar (ya que N es entero positivo):
𝑁 = 2𝑀 (2.1.35)

Ahora sustituyendo se tiene que:


2 M 1
1
X ( n) 
2M
 x(n)W
k 0
nk
2M

1 M 1
1 M 1

  x(n)W2 M   x(2k  1)W n (2 k 1)
X ( n)  n (2 k )
2M 
2  k 0 M k 0  (2.1.36)

Puesto que W22Mnk  WMnk , la ecuación (2.1.36) puede expresarse de la siguiente


manera:
1 1 M 1
1 M 1

X ( n)  
2 M
 x(2k )WMnk 
k 0 M
 x(2k  1)W
k 0
nk
M W2nM 
 (2.1.37)

Definiendo ahora:
M 1
1
X par (n) 
M
 x(2k )W
k 0
nk
M

1 M 1
X impar (n)   x(2k  1)WMnkW
M k 0
n  0,1,..., M  1 (2.1.38)

Por lo que tomando en consideración todo lo anterior, quedará que:


1 𝑛
𝑋 𝑛 = 2 𝑋𝑝𝑎𝑟 𝑛 + 𝑋𝑖𝑚𝑝𝑎𝑟 𝑛 𝑊2𝑀 (2.1.39)

De esto dado que:


WMn  M  WMn
W2nM M  W2nM

Tenemos :

X (n  M ) 
1
2
 x par (n)  ximpar (n)W2nM 
(2.1.40)

28
UPS Capítulo II

Considerando que el número de muestras es igual a 2n, se puede demostrar


que el número de operaciones complejas, entre sumas y restas, esta dado de la
siguiente forma:
𝑚 𝑛 = 2𝑚 𝑛 − 1 + 2𝑛−1 𝑛≥1 (2.1.41)
𝑎 𝑛 = 2𝑎 𝑛 − 1 + 2𝑛 𝑛≥1 (2.1.42)

Son expresiones que indican el número de multiplicaciones y sumas, para las


que m(0) y a(0) son iguales a 0, puesto que la transformada de un punto no requiere
operación alguna.
Una vez descrito lo anterior, se podrá mostrar a continuación que el número
de sumas y multiplicaciones (operaciones complejas) que se necesita para
implementar un algoritmo FFT puede demostrarse como se mencionará a
continuación:
1 n
m( n)  2 log 2 2n
2
1
m(n)  N log 2 N
2
1
m(n)  Nn
2
n 1 (2.1.43)

a (n)  2n log 2 2 n
a (n)  N log 2 N
a (n)  Nn
n 1 (2.1.44)

FFT Inversa
Siempre que haya como realizar modificaciones simples a las entradas de
cualquier algoritmo que se aplique para hallar la FFT, también lo habrá como si se
quiere aplicar la FFT inversa. Es así que partiendo de:

1 𝑁−1 𝑗 2𝜋𝑘𝑛 𝑁
𝑋 𝑛 =𝑁 𝑘=0 𝑋(𝑘)𝑒 (2.1.45)
1 𝑁−1 𝑗 2𝜋𝑘𝑛 𝑁
𝑥 𝑘 =𝑁 𝑛=0 𝑋(𝑛)𝑒 (2.1.46)

29
UPS Capítulo II

Se tiene que para hallar la inversa que y tomando de la ecuación (2.1.46) en


su conjugada y dividiendo ambos lados para N, se tiene:
1 * 1 N 1 *
x (k )   X (n).e j 2 kn N

N N k 0 (2.1.47)

De esa ecuación se usa 𝑋 ∗ (𝑛) como la entrada para el algoritmo con el que se
va a aplicar la FF directa y el resultado que se obtiene es 𝑥 ∗ (𝑘).

Ahora de este resultado se obtiene su complejo conjugado y posteriormente se


lo multiplica por N, resultando la inversa deseada x(k), dando como resultado:
1 N 1 N 1 *
x (k , z )   X (n, p).e j 2 ( nk  pz )
* N

N n 0 p 0 (2.1.48)

2.1.5. IDENTIDAD DE PARSEVAL


Básicamente lo que quiere decir la identidad o relación de Parseval es que
tanto en el dominio de la frecuencia como en el del tiempo la representación de la
señal es la misma, es decir, que en la representación de estas dos formas diferentes de
la señal se debe encontrar la misma cantidad de energía puesto que representa la
misma señal. Para la DFT la relación de Parseval se encuentra representada por:

𝑁−1 2 2 𝑁 2 2
𝑖=0 𝑥 𝑖 =𝑁 𝑘=0 𝑀𝑎𝑔𝑋 𝑘 (2.1.49)

La parte izquierda de esta señal indica el total de energía de la señal contenida


y representada en el dominio del tiempo, encontrada por la sumatoria de las energías
de las N individuales muestras. La parte derecha de la ecuación representa la energía
contenida en el dominio de la frecuencia encontrada por la sumatoria de las energías
de las 𝑁 2 + 1 sinusoides, y se debe recordar que la energía es proporcional al
cuadrado de la amplitud. De la ecuación también se tiene que 𝑋 𝑓 es el espectro de
la frecuencia de 𝑥 𝑛 , con una pequeña modificación.

La primera y la última componente de la frecuencia, 𝑋 0 𝑦 𝑋[𝑁 2] han sido


divididas por la 2, esto y con el factor 2 𝑁 del lado derecho de la ecuación
representa varios sutiles detalles adicionales para el cálculo y la sumatoria de

30
UPS Capítulo II

energías. La relación de Parseval es interesante pues representa la conservación de la


energía, esta tiene muchos usos prácticos en DSP2.

2.1.6. DESIGUALDAD DE BESSEL


Proposición acerca de los coeficientes de un elemento x en un espacio de
Hilbert (para clarificar y para generalizar el concepto de series de Fourier , y la
transformación de Fourier) con respecto a una secuencia ortonormal, es decir, esa la
vez un conjunto ortogonal y la norma de cada uno de sus vectores es igual a 1. Esta
definición sólo tiene sentido si los vectores pertenecen a un espacio vectorial en el
que se ha definido un producto interno , como sucede en los espacios euclídeos En
donde el producto interno puede definirse en términos de distancias y proyecciones
perpendiculares de vectores.
Entonces sea H un espacio de Hilbert, suponga que e1 , e2 ,... es una secuencia

ortonormal en H . Entonces, para todo x en H se tiene que:



2
 x
2
x, ek (2.1.50)
k 1

Donde *,* denota el producto interior en el espacio de Hilbert H , la suma

infinita por definición es:



x '   x, ek ek , (2.1.51)
k 1

La desigualdad de Bessel da notar que esta serie matemática converge. Para


una secuencia ortonormal completa (esto es, para una secuencia ortonormal que a la
vez en una base ortonormal de H ), se tiene la identidad de Parseval, que remplaza la
desigualdad por una igualdad (y consecuentemente x ' con x ).
En Álgebra lineal la Desigualdad de Bessel estipula que dado un espacio
vectorial V con producto interior definido, dada   1 , 2 ,...,  n  una subconjunto

ortonormal de V , se cumple que para todo x en V :


n
x   x,  i
2 2
(2.1.52)
i 1

2
Procesamiento Digital de Señales o sus siglas en inglés de Digital Signal Processing

31
UPS Capítulo II

2.1.7. ALIASING
El término de Aliasing nace de la reconstrucción de una señal. Para
reconstruir una señal hay que saber los diferentes procedimientos para la
reconstrucción de la misma, como generalmente puede informar el teorema del
muestreo como ya se vio en el capítulo 1.

Si se pudo reconstruir exactamente la señal analógica de las muestras


obtenidas, se debió haber hecho correcta y propiamente el muestreo, y de otra
manera, si se hace mal el muestreo, se obtendrán menos muestras y en el momento
de la reconstrucción se podría perder información o datos importantes, como es el
caso del llamado problema del Aliasing.

Como se ve en la figura hay diversas sinusoides que representan el antes y


después de la digitalización. La línea continua representa la señal analógica que
puede ser la entrada a un ADC, mientras que los indicadores cuadrados es la señal
digital que podría ser obtenida a la salida del ADC.

La señal analógica tiene una frecuencia mayor a 0,95 de la velocidad de


muestreo, con una cantidad de 1,05 muestras por ciclo de onda sinusoidal.
Obviamente y como se puede distinguir en la gráfica, estas muestras no representan
adecuadamente la información, estas más bien representan una diferente onda
sinusoidal de la verdadera señal analógica que se quería representar. En sí, la onda
de 0,95 se falsifica a sí mismo como una onda sinusoidal de 0,05 de frecuencia en la
señal digital.

Este fenómeno del cambio de frecuencias de las sinusoides durante la toma de


muestras se llama ALIASING. Como resumen se puede decir que la sinusoide asume
otra frecuencia (identidad) que no es la propia de la señal, por lo que al finalizar la
señal digital representada no está relacionada con la señal analógica original que se
quería reconstruir.

32
UPS Capítulo II

3
Frecuencia Analógica  0.95 de la tasa de muestreo

Amplitud
0

1

2

3
Tiempo  Número de muestra 

Fig. 2. 2. Señal tomada para la adquisición de muestras con Aliasing

2.1.8. ESTADÍSTICA

2.1.8.1. PROBABILIDAD
Al hablar de probabilidad hay que tomar en cuenta un espacio muestral (S),
el cual es el conjunto de todos los resultados posibles de un experimento estadístico.
Concretamente con la probabilidad se sabe la frecuencia con la que se obtiene un
resultado de un conjunto de diferentes resultados que se dan como respuesta
𝑛 𝐴 𝑛 𝐴
𝑃 𝐴 =𝑛 = (2.1.53)
∪ 𝑁

Como se observa en la ecuación (2.1.53), N representa el número de


elementos. Es así que la probabilidad de cualquier evento “A” es igual a la razón de
“n” de estos elementos que son contenidos en “A” para estos “N” puntos del espacio
muestral. Representando esta ecuación de otra manera, se tiene que:
𝑛 𝐴
𝑃 𝐴 = lim𝑁→∞ (2.1.54)
𝑁

Cuando la probabilidad de un evento es cierta y siempre ocurrirá es igual a 1,


pero al contrario, si este evento es imposible que se dé, su probabilidad es igual a 0.

33
UPS Capítulo II

La probabilidad es un resultado (valor) que varía entre 0 y 1. En sí, la suma de todas


las probabilidades de los diferentes eventos dentro del espacio muestral es igual a 1.
P(U)=1
P(0)=0 (2.1.55)
0≤P(A) ≤1

Así mismo se puede dar la probabilidad de “no ocurrencia” de un evento, que


vendría representado por “q”, y que se lo representara de la siguiente manera:
𝑛 𝐴
𝑃 𝑛𝑜𝐴 = 1 − (2.1.56)
𝑁

De esta manera, se obtiene que “p+q = 1”

Reglas Aditivas
Ciertas veces resulta más fácil conocer la probabilidad de un evento cuando
se tiene la probabilidad de otros eventos. A continuación se pueden citar algunas de
estas reglas:
𝑃 𝐴𝑈𝐵 = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 ∩ 𝐵) (2.1.57)

Sin embargo si A y B son mutuamente excluyentes, se tiene que:


𝑃 𝐴𝑈𝐵 = 𝑃 𝐴 + 𝑃 𝐵 (2.1.58)

Probabilidad Condicional.
Es la probabilidad de que ocurra un evento cuando ya ha ocurrido algún otro.
Generalmente se lo denota como P(C/D) y se lo lee como “la probabilidad de que
ocurra D dado que ocurrió C”. Todo esto se define como:
𝑃 𝐴∩𝐵
𝑃 𝐴/𝐵 = 𝑠𝑆𝐼 𝑃(𝐴 > 0) (2.1.59)
𝑃 𝐴

Puede ser que la ocurrencia de B no tenga impacto en la de A, lo que se da a


ver que la ocurrencia de A es independiente de la de B y por lo tanto P(A/B)=P(A).

Reglas Multiplicativas.
Si en un espacio muestral en el cuál puede ocurrir los eventos A y B, se tiene que:
𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴)𝑃 𝐴/𝐵 (2.1.60)

34
UPS Capítulo II

De igual manera, estos 2 eventos son independientes sí P( A  B)  P( A) * P( B) .


Ahora bien, en un experimento pueden darse varios eventos, por lo que se tendrá lo
siguiente:
𝐶
𝑃 𝐴∩𝐵∩𝐶 =𝑃 .𝑃 𝐴 ∩ 𝐵 (2.1.61)
𝐴∩𝐵

𝑜 .
𝐶 𝐵
𝑃 𝐴∩𝐵∩𝐶 =𝑃 .𝑃 . 𝑃(𝐴) (2.1.62)
𝐴∩𝐵 𝐴

𝐷
𝑃 𝐴∩𝐵∩𝐶∩𝐷 =𝑃 .𝑃 𝐴 ∩ 𝐵 ∩ 𝐶 (2.1.63)
𝐴∩𝐵∩𝐶

𝑜
𝐷 𝐶 𝐵
𝑃 𝐴∩𝐵∩𝐶 =𝑃 .𝑃 .𝑃 . 𝑃(𝐴) (2.1.64)
𝐴∩𝐵∩𝐶 𝐴∩𝐵 𝐴

En general, se tendría que:


𝐴2 𝐴𝑘
𝑃 𝐴1 ∩ 𝐴2 ∩ … .∩ 𝐴𝑘 = 𝑃 𝐴1 . 𝑃 ……𝑃 (2.1.65)
𝐴1 𝐴1 ∩𝐴2 ∩….∩𝐴𝑘−1

2.1.8.2. VALORES ESPERADOS


Variables Aleatorias. Los valores esperados son aquellas variables que representan
o asocian un número real con cada elemento del espacio muestral.
X=Variable Aleatoria.
x=Correspondencia de la Variable Aleatoria.

 Variables Aleatorias Discretas.- Son aquellas que representan datos


contados, como el número de artículos defectuosos, o el número de
accidentes de carretera en un año.
 Variables Aleatorias Continuas.- Representan datos medidos, como peso,
altura, temperatura, distancia o períodos de vida.

Distribución de probabilidad.- Se puede hablar de una distribución de probabilidad


cuando el conjunto de pares ordenados (x,f(x)) es una función de probabilidad o
distribución de probabilidad, donde y solo si:
1. 𝑓 𝑥 ≥ 0

2. 𝑓 𝑥 =1

3. 𝑃 𝑋 = 𝑥 = 𝑓(𝑥)

35
UPS Capítulo II

En cambio la función acumulada “F(x)” de una variable aleatoria discreta “x”,


viene dada por:
𝐹 𝑥 =𝑃 𝑋≤𝑥 = 𝑡=𝑥 𝑓 𝑡 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < ∞ (2.1.66)

Concepto de Valor Esperado.- Comúnmente se le conoce a 𝜇𝑥 como la media de la


variable aleatoria X, o simplemente 𝜇 cuando se sabe a qué variable aleatoria se está
refiriendo durante el proceso. A esto se lo llama el “valor esperado” de la variable X
y se denota por E(x). Sea X una variable aleatoria con distribución de probabilidad
f(x). La media o valor esperado viene dado por:
En Discreta: 𝜇=𝐸 𝑥 = 𝑥 𝑥. 𝑓(𝑥) (2.1.67)

Sin embargo, si ahora se considera una variable aleatoria g(x), se tiene que:
Sea “x” con una “f(x)”, la media o valor esperado de “g(x)” sería:
En Discreta: 𝜇𝑔 𝑥 = 𝐸 𝑔 𝑥 = 𝑥 𝑔 𝑥 . 𝑓(𝑥) (2.1.68)

Probabilidad Conjunta.- Sea “x” y “y” variables aleatorias con distribución de


probabilidad conjunta f(x,y). La media o valor esperado de g(x,y) es:
En Discreta: 𝜇𝑔 𝑥, 𝑦 = 𝐸 𝑔 𝑥, 𝑦 = 𝑥 𝑦 𝑔 𝑥, 𝑦 . 𝑓(𝑥, 𝑦) (2.1.69)

Distribución marginal.- Básicamente para el caso discreto, la distribución marginal


está dada por:
Para x:
𝑦
𝑔(𝑥) = 𝑦=1 𝑓 𝑥, 𝑦 𝑆𝑜𝑛 𝑙𝑎 𝑠𝑢𝑚𝑎𝑡𝑜𝑟𝑖𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑑𝑎 𝑐𝑜𝑙𝑢𝑚𝑛𝑎 (2.1.70)
Para y:
𝑥
𝑕(𝑦) = 𝑥=1 𝑓 𝑥, 𝑦 𝑆𝑜𝑛 𝑙𝑎 𝑠𝑢𝑚𝑎𝑡𝑜𝑟𝑖𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑑𝑎 𝑓𝑖𝑙𝑎 (2.1.71)

Al tener en cuenta esto, las ecuaciones podrán expresarse como se muestra a


continuación:
Si g(x,y)=x
𝐸 𝑥 = 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑜 𝑥 𝑦 𝑥. 𝑓(𝑥, 𝑦) = 𝑥 𝑥. 𝑔(𝑥) (2.1.72)
Si g(x,y)=y
𝐸 𝑥 = 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑜 𝑥 𝑦 𝑦. 𝑓(𝑥, 𝑦) = 𝑦 𝑦. 𝑕(𝑦) (2.1.73)

36
UPS Capítulo II

2.1.8.3. PROCESOS ALEATORIOS


Antes de enfocarse en procesos aleatorios, es de vital importancia conocer
variables como la varianza y la covarianza.

Varianza:
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑥 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎 𝜎 2 = 𝐸 𝑥 − 𝜇 2 = 𝑥 𝑥−𝜇 2 . 𝑓(𝑥) (2.1.74)

Se debe recalcar que la raíz cuadrada positiva de 𝜎 se llama desviación estándar de


X.

Covarianza:
𝐸𝑛 𝐷𝑖𝑠𝑐𝑟𝑒𝑡𝑎 𝜎𝑥𝑦 = 𝐸 𝑥 − 𝜇𝑥 𝑦 − 𝜇𝑦 = 𝑥 𝑦 𝑥 − 𝜇𝑥 𝑦 − 𝜇𝑦 . 𝑓(𝑥, 𝑦) (2.1.75)

De igual forma, se debe indicar que el signo de la covarianza muestra si la


relación entre dos variables aleatorias dependientes es positiva o negativa. Una vez
que se a adoptado los conocimientos básicos, se puede decir que los procesos
aleatorios se basan, o no es más que distribuciones de probabilidades, las mismas que
por las cuáles serán enfocadas principalmente en procesos discretos.
Existen diversos métodos como se verán en el siguiente punto enfocado en el
de los análisis estocásticos, pero que incluyen todo lo que se ha nombrado
anteriormente, es decir, básicamente se inicia con la resolución del problema
hallando las variables como la media y la varianza, y según como sea el método
aplicado, se las aplicara de diferente forma.

2.1.8.4. PROCESOS ESTOCÁSTICOS


Definición.- Un proceso estocástico no es más que la representación y sucesión de
variables aleatorias correlacionadas con otra variable (discreta o continua). Como se
vió anteriormente, cada variable aleatoria tiene su propia función de probabilidad. A
este conjunto de variables (o variable) influenciadas por impactos aleatorios es como
se le conoce comúnmente a los procesos estocásticos.
Un proceso estocástico maneja las variables y valores que fueron nombrados
en puntos anteriores, y no es más que el conjunto de eso para resolver ciertos
problemas que se presentarán, a diferencia de que también existen varios métodos

37
UPS Capítulo II

para resolverlos como los nombrará a continuación. Los procesos más usados y
aplicados para la resolución de problemas en los medios de las ingenierías, son:

Discretas:
-Distribución Binomial o Bernouli.
-Distribución Binomial Negativa.
-Distribución hipergeométrica.
-Distribución o Procesos de Poisson.
-Distribución de Poisson y Binomial.

2.2. ESTRUCTURAS PARA SISTEMAS FIR


FINITE IMPULSE RESPONSE o FIR son sistemas digitales en los cuales,
como su nombre lo indica, si la entrada es una señal impulso, la salida tendrá un
número finito de términos no nulos; tienen la gran ventaja que además de ser siempre
estables, se pueden diseñar para ser de fase lineal, lo cual hace que presenten ciertas
propiedades en la simetría de los coeficientes. Tiene especial interés en aplicaciones
de audio. Por el contrario también tienen la desventaja de necesitar un orden mayor
respecto a los filtros IIR para cumplir las mismas características. Esto se traduce en
un mayor gasto computacional. Se describen mediante la ecuación:
M 1
y (n)   bk x(n  k ) (2.2.1)
k 0

Y su función de transferencia es:


M 1
H ( z )   bk z  k (2.2.2)
k 0

Su respuesta al impulso es idéntica a los coeficientes:


b , 0  n  M 1
h( n)   n (2.2.3)
0, en otro caso

Donde M representa la longitud del filtro. Cabe destacar que en la práctica


las implementaciones físicas de la Transformada Discreta de Fourier DTF, que no es
más que un procedimiento computacional están basadas en la utilización de
algoritmos de la Transformada Rápida de Fourier FFT

38
UPS Capítulo II

2.2.1. ESTRUCTURA EN FORMA DIRECTA


Para la realización de un sistema FIR mediante una estructura en forma
directa se deriva directamente de su ecuación (2.2.1) o su equivalente por la
convolución, a continuación se puede observar su estructura:

x ( n)
z 1 z 1 z 1  z 1

h(0) h(1) h(2) h(3) h( M  2) h( M  1)

     
y ( n)

Fig. 2. 3. Sistema FIR en una realización directa

Este sistema requiere M–1 espacios de memoria para almacenar igual número
de entradas anteriores, además tiene M multiplicaciones y M–1 sumas; la salida es la
combinación lineal ponderada de los M–1 valores anteriores y la entrada actual.

La realización en forma directa tiene mucha semejanza a una línea de


retardos. Si un sistema FIR es de fase lineal su respuesta al impulso satisface las
condiciones de simetría h(n)  h(M  1  n) , lo cual reduce la complejidad del
sistema por ejemplo el número de multiplicaciones se reduce de M a M/2 para M par
y a (M–1)/2 para M impar.

x ( n)
Entrada z 1 z 1 z 1  z 1 z 1

   

z 1 z 1 z 1  z 1 z 1
h(0) h(1) h(2)  M 3  M 1 
h h 
  2 
 2 

y ( n)
Salida
    
Fig. 2. 4. Sistema FIR de fase lineal (M impar) en una realización directa

39
UPS Capítulo II

2.2.2. ESTRUCTURA EN FORMA DE CASCADA


Esta realización se deriva de la función de transferencia 2.2.2 de un sistema
FIR, factorizando en sistemas de segundo orden:
K
H ( z )  H k ( z ) (2.2.4)
k 1

Donde:
H k ( z)  bk 0  bk1 z 1  bk 2 z 2 k  1, 2,..., K (2.2.5)

Donde K es la parte entera de (M–1)/2 y b0  b10b20 b K0 es el parámetro del


filtro es que puede ser distribuido o no en las secciones K del filtro. Los ceros de
H(z) se agrupan en pares para formar sistemas de segundo orden.
x(n)  x1 (n)
H 1 ( z ) y1 (n)  x2 (n) H 2 ( z )
y2 (n)  x3 (n)
y K 1 ( n )  xK ( n )
H K ( z) y K ( n)  y ( n)

xK ( n )
z 1 z 1

bK 0 bK 1 bK 2

yK (n)  xK 1 (n)
 
Fig. 2. 5. Sistema FIR en una realización en cascada

En los filtros FIR de fase lineal, la simetría en h(n) se expande también a los
ceros de H(z).

Usualmente se forman sistemas con secciones de cuarto orden combinando


pares de polos complejos, obteniendo así simplificaciones del sistema más o menos
en un 50%:
H k ( z )  ck 0 1  zk z 1 1  zk* z 1 1  z 1 / zk 1  z 1 / zk* 
(2.2.6)
H k ( z )  ck 0  ck1 z 1  ck 2 z 2  ck 3 z 3  ck 4 z 4

Donde ck1 y ck 2  se encuentran en función de zk .

40
UPS Capítulo II

xK ( n )
z 1 z 1

 

z 1 z 1
ck 0 ck1 ck 2

y K ( n)
 
Fig. 2. 6. Sistema FIR de cuarto orden en una realización en cascada

2.2.3. ESTRUCTURA DE MUESTREO EN FRECUENCIA


Es una estructura alternativa para la realización de Filtros FIR, cuyos
parámetros en lugar de ser una respuesta al impulso h(n) son valores de respuesta de
frecuencia. Su función de transferencia es un conjunto de muestras en frecuencia
H (k   ) :
M 1
 1 M 1 
H ( z )   H (k   )   (e j 2 ( k  ) / M z 1 ) n 
k 0  M k 0 
(2.2.7)
 M j 2 M 1
1 z e H (k   )
H ( z) 
M

k 0 1  e
j 2 ( k  ) / M z 1

Esta última ecuación da a entender que esta realización se la puede considerar


como una cascada de dos filtros H ( z )  H1 ( z ) H 2 ( z) , uno todo ceros con función de
transferencia:

H1 ( z ) 
1
M
1  z  M e j 2  (2.2.8)

Cuyos ceros se encuentran en puntos equi-espaciados de la circunferencia


unidad en zk  e j 2 ( k  ) / M k  0,1,..., M  1. Mientras que el segundo es un banco de
filtros resonantes en paralelo, de un solo polo, con frecuencia de resonancia
pk  e j 2 ( k  ) / M k  0,1,..., M  1 y función de transferencia:
M 1
H (k   )
H 2 ( z)   j 2 ( k  ) / M z 1
(2.2.9)
k 0 1  e

41
UPS Capítulo II

Los polos tienen la misma localización de sus ceros en k  2 (k   ) / M ,

puntos en donde la respuesta de frecuencia está especificada y su ganancia son los


parámetros complejos H (k   ) , pero si la característica de la respuesta de

frecuencia deseada es de banda estrecha la mayoría de estos parámetros se hacen


cero.
Mediante la simetría H (k )  H * ( M  k ) para  0 y

 1  1 1
H  k    H *  M  k   para   , la estructura se simplifica aún más;
 2  2 2
pudiendo formar un filtro de dos polos con un par de filtros, la función de
transferencia H 2 ( z ) para   0 se reduce a:

H (0) ( M 1) / 2 A(k )  B(k ) z 1


H 2 ( z) 
1  z 1
 
k 1 1  2 cos  2 k / M  z
1
 z 2
M impar
(2.2.10)
( M 1) / 2 1
H (0) H ( M / 2) A(k )  B(k ) z
H 2 ( z) 
1  z 1

1  z 1
 k 1 1  2 cos  2 k / M  z 1  z 2
M par

H ( )

z 1
e j 2 / M
H (1   )
 

z 1
e j 2 (1 ) / M
H (2   )
 
1


M
x ( n) z 1
e j 2 (2 ) / M
zM e j 2

1 H (M  1   )
 0 ó     y ( n)
2

e j 2 ( M 1 ) / M
z 1

Fig. 2. 7. Sistema FIR en una realización de muestreo de frecuencia

Y:
A(k )  H (k )  H ( M  k )
(2.2.11)
B(k )  H (k )e j 2 k / M  H ( M  k )e  j 2 k / M

42
UPS Capítulo II

2.2.4. ESTRUCTURA EN CELOSÍA


Esta estructura es ampliamente utilizada tanto en el procesamiento digital de
voz como en la implementación de filtros adaptativos, tiene la siguiente estructura:
f 0 ( n) f1 (n) f 2 ( n)  f M  2 ( n) f M 1 (n)  y (n)
Primera Segunda ( M  1)esima
x ( n)
g 0 ( n) Etapa g1 (n) Etapa g 2 ( n) g M  2 (n) Etapa g M 1 (n)

f m 1 (n) f m ( n)

Km
Km
g m1 (n) g m ( n)
z 1 

Fig. 2. 8. Filtro en celosía de (M-1) etapas

Existe una estrecha equivalencia entre un Filtro FIR de orden (M – 1) en


forma directa con y un filtro en celosía de (M – 1) etapas, es decir y(n)  f M 1 (n) .
Una estructura en celosía puede ser descrita por las siguientes ecuaciones:
f0 (n)  g0 (n)  x(n) (2.2.12)

f m (n)  f m1 (n)  Km gm1 (n  1) m  1, 2,..., M  1 (2.2.13)

gm (n)  Km f m1 (n)  gm1 (n  1) m  1, 2,..., M  1 (2.2.14)

La salida de f m (n) un filtro en celosía de m etapas es:


m
f m ( n)    m ( k ) x ( n  k )  m (0)  1 (2.2.15)
k 0

Y relación en el dominio de la Transformada  :


Fm ( z ) Fm ( z )
Fm ( z )  Am ( z ) X ( z )  Am ( z )   (2.2.16)
X ( z ) F0 ( z )

Se puede expresar también la salida g m (n) de un filtro en celosía de m etapas


mediante la convolución discreta:
m
g m ( n)    m ( k ) x ( n  k ) (2.2.17)
k 0

43
UPS Capítulo II

m (k ) son coeficientes del filtro que están asociados con un filtro que

produce f m (n)  y(n) pero que funciona en un orden inverso,

m (k )  m (m  k ) k  0,1,..., m , con m (m)  1 .


En la predicción hacia atrás los datos se encuentran colocados en orden
inverso, así para predecir un valor x(n  m) se usan los datos

x(n), x(n 1)...x(n  m  1) en un filtro lineal con coeficientes   m (k ) :


m 1
x(n  m)    m (k ) x(n  k ) (2.2.18)
k 0

Un predictor hacia adelante se la realiza a través de un filtro FIR con función


de transferencia Am ( z ) , y en el dominio de la de la Transformada  :

Gm ( z )
Gm ( z )  Bm ( z ) X ( z )  Bm ( z )  (2.2.19)
X ( z)

Su función de transferencia con coeficientes  m (k ) es:


m
Bm ( z )    m (k ) z  k
k 0
m m
Bm ( z )    m (m  k ) z  k    m (l ) z l  m (2.2.20)
k 0 l 0

Bm ( z )  z  m   m (l ) z l  z  m Am  z  l 
m

l 0

Un filtro FIR con función de transferencia Bm ( z ) tiene sus ceros a manera de

un polinomio recíproco o inverso a Am ( z ) . Las ecuaciones de un filtro en celosía en

el dominio de la transformada  son:


A0 ( z )  B0 ( z )  1 (2.2.21)

Am ( z)  Am1 ( z)  Km Bm1 ( z) m  1, 2,..., M 1 (2.2.22)

Bm ( z)  Km Am1 ( z)  Bm1 ( z) m  1, 2,..., M 1 (2.2.23)

Y su ecuación matricial es:

 Am ( z )   1 K m   Am1 ( z ) 
 B ( z)   K  
1   z 1Bm1 ( z ) 
(2.2.24)
 m   m

44
UPS Capítulo II

Conversión de los Coeficientes de una Estructura en Celosía a Coeficientes de


un Filtro en Forma Directa

Para obtener los coeficientes  m (k ) de un filtro FIR en forma directa a

partir de los coeficientes en celosía  Ki  aplicamos las siguientes ecuaciones:

A0 ( z )  B0 ( z )  1 (2.2.25)

Am ( z)  Am1 ( z)  Km z 1Bm1 ( z ) m  1, 2,..., M 1 (2.2.26)

Bm ( z )  z  m Am1  z 1  m  1, 2,..., M  1 (2.2.27)

La solución es una secuencia de (M – 1) filtros FIR, uno para cada valor de m


logrados recursivamente comenzando con m=1.

Una colección de m filtros FIR en forma directa requieren m(m+1)/2


coeficientes del filtro, mientras que en celosía se requiere solo m coeficientes de
reflexión  Ki  , lo que representa una estructura más compacta y a esto se suma que

la adición de etapas a la celosía no altera los parámetros de las etapas anteriores.

Conversión de los Coeficientes de un Filtro FIR en Forma Directa a los


Coeficientes de la Celosía

Los coeficientes  Ki  de una estructura en celosía a partir de los coeficientes

 m (k ) de un filtro FIR en forma directa se relacionan de la siguiente manera:


Am ( z )  K m Am ( z )
Am1 ( z )  m  M  1, M  2,...,1 (2.2.28)
1  K m2

Esto siempre que K m  1 para m  1, 2,..., M  1 , se empieza por AM 1 ( z )

calculando los polinomios de orden inferior Am ( z ) , y el proceso iterativo continúa

para el sistema de orden reducido para así obtener los coeficientes deseados de la
celosía a partir de la relación Km   m (m) .

45
UPS Capítulo II

Se puede calcular K m recursivamente para m  M  1, M  2,...,1 :

Km   m (m)  m1 (m)  1 (2.2.29)

 m (k )  K m  m (k )  m (k )   m (m) m (m  k )
 m1 (k )   1  k  m 1 (2.2.30)
1 K 2
m 1   m2 (m)

2.3. ESTRUCTURAS PARA SISTEMAS IIR


INFINITE IMPULSE RESPONSE ó IIR, es otro de los tipos de filtros
digitales que como su nombre lo indica, si la entrada es una señal impulso, la salida
tendrá un número infinito de términos no nulos, es decir, nunca vuelve al reposo. Las
principales diferencias respecto a los filtros FIR es que los IIR pueden cumplir las
mismas exigencias que los anteriores pero con menos orden de filtro.
Esto es importante a la hora de implementar el filtro, pues presenta una menor
carga computacional. Este tipo de filtros pueden ser inestables, aún cuando se
diseñen para ser estables.
En principio no pueden diseñarse para tener fase lineal pero se pueden aplicar
algunas técnicas como el filtrado bidireccional para lograrlo La salida de los filtros
IIR depende de las entradas actuales y pasadas, y además de las salidas en instantes
anteriores.

2.3.1. ESTRUCTURA EN FORMA DIRECTA


Esta estructura se deriva directamente de su función de transferencia
H ( z)  H1 ( z) H 2 ( z) , que puede ser vista como dos sistema en cascada, donde es un
sistema H1 ( z ) de solo ceros y H 2 ( z ) solo polos de H ( z ) :
M
H1 ( z )   bk z  k (2.3.1)
k 0

y:
1
H 2 ( z)  N (2.3.2)
1   ak z k

k 0

46
UPS Capítulo II

Dependiendo del orden de H1 ( z ) y H 2 ( z ) , existen dos tipos de realizaciones:

x ( n) b0 y ( n)
 

z 1 z 1
b1 a1

z 1 z 1
b2 a2

z 1 z 1
b3 a3




bM 1 aN 1

z 1 z 1
bM  aN

Sistema todo-ceros Sistema todo-polos

Fig. 2. 9. Realización en Forma Directa I

La realización en Forma Directa I, se logra uniendo el sistema todo polos con


H1 ( z ) , esta realización requiere M+N+1 multiplicaciones, M+N sumas y M+N+1

posiciones de memoria.

x ( n) b0 y ( n)
 

z 1
a1 b1
 

z 1
a2 b2
 

aN 1 bN 1
 

z 1
 aN bN

Fig. 2. 10. Realización en Forma Directa II (N=M)

47
UPS Capítulo II

En cambio en la realización en Forma Directa II es una estructura más


compacta en la cual se coloca el filtro todo polos H 2 ( z ) antes de filtro todo ceros

H1 ( z ) , requiere M+N+1 multiplicaciones, M+N sumas y el máximo de M , N 


posiciones de memoria. La entrada de un filtro todo polos es:

N
w(n)   ak w(n  k )  x(n) (2.3.3)
k 0

Y su salida:

M
y (n)   bk w(n  k ) (2.3.4)
k 0

Estas dos estructuras no son utilizadas frecuentemente en aplicaciones


prácticas ya que son muy sensibles a la cuantificación de los parámetros, cuando N es
grande, cambios por más pequeños que sean en un coeficiente del filtro debido a la
cuantificación de los parámetros, los ceros y polos sufren cambios en sus posiciones.

2.3.2. GRAFOS Y ESTRUCTURAS TRANSPUESTAS


Se puede representar nuestros sistemas a través de grafos en lugar de
diagramas de bloques; un grafo es un conjunto de ramas unidireccionales que
interconectan ramas, ramas que podrían contener ganancias o retardos (multiplicados
por z 1 ) o sin etiqueta cuando la ganancia es la unidad.

La señal ingresa al sistema mediante el nodo fuente se distribuye por la ramas


y es multiplicada por sus respectivas ganancias, la salida en el nodo sumidero ó nodo
de salida es igual a la suma de las señales que se conectan a él, las ecuaciones en
diferencias que describen un grafo lineal en el dominio z, con también ecuaciones
lineales.

48
UPS Capítulo II

x ( n) b0 y ( n)
 

z 1
a1 b1
 

z 1
a2 b2
 
(a)
Nodo Fuente Nodo Sumidero
x ( n) 1 2 b0 3 y ( n)

z 1
a1 b1
4
a2 z 1 b2

5
(b)

Fig. 2. 11. Estructura de un filtro de segundo orden (a) y (b) su grafo


Los grafos nos permiten obtener nuevas estructura de sistemas FIR e IIR por
medio del teorema de inversión de grafos mediante las estructuras transpuestas, para
esto se invierte el sentido de flujo de las ramas, se intercambia los nodos por
sumadores y viceversa, por último se intercambia la salida por entrada; cabe
mencionar que todo este proceso no cambia las características de la función de
transferencia.
y ( n) 1 2 b0 3 x ( n)

z 1
a1 b1
4
a2 z 1 b2

5
(a)
y ( n) b0 x ( n)

z 1
a1 b1

z 1
a2 b2

(b)

Fig. 2. 12. (a) Grafo de la estructura transpuesta de la Fig. 2.11. y (b) su realización

49
UPS Capítulo II

Para un sistema básico IIR de dos polos y dos ceros, se muestra a


continuación una tabla resumen de sus estructuras y sus ecuaciones en diferencias,
tomando en cuenta que su función de transferencia es:

b0  b1 z 1  b2 z 2
H ( z)  (2.3.5)
1  a1 z 1  a2 z 2

Tabla 2. 1. Algunos módulos de Segundo Orden para Sistemas Discretos

ECUACIONES FUNCIÓN
ESTRUCTURA PARA LA DE
IMPLEMENTACIÓN TRANSFERENCIA
Forma Directa I
x ( n) b0
 
y ( n) y (n)  b0 x(n)  b1 x(n  1)
 b2 x(n  2) b0  b1 z 1  b2 z 2
z 1 z 1 H ( z) 
b1

 a1  a1 x(n  1) 1  a1 z 1  a2 z 2
 a2 x(n  2)
z 1 z 1
b2 a2

w(n)  a1w(n  1)
Forma Directa Regular II
 a2 w(n  2)
x ( n)

b0

y ( n)
 x ( n)
b0  b1 z 1  b2 z 2
z 1
 a1 x(n  1) H ( z) 
a1 1  a1 z 1  a2 z 2

b1
 ( n  1)
  a2 x(n  2)
z 1 y (n)  b0 w(n)  b1w(n  1)
a2 b2
  (n  2)   b2 w(n  2)

Forma Directa Transpuesta II


y ( n) b0 x ( n)
 y (n)  b0 x(n)  w1 (n  1)
z 1 w1 (n)  b1 x(n)  a1 y (n) b0  b1 z 1  b2 z 2
H ( z) 
b1 1 (n) a1  w2 (n  2) 1  a1 z 1  a2 z 2

w2 (n)  b2 x(n)  a2 y (n)
z 1
b2 2 ( n ) a2

50
UPS Capítulo II

2.3.3. ESTRUCTURA EN FORMA DE CASCADA


Esta realización se deriva de la función de transferencia 2.2.2., factorizando
en sistemas de segundo orden:
K
H ( z )  H k ( z ) (2.3.5)
k 1

Donde K es la parte entera de (M–1)/2, y tiene la forma general:


bk 0  bk1 z 1  bk 2 z 2
H k ( z)  (2.3.6)
1  ak1 z 1  ak 2 z 2

b0  b10b20 bK 0 es el parámetro del filtro es que puede ser distribuido o no en


las secciones K del filtro. Los ceros de H(z) se agrupan en pares para formar sistemas
de segundo orden. Y aki  y bki  son los coeficientes en los subsistemas de

segundo orden son reales. Se emparejan los ceros y polos para de H(z) en secciones
de segundo orden en cascada de manera arbitraria, de igual manera se pueden utilizar
muchas estructuras en varios ordenes estructura en forma directa I, en forma directa
II o en forma directa transpuesta por lo que tenemos muchas posibilidades para
formar estructuras en cascada, todas están realizaciones son equivalentes en
aritmética infinita pero difieren cuando se las implementa con aritmética finita.

x(n)  x1 (n)
H1(z)
x2 (n)
y1 (n)
H 2 ( z)
y2 ( n )
x K ( n)
H K ( z)
y ( n)
(a)
x ( n) 1 bk 0 yk (n)  xk 1 (n)
 

z 1
ak1 bk1
 

z 1
ak 2 bk 2
 
(b)
Fig. 2. 13. Estructura en cascada de estructura de segundo orden y una realización de cada sección de
segundo orden.

51
UPS Capítulo II

Para realizar un algoritmo computacional para la realización de estructuras


IIR, utilizando estructuras directas II, utilizamos las siguientes ecuaciones:
y0 (n)  x(n) (2.3.7)

wk (n)  ak1wk (n  1)  ak 2 wk (n  2)  yk 1 (n) k  1, 2,..., K (2.3.8)

yk (n)  bk1wk (n)  bk1wk (n  1)  bk 2 wk (n  2) k  1, 2,..., K (2.3.9)

y(n)  yK (n) (2.3.10)

2.3.4. ESTRUCTURA EN FORMA PARALELA


Para esta realización es necesario hacer una expansión de H(z) en factores
simples, asumiendo que N  M y que los polos son distintos:

N
Ak
H ( z)  C   1
(2.3.11)
k 1 1  pk z

Donde  Ak  son los coeficientes o residuo,  pk  son los polos, valores que

pueden ser complejos o no y la constante C  bN / aN . Para evitar operaciones con

números complejos se debe combinar pares de polos complejos conjugados y de


polos reales para formar un subsistema de dos polos, que tenga la forma:
bk 0  bk1 z 1
H k ( z)  (2.3.12)
1  ak1 z 1  ak 2 z 2

H1(z) 

H 2 ( z) 
x ( n)

y ( n)
H K ( z) 
Fig. 2. 14. Estructura en paralelo de un sistema IIR

52
UPS Capítulo II

aki  y bki  son parámetros reales del sistema cuya función global es:
K
H ( z)  C   H k ( z) (2.3.13)
k 1

2.3.5. ESTRUCTURA EN CELOSÍA Y EN CELOSÍA ESCALONADA PARA


SISTEMAS IIR
Un sistema FIR tiene una función de transferencia H ( z )  AN ( z ) mientras

que un sistema IIR H ( z )  1/ AN ( z ) , por lo que intercambiando la entrada por la

salida se puede obtener un sistema a partir del otro. Por ejemplo un sistema IIR todo
polos de primer orden se puede representar a través de:
f N (n)  x(n) (2.3.14)

f m1 (n)  f m (n)  Km gm1 (n 1) M  N , N 1,...,1 (2.3.15)

gm (n)  Km f m1 (n)  gm1 (n  1) M  N , N  1,...,1 (2.3.16)

y(n)  f0 (n)  g0 (n) (2.3.17)

Y un sistema FIR de primer orden:


g1 (n)  Km y(n)  y(n  1) (2.3.18)

Los polos son el resultado de la realimentación introducida por la solución de

 f m (n) en orden descendente. Mientras que los coeficientes de un sistema FIR son

iguales a los de un sistema IIR pero en orden inverso; cabe recalcar que la estructura
en celosía todo polos tiene una trayectoria todo ceros con entrada g0 (n) y salida

g n (n) , trayectoria idéntica a la todo ceros de una estructura en celosía.

x ( n) f N 1 (n) f 2 ( n) f1 (n) f 0 ( n)  y ( n)
  

f N ( n) Salida
KN K2 K1
Realimentación
KN K2 K1
 z 1  z 1 g (n)  z 1 g0 (n)

g N ( n) g 2 ( n) 1
Fig. 2. 15. Estructura en celosía para un sistema IIR todo polos

53
UPS Capítulo II

Los parámetros K1 , K2 ,..., K N son los mismos para estructuras todo polos y

todo ceros, se diferencian solo por la interconexión de sus grafos; si K m  1 para

todo m las estructuras en celosía todo polos son estables. En la práctica ha sido
utilizado en las modelaciones del tracto vocal humano y la estratificación de la tierra.

Un sistema todo ceros tiene como salida una combinación lineal de salidas
retardadas de un sistema todo polos; una estructura en celosía escalona se la forma
tomando una estructura en celosía todo polos con parámetros y añadiendo una parte
escalonada tomando como salida una combinación lineal g m (n) es una combinación
lineal de salidas presentes y pasadas; la salida del sistema es:

M
y (n)   vm g m (n) (2.3.19)
m0

Entrada
x ( n) f N 1 (n) f 2 ( n) f1 (n) f 0 ( n)
  

f N ( n)
KN K2 K1

KN K2 K1
g N ( n) g 2 ( n) g1 (n)
 z 1  z 1  z 1 g0 (n)

vN vN 1 v2 v1 v0
y ( n)
   

Salida
Fig. 2. 16. Estructura en celosía escalonada de un sistema de polos-ceros.

vm  representa los parámetros que nos sirven para determinar los ceros del

sistema, la función de transferencia es:


Y ( z) M g ( z)
H ( z)    vm m  X ( z )  FN ( z ) y F0 ( z )  G0 ( z )
X ( z ) m0 X ( z )
M
Gm ( z ) F0 ( z ) M B ( z)
H ( z )   vm   vm m (2.3.20)
m0 G0 ( z ) FN ( z ) m 0 AN ( z )
M

v m Bm ( z )
H ( z)  m0

AN ( z )

54
UPS Capítulo II

Que da como resultado:


M
CM ( z )   vm Bm ( z ) (2.3.21)
m0

Los coeficientes del polinomio CM ( z ) , sirven para determinar los

coeficientes de ponderación de la escalera vm  y los coeficientes del polinomio

AN ( z ) determinan los parámetros de la celosía K m  . Los parámetros de la escalera

están dados por:


m 1
Cm ( z )   vk Bk ( z )  vm Bm ( z )  Cm1 ( z )  vm Bm ( z ) (2.3.22)
k 0

Estos parámetros se calculan recursivamente a partir de los polinomios


inversos Bm ( z ) m  1, 2,..., M , como  m (m) para todo m, los parámetros se pueden

determinar mirando que vm  cm ( z ) m  0,1,..., M ; dando como resultado:

Cm1 ( z )  Cm1 ( z )  vm Bm ( z ) (2.3.23)

Estos filtros en celosía escalonada requieren un mínimo de memoria aunque


no pocas multiplicaciones, otra de sus ventajas es que son filtros muy estables y
robustos ante los efectos de palabras de longitud finita; por lo que son muy utilizadas
en aplicaciones prácticas tales como procesamiento de voz, filtrado adaptativo y
procesamiento de señales geofísicas.

2.4. CUANTIFICACIÓN DE LOS COEFICIENTES DEL FILTRO


Por efectos de la longitud de la palabra del procesador o la de los
almacenamientos de los coeficientes en un procesador, provocan que, los valores de
los polos y ceros en la función de transferencia no sean exactos y difieran de los
valores deseados; para tratar de minimizar estos errores se recurre a la construcción
de varias estructuras en cascada y paralelo a través de bloques básicos de
construcción, interconectados entre sí en lugar de funciones de transferencia con un
gran números de polos y ceros.

55
UPS Capítulo II

2.4.1. ANÁLISIS DE LA SENSIBILIDAD A LA CUANTIFICACIÓN DE LOS


COEFICIENTES DEL FILTRO
Los coeficientes cuantificados son bk  y ak  , mientras que los no

   
cuantificados son bk y ak y sus errores de cuantificación:

ak  ak  ak k  1, 2,..., N
(2.4.1)
bk  bk  bk k  1, 2,..., M

Mientras que el error de perturbación es:


N
piN k
pi   N
ak (2.4.2)
k 1
 ( pi  pl )
l 1
l i

Im(z)
Circunferencia
Unidad

Re(z)

Fig. 2. 17. Posiciones de los polos para un Filtro FIR paso bajo.

( pi  pl ) son vectores que van desde el polo  pi  hasta el polo  pl  ; la

distancia pi  pl debe ser maximizada con la finalidad de no tener polos agrupados

que incrementen el error de perturbación, esto se logra mediante realizaciones de


secciones de filtros de un polo simple o un polo doble, con el debido cuidado de no
complicar el sistema mediante el empleo excesivo de operaciones complejas.
Además se debe tener muy en cuenta las estructuras a realizarse.

Las estructuras normal o acoplada de espacio de estados distribuyen


uniformemente las posiciones de los polos pero con la utilización de un mayor

56
UPS Capítulo II

número de operaciones. Un filtro de segundo orden tiene un sinnúmero de opciones


en cuanto a su realización y de igual manera existen muchas posibilidades para las
posiciones de los polos con coeficientes cuantificados; estos filtros de segundo orden
nos sirven para representar Filtros IIR de orden superior sea mediante estructuras en
cascada que permiten el control de la estabilidad de los ceros mediante la utilización
apropiada de bits de precisión o por medio de estructuras en paralelo que permiten el
control de los polos del filtro aunque no nos especifican las posiciones de los ceros.

Cabe destacar una vez más que las estructuras en paralelo son las más
robustas y más utilizadas en la práctica ante coeficientes cuantificados,
especialmente cuando se utilizan representaciones en punto fijo.

2.4.2. CUANTIFICACIÓN DE LOS COEFICIENTES EN FILTROS FIR


Como se dijo anteriormente utilizando una estructura en cascada o paralelo se
con secciones de filtro de primer y segundo orden para minimizar la sensibilidad en
la cuantificaciones de los coeficientes de un filtro FIR con un gran número de ceros,
con fase lineal, cuya función de transferencia cumple con la propiedad
H ( z)   z ( M 1) H ( z 1 ) sin importar si los coeficientes han sido cuantificados o no;
cuantificación que se debe recalcar no afecta a la característica de la fase sino solo a
la magnitud. Esto es recomendable cuando la longitud del filtro excede 256 ó si la
longitud de la palabra del procesador digital de señales es menor que 12 bits.

El número de bits por coeficiente se debe incrementar a medida que se


incrementa lo longitud del filtro, con la finalidad de mantener constante el error en su
característica de frecuencia; incrementando un bit adicional a la precisión de los
coeficientes del filtro se mantiene de igual manera fija la desviación estándar. Una
realización en cascada tiene la forma:
K
H ( z )  G H k ( z ) (2.4.3)
k 1

Cuyas secciones de segundo orden tiene la forma de:


H k ( z)  1  bk1 z 1  bk 2 z 2 (2.4.4)

57
UPS Capítulo II

Los coeficientes de los ceros complejos vienen dados por bk1  2rk cos k y

bk 2  rk2 , el principal problema es mantener la propiedad lineal ya que los pares

cuantificados en z  (1/ rk )e jk y su imagen especular de los ceros cuantificados en

z  rk e jk y su imagen, pero redondeando para esto se debe redondear los factores
correspondientes al cero en la imagen especular cuyo factor es:
 2 1 2  1 2
1  cos  k z  2 z   2  rk  2rk cos  k z  z 
1 1 2
(2.4.5)
 rk rk  rk

G representa un factor de Ganancia Global constituido por factores 1/ rk2 

distribuidos en cada uno de los filtros de segundo orden, con factores


1  2rk cos k z 1  rk2 z 2 y cuyos ceros ocurren en pares de imágenes especulares, con
parámetros o no cuantificados.

2.5. OSCILACIONES DE CICLO LÍMITE EN SISTEMAS RECURSIVOS


La cuantificación de los coeficientes del filtro afecta directamente a las
operaciones aritméticas, y convierten al sistema a uno no lineal, a demás son un
factor importante para la presencia de oscilaciones periódicas a la salida, aún cuando
en la entrada del sistema se tiene un cero o un valor constante, efectos que se
atribuyen a los errores de redondeo en las multiplicaciones y a los errores de
desbordamiento en las sumas.
Estas oscilaciones en los sistemas recursivos se denominan ciclo límite; y sus
efectos no pasan hasta cuando se presentan a la entrada otro valor diferente o de
tamaño suficiente, también ocurren estos ciclos límite de entrada cero a partir de
condiciones iniciales distintas de cero x(n)  0 , las amplitudes de la señales de salida
durante este ciclo se encuentran entre un rango que se llama zona muerta del filtro.
Cuando los ciclos límites se producen debido al redondeo en las
multiplicaciones se utiliza a veces el truncamiento produce un sesgo indeseable a
menos que se utilice representación de signo y magnitud. En cambio cuando existe
desbordamiento la suma excede el tamaño de la palabra disponible en la
implementación digital del sistema.

58
UPS Capítulo II

En un Sistema IIR en paralelo de orden superior, cada sección del filtro de


segundo orden tiene su propio comportamiento sin interacción entre dichas
secciones; en un Sistemas IIR en cascada si en la primera sección ocurre un ciclo
límite de entrada cero, el ciclo límite se filtra en las secciones siguientes.
Para que en un sistema no ocurran ciclos límites con entrada cero por
desbordamiento se debe cumplir la condición sumamente restrictiva:
a1  a2  1 (2.5.1)

Se puede también prevenir los ciclos límites por desbordamiento variando las
características del sumador para que realice aritmética de saturación, cuando detecte
un desbordamiento su salida será el valor de fondo de escala de 1 , que provoca
muy poca distorsión ya que estos no se presentan con frecuencia.

2.6. ESCALADO PARA PREVENIR DESBORDAMIENTO


Debido a la no linealidad del recortador cuando se eliminan los ciclos límites
para evitar desbordamientos, se añade a la señal distorsiones indeseadas; con la
finalidad de evitar este inconveniente, al desbordamiento, se lo debe transformar en
un evento extraño escalando la entrada y la respuesta al impulso entre la entrada y
cualquier nodo sumador interno del sistema; para esto la entrada x(n) tiene que ser
escalada de manera que:
1
Ax   (2.6.1)

m 
hk (m)

Si se escalona en exceso a la entrada especialmente para secuencias de banda


estrecha se pierde precisión utilizada para representar x(n) , por lo que es

recomendable utilizar la respuesta en frecuencia H k ( ) (Transforma de Fourier de

hk (n) ), de esta manera el escalado razonable es:

1
Ax  (2.6.2)
max H k ( )
0 

59
UPS Capítulo II

Para un Filtro FIR, empleamos una suma de M términos distintos de cero de


la respuesta al impulso del filtro:
1
Ax  M 1 (2.6.3)
 h ( m)
m0
k

Otro factor para escalar la entrada es:


 

 yk (n)  C 2  x(n)  C 2 Ex
2 2
(2.6.4)
n  n 

Con:
1 1
C2  
 
(2.6.5)
1
 h ( n)  H k ( ) d
2 2

n 
k
2 

Con estos tres factores de escalado mencionados anteriormente se puede


hacer una comparación:
1
 
2

  hk (n)   max H k ( )   hk (n)


2
(2.6.6)
 n    n 

60
UPS Capítulo III

CAPÍTULO
III

DISEÑO DE FILTROS
DIGITALES

61
UPS Capítulo III

CAPÍTULO III
DISEÑO DE FILTROS DIGITALES
Los capítulos anteriores han aportado conocimientos se puede ahora
adentrarse en los varios métodos de diseño de Filtros Digitales FIR, de acuerdo a
las especificaciones de frecuencia, amplitud y fase deseadas dependiendo de
nuestras necesidades.

3.1. CONSIDERACIONES GENERALES


Como se mencionó en capítulos anteriores tenemos una amplia gama de
Filtros Digitales FIR o IIR entre los cuales elegir dependiendo de nuestras
necesidades y de las especificaciones de la respuesta en frecuencia deseada tanto en
magnitud como en fase. En las aplicaciones prácticas los Filtros FIR son utilizados
en los procesos de filtrado con requisitos de fase lineal, aunque los más utilizados
son los IIR ya que tienen lóbulos laterales menores en su banda de rechazo por lo
que se puede tolerar cierta distorsión en fase e involucra menos parámetros para su
implementación y menor complejidad computacional. Además de todo esto se debe
recordar que nos es realizable físicamente un filtro no causal.
Todos los métodos que se verán a continuación tienen como objetivo
minimizar los valores de los parámetros a través de procesos iterativos que corren el
riesgo de convergen en un mínimo local en lugar de uno global y darnos de esta
manera resultados erróneos; lo recomendable es iniciar el proceso iterativo con
varios valores y observar los resultados finales.

3.1.1. CAUSALIDAD Y SUS IMPLICACIONES


Para que un filtro pueda ser realizable en la práctica este debe de ser no
causal, lo que se logra introduciendo un retardo grande n0 en h(n) y de una manera

arbitraria hacer que h(n)  0 para n  n0 , aunque su característica en frecuencia ya


no sea ideal, ya que su expansión en Serie de Fourier provocaría el fenómeno de
Gibbs. Para que un filtro sea no causal debe cumplir el Teorema de Paley –Wiener:
“Si h(n) tiene energía finita y h(n)  0 para n  0 , entonces:

  ln H () d   “

(3.1.1)

62
UPS Capítulo III

Integral que es finita H ( ) , con una respuesta en fase  ( ) , que nos da

como resultado un filtro causal con respuesta en frecuencia H ( )  H ( ) e j ( ) ,

cuya magnitud puede ser cero para algunas frecuencias menos para cualquier
frecuencia de banda finita.
La causalidad impone en un sistema lineal e invariante en el tiempo impone
serias restricciones en sus componentes real e imaginaria de su respuesta en
frecuencia H ( ) , pero también nos brinda facilidades como por ejemplo cuando

h(n) es causal se lo puede recuperar a partir de su parte par he (n) para 0  n   ó

de su parte impar ho (n) para 1  n   , cuyas Transformadas de Fourier

interdependientes son H R ( ) y H I ( ) , respectivamente, y no se pueden especificar

por separado. Además h(n) es absolutamente sumable:

H ()  H R ()  jH I () (3.1.2)

La causalidad nos impone implicaciones en el diseño de filtros digitales


selectivos en frecuencia como:
 H ( ) no debe ser cero a menos que se trate de un conjunto finito en
frecuencia.
 H ( ) no debe ser constante en ningún rango finito de frecuencia y cuya

transición de banda de paso a la de rechazo no puede ser infinitamente


abrupta (Fenómeno de Gibbs producido por el truncamiento de h(n) ). Cuyas
componentes real e imaginaria son independientes y están relacionadas por la
Transformada de Hilbert Discreta.
 La magnitud y la fase de H ( ) no se pueden elegir de manera arbitraria.

3.1.2. CARACTERÍSTICAS DE FILTROS PRÁCTICOS SELECTIVOS EN


FRECUENCIA
Cuando un filtro es no causal es posible utilizarlo en el procesamiento de
señales en tiempo real, y aunque tienen muchas restricciones poseen una gran
precisión a través de los coeficientes del filtro ak  y bk  , así como (M , N ) en los

coeficientes del filtro.

63
UPS Capítulo III

H ( ) debe ser constante en toda la banda de paso del filtro aunque no sea

necesariamente cero en la banda de rechazo, 1 y  2 , respectivamente expresados en

escala logarítmica ( 20log 1 , 20log  2  dB  ); tanto en la banda de paso como en la

de rechazo se suele tolerar un cierto rizo, existe una banda o región de transición, en
la cual se pasa de la banda de paso a la banda de rechazo, cuyo ancho define el ancho
de banda del filtro S   p y está delimitado por  p que es el límite superior de la

primera banda mientras que S el comienzo de la segunda.

H ( ) 1  Rizado en la banda de paso


P  Borde en la banda de paso
1  1  2  Rizado en la banda de rechazo
1  1
S  Borde en la banda de rechazo
Rizado en la banda
de paso

Banda de rechazo
2
Banda de

0 P
transición
S  
Fig. 3. 1. Características de magnitud de los filtros físicamente realizables

La magnitud H ( ) puede variar entre 1  1 ser constante en toda la banda

de paso del filtro aunque no sea. Cuando necesitamos diseñar un filtro debemos tener
en cuenta varias especificaciones como por ejemplo:

1. Máximo rizado tolerable en la banda de paso


2. Máximo rizado tolerable en la banda de rechazo
3. Frecuencia de corte en la banda de paso  p

4. Frecuencia de corte en la banda de paso S

64
UPS Capítulo III

3.2. DISEÑO DE FILTROS FIR


En las secciones que siguen se denota algunas características y métodos para
el Diseño de Filtros FIR.

3.2.1. FILTROS FIR SIMÉTRICOS Y ASIMÉTRICOS


La causalidad en un Filtro refleja que este tiene una duración finita, la
simetría es una importante propiedad que nos sirve para el diseño de filtros
dependiendo de la aplicación que a este se le otorgue, eligiendo la M longitud
adecuada o número de coeficientes a partir de una especificación de la respuesta en
frecuencia deseada. Las raíces de la función de transferencia de un Filtro FIR de fase
lineal nos dan los ceros que deben ocurrir en pares recíprocos que pueden tener parte
real y parte e imaginaria que nos darán de igual manera las raíces serán complejos
conjugados simétricos.

1
z1

1
z3

z1
z3 1
z2

*
z1*
z3

1 1
z3* z1*

Circunferencia
unidad

Fig. 3. 2. Simetría en las localizaciones de los ceros para un Filtro FIR de fase lineal

Su respuesta en frecuencia es:


 j  M 1 / 2
H ( )  H r ( )e (3.2.1)

65
UPS Capítulo III

Donde H r ( ) es la parte real:

( M 3) / 2
 M 1   M 1 
H r ( )  h 
 2 
  2 
n 0
h(n) cos  
 2
 n

M par
( M  2) / 2
(3.2.2)
 M 1 
H r ( )  2  h(n) cos    n  M impar
n 0  2 

Y la característica en fase para M par o impar es:

  M 1 
  2  , si H r ( )  0
  
 ( )   (3.2.3)
  M  1    , si H ( )  0
  2  r

Cuando h(n)  h(M 1  n) la respuesta impulsional es asimétrica para M


impar cuyo punto central es n  (M  1) / 2 , pero si M es par cada término h(n) de
tiene un término emparejado pero de signo contrario. La respuesta en frecuencia es:

j   M 1 / 2 / 2


H ( )  H r ( )e (3.2.4)

Y:
( M 3) / 2
 M 1 
H r ( )  2 
n 0
h(n) cos  
 2
 n

M par
( M  2) / 2
(3.2.5)
 M 1 
H r ( )  2  h(n) cos    n M impar
n 0  2 

Su característica de fase para M par o impar es:

  M 1 
 2   2 , si H r ( )  0
  
 ( )   (3.2.6)
 3    M  1  , si H r ( )  0
 2  
 2 

66
UPS Capítulo III

Cuando M es impar se debe especificar (M–1)/2 coeficientes del filtro,


mientras que para M par se debe especificar M/2 coeficientes; eso si debemos
 M 1 
especificar que h  0
 2 

3.2.2. DISEÑO DE FILTROS FIR DE FASE LINEAL USANDO VENTANAS


El uso de ventanas nos ayuda a suavizar las características en frecuencia
H   de un Filtro FIR y a que los lóbulos laterales no sean demasiado grandes

cerca de la banda de paso y la de rechazo, que provocan rizados y grandes


oscilaciones que incrementan en frecuencia pero no en amplitud a medida que
aumenta M, produciendo el indeseable Fenómeno de Gibbs; a expensas de un
incremento en el ancho de banda de transición del filtro, a menos que se incremente
la longitud del filtro.
Es necesario especificar antes la respuesta en frecuencia deseada H d   para

determinar a la correspondiente respuesta al impulso hd  n  , relacionándolas

mediante su Transformada de Fourier:



H d     hd (n)e jn (3.2.7)
n 0

Donde:
1 
hd  n    H d ( )e jn d (3.2.8)
2 

Esta respuesta al impulso tiene una duración infinita que no puede producir
un Filtro FIR de longitud M, a menos que sea truncada en un punto n=M – 1, o su
equivalente que es multiplicar hd  n  por una ventana.

Las ventanas logran el efecto de suavizado en la respuesta en frecuencia


gracias a que no contienen discontinuidades abruptas en el dominio del tiempo;
existen varias funciones ventana con distintas características en el tiempo y que dan
mayor o menor efecto de suavizado en el dominio frecuencial como se puede
observar en la Tabla 3.1.

67
UPS Capítulo III

Tabla 3. 1. Funciones Ventana para el diseño de Filtros FIR


ANCHO DE
TRANSICIÓN PICO DE
NOMBRE SECUENCIA EN EL DOMINIO
APROXIMADA LÓBULOS
DE DEL TIEMPO
DEL LATERALES
VENTANA h  n  , 0  n  M 1
LÓBULO (dB)
PRINCIPAL

 M 1 
senc  n   0  n  M 1
 2 
Rectangular M 1 4π/M -13
 M 1  n
 n  2
 2 

M 1
Bartlett 2 n
2 8π/M -27
(Triangular) 1
M 1
1 2 n 
Hanning 1  cos  8π/M -32
2 M 1 
2 n
Hamming 0.54  0.46cos 8π/M -43
M 1
2 n 4 n 12π/M -58
Blackman 0.42  0.5cos  0.08cos
M 1 M 1
M 1 M 1
1, n   0  1
2 2

1  n  1    M  1 / 2  
Tukey 1  cos    
2   1    M  1 / 2  
M 1 M 1
 ( M  1) / 2  n  
2 2

  M  1 2  M 1  
2

Io    n  
  2   2  

Kaiser
  M  1 
Io   
  2 
L
   M 1  
 sen  2  n  2   M  1  
    
  L0
 2  n  M  1   M  1  
Lanczos
  2   2  

68
UPS Capítulo III

3.2.3. DISEÑO DE FILTROS FIR DE FASE LINEAL MEDIANTE EL


MÉTODO DE MUESTREO EN FRECUENCIA
Este método posee una estructura eficiente de muestreo en frecuencia que se
puede obtener cuando la mayoría de muestras en frecuencia son cero, los lóbulos
laterales son reducidos y la respuesta de frecuencia optimizada numéricamente
mediante técnicas de programación en un ordenador digital. Para calcular la
respuesta al impulso h  n  es necesario especificar la respuesta en frecuencia

deseada H d   en un conjunto de frecuencias equi-espaciadas:

2 M 1
k  k   k  0,1,..., M impar
M 2
M
k  0,1,...,  1 M par (3.2.9)
2
  0 ó 1/ 2

La expresión de la respuesta en frecuencia para la respuesta deseada H  

en función de las muestras deseadas G  k    , para un filtro simétrico es:

  M  
 sen  2    M 1 G k   
 
H ( )      
e
 j ( M 1) / 2
(3.2.10)
sen    k     
 M k 0
 2 M  
Donde:
G  M  k    0

G k      1 1 (3.2.11)
G  Mk  2    2
  

Mientras que para un filtro asimétrico es:


  M  
 sen  2    M 1 G k   
 
H ( )      
e
 j ( M 1) / 2 j / 2
e (3.2.12)
sen    k    
 M k 0
 2 M  
Donde:
G  M  k   0

G k      1 1 (3.2.13)
G  M  k  2    2
  

69
UPS Capítulo III

El proceso de este método tiene el siguiente orden:

Se ponen a  1 y cero, en la banda de paso y rechazo respectivamente, los


k

valores de G  k   

 H   se calcula en un conjunto denso de frecuencias, en n  2 n / K

n  0,1,..., K  1 , para cualquier elección de G  k    .

 Determinamos el valor del lóbulo lateral máximo y los valores de los


parámetros G  k    en la banda de transmisión se cambian en la

dirección de máximo descenso y se reducen el lóbulo lateral máximo.


 H   se calcula otra vez con la nueva elección de G  k   

 Nuevamente se determina el máximo lóbulo lateral de H   y los valores de

los parámetros G  k    en la banda de transición se ajustan en la

dirección de máximo descenso que reduce el lóbulo lateral.


 Se repite el proceso interactivo hasta que converjan óptimamente los
parámetros G  k    en la banda de transición.

El método introduce polos y ceros en el círculo unidad que por efectos de


cuantificación no se cancelan, por lo que no se produce el debido amortiguamiento
del ruido de redondeo en los cálculos que se incrementa a medida que se incrementan
los proceso pudiendo producir errores en la función del filtro; para esto se mueven
los polos y ceros dentro de la circunferencia unidad, en un radio r < 1 para evitar
inestabilidad; con esto la nueva Función de Transferencia de un filtro FIR lineal es:
1  r M z  M e j 2 M 1
H k  
H ( ) 
M
 1  re
k 0
j 2  k   / M
z 1
(3.2.14)

3.2.4. DISEÑO DE FILTROS ÓPTIMOS FIR DE FASE LINEAL Y RIZADO


CONSTANTE
Llamado también Aproximación de Chebyshev; los métodos mencionados en
las dos secciones precedentes son relativamente simples y presentan una carencia de
control preciso de las frecuencias críticas tales como  P y S , este método
proporciona filtros con rizados en la banda tanto en la banda de paso como en la

70
UPS Capítulo III

banda de rechazo, se lo considera óptimo ya que el error de aproximación ponderado


entre la repuesta de frecuencia deseada y la respuesta de frecuencia que tenemos es
distribuido uniformemente en las banda de paso y rechazo respectivamente del filtro
para minimizar el error máximo. En la siguiente tabla se describen los Filtros FIR de
fase lineal que se podrían diseñar con este método:

Tabla 3. 2. Funciones para el diseño de Filtros FIR

RELACIÓN
FUNCIONES
ENTRE LOS
REALES PARÁMETROS
TIPO CONJUNTOS
DE LA DEL
DE DE
RESPUESTA EN FILTRO
FILTRO PARÁMETROS
FRECUENCIA  (k )
DEL
H r ( )
FILTRO
Respuesta   M 1 
h  2  , k  0
  
impulsional a(k )  
( M 1) / 2
 2h  M  1 
 k ,
simétrica 
k 0
a(k ) cos  k   2 
h(n)  h  M  1  n  M 1
y M impar
k  1, 2,...,
2
Respuesta
M 
impulsional b( k )  2 h   k  b  k  1  b  k   2b  k 
 ( M / 2) 1  2 
simétrica cos
2
 b(k ) cos  k
M
k 0
k  1, 2,...,
M k  1, 2,..., 2
h(n)  h  M  1  n  2 2
y M par
Respuesta
 M 1  c  k 1  c  k  1  2c  k 
impulsional d ( k )  2h  k
( M 3) / 2
 2 
asimétrica sen  c(k ) cos  k
k 0 M 1 M 5
h(n)  h  M  1  n  k  1, 2,...,
2 2k 
2
y M impar
Respuesta
impulsional  ( M / 2)1
M 
d ( k )  2h   k  d  k 1  d  k   2d  k 
asimétrica
sen
2
k 0
d (k ) cos  k  2 
M
M 2k  1
h(n)  h  M  1  n  k  1, 2,...,
2 2
y M par

71
UPS Capítulo III

La respuesta real en frecuencia se la puede representar como


L
H r ( )  Q() P() , donde P( )    (k ) cos  k . Se define a la respuesta en
k 0

frecuencia real deseada H dr ( ) como la unidad en la banda de paso y cero en la de

rechazo; además la función de error de ponderación W ( ) en el error de


aproximación permite la elección del tamaño relativo de los errores en las diferentes
bandas de frecuencia, adicionalmente esta función da la idea del tamaño relativo del
rizado entre la banda de rechazo y paso. Con estos datos es posible calcular el error
de aproximación ponderado:
E ( )  W ( )  H dr ()  H r () (3.2.15)

Por el teorema de alternancia de Park y McClellan en E ( ) tenemos L + 2

frecuencias extremas i  en el conjunto S de frecuencias, el objetivo es hallar la

frecuencia extrema óptima deseada n , y  es el valor máximo de la función de

error E ( )

H dr   H dr  

1 1

 
0 p  0 p 
(a) (b)
H dr   H dr  

1 1

 
0 1 2  0 1 2 3 4 
(c) (d)

Fig. 3. 3. Características deseadas de respuesta en frecuencia para diferentes tipos de Filtros

72
UPS Capítulo III

Al principio no se tienen las frecuencias extremas n  ni de parámetros

 (k ) y  , por lo que por el “Algoritmo de Intercambio de Remez” se determina


P( ) y  , con estos datos obtenemos E ( ) y con esto conseguimos un nuevo
conjunto L + 2 de frecuencias extremas y se repite todo el proceso hasta que se
converja en un conjunto de frecuencias óptimas extremas.

Parámetros de entrada del filtro

Elección inicial de
M  2 frecuencias extremas

Calcular el óptimo 
en el conjunto

Interpolar a partir de M  1
puntos para obtener P( )

Calcular el error E ( )
y encontrar el máximo
local donde E ( )  

¿Mas de Si
Retener M  2
M 2 Extremos mayores
extremos?

No
cambiaron Comprobar si los puntos
extremos cambiaron

Mejor
aproximación

Fig. 3. 4. Diagrama de Flujo del Algoritmo de Intercambio de Remez

3.2.5. DISEÑO DE DIFERENCIADORES FIR

Los Diferenciadores FIR son muy utilizados en la derivación de señales tanto


en sistemas digitales y como en sistemas analógicos, un diferenciador digital ideal es
linealmente proporcional a la frecuencia y su respuesta a la frecuencia es:
H d ( )  j      (3.2.16)

73
UPS Capítulo III

Y su repuesta al impulso es asimétrica:


cos  n
hd (n)     n  , n  0 (3.2.17)
n

Su respuesta en frecuencia es limitada a un rango 0    2 f p , donde f p es

el ancho de banda, la respuesta deseada puede dejarse sin restricciones o forzada a


cero en un rango de 2 f p     .

Los parámetros más importantes de un diferenciador son su longitud M, su


ancho de banda o frecuencia límite en la banda f p y el pico  del error relativo de

la aproximación. Debido a que los diferenciadores tienen cero en la respuesta en


frecuencia en    ( f  1/ 2) , los filtros con M impar son particularmente pobres si
su ancho de banda excede f p  0.45 ; por este motivo en la práctica se prefieren los

diseños con M par aunque tiene un mayor error de aproximación, aunque por ser un
Filtro de fase lineal tiene un retardo de (M  1) / 2 que no es un número entero.

3.2.6. DISEÑO DE TRANSFORMADORES DE HILBERT


Utilizados frecuentemente en el procesado de señales y sistemas de
comunicaciones, especialmente en la modulación en banda lateral única; es un filtro
pasa todo que da como resultado a la misma señal de entrada pero desplazada 90 y
cuya respuesta en frecuencia imaginaria, con parte real igual a cero es:
 j , 0 
H d ( )   (3.2.18)
 j,     0

Su respuesta al impulso de duración infinita no causal es asimétrica, y cero para n


par:
 2 sen 2  n 2 
 , n0
hd (n)    n (3.2.19)
0, n0

La respuesta en frecuencia real deseada es:


H dr ()  1, 2 fl    2 fu (3.2.20)

74
UPS Capítulo III

Donde f l es la frecuencia de corte inferior y f u la superior. Para el diseño lo

parámetros a considerarse son f l ,  y M que aunque sea par o impar no presenta


ninguna ventaja además de la complejidad computacional que cuando M es impar es
dos veces menor a M par; la siguiente ecuación es una regla que se sigue usualmente
en el diseño de este tipo filtros:
Mfl  0.61log10  (3.2.21)

3.2.7. COMPARACIÓN DE MÉTODOS DE DISEÑO PARA FILTROS FIR


DE FASE LINEAL
El uso de ventanas para truncar la respuesta al impulso h(n) , por ser el
método de diseño de filtros más antiguo ha sido el más utilizado, pero su gran
desventaja es el poco control sobre las frecuencias críticas,  P y S , que dependen
de la longitud del filtro y del tipo de ventana.
En los años 70 llego el método de muestreo en frecuencia que denotó una
mejora al método de ventanas, ya que H r ( ) se especifica en las frecuencias

k  2 k / M o k   (2k  1) / M y la banda de transición es un múltiplo de


2 / M , se lo utiliza a menudo cuando el Filtro FIR se lo realiza tanto en el dominio
de la frecuencia por medio de la DTF como en cualquiera de las realizaciones en
muestreo de frecuencia.
Posteriormente llego el método aproximación de Chebyshev con el diseño de
un filtro óptimo ya que permite distribuir el error de aproximación sobre la banda de
paso y rechazo, por medio del control total de los parámetros del filtro, esto da como
resultado minimizar el nivel máximo de los lóbulos laterales; el único requisito que
se requiere para el diseño de filtros mediante este métodos es determinar la longitud
del filtro a partir de  P , S , 1 y  2 , para ello se puede utilizar la fórmula de
aproximación Kaiser, descrita en el artículo de Rabiner (1975):


M
20log  
1 2  13
(3.2.22)
14.6f

75
UPS Capítulo III

La banda de transición es f  S  P  / 2 . Y una fórmula más exacta fue

dada por Hermann en 1973:

  D 1 ,  2   f 1 ,  2  f   1
2

M (3.2.23)
f
Por definición:

D 1 ,  2   0.005309  log10 1   0.07114  log10 1   0.4761  log10  2 


2
 
 0.00266  log10 1   0.5941 log10 1   0.4278
2
(3.2.24)
 
f 1 ,  2   11.012  0.51244  log10 1  log10  2 

Estas aproximaciones se usan para el diseño si  excede el valor especificado


de  2 , se incrementa la longitud del filtro hasta que los lóbulos laterales cumplan las
especificaciones.

3.3. DISEÑO DE FILTROS DIGITALES BASADO EN EL MÉTODO DE


MÍNIMOS CUADRADOS
Generalmente en los métodos convierte un filtro analógico en un filtro digital
mediante alguna correspondencia del plano s al plano Z , sin embargo con el
Método de Mínimos Cuadrados se los puede diseñar directamente ya sea en el
dominio del tiempo o en el dominio de la frecuencia.

3.3.1. MÉTODO DE APROXIMACIÓN DE PADÉ


Este método es muy utilizado en problemas de optimización; la Función de
Transferencia del Filtro a diseñar es:
M

b z k
k

H ( z)  k 0
N
  h( k ) z  k (3.3.1)
1   ak z k k 0

k 0

Con h(k ) como su respuesta al impulso; su respuesta al impulso deseada

hd (n) , está especificada para n  0 ; con L  M  N  1 parámetros y sus

coeficientes son ak  y bk  que elegidos de la manera correcta nos sirven para

76
UPS Capítulo III

eliminar errores, estos parámetros se los puede hallar a través de las siguientes
ecuaciones, haciendo h(n)  hd (n) para 0  n  M  N :

h(n)  a1h(n  1)  a2 h(n  2)  ...  aN h(n  N )  bn 0nM


(3.3.2)
h(n)  a1h(n  1)  a2 h(n  2)  ...  aN h(n  N ) nM

Hallamos primero ak  y con estos valores bk  , asé se logra un ajuste entre

la respuesta al impulso real y la respuesta al impulso deseada para los primeros L


valores, cuanto más complejo es el filtro mejor es la aproximación, aunque también
se complica el diseño ya que el filtro resultante tiene un gran número de polos y
ceros. En la práctica hd (n) se determinan a partir de algunas especificaciones de la

respuesta en frecuencia H d ( ) .

3.3.2. MÉTODO DE DISEÑO DE MÍNIMOS CUADRADOS


 ( n) H d ( ) hd (n)  ( n)
1/ H ( Z ) y (n) 
 
error

Minimizar
la suma de
errores al cuadrado

Fig. 3. 5. Método de diseño del filtro inverso de mínimos cuadrados

hd (n) está especificada para un conjunto finito de valores 0  n  L , donde


L  N ; su respuesta al impulso es:
 N M

  k
 a h  n  k    bk   n  k  n  0
 K 1 K 1
h( n)   N (3.3.3)
 a h  n  k   b
  k n 0nM
K 1

A través de la respuesta deseada hd (n) para podemos obtener la estimación:


N
hˆd (n)   ak hd  n  k  (3.3.4)
k 1

77
UPS Capítulo III

Para encontrar los coeficientes ak  se utiliza la aproximación del mínimo

cuadrado que es el cuadrado de la diferencia entre la respuesta deseada y su


estimación, y con ello se obtiene un conjunto de ecuaciones lineales:
N

 a r  k , l   r  k , 0 
l 1
l hh hh k  1, 2,..., N (3.3.5)

Donde:

rhh  k , l   
n  M 1
hd  n  k  hd  n  l  (3.3.6)

Mientras los parámetros bk  que determinan los ceros se los obtiene

haciendo que h(n)  hd (n) y sustituyendo los valores aˆk  , y tenemos:


N
bn  hd  n    aˆk hd  n  k  0nM (3.3.7)
k 1

En el método de Prony los polos son determinados por los coeficientes âk  ,

mediante el método de los mínimos cuadrados y con ellos se encuentran las


estimaciones de ak  ; en cambio los coeficientes bk  que determinan los ceros son

obtenidos mediante la aproximación de Padé.

 ( n) Filtro v ( n) Filtro hd (n)


todo-polos todo-ceros
H1 ( Z ) H 2 (Z )

Fig. 3. 6. Método de mínimos cuadrados para determinar polos y ceros de un filtro

En 1967 Shanks propuso un método alternativo para calcular los coeficientes

ak  y bk  , los coeficientes ak  se calculan por el método de mínimos cuadrados
produciendo estimaciones âk  , sintetizadas en el filtro todo-polos:

1
H1 ( z )  N (3.3.8)
1   aˆk z k

k 1

78
UPS Capítulo III

La respuesta ante un impulso unidad  (n) es:


N
v(n)   aˆk v  n  k     n  n0 (3.3.9)
k 1

Esta respuesta excita un filtro todo ceros con Función de Transferencia:


M
H 2 ( z )   bk z  k (3.3.10)
k 1

Cuya respuesta es:


M
hˆd (n)   bk v  n  k  (3.3.11)
k 1

Con la secuencia de error:

M
e(n)  hd (n)  hˆd (n)  hd (n)   bk v  n  k  (3.3.12)
k 1

Así hallamos los coeficientes bk  por minimización por medio de las

ecuaciones lineales:

b r k, l   r k 
k 0
k vv hv l  0,1,..., M (3.3.13)

Por definición:

rvv  k , l    v  n  k  v  n  l  (3.3.14)
n 0


rhv  k    hd  n  v  n  k  (3.3.15)
n 0

3.3.3. FILTROS INVERSOS FIR DE MÍNIMOS CUADRADOS (WIENER)


Este tipo de Filtros son utilizados en las de-convoluciones, comunicaciones y
procesado de señales sísmicas; llamados así en honor al famoso matemático Norbert

79
UPS Capítulo III

Wiener, quién en 1949 introdujo métodos de filtrado óptimo mediante mínimos


cuadrados.
Un sistema con respuesta al impulso hI (n) y función de transferencia H I ( z ) ;

es inverso a un sistema lineal e invariante en el tiempo con respuesta al impulso


h(n) y función de transferencia H ( z ) , si cumple que:

h(n)  hI (n)   (n) (3.3.16)

H ( z) H I ( z)  1 (3.3.17)

Usualmente H I ( z ) es IIR a menos que H ( z ) sea un sistema de todo-polos

donde sería FIR; aunque truncando hI (n) podemos lograr siempre tener un FIR de
longitud M+1, aunque esto produce un error cuadrático total de aproximación que es
igual a la energía de cola de la respuesta al impulso hI (n) :


t  
n  M 1
hI2 (n) (3.3.18)

d ( n)   ( n)

Filtro 
y ( n)
h( n) FIR 
bk  

e( n )

Minimizar
la suma de
errores al cuadrado

Fig. 3. 7. Filtro Inverso FIR de Mínimos Cuadrados

d (n) es la secuencia de salida deseada, y(n) la secuencia de salida del Filtro


FIR y h(n) es la secuencia de entrada; por lo que la secuencia de error es:

80
UPS Capítulo III

2

 M

    d  n    bk h(n  k )  (3.3.19)
n 0  k 0 

Minimizando esta secuencia con respecto a los coeficientes del filtro,


obtenemos un conjunto de ecuaciones lineales:
M

b r
k 0
k hh (k  l )  rdh (l ) l  0,1,..., M (3.3.20)

rhh (l ) es la autocorrelación de h(n) :



rhh (l )   h  n  h  n  l  (3.3.21)
n 0

rdh (l ) es la correlación cruzada entre la salida deseada d (n) y la secuencia de


entrada h(n) :

rdh (l )   d  n  h  n  l  (3.3.22)
n 0

El mínimo error es:


 M
 min   d  n    bk rdh  k 
2
(3.3.23)
n 0 k 0

Si el Filtro FIR de mínimos cuadrados es inverso:


d  n    n (3.3.24)

Y esto reduce las expresiones anteriores a:

h  0  l 0
rdh (l )   (3.3.25)
0 en otro caso

 min  1  h  0 b0 (3.3.26)

Para hallar los coeficientes del filtro utilizamos las matrices de Toeplitz, por
medio del algoritmo de Levinson-Durbin que utiliza M 2 cálculos:

81
UPS Capítulo III

 rhh  0  rhh 1 rhh  2   rhh  M    b0   h  0  


 
 rhh 1 rhh  0  rhh 1  rhh  M  1   b1   0 
 (3.3.27)
          
    
 rhh  M  rhh  M  1   rhh  0   bM   0 

Si el sistema es de fase mínima se debe seleccionar la respuesta deseada para


que sea   n   0 y d  n   0, n  1 ; si el sistema no lo es lo aconsejable es introducir

un retardo D en la respuesta deseada dependiendo de las características de h  n  , por

lo que la correlación cruzada se transforma en:


rdh  l   h  D  l  l  0,1,..., M (3.3.28)

De igual manera el conjunto de ecuaciones lineales viene a ser:


M

b r k  l   h D  l 
k 0
k hh l  0,1,..., M (3.3.29)

Y el error mínimo:
M
 min  1   bk h  D  k  (3.3.30)
k 0

3.3.4. DISEÑO DE FILTROS IIR EN EL DOMINIO DE LA FRECUENCIA


Este método de diseño de Filtros IIR se lo realiza en el dominio de la
frecuencia, para determinar los parámetros del filtro se eligen funciones de error en
la magnitud y en el retardo entre los valores reales y los deseados; GA k   Ad k 

y  g k   d k  , respectivamente, y se selecciona también la función error

ponderado total de mínimos cuadrados no lineal sobre las ( K + 1 ) frecuencias


1 , 2 ,..., L :

L
  p, G   1     wn GA n   Ad n  
2

n 1
L
(3.3.31)
   vn  g n    g 0    d n  
2

n 1

82
UPS Capítulo III

 , wn y vn son factores de ponderación que se eligen de acuerdo a las


necesidades, que determinan el énfasis relativo de los errores como una función de la
frecuencia, mientras que p es un vector de 4K de los coeficientes del filtro

k1 ,k 2  ,k1 y k 2  .


La ventaja que se tienen es que los errores que afectan al diseño se pueden
desplazar a la magnitud    0  ó al retardo    1 ó también de manera igual

   1/ 2  . La ganancia óptima es:


L

 w A   A  
n n d n
Gˆ  n 1
L (3.3.32)
 w A  
n 1
n
2
n

Y con esto tenemos:

 
L
 p, Gˆ  1     wn GA
ˆ    A   
2
n d n 
n 1
L
(3.3.33)
   vn  g n    g 0    d n  
2

n 1

 
 p, Gˆ no es lineal y su minimización se la realiza mediante el método de

optimización numérica iterativo sobre su 4K parámetros, al principio se tienen

valores p(0) iniciales, se los sustituye en (3.3.31) y se obtiene  p 0 , G , luego se  


evalúan las derivadas parciales  /  k1 ,  /  k 2 ,  / k1 y  /  k 2 en los

mismos valores iniciales; y con estos valores se puede re-calcular los valores

 
iniciales y de igual manera  p, Gˆ y obteniendo así los valores p(0) y se repite el

proceso hasta cuando las componentes del gradientes son cercanas a cero y el valor


de  p, Gˆ  no cambia significativamente entre cada iteración. Este proceso se lo

puede describir mediante:


p m1  p m   mQ m g  m m  0,1, 2,... (3.3.34)

 m es un escalar que representa el tamaño de paso en la iteración, Q  es


m

una estima de la hessiana una matriz de  4 K  4 K  y g   un vector de dimensión


m

83
UPS Capítulo III

 4K 1 compuesto por cuatro vectores de dimensión K de las componentes de la

gradiente  (es decir,  /  k1 ,  /  k 2 ,  / k1 ,  /  k 2 ) evaluadas en

ak1   k1  , ak 2   k 2  , bk1  k1  , y bk 2  k 2  . El vector de parámetros p da


m m m m

estabilidad al programa, si  k 2  1 para k  1,..., K cualquier  k 2 se fuerza a

permanecer dentro de la circunferencia unidad haciendo que permanezca el proceso


iterativo, lo mismo se puede realizar para que de los ceros permanezcan dentro de la
circunferencia unidad y obtener así un filtro de fase mínima.

3.4. PREDICCIÓN LINEAL HACIA ADELANTE Y HACIA ATRÁS


La predicción tiene como objetivo obtener un valor futuro de un proceso
aleatorio estocástico a partir de las observaciones de valores pasados del proceso. La
predicción tanto hacia adelante como hacia atrás, lleva a estructuras de Filtros en
celosía y algunas otras conexiones importantes con modelos paramétricos de señal.

3.4.1. PREDICCIÓN LINEAL HACIA ADELANTE


x ( n)  f p  n

Predictor
x  n  1 x̂  n 
1 Lineal
z Hacia
adelante

Fig. 3. 8. Predicción lineal hacia adelante

Se puede predecir un valor x  t  mediante una combinación ponderada a

partir de los valores pasados x  n  1 , x  n  2  ... x  n  p  , y los coeficientes de

predicción, su signo negativo se debe a una conveniencia matemática:

p
xˆ  n    a p  k  n  n  k  (3.4.1)
k 1

84
UPS Capítulo III

La diferencia entre el valor que se predijo y el valor real no da como resultado


el error de predicción f p  n  .

Un filtro FIR de error de predicción en forma directa es equivalente a un filtro


FIR en celosía de p etapas, con la función de transferencia:
p
Ap  z    a p  k  z  k a p  0  1 (3.4.2)
k 1

x ( n)
z 1 z 1 z 1 z 1

1 a p (1) a p (2) a p (3) a p ( p  1) a p ( p)


f p  n

Fig. 3. 9. Filtro de error de predicción


Cuya salida es:
p
f p  n   ap  k  x  n  k  a p  0  1 (3.4.3)
k 1

El error cuadrático medio:

 p *  p p *
   xx  0   2 Re  a p  k   xx  k    a p  l  a p  k   xx  l  k 
f
p (3.4.4)
 k 1  k 1 l 1

Su minimización conlleva a las ecuaciones normales:

p
 xx  l    a p  k   xx  l  k  l  1, 2,..., p (3.4.5)
k 1

Y su mínimo error cuadrático de predicción:

85
UPS Capítulo III

p
min  pf   E pf   xx  0    a p  k   xx  k  (3.4.6)
k 1

3.4.2. PREDICCIÓN LINEAL HACIA ATRÁS


Para obtener un valor x  n  p  de una secuencia de datos x  n  , x  n  1 ,

x  n  2  ... x  n  p  1 , de un proceso aleatorio:


p 1
xˆ  n    bp  k  n  n  k  (3.4.7)
k 1

Sus coeficientes de predicción bp  k  son complejos conjugados de los del

predictor hacia adelante y ocurren en orden contrario:


bp  k   a*p  p  k  k  0,1,..., p (3.4.8)

f 0 ( n) f1 (n) f 2 ( n)  f p ( n)
x ( n) Primera Segunda p  ésima
g 0 (n) Etapa g1 (n) Etapa g 2 ( n)  Etapa g p ( n)

f m 1 (n) f m ( n)

K m*
Km
g m1 (n) g m ( n)
z 1 

Fig. 3. 10. Etapa p del filtro en celosía

Se lo puede realizar como filtro FIR tanto en forma directa como en


estructura en celosía, cuya Función de Trasferencia es:
Bp  z   z  p A*p  z 1  (3.4.9)

 
Los coeficientes a p  k  se pueden determinar por medio de:

Am  z   Am1  z   Km z 1Bm1  z  (3.4.10)

86
UPS Capítulo III

m m 1 m 1

 am  k  z 1   am1  k  z 1  Km  am* 1  m  1  k  z k 1


k 0 k 0 k 0
(3.4.11)

Su error de predicción:
p
g p  n   x  n  p    a*p  k  x  n  p  k  (3.4.12)
k 1

El valor cuadrático medio:

 bp  E  g p  n  
2
(3.4.13)
 

La minimización de estos valores conducen a las mismas ecuaciones


normales del predictor hacia adelante por lo que el mínimo error es el mismo.

 bp  E  g p  n  
2
(3.4.14)
 

3.4.3. COEFICIENTES DE REFLEXIÓN ÓPTIMOS PARA LOS


PREDICTORES EN CELOSÍA HACIA DELANTE Y HACIA ATRÁS
Para optimizar los coeficientes de reflexión de un filtro en celosía, es
necesario expresarlos en función de los errores de predicción hacia a delante y hacia
atrás. El error de predicción de un filtro de predicción hacia adelante en celosía es:
f m  n   f m1  n   Km gm1  n  1 (3.4.15)

Minimizando E  f m  n   con respecto a los coeficientes K m tenemos:


2

 

 E  f m1  n  g m* 1  n  1 
Km  (3.4.16)
Emf 1 Emb 1

Dónde Emf 1  Emb 1  E  g m1  n  1   E  f m1  n   . Los coeficientes de


2 2

   
reflexión en el predictor en celosía es el negativo de los coeficientes de correlación
cruzada (normalizada) entre los errores de los predictores hacia adelante y hacia

87
UPS Capítulo III

atrás. Mientras que el mínimo valor cuadrático medio de error de predicción es una
secuencia monótonamente decreciente:


Emf  1  K m
2
E f
m 1 (3.4.17)

3.4.4. RELACIÓN DE UN PROCESO AR CON LA PREDICCIÓN LINEAL


Un predictor de orden p se encuentra relacionado mediante una
correspondencia biunívoca con los procesos ARp donde la secuencia de

autocorrelación  xx  m  se relaciona con los parámetros ak  . Si el proceso

subyacente  x(n) es ARp , los coeficientes de predicción del predictor de orden p

son idénticos a ak  ; y su mínimo MSE es idéntico a la varianza del proceso de ruido

blanco.

3.5. PROPIEDADES DE LOS FILTROS DE ERROR DE PREDICCIÓN


LINEAL

Propiedad de Fase Mínima del Filtro de Error de Predicción hacia adelante:


Si un Proceso Aleatorio:
M
x  n    ak e
j  nk k 
(3.5.1)
k 1

Con sus fases  


k
distribuidas estadísticamente en  0, 2  , se encuentra

formado por una mezcla de densidad espectral de potencia continua:


M
k
 xx  f    ak2  f  f k  fk  (3.5.2)
k 1 2

Y un espectro discreto; las raíces del Filtro de Error de Predicción se


encuentran todas dentro de la circunferencia unidad.

Propiedad de Fase Máxima del Filtro de Error de Predicción hacia atrás:


Si la Función de Transferencia de un Filtro de Error de Predicción hacia atrás:

88
UPS Capítulo III

Bp  z   z  p A*p  z 1  (3.5.3)

Las raíces Ap  z  de un Filtro de Error de Predicción hacia Adelante de Fase

Mínima son los recíprocos de las raíces Bp  z  de un Filtro de Error de Predicción

hacia Atrás de Fase Máxima, y cuyas raíces yacen sobre la circunferencia unidad si

el proceso x  n  es predecible.

Propiedad de Blanqueo:

La diferencia entre la salida del predictor x̂  n  y entre el valor real x  n 

disminuye si se incrementa el orden p del predictor, aproximándose esta diferencia

f  n   xˆ  n   x  n  al Ruido Blanco.

Ortogonalidad de los Errores de Predicción hacia atrás:


Los errores de Predicción hacia Atrás g  k 
m de un Filtro FIR de varias

etapas son ortogonales:


0, 0  l  m 1
E  g m  n  gl*  n     b (3.5.4)
 Em , lm
Propiedades Adicionales:

E  f m  n  x  n  i   0, 1 i  m (3.5.5)

E  gm  n  x  n  i   0, 0  i  m 1 (3.5.6)

E  f m  n  x  n   E  gm  n  x  n  m   Em (3.5.7)

E  fi  n  f j  n   Emax  i, j  (3.5.8)

1  t  i  j i j
E  fi  n  f j  n  t   0,  (3.5.9)
1  t  i  j i  j
0  t  i  j i j
E  gi  n  g j  n  t   0,  (3.5.10)
0  t  i  j  1 i  j
E i j
E  fi  n  i  f j  n  j     i (3.5.11)
0 i j

89
UPS Capítulo III

E  gi  n  i  g j  n  j   Emáx  i, j  (3.5.12)

 K j Ei , i  j i, j  0 K 0  1
E  fi  n  g j  n     (3.5.13)
0, i j

E  fi  n  gi  n  1   Ki1 Ei (3.5.14)

E  gi  n  1 x  n   E  fi  n  1 x  n  1    Ki1 Ei (3.5.15)

0, i j
E  fi  n  g j  n  1    (3.5.16)
 K j 1 Ei , i j

3.6. FILTROS DE WIENER PARA PREDICCIÓN Y FILTRADO

d n

s n x n
Predictor
y n
 e n
Señal  Lineal 

Óptimo

wn
Ruido

Fig. 3. 11. Modelo para el problema de Estimación Lineal

Siempre la señal de entrada  x  n  disponible desde un pasado infinito, está

formada por la señal deseada s  n  y un ruido o interferencia aditivo w  n  ;


justamente el objetivo de un filtro lineal con respuesta al impulso h  n  es rechazar

o eliminar esta interferencia no deseada mientras mantiene intactas sus características


de señal deseada; la salida del filtro es la secuencia  y  n  que suele tener un error

e  n   d  n   y  n  con respecto a la señal deseada especifica d  n  .

3.6.1. FILTRO FIR DE WIENER


Un filtro de longitud M, que depende del registro finito
x  n  , x  n  1 ,..., x  n  M  1 , con coeficientes hk ,0  k  M  1 , cuya salida es:

90
UPS Capítulo III

M 1
y  n   h  k  x n  k  (3.6.1)
k 0

El valor cuadrático medio del error entre la salida deseada d  n  e y  n  es:


M 1
 M  E d  n   h  k  x n  k  (3.6.2)
k 0

La minimización de  M nos da como resultado un conjunto de ecuaciones

lineales de Wiener-Holp o ecuaciones normales:


M 1

 h  k   l  k    l 
k 0
xx dx l  0,1,..., M  1 (3.6.3)

Donde  xx  k  es la autocorrelación de la secuencia de entrada  x  n  y la

correlación cruzada  dx  k   E d  n  x*  n  k  entre la secuencia deseada d  n 

y la secuencia de entrada x  n  ,0  n  M  1 .

A las ecuaciones normales se las puede por medio de la matriz de Toeplitz

(hermítica) de M  M elementos lk   xx  l  k  :

 M hM   d (3.6.4)

d es vector M 1 de la relación cruzada con elementos

 dx  l   0,1,..., M 1 , la solución de los coeficientes del filtro óptimo son:

MMSEM   d2   dt M1 d (3.6.5)

En el caso de filtrado d  n   s  n  , además s  n  y w  n  son secuencias

aleatorias incorrelacionadas tenemos:


 xx  l    ss  l    ww  l 
(3.6.6)
 dx  l    ss  l 

Cuyas ecuaciones normales serían:

91
UPS Capítulo III

M 1

 h  k    l  k    l  k    l 
k 0
ss ww ss l  0,1,..., M  1 (3.6.7)

En el caso de la predicción, donde d  n   s  n  D  , además s  n  y w  n 

son secuencias aleatorias incorrelacionadas tenemos:


 dx  l    ss  l  D  (3.6.8)

Y ecuaciones para el Filtro de predicción de Wiener se transforman en:


M 1

 h  k   l  k    l  k    l  D 
k 0
ss ww ss l  0,1,..., M  1

(3.6.9)

Para obtener los coeficientes del filtro óptimo se utiliza el algoritmo de


Levinson-Durbin, invirtiendo la matriz de correlación de Toeplitz.

3.6.2. PRINCIPIO DE ORTOGONALIDAD EN ESTIMACIÓN LINEAL DE


MÍNIMOS CUADRADOS
La salida estimada de un filtro es:
M
x  n    ak e
j  nk k 
(3.6.10)
k 1

Salida que puede ser representada geométricamente a través de un vector en

el sub-espacio desde d  n  hasta d̂  n  , es decir d  n   e  n   dˆ  n  , desplegado

por los valores x  k  ,0  k  M  1 .

92
UPS Capítulo III

d n
e n

h  0  x 1
x(1)
h 1 x  2 

d̂  n 

x(2)
Fig. 3.11. Interpretación geométrica del problema lineal de MSE

El principio de ortogonalidad que la longitud  M  E e  n  es un mínimo si


2

e  n  es perpendicular o ortogonal a cada dato x  k  ,0  k  M  1 . Seleccionando


los coeficientes del filtro y mediante el principio de ortogonalidad se obtiene el MSE
residual mínimo:

MMSEM  E e  n  d *  n  (3.6.11)

3.6.3. FILTRO IIR DE WIENER


Son filtros de longitud y secuencias de datos de longitud infinita, cuya salida
es:

y  n   h k  x n  k 
k 
(3.6.12)

Cuyos coeficientes se seleccionan para minimizar el error cuadrático medio


entre la salida deseada d  n  y y  n  :

 2

  E d  n   h k  x n  k 
k 
(3.6.13)

Por el principio de ortogonalidad obtenernos las ecuaciones de Wiener-Hopf:

93
UPS Capítulo III

 h  k   l  k    l 
k 
xx dx l0 (3.6.14)

El MMSE residual:

MMSE  min     d2 
h
 h k  k 
k 
opt
*
dx (3.6.15)

A un proceso estacionario x  n  con autocorrelación  xx  k  y densidad

espectral de potencia  xx  f  se puede expresa mediante un proceso de innovaciones

i  n  permanente, para esto se pasa al proceso estacionario x  n  por un filtro

blanqueador de ruido con Función de Transferencia 1/ G  z  , donde G  z  es la parte

analítica de fase mínima en la región z  r1 , donde r1  1 . Un filtro Wiener se lo

puede ver como una cascada de un filtro blanqueador 1/ G  z  con otro Q  z  , cuya

salida y  n  es similar a la salida de un Filtro Óptimo:


y  n   q k i n  k 
k 
(3.6.16)

Se debe notar que e  n   d  n   y  n  y mediante el principio de

ortogonalidad obtenemos una nueva ecuación de Wiener-Hopf:

 q  k   l  k    l 
k 
ii di l0 (3.6.17)

Como i  n  es blanca, tenemos que  ii  l  k   0 a menos que l  k , por lo que:

 di  l   di  l 
q l    l0 (3.6.18)
 di  0   i2

Su transformada z es:

94
UPS Capítulo III


1
Q z 
 2 k  z
di
k
(3.6.19)
i k 0

La transformada z de la secuencia de correlación cruzada bilateral  di  k  :



 di  z     k  z
k 
di
k
(3.6.20)

La salida del Filtro Blanqueador de Ruido es:



i  z  v k  x n  k  (3.6.21)
k 0

Donde v  k  , k  0 es la respuesta al impulso del filtro blanqueador de ruido:



 di  k    v  k    k  m
k 
dx (3.6.22)

Cuya transformada z es:


 dx  z 
 di  z   V  z 1   dx  z  
G  z 1 
(3.6.23)

Entonces:

1   dx  z  
QZ     (3.6.24)
 i2  G  z 1  
  

La función de Transferencia de un Filtro IIR de Wiener Óptimo es:

1    z 
H opt  z    dx 1  (3.6.25)
 G  z G  z  
2
i  

Para encontrar la solución para el Filtro IIR Óptimo de Wiener primero se


debe factorización espectral de  xx  z  y obtenemos la componente de fase mínima

95
UPS Capítulo III

G  z  , y luego se encuentra la parte causal de  xx  z  G  z 1  .  d2  E d  n  es el


2

valor de la secuencia de autocorrelación  dd  k  evaluada en k  0 , y:

1
 dd  k     dd  k  z 1dz
2 j 
(3.6.26)
C

De donde:
1  dd  k 
 d2   dd  0   C z dz
2 j 
(3.6.27)

La integral cerrada se evalúa a lo largo de una curva cerrada alrededor del


origen en la región de convergencia  dd  z  . Como hopt  k   0 para k  0 , se

deprende:

H opt  z   dx  z 1  z 1dz
1
 h  k    k   2 j 
k 
opt
*
dx C
(3.6.28)

C es la trayectoria cerrada alrededor del origen que se encuentra en la región


de convergencia común de H opt  k  y  dx  z 1  . Por lo que la expresión deseada

MMSE de es:

 dd  k   H opt  k   dx  z 1  z 1dz
1
MMSE  
2 j  C   (3.6.29)

3.6.4. FILTRO DE WIENER NO CAUSAL


Aunque un Filtro no causal es físicamente irrealizable, se los suele utilizar
como filtro de suavizado para el que los valores del futuro infinito se usan para

suavizar la estima de d̂  n   y  n  de la señal deseada d  n  , cuya secuencia de

entrada  x  n  tiene tanto pasado como futuro infinito, por lo que su salida sería

y  n   h k  x n  k 
k 
(3.6.30)

Aplicando el principio de ortogonalidad da como resultado la ecuación de


Wiener-Hopf para un Filtro no causal:

96
UPS Capítulo III

 h  k   l  k    l 
k 
xx dx   l   (3.6.31)

Transformando la ecuación anterior directamente se tiene Filtro Óptimo de


Wiener no causal:
 dx  z 
H nc  z   (3.6.32)
 xx  z 

Su MMSEnc :

MMSEnc   d2   h k  k 
k 
*
dx (3.6.33)

Y este en el dominio de Z :

 dd  z   H nc  z   dx  z 1  z 1dz
1
2 j  C 
MMSEnc   (3.6.34)

97
UPS Capítulo IV

CAPÍTULO
IV

FILTROS
ADAPTATIVOS

98
UPS Capítulo IV

CAPÍTULO IV
FILTROS ADAPTATIVOS
Existen muchas aplicaciones de tratamiento digital de las señales en la que
los parámetros estadísticos no se pueden especificar. Dichas aplicaciones que no
pueden usar parámetros estadísticos a prioridad incluyen la ecualización del canal,
la cancelación del eco y el modelado del sistema.
Para estas aplicaciones se usa filtros con coeficientes ajustables
denominados filtros adaptativos. Lo que hacen estos filtros principalmente, es
incorporar algoritmos que puedan adaptar los coeficientes del filtro con los
parámetros estadísticos de la señal.
Estos filtros han sido de mucho interés en el estudio de estos últimos tiempos,
por lo que se ha obtenido un desarrollo considerable en los algoritmos de cálculo
para el filtrado adaptativo.

4.1. APLICACIONES DE LOS FILTROS ADAPTATIVOS


Muchos han sido los sistemas en donde se han aplicado los filtros adaptativos,
tales como los campos en sistemas de control, comunicaciones y otros en los que las
características estadísticas de las señales que deben ser filtradas eran desconocidas.

Al nombrar algunas de las aplicaciones más destacables, se puede recoger las


siguientes:
*Sistemas de antena adaptativa, en la cual el filtro se aplica para dirigir el haz
y proporcionar nulos en el patrón del haz.
*Receptores Digitales de Comunicaciones, en las que los filtros se aplican
para ecualizar las interferencias e identificar el canal.
*Técnicas de cancelación de ruido adaptativas, en las que los filtros se usan
para estimar y eliminar una componente de ruido de la señal deseada.

A pesar de que se ha considerado los filtros FIR e IIR para los filtros
adaptativos, el filtro FIR es el más ampliamente usado y práctico, pues solo tiene
ceros ajustables, mientras que los filtros IIR necesitan de ceros y polos ajustables.

99
UPS Capítulo IV

Pero la estabilidad del filtro FIR depende críticamente del algoritmo


empleado para ajustar sus coeficientes. Dos criterios que dan buenas medidas del
rendimiento de las aplicaciones de filtrado adaptativo, son el criterio de mínimos
cuadrados y el error cuadrático medio (MSE, Mean-Square-Error).

4.1.1. IDENTIFICACIÓN O MODELADO DEL SISTEMA


Se dispondrá de un sistema desconocido el cual se deseara identificar. El
sistema desconocido se sabe que tendrá:
x(n) = Secuencia de entrada para el sistema.
y(n) = Salida del sistema desconocido.
^
y (n) = Salida del modelo.
M = Número de coeficientes ajustables.
h(k) = Coeficiente “k” ajustable del filtro

Es así que se tiene:


^ M 1
y   h( k ) x ( n  k ) (4.1.1)
k 0

La secuencia de error viene dada por:


^
e( n )  y ( n )  y ( n ) (4.1.2)
n  0,1,...

Se debe seleccionar los coeficientes h(k) para minimizar el error:


2
N
 M 1

 M    y ( n)   h( k ) x ( n  k )  (4.1.3)
n 0  k 0 

Donde N+1 es el número de observaciones. Mediante el criterio de mínimos


cuadrados se permitirá determinar los coeficientes del filtro, es así que:
M 1

 h( k ) r
k 0
xx (l  k ) ryx (l )
(4.1.4)
l  0,1,..., M  1

100
UPS Capítulo IV

Como se ve en la ecuación 4.1.4, rxx (l ) es la autocorrelación de la secuencia


x(n) y ryx (l ) es la correlación cruzada del sistema con la secuencia de entrada y

resolviendo la ecuación 4.1.4 se obtendrán los coeficientes del filtro para el modelo.

Debido a que los parámetros del filtro se obtienen a partir de la medida de los
datos de entrada y salida del sistema, teniendo presente que es un sistema que se
desconoce, se puede decir que el modelo de filtro FIR es un filtro adaptativo, como
se muestra en la Fig. 4.1
Ruido

Sistema variante
en el tiempo d(n)
desconocido +
y(n)
+
X(n)
+
^
Modelo de y ( n) -
filtro FIR

Algoritmo
Adaptativo
Señal de
error

Fig. 4. 1. Aplicación del filtrado adaptativo a la identificación de un sistema

4.1.2. ECUALIZACIÓN DEL CANAL ADAPTATIVA


En la gráfica siguiente, se utiliza un ecualizador adaptativo para compensar la
distorsión creada por el canal que es el medio de transmisión, todo esto en un sistema
digital de comunicaciones representado en este diagrama, y cuya salida es:

s(t )   a(k ) p(t  kTs ) (4.1.4)
k 0

Donde:
a(k) = Secuencia digital de símbolos de información aplicada al filtro transmisor
p(t) = Respuesta al impulso del filtro transmisor.
Ts = Intervalo de tiempo entre los símbolos de información
K = Es el número de posibles valores de los símbolos.

101
UPS Capítulo IV

a(n) Transmisor
Canal
Receptor
(Filtro)
(Filtro Variante en + (filtro)
Secuencia el tiempo)
de datos Muestreador

Ruido
^ ^
a ( n) Dispositivo de
decisión
a ( n) Ecualizador
adaptativo

Señal de d(n) + -
referencia +
Algoritmo
adaptativo
Señal de error

Fig. 4. 2. Aplicación del Filtrado Adaptativo a la ecualización de un canal

El canal que idealmente se lo modela como un filtro lineal, distorsiona los


pulsos y produce interferencia entre símbolos, como lo que sucede en los canales
telefónicos, sin embargo estos filtros aplicados en los canales, producen distorsión de
fase y amplitud. Y si a esto, se toma muestras cada Ts seg, se dará una interferencia
de los distintos símbolos adyacentes.

Si se aplica y si se supone que se encuentra un filtro FIR en el extremo


receptor del sistema, la funcionalidad de este filtro será limitar el ancho de banda del
ruido, y si por un momento se ignora las posibles variaciones temporales del canal,
se puede expresar la salida del receptor como se indica a continuación:
 
x(nTs )   a(k )q(nTs  kTs )  w(nTs )  a(n)q(0)   a(k )q(nTs  kTs )  w(nTs ) (4.1.6)
k 0 k 0

Donde w(t) representa el ruido aditivo y q(t) representa el impulso


distorsionado en la salida del filtro receptor. Se supone que la muestra q(0) está
normalizada a la unidad por medio de un sistema de control automático de ganancia
contenida en el receptor, por lo que 4.1.6 podrá representarse:

x(n)  a(n)   a(k )q(n  k )  w(n) (4.1.7)
k 0

102
UPS Capítulo IV

Ahora si se supone que el ecualizador es un filtro FIR adaptativo con M


coeficientes ajustables h(n), su salida se puede expresar como:
^ M 1
a(n)   h(k ) x(n  D  k ) (4.1.8)
k 0

^
Donde D es un retardo nominal que se produce al procesar la señal y a(n)
representa un estimado del símbolo de información n-ésimo. Aplicando nuevamente
el criterio de error de mínimos cuadrados, seleccionando los coeficientes h(k) para
minimizar la magnitud, se tiene que:
2 N  M 1 
2
N
 

^
 M    d ( n )  a ( n)     d ( n )  h(k ) x(n  D  k ) (4.1.9)
n0   n 0  k 0 

El resultado de la optimización es un conjunto de ecuaciones lineales, que se


encuentra representado como vemos a continuación:
M 1
 h(k )rxx (l  k ) rdx (l  D)
k 0 (4.1.10)
l  0,1,..., M  1

Como se ve en (4.1.10), rxx (l ) es la autocorrelación de la secuencia x(n) y


rdx (l ) es la correlación cruzada entre la secuencia deseada d(n) y la secuencia

recibida x(n).

4.1.3. CANCELACIÓN DEL ECO EN LA TRANSMISIÓN DE DATOS A


TRAVÉS DE CANALES TELEFÓNICOS
Para la transmisión de datos a través de los canales telefónicos se utilizan los
módems, los mismo que sirven como interfaz para que se pueda realizar la
transmisión de datos de la secuencia digital con el canal analógico, pudiendo ser esta
del tipo full-duplex, es decir que se puede transmitir del terminal A al B y viceversa.
Generalmente la línea telefónica es una línea de cuatro hilos, lo que es
equivalente a tener dos canales telefónicos dedicados, un canal para transmitir datos
en una dirección y otro para recibirlos de la otra dirección. Y como se mencionó
anteriormente, la distorsión del canal puede compensarse mediante un ecualizador
adaptativo.

103
UPS Capítulo IV

Se darán algunos problemas, y una solución para la transmisión infrecuente


de los datos consiste en emplear una red telefónica de marcación conmutada. Para
esto la comunicación local entre el abonado y la central telefónica (local) es una línea
de dos hilos, lo que se le conoce como bucle local.
Mediante un acoplamiento de transformador, el híbrido (dispositivo que
vemos en la Fig. 4.3) se ajusta para proporcionar aislamiento entre los canales de
transmisión y recepción. Sin embargo se puede producir eco debido a que la señal en
la parte del receptor se distorsiona por la causa de la desadaptación de impedancias
entre el híbrido y el canal telefónico. Pero esto se puede solucionar agregando un
supresor de eco o un cancelador de eco para la transmisión de los datos dentro de
cada modem. Estos canceladores de eco se implementan como filtros adaptativos con
coeficientes ajustables automáticamente.
Es necesario el uso de un híbrido en cada modem para el aislamiento entre
transmisor y receptor y para el acoplamiento del bucle local de dos hilos. Como se ve
en la Fig. 4.3 el híbrido A se encuentra en la central del abonado, mientras que el
híbrido B se encuentra en la central a la que el abonado B está conectado. Para la
representación matemática de todo lo hablado anteriormente, las dos señales
transmitidas pueden representarse como:

s A (t )   a(k ) p(t  kTs )
k 0
 (4.1.11)
sB (t )   b(k ) p(t  kTs )
k 0

Donde p(t) es un impulso.

Despreciando la distorsión del canal con la finalidad de solo enfocarse en los


ecos, la señal recibida en el modem A puede expresarse como:
sRA (t )  A1sB (t )  A2 sA (t  d1 )  A3 s A (t  d2 ) (4.1.12)

sB (t ) es la señal deseada que va a ser demodulada en el modem A.

s A (t  d1 ) es el eco en el terminal A debido al híbrido A (eco en el extremo

próximo).
sA (t  d2 ) es el eco en el terminal A debido al híbrido B (eco en el extremo

alejado).

104
UPS Capítulo IV

Ai son las amplitudes correspondientes a las tres componentes de la señal.

d1 _ y _ d2 son los retardos asociados con las componentes de eco.

A esta ecuación se le debe sumar el ruido aditivo representada por w(t), que
es una perturbación que distorsiona la señal. El cancelador de eco adaptativo, intenta
estimar las dos componentes de eco. Si su salida dispone de los coeficientes h(n), con
n=0,1,…,M-1, entonces:
^ M 1
s A ( n)   h( k ) a ( n  k ) (4.1.13)
k 0

A este estimado de la señal de eco se le resta de la señal recibida muestreada,


y esta señal de error resultante puede minimizarse por mínimos cuadrados para
ajustar de forma óptima los coeficientes del cancelador de eco. A continuación se
representará en forma de diagramas de bloques lo anteriormente expuestos, en la Fig.
4.3

Datos de Transmisor Transmisor Datos de


A B
entrada entrada

Cancelador
Cancelador
de eco
de eco
Híbrido Híbrido Híbrido Híbrido
A B

Algoritmo Bucle Bucle Algoritmo


adaptativo local local adaptativo

Datos de Receptor
- - Receptor Datos de
salida A + + B salida
+ +

Módem A Módem B
Fig. 4. 3. Diagrama de bloques de un sistema de comunicación digital con canceladores de eco en los
módems

4.1.4. SUPRESIÓN DE INTERFERENCIAS DE BANDA ESTRECHA EN


UNA SEÑAL DE BANDA ANCHA
Ahora se enfocara el problema que se da en la práctica en cuanto a la
detección de las señales y en las comunicaciones digitales. Suponiendo que se tiene

105
UPS Capítulo IV

una secuencia v(n), una señal de banda ancha deseada w(n) distorsionada por una
interferencia de banda estrecha aditiva x(n), se verá lo siguiente.
Estas secuencias resultan del muestreo de una señal analógica v(t) a la
frecuencia de Nyquist (o mayor) de la señal de banda ancha w(t). En la Fig. 4.4. se
muestra las características espectrales de w(n) y x(n).

V( f )  X( f )  W( f )

X(f )

W( f )

0 fw

Fig. 4. 4. Interferencia de banda estrecha X(f) en un banda ancha W(f).

Como se ve en la figura, la interferencia X ( f ) es mucho mayor que W ( f )

dentro de la banda de frecuencias estrecha que ocupa. El objetivo es implementar un


filtro que suprima la interferencia de banda estrecha. Sin embargo si la interferencia
es no estacionaria, su ocupación de la banda de frecuencias puede variar con el
tiempo, por lo que es así que será necesario un filtro adaptativo.

Por las características de banda estrecha de la interferencia, se permite


estimar x(n) a partir de las muestras pasadas de la secuencia y(n) y extraer el
estimado de y(n). El esquema general de todo esto se encuentra representado en la
Fig. 4.5.

106
UPS Capítulo IV

^
v(n)  w(n)  x(n) + e(n)  w(n)
+
-
v(n  D) ^
Predictor x(n) Señal de error
D Lineal
z FIR
Retardo de la
decorrelación Algoritmo
Adaptativo

(a)

v(n  D)
z 1 z 1 z 1 ... z 1

h(0) h(1) h(2)

h(M-1)

+
^
x ( n)

(b)

Fig. 4. 5. Filtro adaptativo para eliminar interferencia de banda estrecha en una señal de banda ancha

La señal y(n) se retarda D muestras y esta se selecciona lo suficientemente


grande para que en las componentes de la señal de banda ancha no sean
correlacionadas, aunque normalmente D=1 o 2. La señal retardada v(n  D) se pasa a
través de un filtro FIR, lo que se caracteriza mejor como un predictor lineal del valor
x(n). Es así que la salida del predictor lineal es:
^ M 1
x ( n)   h( k )v ( n  D  k ) (4.1.14)
k 0

Este valor de x(n) se sustrae de v(n) para proporcionar un estimado de w(n).


Es evidente que D debe mantenerse tan pequeño para obtener un buen estimado de

107
UPS Capítulo IV

x(n), pero a la vez, lo suficientemente grande para que w(n) y w(n - D) sean
incorrelados. El error viene dado por:
^
e(n)  v(n)  x(n)  v(n)   k 0 h(k )v(n  D  k )
M 1
(4.1.15)

Si se aplica a esto el criterio de mínimos cuadrados para la óptima selección


de los coeficientes de predicción, se obtiene el conjunto de ecuaciones lineales:
M 1

 h( k ) r
k 0
vv (l  k )  rvv (l  D)
(4.1.16)
l  0,1,..., M  1

Donde rvv (l ) es la secuencia de autocorrelación de v(n). El valor esperado de


rvv (l  D) es la autocorrelación estadística de la señal de banda estrecha x(n). Es así

que los valores de los coeficientes del filtro determinados a partir de 4.1.16, son una
función de las características estadísticas de la interferencia de x(n). En sí, la
configuración global del filtro mostrado en Fig. 4.5, define un filtro de error de
predicción FIR adaptivo con coeficientes:
1,...................k  0

h '(k ) h(k  D),..k  D, D  1,..., D  M  1 (4.1.17)
0,.................Otro _ caso

Y con una respuesta en frecuencia de:


M 1
H ( w)   h '(k  D)e jwk (4.1.18)
k 0

Este filtro se comporta como un filtro de hendidura para la interferencia.

4.1.5. MEJORADOR DE LÍNEA ADAPTATIVO


Un filtro mejorador de línea adaptativo (ALE, Adaptive Line Enhancer) tiene
la misma configuración como se vio en la Fig. 4.5 pero sin embargo tiene otro
objetivo. Al ser x(n) la señal deseada, w(n) la que representa una componente de
ruido de banda ancha y que enmascara a x(n) que es una señal de banda
relativamente estrecha, y como se vio anteriormente, el predictor de la Fig. 4.5
proporciona un estimado de la señal de banda estrecha x(n). Este mejorador de línea

108
UPS Capítulo IV

adaptativo es un filtro auto-ajustable que presenta un pico en su respuesta de


frecuencia en la banda de frecuencias de la señal de banda estrecha x(n).
Con un ancho de banda estrecho, w(n) de fuera de la banda se suprime por lo
que la línea espectral se mejora en amplitud con respecto a la potencia del ruido en
w(n), y sus coeficientes se determinan resolviendo 4.1.16

4.1.6. CANCELACIÓN DE RUIDO ADAPTATIVA


La señal de entrada principal consta de una señal deseada x(n) que esta
distorsionada por una secuencia de ruido aditivo w1(n) y una interferencia aditiva
w2(n). Esta interferencia aditiva también es distorsionada por una secuencia de ruido
aditivo w3(n).

Como se muestra en la Fig. 4.5 (entendiéndose mejor la configuración del


filtro), un Filtro FIR Adaptativo se utiliza para estimar la secuencia de interferencia
w2(n) en la señal secundaria v(n) y sustraer así el estimado w2(n) de la señal
principal. Es así que la secuencia de salida, vendría a ser la señal de error dada por:

^
e( n )  y ( n )  w2 ( n )
(4.1.19)
e( n )  y ( n )   k  0 h ( k )v ( n  k )
M 1

Con este error, se podrá ajustar adaptativamente los coeficientes del Filtro
FIR. Si se emplea el criterio de mínimos cuadrados para determinar los coeficientes
del filtro, el resultado de la optimización es el conjunto de ecuaciones lineales dados
por:

M 1

 h( k ) r
k 0
vv (l  k )  ryv (l )
(4.1.20)
l  0,1,..., M  1

Donde rvv(l) es la autocorrelación de muestras de la secuencia v(n) y ryv(l) es

la correlación cruzada de muestras de las secuencias y(n) y v(n)

109
UPS Capítulo IV

x(n)  w1 (n) Señal observada y(n) + Salida


+ +
-
^
w2 ( n ) w2 ( n )
Señal observada v(n)
Sistema lineal Filtro Señal
v2 (n) de error
Desconocido + FIR
H(z) adaptativo

w3 (n)
Algoritmo
Adaptativo

Fig. 4. 6. Esquema de un sistema de cancelación de ruido adaptativo.

4.1.7. CODIFICACIÓN LINEAL PREDICTIVA DE SEÑALES DE VOZ


Para la transmisión de señales de voz, lo que generalmente se usa para
codificar la voz son las modulaciones PCM (Pulse Code Modulation) y la DPCM
(Differential PCM), aunque también se han ido desarrollando otros métodos de
codificación como la modulación delta (DM) y la DPCM adaptativa.
Uno de los principales objetivos de los codificadores de voz es representar la
señal de voz con el mínimo número posible de bits, obviamente manteniendo la
integridad de la señal, es decir, sin deformarla. El filtro adaptativo tiene aplicación en
estos sistemas de codificación de las señales de voz basados en modelos. En lo que
sigue, se verá un método muy efectivo llamado Codificación Lineal Predictiva
(LPC). En la función lineal predictiva, el tiempo del sonido bucal se modela como un
filtro lineal de solo polos, cuya función es:
G
H ( z)  (4.1.21)
1   k 1 ak z  k
p

Donde
p= Es el número de polos.
G= Es la ganancia del filtro.
ak= Son los parámetros que determinan los polos.

Se tomarán dos funciones que sirven para modelar los sonidos sonoros y
sordos, las cuales son mutuamente excluyentes. Durante un período corto de tiempo,
los sonidos sonoros tienen una frecuencia fundamental de F0, pero luego estos serán

110
UPS Capítulo IV

generados al excitar el modelo de filtro de solo polos mediante un tren de impulsos


periódicos, con el período igual al del tono deseado. En cambio, los sonidos sordos
se generan excitando el modelo del filtro de solo polos con la salida de un generador
de ruido aleatorio. Todo esto se encuentra representado en la Fig. 4.7.

Generador
Ruido Blanco

Conmutador de Sonidos
sonoros y sordos Filtro de
solo Polos

Generador
Impulsos
Periódicos

Fig. 4. 7. Diagrama de bloques de la generación de una señal de voz.

Solamente con un segmento corto de tiempo de una señal de voz, el


codificador en el transmisor debe determinar la función de excitación apropiada, el
período deseado de los sonidos sonoros, el parámetro de ganancia G y los
coeficientes ak. A partir de estos datos, los parámetros del modelo se determinan en
forma adaptativa. Posteriormente las muestras de voz se sintetizan y se genera una
señal de error generada entre la secuencia real y la sintetizada.

Por último, la señal de error y los parámetros del modelo se codifican en una
secuencia binaria y se transmite al destino. De igual manera, en el receptor la señal
de voz se sintetiza a partir de la señal de error y del modelo. Los parámetros del
modelo de filtro de solo polos se determinan fácilmente a partir de las muestras de
voz a través de la operación de predicción lineal. Como se ve en la Fig. 4.8, y
suponiendo que se tiene N muestras de la señal, la salida del Filtro FIR es:

^ p
x(n)   ak x(n  k ) (4.1.22)
k 1

111
UPS Capítulo IV

x(n) + Señal de error


+
Muestras de voz -
^

Predictor x ( n)
1
z FIR
Adaptativo

Algoritmo
Adaptativo

Fig. 4. 8. Diagrama de bloques de la estimación de los parámetros de los polos


^
El error dado entre la muestra observada x(n) y el estimado x(n) es:

e(n)  x(n)   k 1 ak x(n  k )


p
(4.1.23)

De igual forma a las anteriores veces, si se aplicara el criterio de mínimos


cuadrados, se podría determinar los parámetros del modelo ak. Y el resultado daría in
conjunto de ecuaciones lineales, en las que:
p

a r
k 1
k xx (l  k )  rxx (l )
(4.1.24)
l  1, 2,...., p

Para obtener el parámetro de ganancia del filtro, se puede basar en la

ecuación de entrada-salida, donde se sabe que v(n) es la secuencia de entrada, por lo

que se tendría:
p
x(n)   ak x(n  k )  Gv(n) (4.1.25)
k 1

Gv(n)  x(n)   k 1 ak x(n  k )


p

Gv(n)  e(n)
(4.1.26)
N 1 N 1
G 2  v 2 ( n)   e 2 ( n)
n0 n 0

112
UPS Capítulo IV

Ahora, si la excitación de entrada se normaliza para tener energía unidad, se tiene


que:
N 1
G 2   e 2 ( n)
n0
p
(4.1.27)
G  rxx (0)   ak rxx (k )
2

k 1

En todo este procedimiento se ha descrito el uso de la predicción lineal para


determinar adaptativamente los parámetros de los polos y la ganancia del mismo
modelo del filtro de solo polos. Aplicando esto en la práctica, debido al carácter no
estacionario de las señales de voz, este modelo se aplica a segmentos cortos de
tiempo (10 a 20ms) de una señal de voz.
Sin embargo esto no impide que se pueda aplicar para una mayor cantidad de
una señal de voz, ya que a esta se la puede dividir en segmentos y a veces resulta
hasta ventajoso utilizar los parámetros del modelo medidos en los segmentos
anteriores para suavizar discontinuidades que podrían existir en los estimados de
parámetros de un segmento a otro.

4.1.8. MATRICES ADAPTATIVAS


Los filtros adaptativos también pueden usarse sobre múltiples secuencias de
datos, como por ejemplo resultantes de matrices de antenas, hidrófonos, sismógrafos,
etc. Cada elemento de la matriz de sensores (suponiendo que se los tiene de los
nombrados anteriormente) proporciona una secuencia.
Si se combinan apropiadamente las señales de los diferentes sensores, es
posible cambiar el patrón de directividad de la matriz.
Si se toma como ejemplo una matriz de antenas lineales formada por cinco
elementos como se muestra en la Figura 4.9 (a), y si se la suma linealmente se tiene
que (dando como resultado el patrón de directividad de la antena mostrado en este
mismo literal):
5
x(n)   xk (n) (4.1.28)
k 1

Ahora, puede darse el caso en que se reciba una interferencia de una dirección
que corresponde a uno de los lóbulos secundarios de la matriz.

113
UPS Capítulo IV

Si a esto se le pondera adecuadamente las secuencias xk(n) antes de


combinarlas, es posible alterar el patrón del lóbulo secundario, tal que la matriz tenga
un nulo en la dirección de la interferencia, como se ve en la Fig. 4.9 (b) expuesta a
continuación:
Lóbulos Secundarios

x1 (n)

Lóbulo Principal
x2 (n)

Combinar
x3 (n)
Dirección Principal

x4 (n)

Int
e rfe
x5 (n) re nc
ia

(a)

x1 (n)

x2 (n)

Combinar
x3 (n)
Dirección Principal

x4 (n)
Int
e rfe
x5 (n) re nc
ia

(b)

Fig. 4. 9. Matriz de antenas: (a) Con patrón de antena. (b) Con nulidad en la dirección de
interferencia.

Posteriormente se obtiene que:


5
x(n)   hk xk (n) (4.1.29)
k 1

114
UPS Capítulo IV

Donde h(k) son los pesos. Como se menciono anteriormente, se puede


cambiar o dirigir la dirección del lóbulo de la antena principal introduciendo retardos
en las salidas antes de combinarlas, es así que a partir de los K sensores se obtiene
una señal combinada de la forma:
K
x(n)   hk xk (n  nk ) (4.1.30)
k 1

Donde los nk son un retardo de la muestra nk de la señal x(n). De forma más


general, se puede filtrar cada secuencia antes de combinarla, por lo que la secuencia
de salida tendrá la forma general de la siguiente manera:
K
y ( n )   yk ( n )
k 1
K M 1
(4.1.31)
y (n)    h k (l ) xk (n  nk  l )
k 1 l  0

Donde hk(l) es la respuesta al impulso del filtro para procesar la salida del
sensor k, y los nk son los retardos que dirigen el patrón del haz.

4.2. FILTROS FIR ADAPTATIVOS EN FORMA DIRECTA:


ALGORITMO LMS
El criterio de mínimos cuadrados lleva a un conjunto de ecuaciones lineales
para los coeficientes del filtro, el cual se expresa de la siguiente forma:
M 1

 h( k ) r
k 0
xx (l  k )  rdx (l  D)
(4.2.1)
l  0,1, 2,...., M  1

Donde rxx (l ) es la autocorrelación de la secuencia x(n) y rdx (l ) es la


correlación cruzada de las secuencias d(n) y x(n). La calidad de los estimados de los
coeficientes reales h(k) dependen de la longitud del registro que sirven para estimar
rxx (l ) y rdx (l ) . Este puede ser uno de los problemas que hay que tomar en cuenta.

Cuando las características cambian con el tiempo, el método más popular


mediante que las que los coeficientes del filtro adaptativo pueden variarse con el
tiempo para seguir las características variantes en el tiempo de la señal, consiste en

115
UPS Capítulo IV

adaptar el filtro recursivamente muestra a muestra, a medida que se recibe una nueva
muestra de la señal.
Un segundo método resultaría en estimar rxx (l ) y rdx (l ) bloque a bloque, sin
intentar mantener la continuidad en los valores de los coeficientes del filtro de unos
datos a otro.

4.2.1. CRITERIO DEL ERROR CUADRÁTICO MEDIO MÍNIMO


Suponiendo que se dispone de la secuencia de datos (posiblemente
complejos) x(n), y con la secuencia de autocorrelación procedentes de un proceso
aleatorio estacionario, se tiene que:
 xx (m)  E  x(n) x* (n  m)  (4.2.2)

Se puede formar un estimado de d(n) pasando x(n) a través de un Filtro FIR


de coeficientes h(n), con 0  n  M  1 , por lo que la salida del filtro sería:
 M 1
d ( n)   h( k ) x ( n  k ) (4.2.3)
k 0


d (n) representa un estimado de d(n). Es así que el error se definiría:

e( n )  d ( n)  d ( n)
M 1 (4.2.4)
e( n )  d ( n)   h( k ) x ( n  k )
k 0

El error cuadrático medio como una función de los coeficientes del filtro es:
 M 1  M 1 M 1
 M   d2  2 Re   h* (l ) dx (l )     h* (l )h(k ) xx (l  k )
 l 0  l 0 k 0
(4.2.5)

Donde  d2  E  d (n)  por definición. Con la minimización de  M con


2

respecto a los coeficientes, se llega al siguiente conjunto de M ecuaciones lineales:


M 1

 h(k )
k 0
xx (l  k )   dx (l )
(4.2.6)
l  0,1,..., M  1

116
UPS Capítulo IV

Este filtro con los coeficientes obtenidos de 4.2.6 se le conoce como filtro
Wiener, se puede ver que aquí que se utiliza la correlación y autocorrelación cruzada
estadísticas. Es así que de esta ecuación, se proporciona los coeficientes del filtro
óptimos (Wiener), en lo que respecta al error cuadrático medio. Al expresar 4.2.6, en
forma matricial se obtiene que:
 M hM   d (4.2.7)

Donde hM designa el vector de coeficientes,  M es una matriz de Toeplitz


MXM (hermitiana),  d es un vector de correlación cruzada MX1. El complejo

conjugado de hM se designa como hM* , y la transpuesta como hMt . La solución para


los coeficientes óptimos del filtro son:
hopt  M1 d (4.2.8)

Y el error cuadrático medio resultante de esto es:


 M 1 
 M min   d2    hopt (k ) dx* (k ) 
 k 0  (4.2.9)
 M min     dH  M1 d
2
d

donde el exponente H representa la transpuesta conjugada.

4.2.2. EL ALGORITMO LMS


Suponiendo que la matriz de autocorrelación  M y el vector de correlación
cruzada  d son conocidos, se entiende que  M es una función conocida de los
coeficientes h(n), con 0  n  M  1 .
Los algoritmos para calcular recursivamente los coeficientes del filtro, y por
ende para encontrar el mínimo de  M , tiene la siguiente forma:
1
hM (n  1)  hM (n)  (n) S (n)
2 (4.2.10)
n  0,1,...

Donde hM(n) es el vector de coeficientes del filtro en la iteración n, (n) es el


tamaño de paso en la iteración n, S(n) es un vector de dirección para la iteración n.

117
UPS Capítulo IV

El vector inicial hM(0), se elige arbitrariamente. Sin embargo el método más


simple para hallar el mínimo  M recursivamente, es el basado en una búsqueda de la
pendiente descendente máxima. El vector de dirección S(n)= - g(n), donde g(n) es el
vector gradiente en la iteración n, en la cual se expresa de la siguiente forma:
d  M ( n)
g ( n) 
dhM (n)
g (n)  2   M hM (n)   d  (4.2.11)
n  0,1, 2,...

De esta forma se calcula el vector gradiente en cada iteración. Es así que el


algoritmo recursivo basado en el método de búsqueda de la pendiente descendente
máxima es:
1
hM (n  1)  hM (n)  (n) S (n) (4.2.12)
2

Otros algoritmos que proporcionan una convergencia rápida son el algoritmo


de gradiente conjugado, en donde los vectores de dirección están dados por:
S (n)   (n  1)S (n  1)  g (n) (4.2.13)

 (n) es una función escalar de los vectores gradientes. Otro algoritmo es el de


Fletcher-Powell, en donde los vectores de dirección están dados por:
S (n)  H (n) g (n) (4.2.14)

H(n) es una matriz definida positiva MXM. Obviamente los tres algoritmos
difieren de la forma en que se calculan los vectores de dirección.
Estos tres algoritmos son apropiados cuando  M y  d son conocidos, y a
pesar de esto, se sabe que no es el caso en las aplicaciones de filtrado adaptativo. Si

no se conoce  M y  d , se puede sustituir los estimados S (n) de los vectores de
dirección por los vectores reales S(n).
El vector gradiente expresado anteriormente puede expresarse en función de
las condiciones de ortogonalidad, y las condiciones que tendría serían equivalentes a
la siguiente ecuación:
E e(n) X M* (n)    d   M hM (n) (4.2.15)

118
UPS Capítulo IV

Donde XM(n) es el vector de elementos x(n-l), con l=0,1,…,M-1. Por lo que el


vector gradiente es simplemente:

g (n)  2E e(n) X M* (n)  (4.2.16)

Un estimado no polarizado del vector gradiente en la iteración n, se obtiene


sencillamente a partir de 4.2.16 como:


g (n)  2e(n) X M* (n) (4.2.17)

Para obtener un algoritmo estocástico de gradiente descendente, se tiene que


tomar en cuenta que el tamaño del paso tiene que ser fijo, ya que con este la
implementación tanto en hardware como en software se hace más fácil, y también
porque con un tamaño fijo de paso es apropiado hacer un seguimiento de los
parámetros estadísticos de la señal variante en el tiempo. Es así que el algoritmo
quedaría de la siguiente manera:

hM (n  1)  hM (n)  e(n) X M* (n) (4.2.18)

Donde  es el tamaño de paso fijo. Este algoritmo es actualmente conocido


como el algoritmo de mínimos cuadrados LMS (least-mean-squares). Y
evidentemente se trata de un algoritmo estocástico de gradiente. Este algoritmo LMS
es fácil de implementar y se lo ha usado en muchas aplicaciones de filtrado
adaptativo.

4.2.3. ALGORITMOS ESTOCÁSTICOS DE GRADIENTE


Existen diversos métodos o variantes en el algoritmo LMS y que se han
implementado en las aplicaciones de filtrado adaptativo. Una de ellas, y la que se usa
comúnmente en la práctica, es la conocida como algoritmo LMS normalizado
(NLMS), y está dada por:

hM (n  1)  hM (n)  2
e(n) X M* (n) (4.2.19)
X M ( n)

119
UPS Capítulo IV

Si se divide el tamaño de paso por la normal del vector de datos XM(n), el


algoritmo LMS normalizado es equivalente a emplear el tamaño de paso variable de
la forma:

 ( n)  2 (4.2.20)
X M ( n)

Como se ve, el tamaño de paso en cada iteración es inversamente


proporcional a la energía en el vector de datos recibido XM(n). Este cambio de escala
es ventajoso en las aplicaciones de filtrado adaptativo, donde el rango dinámico de la
entrada al filtro es grande.

Sin embargo para esta y para diversas aplicaciones más, puede resultar
ventajoso añadir una constante positiva pequeña al denominador de 4.2.20 para evitar
la inestabilidad numérica que podrían resultar cuando XM(n) es pequeña. Es así que la
nueva versión de este algoritmo LMS según lo antes mencionado, quedaría de la
siguiente forma:

 ( n)  2 (4.2.21)
  X M ( n)

Donde  es un número pequeño positivo.

4.2.4. PROPIEDADES DEL ALGORITMO LMS


Tomando en cuenta las propiedades básicas del algoritmo LMS, sus
propiedades de convergencia, su estabilidad y el exceso de ruido (por usar vectores
gradientes ruidosos en vez de vectores gradientes reales); el valor esperado es:
_ _
h M (n  1)  ( I   M ) h M (n)   d (4.2.22)

_
Donde h M (n)  E  hM (n) e I = la matriz identidad. La relación recursiva dada

en 4.2.22 se puede representar como un sistema de control de bucle cerrado como se


indica en la Fg. 4.10. Según la elección que se tome del parámetro de paso fijo  ,
dependerá mucho la velocidad de convergencia y estabilidad de este sistema. Se de
tomar en cuenta que la matriz  M es hermitiana.

120
UPS Capítulo IV

Filtro
_
h M (n  1)
d +
+
 g ( n)
H ( z) 

- z 1

 M hM (n)

_
h M ( n)
M z 1

Fig. 4. 10. Sistema de Control de bucle cerrado que representa a 4.2.22

La convergencia y estabilidad quedan determinadas por la siguiente ecuación


homogénea:
_0 _0
h M (n  1)  ( I  ) h M (n) (4.2.23)

_0
h (k , n)  C ( I  k ) n u (n) (4.2.24)
k  0,1, 2,..., M  1

_0
Donde h M es el vector transformado (ortogonalizado) y
_0 _
h M ( n)  U H h M ( n) (4.2.25)
 d0  U H  d

UH es la matriz modal normalizada de  M


 es una matriz diagonal con elementos en la diagonal k .
C es una constante arbitraria
u(n) es la secuencia al impulso unitario.

El rango de valores de  asegura la convergencia de la media del vector de


coeficientes en el algoritmo LMS y se encuentra representada por:
2
0 (4.2.26)
max

max es el autovalor máximo de  M

121
UPS Capítulo IV

El límite superior sobre max sobre  M que es una matriz de autocorrelación


con valores no negativos, lo representa la siguiente ecuación:
M 1
max   k  trace _  M  M  xx (0) (4.2.27)
k 0

 xx (0) es la potencia de la señal de entrada (Interpretación fácil, a partir de la


2
señal de entrada). Un límite superior del tamaño de la muestra  
M  xx (0)

La velocidad de convergencia del algoritmo LMS quedará determinada por la


disminución del modo correspondiente al autovalor mínimo min .

Es así que con   1 max sustituido en 4.2.24, se tiene que:


n
_0   
h M (k , n)  C 1  min  u (n) (4.2.28)
 max 

La relación min max determina la velocidad de convergencia. Si el valor de


min max es pequeño (mucho menor que la unidad), la velocidad de convergencia es

lenta. Si el valor de min max es próximo a la unidad, la velocidad de convergencia


será más rápida.
Otra importante características del algoritmo LMS es el ruido que resulta de
emplear los estimados de los vectores gradientes, y así que estos dan lugar a
fluctuaciones aleatorias en los coeficientes alrededor de sus valores óptimos y llevan
a un incremento del error cuadrático medio mínimo (MMSE) en la salida del filtro
adaptativo. Por tanto MSE total es M min   , donde   es el error cuadrático medio
en exceso. El MSE total a la salida del filtro adaptativo es:
 M 1 
t (n)   M min    k h0 (k , n)  hopt
0 2
(k )  (4.2.29)
 k 0 

El error cuadrático medio en exceso se define como el valor esperado del


segundo término de 4.2.29:
M 1
   k E  h0 (k , n)  hopt (k ) 
0 2
(4.2.30)
k 0  

122
UPS Capítulo IV

Otra expresión para el error cuadrático en exceso sería:


M 1
k 2
   2 M min  (4.2.31)
k 0 1  (1  k )2

Si se supone que  se selecciona de manera que k  1 para todo k,


entonces se tiene que:
M  M min  xx (0)
  (4.2.32)
2
La elección de  debe basarse en un compromiso entre la convergencia
rápida y un error cuadrático medio en exceso pequeño. Ya en la práctica, es deseable
tener   M min , por lo que:
 M  xx (0)
 1
 M min 2
o (4.2.33)
2

M  xx (0)

Sin embargo este es el límite superior que hemos obtenido anteriormente para
max . Pero,  debe satisfacer el límite superior dado en la anterior ecuación, de caso

contrario, el MSE en exceso causa una degradación en el funcionamiento del filtro


adaptativo. El estudio en la convergencia inicial o comportamiento transitorio, indica
que el tamaño de paso debe reducirse en proporción directa a la longitud del filtro
adaptativo. El límite superior dado en la ecuación 4.2.33 es necesario para garantizar
la convergencia del algoritmo LMS de gradiente estocástico. En la práctica
normalmente se elige   (1 M  xx (0)) . Al aplicar esto para una implementación
digital del algoritmo LMS, el tamaño de paso puede incluso llegar a ser más crítica.
Es importante que el tamaño de paso sea lo suficientemente grande como para llevar
los coeficientes del filtro cerca de hopt.
Si se desea disminuir el tamaño de forma significativa, es necesario aumentar
la precisión de los coeficientes del filtro. Normalmente puede emplearse dieciséis
bits de precisión para los coeficientes del filtro. Los doce bits más significativos son
utilizados para las operaciones aritméticas en el filtrado de los datos. Los cuatro bits
menos significativos son necesarios para proporcionar la precisión necesaria para el
proceso de adaptación. El algoritmo LMS es apropiado para seguir los parámetros
estadísticos de una señal que varía lentamente en el tiempo. El algoritmo LMS

123
UPS Capítulo IV

intenta seguir el mínimo móvil  M min en el espacio M-dimensional, pero siempre está
retrasado debido a su uso de los vectores gradientes estimados., por lo que al denotar
esto se puede decir que este algoritmo LMS cae en uno de esos problemas,
denominado error de retardo. Y finalmente se puede decir que el error cuadrático
medio total ahora se puede expresar como:
total  M min    l (4.2.34)

donde  l designa el MSE debido al retardo.

4.3. FILTROS FIR ADAPTATIVOS EN FORMA DIRECTA:


ALGORITMO RLS
Los Algoritmos de Filtrado Adaptativo de criterio de mínimos cuadrados, al
tratar directamente la secuencia x  n  se obtiene estimados de correlaciones de

datos; en cambio los Algoritmos LMS que aunque son bastante simples su
convergencia es bastante lenta, especialmente cuando los auto-valores de la matriz de
autocorrelación  M se encuentran dispersos, es decir max / min  1, aunque
ajustando el tamaño de paso  se podría regular esta velocidad de convergencia.

4.3.1. ALGORITMO RLS


Algoritmo recursivo de mínimos cuadrados en la forma directa o RLS
(recursive least-squares), se inicia con la configuración de hM  1  0 y

PM  1  1/  I M , donde  es un número pequeño y positivo, y luego se sigue el

siguiente proceso:

1. Calcular la salida del filtro:

d  n   X Mt  n  hM  n  1 (4.3.1)

2. Calcular el error:

eM  n   d  n   d  n  (4.3.2)

3. Calcular el Vector de Ganancia de Kalman:

124
UPS Capítulo IV

PM  n  1 X M*  n 
KM  n  (4.3.3)
w  X Mt  n  PM  n  1 X M*  n 

4. Actualizar la inversa de la matriz de autocorrelación:


1
PM  n    PM  n  1  K M  n  X Mt  n  PM  n  1 (4.3.4)
w

5. Actualizar el vector de coeficientes del filtro:


1
PM  n    PM  n  1  K M  n  X Mt  n  PM  n  1 (4.3.5)
w

El MSE residual es:


n
EM min  n    wn l d  l   hMt  n  DM*  n 
2
(4.3.6)
l 0

Todos estos coeficientes varían en el tiempo de acuerdo con el error eM  n 

multiplicado por el valor de ganancia de Kalman K M  n  , al ser estos vectores con

una dimensión M este método converge rápidamente; los coeficientes del filtro
ajustados por el uso del algoritmo LMS se actualizan mediante:
hM  n   hM  n  1  X *  n  eM  n  (4.3.7)

 es el tamaño del paso que ajusta la velocidad de convergencia de los


coeficientes del filtro.

4.3.2. ALGORITMO DE FACTORIZACIÓN LDU Y DE RAÍZ CUADRADA


Para evitar la sensibilidad al ruido de redondeo al actualizar PM  n  de los

algoritmos recursivos de mínimos cuadrados se debe realizar una descomposición de


la matriz de correlación RM  n  o de su inversa PM  n  , como por ejemplo la

descomposición LDU (Lower – triangular / diagonal / upper - triangular, triangular


inferior / diagonal / triangular superior) descrita como:

PM  n   LM  n  D M  n  LHM  n  (4.3.8)

Donde LM  n  es una matriz triangular inferior con los elementos lik , D M  n 

es una matriz diagonal con elementos  k y LHM  n  es una matriz triangular superior;

se hacen iguales a la unidad los elementos lii  1 de la diagonal de LM  n  y luego en

125
UPS Capítulo IV

lugar de calcular PM  n  de forma recursiva se actualiza directamente los valores de

LM  n  y D M  n  , de la siguiente manera:

1  1 
LM  n  D M  n  LHM  n   LM  n  1  D M  n  1  VM  n  1VMH  n  1  LHM  n  1 (4.3.9)
w  w  M  n  
Donde:

VM  n  1  DM  n  1 LHM  n  1 X M*  n  (4.3.10)

Mediante una descomposición LDU se puede describir la matriz hermitiana


que se encuentra entre corchetes:

 M  n  1 D
 M  n  1 L
 MH  n  1  D M  n  1  1
L VM  n  1VMH  n  1 (4.3.11)
w  M  n 

 M  n  1 y D
Se puede determinar L  M  n  1 con el siguiente conjunto de

ecuaciones lineales:
j

l
k 1
ik d k l *jk  pij , 1  j  i  1 i  2 (4.3.12)

Donde d k   M  n  1 , l  son los elementos de


son los elementos de D ik

 M  n  1 ,  p  y corresponden a la matriz de la parte derecha de la ecuación 4.3.11.


L ij

Estos elementos se determinan de la siguiente manera:


dl  pll
j 1
lij d j  pij   lik d k l *jk , 1  j  i  1, 2  i  M (4.3.13)
k 1
i 1
di  pii   lik d k , 2  i  M
2

k 1

Los efectos de redondeo se reducen ya que las ecuaciones de actualización en


el tiempo dependen directamente del vector de datos X M  n  y no de su cuadrado.

Este tipo de algoritmos RLS que se obtienen a partir de la descomposición LDU de


RM  n  o de PM  n  se conocen como algoritmos rápidos de raíz cuadrada, a

continuación se muestra un ejemplo de este tipo de algoritmos:

126
UPS Capítulo IV

Tabla 4. 1. Forma LDU del Algoritmo RLS de raíz cuadrada de Complejidad M2


For j = 1,…,2,…,M do

f j  x*j  n 
end loop j
For j = 1,…,2,…,M - 1 do
For i = j + 1,…, j + 2,…,M do

f j  f j  lij  n  1 fi
end loop j
For j = 1,…,2,…,M do

d j  n   d j  n  1 / w

v j  d j  n f j
end loop j

 M  1  vM f M*

dM  n   d M  n  /  M
For j = M – 1, M – 2 …,1 do

k j  vj

 j   j 1  v j f j*
 j  f j /  j 1

d j  n   d j  n   j 1 / 1
For j = M,M – 1,M – 2 …, j + 1 do

lij  n   lij  n  1  k i  j
*

k i  k i  v j lij*  n  1
Down to j = 2
end loop i
end loop j

K M  n    k 1, k 2, ..., k M 
t

eM  n   d  n   d  n 

hM  n   hM  n  1  eM  n  / 1  K M  n 

127
UPS Capítulo IV

4.3.3. ALGORITMOS RLS RÁPIDOS


Los algoritmos RLS en la forma directa y los de raíz cuadrada tienen una
complejidad de M2, por lo que se han estudiado diferentes métodos para
simplificarlo, esto se logra evitando las multiplicaciones de matrices en el cálculo del
vector de ganancia de Kalman K M  n  . Estos algoritmos se verán y detallarán más

adelante.

4.3.4. PROPIEDADES DE LOS ALGORITMOS RLS PARA LA FORMA


DIRECTA
Denotando una importante característica del algoritmo RLS sobre el
algoritmo LMS es su rápida velocidad de convergencia. Como se muestra en la Fig.
4.11, se puede ver la velocidad de convergencia de los algoritmos LMS y RLS en la
forma directa en el caso especifico para un ecualizador de canal FIR adaptativo de
longitud M=11. El tamaño de paso para los algoritmos LMS se ha seleccionado
como   0.02 .

Fig. 4. 11. Velocidad de convergencia de los algoritmos RLS y LMS para un ecualizado de canal
FIR.

El algoritmo RLS converge en menos de 70 iteraciones mientras que el


algoritmo LMS no lo hace sino hasta las 600 iteraciones. Esta característica de los
algoritmos RLS es muy importante en aplicaciones en las que los parámetros
estadísticos de la señal varían con el tiempo rápidamente.
Puede darse el hecho en que parte de la señal transmitida se pierda por un
momento en el tiempo y posteriormente salga de ese desvanecimiento. Ante este tipo
de situaciones el algoritmo LMS es más lento en adaptarse a las nuevas

128
UPS Capítulo IV

características del canal, lo que no sucede lo mismo con el algoritmo RLS que se
adapta lo suficientemente rápido para seguir dichas variaciones o cambios.

Sin embargo los algoritmos RLS presentan dos importantes desventajas:

1. Es la complejidad en su cálculo. Los algoritmos de raíz cuadrada tienen


una complejidad proporcional a M2.
Los algoritmos “RLS rápidos” en cambio tienen una complejidad de
cálculo proporcional a M, siendo el factor de proporcionalidad de a cuatro
a cinco veces el del algoritmo LMS.
2. Es su sensibilidad a los errores de redondeo que se acumulan como
resultado de los cálculos recursivos, por lo que esto, en algunos casos,
hacen que estos algoritmos sean inestables.

El algoritmo “RLS Rápido” funciona bien hasta con 11 bits para duraciones
cortas del orden de 500 iteraciones. Para un número mayor de iteraciones, el
algoritmo se vuelve inestable debido a la acumulación de errores de redondeo, sin
embargo a pesar de esto se han propuesto varios métodos para prevenir que esto
suceda.

El algoritmo LMS es bastante robusto en lo que respecta al ruido de redondeo


y a pesar de que no se produce un fallo irremediable, la degradación en el
funcionamiento del algoritmo por debajo de los 12 bits es evidente.

4.4. FILTROS ADAPTATIVOS EN CELOSÍA-ESCALERA


Este nuevo tipo de algoritmos de filtrado adaptativo en celosía-escalera
basados en el método de mínimos cuadrados, nos brindan robustez y eficiencia en los
cálculos de los errores de redondeo; y de estos se derivan los algoritmos RLS
rápidos.

129
UPS Capítulo IV

4.4.1. ALGORITMO RECURSIVOS DE MÍNIMOS CUADRADOS EN


CELOSÍA-ESCALERA
Las estructuras FIR en celosía-escalera descritas por los algoritmos basados
en mínimos cuadrados recursivos, ya que si existiesen variaciones en su número de
secciones, no se producen cambios en los coeficientes de reflexión. Si observamos la
señal x  n  l  , l  1, 2,..., m y considerando la predicción lineal de x  n  ; el error de

predicción directo para un predictor de orden m :


f m  l , n   x  l   amt  n  X m l  1 (4.4.1)

Donde amt  n  es un vector formado por los coeficientes de predicción directos:

amt  n   am 1, n  am  2, n  am  m, n  (4.4.2)

X m  l  1 el vector de datos:

X mt  l  1   x  l  1 x  l  2  x  l  m  (4.4.3)

Las ecuaciones que definen a los predictores de mínimos cuadrados directo e


inverso orden son:
 Rm  n  Vm  n   bm  n    Om 
 H    Eb n  (4.4.4)
V m  n  v  n   1   m  

Donde el valor mínimo E b


m  n  , designado por Emb  n  es:
n
Emb  n    wnl  x  l  m   bmt  n  X m  l   x*  l  m  (4.4.5)
l 0

Su magnitud escalar:
n
v  n    wn  l x  l  m 
2

l 0
n
(4.4.6)
Vm  n    w x  l  m  X
n l *
m l 
l 0

Y:
n
Rm1  n    wnl X m* 1  l  X mt 1  l  (4.4.7)
l 0

130
UPS Capítulo IV

Entonces:
Rm  n  bm  n   Vm  n  (4.4.8)

g m1 (n) z 1  g m ( n)

K mb  n  1

K mf  n  1

f m 1 (n)  f m ( n)
(a)
g 0 ( n) g1 (n) g 2 ( n) g M ( n)

Etapa Etapa Etapa Etapa
x ( n)
1 2 3 M
f 0 ( n) f1 (n) f 2 ( n) f M ( n)

(b)

Fig. 4. 12. Filtros en celosía para el algoritmo de mínimos cuadrados

Recursiones de actualización de Orden. El Filtro en celosía se especifica mediante


las ecuaciones que muestran los errores directos e indirectos f m  n, n  1  f m  n  y

gm  n, n  1  gm  n  , respectivamente:

km 1  n  1
f m 1  n   f m  n   g m  n  1
Emb  n  2 
(4.4.9)
km* 1  n  1
g m 1  n   g m  n  1  f fm  n 
Em  n  1

Sus coeficientes de reflexión son:


km  n 
K mf  n 
Emb 1  n  1
(4.4.10)
km*  n 
K b
  f
n 
Em 1  n 
m

Las ecuaciones de actualización temporal para E0f  n  y E0b  n  son las

condiciones iniciales para las actualizaciones de orden:


f0  n   g0  n   x  n 
n (4.4.11)
E0f  n   E0b  n    wn l x  l   wE0f  n  1  x  n 
2 2

l 0

131
UPS Capítulo IV

Recursiones de actualización temporal. Para que un Filtro en celosía sea


adaptativo se debe determinar una ecuación temporal de actualización temporal para
km  n  :

w
km1  n   wkm1  n  1  f m  n  g m*  n  1 (4.4.12)
w  m  n  1

Se puede definir a la variable:


w
m  n  (4.4.13)
w  m  n  1

Se puede definir a la variable:


w
m  n  (4.4.14)
w  m  n  1

 m  n  es un valor real comprendido entre 0   m  n   1 por lo que tenemos:

km1  n   wkm1  n  1   m  n  1 f m  n  gm*  n  1 (4.4.15)

Actualización del orden para  m  n  . Se puede actualizar directamente a  m  n 

para cada valor de m y n, aunque si se utiliza una ecuación de actualización de orden


se obtendría una mayor eficiencia:

 m2  n  g m  n 
2

 m1  n    m  n   (4.4.16)
Emb  n 

Las ecuaciones de celosía por mínimos cuadrados de actualización de orden y


de actualización temporal; las ecuaciones básicas son las de los errores residuales o
de los errores directos e inversos, para la ecuación temporal para km  n  y la

ecuación de orden para el parámetro  m  n  :

Emf  1  Emb  1  Emb  2     0


f m  1  g m  1  km  1  0 (4.4.17)
 m  1  1,  1  1   1  n  1  1

132
UPS Capítulo IV

    d (n)

 e1 (n)  e2 (n)  e3 (n)  eM 1 (n) 


d ( n)       eM (n)
    

 0  n  1 1  n  1  2  n  1  M  2  n  1  M 1  n  1
E  n  1
b
E  n  1
b E2b  n  1 EMb  2  n  1 EMb 1  n  1
0 1

 g M 1 (n)
g 0 ( n) g1 (n) g 2 ( n) g M  2 ( n)
Etapa Etapa Etapa
x ( n)
1 2 M-1
 f M 1 (n)
f 0 ( n) f1 (n) f 2 ( n) f M  2 ( n)
Fig. 4. 13. Filtro adaptativo RLS en celosía-escalera

Estimación de procesos conjuntos. Basándose en la celosía se puede tener las


estimaciones por mínimos cuadrados de la señal deseada d  n  :

d  n   hmt 1  n  1 X m1  n  (4.4.18)

d  n  es una suma ponderada lineal de los residuales inversos g k  n  :

  n  1
M 1
d  n    kb gk  n  (4.4.19)
k  0 Ek  n  1

Tabla 4. 2. Forma a priori del Algoritmo RLS en celosía-escalera

Predictor en celosía : con n = 1 y su cálculo de actualizaciones de orden para


m  0,1,..., M  2

km1  n  1  wkm1  n  2   m  n  2  f m  n  1 gm*  n  2 

km1  n  1
K mf 1  n  1  
Emb  n  2 

133
UPS Capítulo IV

km* 1  n  1
K mb1  n  1  
Emf  n  1

f m1  n   f m  n   K mf 1  n  1 gm  n  1

gm1  n   gm  n  1  K mb1  n  1 f m  n  1

km1  n  1
2

Ef
 n  1  E  n  1 
f

Emb  n  2 
m 1 m

km1  n  1
2

E b
 n  1  E  n  2  
b

Emf  n  1
m 1 m

 m2  n  1 g m  n  1
2

 m1  n  1   m  n  1 
Emb  n  1
Filtro en escalera: se inicia con n = 1 y su cálculo de actualizaciones de orden
para m = 1,2,…,M – 1:

 m  n  1  w m  n  2   m  n  1 gm*  n  1 em  n  1

 m  n  1
 m  n  1  
Emb  n  1

em1  n   em  n    m  n  1 gm  n 
Inicialización:

0  n  1  1, e0  n   d  n  , f0  n   g0  n   x  n 

E0f  n   E0b  n   wE0f  n  1  x  n 


2

 m  1  1, km  1  0

E0b  1  E0f  0     0;  m  1  0

Algoritmos RLS en celosía modificados.

Tabla 4. 3. Actualización directa del algoritmo RLS a priori en celosía-escalera

Predictor en celosía : se inicia en n = 1 y su calculan las actualizaciones de


orden para m = 0,1,…,M – 2

 m  n  2  f m1  n  1 g m*  n  2 
K f
 n  1  K f
 n  2 
Emb  n  2 
m 1 m 1

134
UPS Capítulo IV

 m  n  2  f m*  n  1 g m1  n  1
K mb1  n   K mb1  n  2  
Emf  n  1

f m1  n   f m  n + K mf 1  n  1 gm  n  1

gm1  n   gm  n  1+ K mb1  n  1 f m  n 

Emf 1  n  1  wEmf 1  n  2    m1  n  2  f m1  n  1


2

 m2  n  1 g m  n  1
2

 m1  n  1   m  n  1 
Emb  n  1

Emb 1  n  1  wEmb 1  n  2    m1  n  1 g m1  n  1


2

Filtro en escalera: se inicia con n = 1 y su cálculo de actualizaciones de orden


para m = 1,2,…,M – 1:

 m  n  1 g m*  n  1 em1  n  1
 m  n  1   m  n  2  
Emb  n  1

em  n   em  n    m  n  1 gm  n 

Inicialización:
o  n  1  1; eo  n   d  n  ; fo  n   go  n   x  n 

E0f  n   E0b  n   wE0f  n  1  x  n 


2

 m  1  K m f  1  K mb  1  0

Emb  1  Emf  0     0

Se puede implementar algoritmos numéricamente más robustos en aritmética


de punto flotante, realizando modificaciones en algunas ecuaciones, eso sí con el
debido cuidado para que el carácter óptimo del filtro no se viese alterado, esto se
logra por medio de relaciones básicas, como las que se describen a continuación:

Errores a priori:
f m  n, n  1  f m  n   x  n   amt  n  1 X m  n  1
(4.4.20)
g m  n, n  1  g m  n   x  n  m   bmt  n  1 X m  n 

135
UPS Capítulo IV

Errores a posteriori:
f m  n, n   x  n   amt  n  X m  n  1
(4.4.21)
g m  n, n   x  n  m   bmt  n  1 X m  n 

Relaciones básicas entre los Errores a priori y a posteriori:


f m  n, n     n  1 f m  n 
(4.4.22)
g m  n, n     n  g m  n 

Ecuaciones de actualización temporal para los errores de mínimos


cuadrados directo e inverso, respectivamente:

Emf  n   wEmf  n  1   m  n  f m  n 
2

(4.4.23)
Emb  n   wEmb  n  1   m  n  g m  n 
2

Ecuación de actualización del orden para el vector de ganancia de Kalman,


utilizada en los algoritmos de Filtros FIR rápidos:
Cm1  n   cmm  n  bm1  n  1
K m1  n   (4.4.24)
1  cmm  n  g m1  n 

Ecuación de actualización temporal para el escalar:


 f m*1  n, n  f m 1  n  
1  
 1  cmm  n  g m 1  n  
 m1  n    m1  n  1 (4.4.25)
 1  cmm  n  g m 1  n  
 
 
Para la actualización de los coeficientes de reflexión del filtro en celosía y su
parte que corresponde a la escalera, se puede utilizar dos métodos: método
convencional (indirecto) y el método directo. Para el primer método tenemos:
km1  n 
K mf 1  n    (4.4.26)
Emb  n  1

km* 1  n 
K mb1  n    (4.4.27)
Emf  n 

m  n
 m  n   (4.4.28)
Emb  n 

136
UPS Capítulo IV

 m  n  1 f m1  n  g m*  n  1
K f
 n  K f
 n  1  (4.4.29)
Emb  n  1
m 1 m 1

 m  n  f m*  n  g m1  n 
K b
 n  K b
 n  1  (4.4.30)
Emf  n 
m 1 m 1

Y su escalera de ganancia:
 m  n  g m*  n  em1  n 
 m  n    m  n  1  (4.4.31)
Emb  n  1

Los coeficientes de reflexión de la etapa en celosía se actualizan mediante la


realimentación de loe errores residuales directo e inverso, respectivamente; y em1  n 

se realimenta para la actualización de la ganancia de la escalera  m  n  .

Algoritmos RLS rápidos. Estos algoritmos recuden su complejidad a factores que


están en el rango de 7M a 10M, actualizando directamente el vector de ganancia de
Kalman:
1
K M  n  PM  n  1 X M*  n  (4.4.32)
w

El algoritmo de FAEST o Fast a Posteriori Error Sequential Technique,


posee una complejidad de 7M, pero presenta problemas de inestabilidad y es bastante
sensible al ruido de redondeo, para tratar de compensar estos problemas Slock y
Kailath propusieron algunas modificaciones que aportaron la estabilidad que este
algoritmo necesitaba adicionándole también una complejidad de cálculo de 8M a 9M,
y utiliza un vector de ganancia de Kalman alternativo en lugar de utilizar
directamente un vector de ganancia de Kalman como lo hace el algoritmo RLS
rápido.
El algoritmo RLS rápido a través del filtro FIR utilizando el vector de
coeficientes de predicción inversa bm1  n  1 para el cálculo del error de predicción

inverso a priori g m1  n  ; mientras que para obtener los mismos resultados el

algoritmo FAEST se basa en un cálculo escalar, donde el último elemento del vector

de ganancia alternativa c MM  n  es igual a  EMb 1  n  g M 1  n  .

137
UPS Capítulo IV

Tabla 4. 4. Algoritmo FAEST

f M 1  n   x  n   aMt 1  n  1 X M 1  n  1

f M 1  n  1
f M 1  n, n  
 M 1  n  1

aM 1  n   aM 1  n  1  K M 1  n  1 f M 1  n, n 

EMf 1  n   wEMf 1  n  1  f M 1  n  1 f M* 1  n, n 

C M 1  n    0  f M* 1  n   1 
K M  n   
    a 
 cMM  n    K M 1  n  1 wEM 1  n  1  M 1  n  1 
f

g M 1  n   wEMb 1  n  1 c MM  n 
*

K M 1  n   C M 1  n   bM 1  n  1 c MM  n 

f M 1  n 
2

 M  n    M 1  n  1 
wEMf 1  n  1

 M 1  n    M  n   gM 1  n  c MM  n 
g M 1  n 
g M 1  n, n  
 M 1  n 

EMb 1  n   wEMb 1  n  1  g M 1  n  g M 1  n, n 
*

bM 1  n   bM 1  n  1  K M 1  n  g M 1  n, n 

eM  n, n   d  n   hMt  n  1 X M  n 

eM  n 
e M  n, n  
 M  n

hM  n   hM  n  1  K M  n  eM  n, n 
Inicialización: se deben poner todos los vectores a cero
EMf 1  1  EMb 1  1    0

 M 1  1  1

Es decir utilizando cualquiera de los dos algoritmos en aritmética de precisión


finita, que algebraicamente son similares, los resultados difieren muy poco.

  M 1  n   1  K M 1  n  X M 1  n 
t
(4.4.33)

138
UPS Capítulo IV

f s
A partir de las magnitudes escalares resultan los valores  M 1  n  y  M 1  n  ;

mientras que el último elemento de K M  n  es:

 g M 1  n 
f
f
c MM  n   (4.4.34)
wEMb 1  n  1

Estas dos magnitudes de cada una de tres parejas  g M f 1  n  , g M s 1  n   ,

f  s
 M f 1  n  ,  M s 1  n   y c MM  n  , c MM  n   son algebraicamente equivalentes, por lo
   

que se los pueden combinar linealmente, de la forma k   1  k  


   f
donde  es
s

cualquiera de los tres parámetros antes descritos, para ser utilizados en otros
algoritmos como por ejemplo en el algoritmo RLS rápidos estandarizado, que emplea
constantes ki , i  1, 2,...,5 para formar cinco combinaciones lineales de las tres
anteriores magnitudes.

Tabla 4. 5. Algoritmo RLS rápido estandarizado y simplificado

f M 1  n   x  n   aMt 1  n  1 X M 1  n  1

f M 1  n 
f M 1  n, n  
 M 1  n  1

aM 1  n   aM 1  n  1  K M 1  n  1 f M 1  n, n 

f M* 1  n 
cM 1  n 
wEMf 1  n  1

C M 1  n   0  f M* 1  n  1 
K M  n       
c MM  n    K M 1  n  1  wEM 1  n  1  aM 1  n  1 
f

g M f 1  n   x  n  M  1  bMt 1  n  1 X M 1  n 

g M s 1  n   wEMb 1  n  1 c MM  n 
*

g Mi 1  n   ki g M f 1  n   1  ki  g M s 1  n  , i  1, 2

K M 1  n   C M 1  n   bM 1  n  1 c MM  n 

 M  n    M 1  n  1  c M 1  n  f M 1  n 

 M 1  n    M  n   g M f 1  n  c MM  n 

139
UPS Capítulo IV

EMf 1  n   wEMf 1  n  1  f M 1  n  f M* 1  n, n 

g Mi 1  n 
g M 1  n, n  
i 
i 
, i  1, 2
 M 1  n 

bM 1  n   bM 1  n  1  K M 1  n  g M11  n, n 

EMb 1  n   wEMb 1  n  1  g M 21  n  g M 2*1  n, n 

eM  n   d  n   hMt  n  1 X M  n 

eM  n 
eM  n, n  
 M  n

hM  n   hM  n  1  K M  n  eM 1  n, n 

Luego de varias pruebas mediante computadora se determino que los mejores


valores de ki son k1  1.5, k2  2.5, k3  1, k4  0 y k5  1. Con ki  0 ó 1 solo se
necesita calcular una de las combinaciones lineales. El algoritmo RLS rápido
estandarizado posee una considerable estabilidad y una complejidad de cálculo de

8M si no se utiliza  M 1  n  ; además su funcionamiento depende de una apropiada


 
f

inicialización en donde podemos utilizar g M 1  n  en lugar de g M 1  n  , ó una


  f   s

combinación lineal de estos.

4.4.2. OTROS ALGORITMOS EN CELOSÍA


Se puede obtener el algoritmo RLS en celosía de raíz cuadrada o de ángulo y
potencia, normalizando los errores de la predicción directa e inversa a través de la

división de los errores entre Emf  n  y Emb  n  respectivamente, y luego

multiplicando por  m  n  1 y  m  n  respectivamente; este nuevo algoritmo

resultante es mucho más compacto, aunque más complejo en cuanto a cálculos. Se


puede disminuir la complejidad mediante la utilización de procesadores CORDIC,
que en N ciclos de reloj calculan una raíz cuadrada y donde N es el número de bits de
la longitud de palabra de la computadora.

140
UPS Capítulo IV

El algoritmo de gradiente-celosía tiene una complejidad de cálculo menor


aunque su velocidad de convergencia es mayor; donde cada etapa del filtro en celosía
se caracteriza por las relaciones entrada-salida:
f m (n)  f m1 (n)  km (n) g m1  n  1
(4.4.35)
g m (n)  g m1  n  1  km* (n) f m1  n 

Donde km (n) es el coeficiente de reflexión de la etapa de la celosía, mientras

que f m (n) y g m (n) son los residuales directos e inversos. Este filtro en celosía tiene

la misma forma que el algoritmo de Levinson-Durbin, con la diferencia que km (n)


puede variar con el tiempo de modo que el filtro en celosía se adapte a las
variaciones temporales de los parámetros estadísticos de la señal; mediante el
método de mínimos cuadrados se pueden optimizar los coeficientes de reflexión

km (n) :
2 t 0 wn l f m1  l  g m* 1  l  1
n

k m ( n)  , m  1, 2,..., M  1 (4.4.36)
 n l  f  l  2  g  l  12 
n
w
t 0  m1 m 1

Estos coeficientes de calculan y actualizan recursivamente en el tiempo
mediante un algoritmo de tipo LMS, empleando el criterio de error cuadrático medio.

4.4.3. PROPIEDADES DE LOS ALGORITMOS EN CELOSÍA-ESCALERA


Velocidad de Convergencia. Tanto los algoritmos RLS para filtros en
celosía-escalera como las estructuras de Filtros FIR RLS en forma directa, al estar
formados por estructuras óptimas ya que en ellos se aplican mínimos cuadrados por
lo que convergen a una misma velocidad, pero menor a los algoritmos de gradiente
en celosía aunque utiliza el doble de iteraciones que el algoritmo óptimo RLS en
celosía. La velocidad de convergencia de las estructuras en celosía no dependen de la
dispersión del autovalor de la matriz de correlación.
Requisitos de Cálculo. Los algoritmos RLS en poseen una complejidad
computacional de cálculo proporcional a M , mientras que la de los algoritmos RLS
de raíz cuadrada es de M 2 , pero los algoritmos rápidos en forma directa que se
derivan de los algoritmos en celosía tienen una complejidad computacional de M
menos eficientes que los algoritmos en celosía-escalera. Los algoritmos LMS
requieren menos cálculos, pero los más eficientes son los algoritmos RLS rápidos,

141
UPS Capítulo IV

seguidos los algoritmos de gradiente en celosía, luego los algoritmos RLS en celosía
y finalmente los algoritmos de raíz cuadrada.

Número de multiplicaciones y divisiones complejas


700

Forma directa del


600 algoritmo RLS de raíz
cuadrada

500

400 Algoritmo RLS en


celosía - escalera

300 Algoritmo de gradiente


en celosía - escalera

200 Algoritmo
LMS rápido

100
Algoritmo LMS

0 M
5 10 15 20 25
M  Longitud del Filtro

Fig. 4. 14. Complejidad de Cálculos para los Algoritmos de Filtros Adaptativos

Propiedades Numéricas. Los algoritmos RLS son los más robustos y


numéricamente estables, por lo que el error de estimación de salida del
procedimiento de cálculo está limitado cuando se aplica una señal de error limitada a
la entrada; su precisión numérica es relativamente mejor que la de los algoritmos
LMS y RLS para Filtros FIR en forma directa. Además este tipo de algoritmos tiene
un alto rendimiento ya que sus coeficientes de reflexión y la ganancia de la escalera
se actualizan directamente con la realimentación del error del algoritmo RLS en
celosía, por lo que es más robusto ante errores de redondeo.
El proceso en dos pasos para obtener los coeficientes de reflexión por el
algoritmo RLS en celosía convencional, no es tan preciso, ya que los errores
generados en etapas anteriores se propagan hacia las siguientes etapas; se puede
incrementar su rendimiento al incrementar también el intervalo de observación,
aunque se pueda incrementar su error de redondeo. En el algoritmo de gradiente en
celosía, los coeficientes de reflexión y las ganancias de escalera de igual manera se
actualizan directamente, y su precisión numérica es comparable a la del algoritmo
RLS en celosía.

142
UPS Capítulo IV

Consideraciones de Implementación. La estructura del Filtro en celosía es modular


permite canalizar datos, los algoritmos en celosía y gradientes son de manera
particular adecuados para su implementación en VLSI; debido a su apropiada
estabilidad, rápida convergencia y conveniente estabilidad numérica.

143
UPS Capítulo V

CAPÍTULO
V

MODELACIÓN
MATEMÁTICA Y
SIMULACIÓN DEL
NUEVO MODELO
HIBRIDO ADAPTATIVO
LINEAL ÓPTIMO

144
UPS Capítulo V

CAPÍTULO V
MODELACIÓN MATEMÁTICA Y SIMULACIÓN DEL NUEVO
MODELO HIBRIDO ADAPTATIVO LINEAL ÓPTIMO
En este capítulo se aplicara lo antes visto y analizado, aplicando los
conceptos y adaptándolos al programa que se tiene como objetivo para la
construcción del Filtro Digital Híbrido Adaptativo. Se presentara también un
exhaustivo y completo análisis matemático acerca del desarrollo de este filtro así
como también los resultados y comparaciones de lo analizado con lo simulado..

5.1. PLANTEAMIENTO DEL NUEVO MODELO DE ESTUDIO


Para poder comprender el funcionamiento del Filtro Digital, se lo ha
descompuesto en partes y se lo ha analizado a cada una de estas.

Combinación del Filtro con un Sistema Adaptativo

Xk
Filtro
Retraso Adaptivo 

Z M Hk  Ek
Yk

Fig. 5. 1. Sistema Adaptativo o Predictor

Xk 

Yk  k  ésimo elemento en una serie de t iempo
Ek 

Usualmente estas series de tiempo pueden asumirse para ser obtenidas por el
muestreo continuo de señales.

Así X k  X  kT  , T  Paso del tiempo entre el intervalo de muestras

Z  M , donde M son los pasos en el tiempo, es por esto que la salida de este bloque se
denota X k  M .

H k  símbolo que representa la función de transferencia en un proceso adaptativo

145
UPS Capítulo V

El índice k indica que la función de transferencia H posiblemente cambie


por cada muestra.
Es ajustada para mantener el valor promedio de la raíz de este error tan
pequeño como sea posible.

Combinación Lineal Adaptativa


El combinador lineal adaptativo, o filtro adaptativo no recursivo es
fundamental para el procesamiento adaptativo de la señal, y este es el único y más
importante elemento en el aprendizaje de los sistemas y los procesos adaptativos en
general. Un diagrama de la forma general de la combinación lineal adaptativa se
muestra en la siguiente figura:
Vectores
de Taps
a0k
X 0k  1

Vector

de la
 a1k
Señal
de  X 1k  Yk
Entrada  Señal de Salida
 X 2k
a2k

Fig. 5. 2. Configuración de un Filtro con arreglo lineal

El procedimiento para ajustar o adaptar los taps es llamado proceso o


ganancia de adaptación. Se lo denomina “lineal” porque la configuración de
arreglos en la salida de los taps es una combinación lineal de los componentes de
entrada. Aunque su salida ya no es una función lineal de la entrada

Señal de Entrada y Vectores de Taps


Existen dos tipos de entradas, las simples y las múltiples, representadas de la
siguiente manera:

Entradas Múltiples (sus elementos son tomados de la k-ésima muestra en el tiempo):


X k   X 0k X1k  X Lk  (5.1.1)

146
UPS Capítulo V

Entrada Simple (muestras secuenciales, regresando en el tiempo a través de las


muestras en la secuencia de datos):
X k   X k X k 1  X k  L  (5.1.2)

Donde:
T = Transpuesta
k = es usado como un índice de tiempo

En el caso de la entrada simple, el proceso adaptativo puede ser implementado en un


Combinador Adaptativo Lineal, y una unidad de retraso en los elementos.

Xk X k 1 X k 2
Z 1 Z 1  Z 1

a0k a1k a2k aLk

 Yk

Fig. 5. 3. Filtro Adaptativo Transversal

La notación para la relación Entrada – Salida es:


L
Entrada Simple: Yk   alk X k l (5.1.3)
l 0

L
Múltiples Entradas: Yk   alk X lk (5.1.4)
l 0

En la ecuación (5.1.4) X 0 k  1 y a0k  es el tap llamado “bias”. El vector de


tap correspondiente para (5.1.1) y (5.1.2) es:

ak   a0 k a1k  aLk   Yk  X kT ak  akT X k


T
(5.1.5)

Respuesta Deseada y Error


Como se había dicho el ajuste del vector de taps en un sistema de lazo abierto
no depende de las propiedades de la salida, sino de la entrada y sus propiedades. En

147
UPS Capítulo V

los sistemas de lazo cerrado, el vector de taps depende de la señal de salida así como
de otros datos; para los combinadores lineales adaptativos se incluirá una “respuesta
deseada” o “señal de entrenamiento”

La función de desarrollo
Tenemos que:
Ek  dk  Yk (5.1.6)

Ek  dk  X kT a  dk  akT X k (5.1.7)

El Error Cuadrático Medio:


 X 02k X 0 k X 1k X 0 k X 2 k  X 0 k X Lk 
 
X X X Lk2
X 1k X 2 k  X 1k X Lk 
R  E  X k X k   E  1k 0 k
T
(5.1.8)
     
 2 
 X Lk X 0 k X Lk X 1k X Lk X 2 k  X Lk 

R es la Matriz de Correlación de Entrada; mientras que P es el vector


columna y viene definido por:

P  E  dk X k   E  dk X 0k dk X 1k  dk X Lk 
T
(5.1.9)

Este vector e s la configuración de la correlación transversal entre la respuesta


deseada y los componentes de entrada; en la forma de entrada múltiple X k fue usada

en R y P . Por lo que el Error cuadrático medio en función de R y P está definido


por:
MSE    E Ek 2   E d k 2   aT Ra  2PT a (5.1.10)

  Erros Cuadrático Medio es una función cuadrática de los componentes del vector
de taps a, cuando los componentes de entrada y respuesta deseada son variables
estocásticas estacionarias.

Gradiente y el Mínimo Erros Cuadrático Medio


Mediante la gradiente el vector de taps busca el mínimo de la superficie de
rendimiento:

148
UPS Capítulo V

T
     
  E    2 Ra  2 P (5.1.11)
a  a0 a1 aL 

Donde: aL Son los taps por estage. Para obtener el Mínimo Erros Cuadrático Medio

el vector de taps es configurado como el valor óptimo de a* donde la gradiente es 0:


  0  2Ra*  2P (5.1.12)

Asumiendo que R es a veces no singular, a* es llamado vector de Taps de Wiener:


a*  R1P (5.1.13)
T
 min  E dk2   a*T Ra*  2PT a*  E d k2    R 1P  RR 1P  2PT a* (5.1.14)

Hay que tomar en cuenta tres reglas principales:


1. Identificar que para cualquier matriz cuadrada que AA1  I

La transpuesta del producto de una matriz  AB   BT AT


T
2.
T
3. Simetría de la matriz de correlación de ingreso que es RT  R   R 1   R 1

Usando estas reglas tenemos:


 min  E dk2   PT R 1P  E dk2   PT a* (5.1.15)

Empezando con la configuración conocida, se presenta a continuación un


ejemplo de cómo responde el Filtro a una cierta señal de ingreso, de aquí se obtendrá
variables de respuesta que serán usadas para la comparación en la creación del nuevo
Filtro Digital, además que estos resultados también servirán para continuar con el
análisis de otra configuración de aquel Filtro.

Se da como señal de ingreso x(n), a la que también se simula una adhesión de


ruido a esta representada por r(n). A continuación el esquema del filtro con la
configuración que se seguirá para el análisis.

149
UPS Capítulo V

r ( n)
x ( n)  x  n  1 x  n  2
  z 1 z 1

1 2

  
 x n
 
  
e( n )

Fig. 5. 4. Esquema de la Configuración del Filtro con algoritmo LMS

Forma Directa del Predictor Lineal


 2 n 
x(n)  sin    rn
 N 

  E rn2   0,001

N  16
  0,1
rn  Señal randómica adherida a la señal de ingreso
  Pr omedio de la potencia de la señal randómica
N  Cantidad de muestras por ciclo
  Cons tan te de " ganancia ", regula la velocidad y la estabilidad de adaptación

Desarrollando el Algoritmo LMS.

Como se tiene solo 2 taps ( ∂1 y ∂2), entonces la matriz que se aplicará para hallar R

(Matriz de correlación de entrada) será:

X X X n1 X n2   X n21 X n1 X n2 


R  E  X n X   E  n1 n1
T
E 
X n2 X n2 
n (5.1.15)
 X n2 X n1  X n2 X n1 X n22 

150
UPS Capítulo V

Por métodos matemáticos:

El producto esperado entre las funciones seno puede ser encontrado por
cualquier producto de las funciones sinusoides por el promedio de uno o más
períodos del producto. Es así que:

2  n  1 
2
N

*E  X 2
 1   sen   0,5 
 n 1  N n 1  N 
r  0
2  n  2  
2
N

*E  X 2
 1   sen   0,5 
 n  2  N n 1  N 

1 N  2  n  1  2  n  2    2 
*E  X n1 X n2     sen  sen   0,5cos    r 1
N n1  N  N   N 

1 N  2 n   2  n  2    4 
EXn X n2    sin   sin    0,5cos    r  2
N n1  N   N   N 

Reemplazando los valores:


 0,51 0, 4619 
R 
0, 4619 0,51 

P  E  dn X n1 dn X n2 
T

NOTA: El valor esperado dn se asume que es igual a la señal de la entrada, dn = Xn

P  E  X n X n1 X n X n2 
T

P  0, 4619 0,353


T

El vector de peso de Wiener o ∂* para encontrar el mínimo valor en donde


converge el sistema es:
*  R 1  P
1
 0,51 0, 4619   1,5463 
1
  R P   0, 461 0,353  
* T
 
0, 4619 0,51   0, 7073

151
UPS Capítulo V

Es así que con esos resultado encontramos la Función de Desarrollo o El error


mínimo cuadrático, el cuál se presenta de la siguiente manera:
 min  E  d K2   PT W *
 min  E  X n2   PT  *
2 4  1 
T *

 min  0,51  0,5cos 0,5cos  
 N N   2* 
 1,5463 
 min  0,51   0, 461 0,3535    0, 0458 (5.1.17)
 0, 7073 

Expresada como función


 4   2 
 min  0,35365*cos    0, 77315    0,51
 N   N 

A partir de este modelo se comparará los resultados con el Filtro Digital


creado ahora y que se verá mas detallado a continuación en los siguientes puntos de
análisis.

5.2. MODELACIÓN MATEMÁTICA

Para la modelación matemática se ha creado dos estructuras de filtro, la cual


la primera es una versión mejorada del la LMS, que tiene como resultado mejoras en
el tiempo de conversión hacia los pesos o resultado final de los taps para la
estabilización del sistema del filtro, y de igual manera tiene mejoras en el tiempo en
cuanto a la curva de aprendizaje, es decir, la curva demuestra que tiende este sistema
a aprender más rápido que el LMS, es decir, que en menos iteraciones y menor
tiempo, logra la estabilidad con resultados mejores a su salida. Esto se verá en puntos
posteriores, en las que se detallará explicación conjuntamente con las graficas que se
obtendrán. A este nuevo sistema se lo denomina CLMS.

Y por último, como punto final de nuestro análisis se ha creado una nueva
estructura más eficiente y rápida para el procesamiento de datos, con convergencia
de sus pesos más rápido al igual que una curva de aprendizaje mucho mejor que la de
los anteriores filtros, por ende, sus resultados finales tendrán menor error y todo esto
se demostrara posteriormente. A este nuevo sistema se lo denomina FCLMS y es una

152
UPS Capítulo V

combinación entre el sistema LMS y CLMS, en la cual se ha basado en conceptos


matemáticos para que sea posible el desarrollo de esta adaptación, consiguiendo así
una mejora notable, que como se menciono anteriormente será discutida como se
verá posteriormente en las gráficas.

Desarrollando el Algoritmo CLMS


Los datos de entrada son los mismos que se propusieron para el anterior
ejemplo, de manera que se puedan comparar sus resultados, y siendo así, se tiene
que:

La siguiente configuración en cascada es el equivalente para la anterior


configuración, la cual se partirá de esta para los análisis y la obtención de mejoras en
los resultados.

1 2
x  n  1 x  n  1

z 1 x  n 
z 1 x  n 
 
x ( n) e( n ) e( n )

 x ( n) 

Fig. 5. 5. Predictor en Cascada de 2 etapas – 1 tap

CLMS
Para la primera etapa tenemos:

e1  n   X1  n   1 X1  n  1 (5.2.1)

El índice 1 indica que se está en el stage 1, por lo cual solo tendríamos un 1


solo tap:

1  1  
1

1  11 1 2   11 


T T

153
UPS Capítulo V

Se puede ver que los Resultados para R y P de la primera etapa son los
mismos que el anterior ejemplo.

R  E Xn Xn 
T

R  E  X1  n  1 
2
 

R1  E  X1  n  1   0,5  
2
 

 2 
P1  E  d n X n1   E  X 1  n  X 1  n  1  0,5cos 
T
  0, 4619
T

 N 

R1  r1  0   0,51 r1  0   r  0 
P1  r2 1  0, 4619 r1 1  r 1

1*  R11P1  0,9057

 min1  E  d K2   PT *
 min1  E  X 1  n    PT *  0, 09166
2
 

La entrada para la segunda etapa es X2(n):

X 2  n   e1  n   X1  n   1 X1  n  1


R2  n   E  X 2  n  1   E e1  n  1   E  X 1  n  1  1 X 1  n  2   
2 2 2

     

Resolviendo esta ecuación:

R2  X1  n  1  21 X1  n  1 X1  n  2   12 X1  n  2 
2 2

 2  2
R2  0,5    21 0,5cos    1  0,5   
 N 

Reemplazando 1* hallamos R2 :

R2  0,09159  r2  0

154
UPS Capítulo V

P2  E  d n X n1   Solo es un término ya que se está trabajando en serial


T

como un solo dato

P2  E  X 2  n  X 2  n  1
T

 
T
P2  E e1  n  e1  n  1  E  X 1  n   1 X 1  n  1  X 1  n  1  1 X 1  n  2 
T

  

Resolviendo esta ecuación:


 
 
P2  E  X 1  n  X 1  n  1  1 X 1  n  X 1  n  2   1  X 1  n  1   12  X 1  n  1 X 1  n  2   
2

          


  2 
0,5cos 


0,5cos 4
1  0,5  
  
1 0,5cos 
2 2   
 

1
 N  N  N 

 2   cos 4    0,5     2 0,5cos  2 


P2  0,5cos    0,51 1 1  
 N  N  N 

Reemplazando 1* :

P2  0,05874  r2 1

*2  R21P2  0,64139

 min 2  E  d K2   PT *
 min 2  E e1  n    P2T *2  0, 054
2
 

Por fórmula:
f1*  1*  *2  0,9057  0,64139  1,5471

f 2*  1**2  0,9057  0,64139  0,5809

f1 y f2 representan el nuevo valor de los taps 1 y 2 respectivamente, como


resultado en el proceso dentro de este nuevo algoritmo CLMS

155
UPS Capítulo V

Otra interpretación del valor final de los taps puede ser si consideramos el valor de
un β, siendo así que:
f1*  1*  1,5463

f 2*   2 *2   0,905869    0, 7073  0,5804


2

r2 (1) 0, 05874
 
r2 (0) 0, 09159

De acuerdo con la ecuación 2.14:

 rK 1 
2

J K  J K 1   J1min  min 2 (5.2.2)


J K 1

 r2 1 
2

J 2min  J1min  
J1min
0, 05874
2

J 2min  0, 09166   0, 05402


0, 09166

Desarrollando el Algoritmo FCLMS


Como se había mencionado anteriormente, ahora se presenta el modelado
matemático del filtro final, que consta de la combinación entre el algoritmo LMS y
ya el mejorado CLMS para obtener un filtro aun más estable y eficiente. Cabe
recalcar que se debe tomar mucho cuidado con las adaptaciones matemáticas para no
modificar características importantes durante el proceso.

A continuación se puede ver la gráfica que representa este modelo y


posteriormente se irá desglosando un exhaustivo análisis matemático del mismo.

La siguiente configuración en cascada es el equivalente para la anterior


configuración, la cual se partirá de esta para los análisis y la obtención de mejoras en
los resultados.

Este Predictor o filtro esta dispuesto por 4 taps, los cuales los 2 primeros
pertenecen a la etapa de forma directa lineal, la misma que consta de 2 sub-etapas. El
resultado del MSE (Mean Square Error) que de este predictor tiene salida, será la

156
UPS Capítulo V

entrada para la siguiente etapa en la que se encuentra el filtro en cascada. En esta


etapa el predictor consta de los siguientes 2 taps y de 2 sub-etapas mas.
Tal configuración y resultados que de su estructura en total se obtiene se lo ha
denominado FCLMS, y se lo indica de la siguiente forma:

r ( n)

x ( n) x  n  1 x  n  2
  z 1 z 1

Etapa 1
1 2

  
 x n
 
  
e1 (n)
x2 (n) e21 (n) x21 (n) e22 (n)

 

 
x (n) x
Etapa 2 z 1 z 1 ( n)
2 21

x2  n  1 x21  n  1

3 4

Fig. 5. 6. Combinación del Predictor de forma directa lineal y el Predictor de cascada.

Hasta el final de la Etapa 1 del Predictor los datos y resultados son los
mismos, pues se debe recordar que se está trabajando con los enunciados del
ejercicio 1, para poder realizar las respectivas comparaciones.

X X X n1 X n2   X n21 X n1 X n2 


R  E  n1 n1   
X n2 X n2 
E
 X n2 X n1  X n2 X n1 X n22 

 2 
 0,51 0,5cos
N 
R 
0,5cos 2 0,51 
 N 

P  E  X n X n1 X n X n2 
T

157
UPS Capítulo V

2 4 
T

P  0,5cos 0,5cos
 N N 

*  R 1  P
1
 2 
0,51 0,5cos 
N  2 4 
 
*
 0,5cos 0,5cos
0,5cos 2   N N 
0,51
 N 
1
 0,51 0, 4619   1,5463 
  0, 461 0,353  
* T
 
0, 4619 0,51   0, 7073

2 4  1 
T *

min1  0,51  0,5cos 0,5cos  
 N N   2* 

 4   2 
min1  0,35365*cos    0, 77315    0,51
 N   N 

 min1  E  d K2   PT W *
 min1  E  X n2   PT  *
2 4  1 
T *

 min1  0,51  0,5cos 0,5cos  
 N N   2* 
 1,5463 
 min1  0,51   0, 461 0,3535    0, 0458
 0, 7073

Expresada como función


 4   2 
 min1  0,35365*cos    0, 77315    0,51
 N   N 

La entrada para esta nueva etapa2 es min1  x2 (n)

e21  n   X 2  n   3 X 2  n  1

3   31  3 2    31 


T T

158
UPS Capítulo V

R1  E  X n Xn 
T

R1  E  X 2  n  1 
2
 

2
1  N
 4 (n  1)   2 (n  1)  
E  X 2  n  1      0, 77315cos    0,51
2
  N  0,35365*cos 
n 1   N   N  
497197553
E  X 2  n  1    0, 6214969412
2
  800000000
R1  0, 6214969412

P1  E  d n X n 1 
T

P1  E  X 2 (n) X 2 (n  1) 
T

1 N   4 (n)   2 (n)  
P1   
N n 1 
0,35365*cos 
 N 
  0, 77315cos 
 N 
  0,51 *...

  4 (n  1)   2 (n  1)  
  0,35365*cos    0, 77315cos    0,51
  N   N  
 4   2   2  
  cos  * 100026368*cos  289117553   655264369 cos    447184369 
P1   
N   N   N  
   2   
 800000000*  2 cos    1 
   N   
P1  0,5804353677

Reemplazando valores:
  R 1 P
*
3 1 1

3  0,9339311736
*

159
UPS Capítulo V

 min 2  E  d K2   PT W *
 min 2  E  X n2   PT  *
 min 2  0, 06214969412   0,5804353677  0,9339311736
T

 min 2  0, 07941025704

SEGUNDA SUB-ETAPA
Ahora algunos de los datos obtenidos durante esta primera sub-etapa serán
usado como variables de ingreso para la segunda etapa como se podrá ver a
continuación:
X 21  n   e21  n 
(5.2.3)
e22  n   X 21  n   4 X 21  n  1

Para hallar R2 (Matriz de Correlación de entrada), se tiene que:


R2  E  X 21  n  1   E e21 (n  1)2   E  X 2  n  1  3 X 2  n  2   
2 2

   

Resolviendo la ecuación que se presenta en R1 se tiene que:

E  X 2  n  1  3 X 2  n  2  
2
 

 
 2 
R2  E  X 2  n  1  21 X 2  n  1 X 2  n  2   12  X 2  n  2   
2
 
    
2
  
 
R1 2  *( P ) 
3 1 32 *R1

R2  0,6214969412  2*(0,9339311736)*(0,5804353677)  (0,9339311736)2 *(0,6214969412)


R2  0,07941025702
R2  r2 (0)

Para hallar P2, se aplica lo siguiente:

160
UPS Capítulo V

P2  E  d n X n 1 
T

P2  E  X 21 (n) X 21 (n  1) 
T

P2  E  e21 (n) e21 (n  1) 


T

P2  E  X 2  n   3 X 2  n  1 *  X 2  n  1  3 X 2  n  2 


   

 
 
P2  E  X 2  n  X 2  n  1  3 X 2  n  X 2  n  2   3  X 2  n  1   32  X 2  n  1 X 2  n  2   
2

    


 
  *E  x ( n ) x ( n  2) 
  
 
P1  *R
3 2 2  3 1 32 *P1

 8   4 
48841*cos   239104369*cos    208080000
E  x2 (n) x2 (n  2)   N   N 
781250 800000000
E  x2 (n) x2 (n  2)   0, 4714404009

P2  0,5804353677  (0,9339311736)*  0, 4714404009   ...


...  (0,9339311736)*(0, 6214969412)  (0,9339311736)2 *(0,5804353677)
P2  0, 06597876624

Una vez hallado los valores de R2 y P2 podemos reemplazar valore para encontrar el
valor de:

4  R2 1 P2
*

4  0.07941025702-1*0.06597876624
*

4  0.8308594974
*

 min 3  E  d K2   PT *
 min 3  E e21  n    P2T  4*
2
 
 min 3  0, 07941025702  0, 06597876624*0.8308594974
 min 3  0, 024591

Con los valores de 3 y 4 de la etapa 2 ya se puede hallar los valores
* *

totales para los taps 3 y 4.

161
UPS Capítulo V

f3*  3  4  0.9339311736 + 0.8308594974  1.764790671


* *

f 4*  3 * 4  - 0.9339311736*0.8308594974=-0.7759655855


* *

Por último se debe encontrar el valor mínimo esperado de la última etapa y


final como se muestra a continuación:

 rK 1 
2

J K  J K 1   J1min  min 2
J K 1

 r2 1 
2

J 2min  J1min  
J1min
0.06597876624
2

J 2min  0.07941025702 
0.07941025702
J 2min  0.02459117245

5.3. DISEÑO DEL ALGORITMO DE SIMULACIÓN DEL NUEVO MODELO


El algoritmo creado básicamente se encuentra dividido en 3 partes principales
que son la creación del algoritmo LMS, la del CLMS y la del FCLMS.

En forma general, primeramente lo que se hace es ingresar datos a los filtros


que serán los mismos para obtener un resultado en el que se puedan comparar sus
resultados.

Posteriormente y luego de tener ya los valores de ingreso se procede a hallar


los valores de la Matriz de Correlación de Entrada “R” y del Vector Columna que
está definido como “P”.

Con esto, se puede encontrar el valor numérico de las variables que


representan los taps.

Tanto para los filtros con algoritmo LMS, CLMS y FCLMS se crea un bucle
“for” de manera que en este se pueda crear un vector del error que se produce entre la
diferencia entre la señal de entrada y la señal predicha por el algoritmo del filtro. Con

162
UPS Capítulo V

este se puede crear una variable que contiene el valor esperado del tap definido como
temp.

INICIO

Ingreso de datos del Filtro

Calcular los valores de la


Matriz de correlación de Calcular el vector columna P
entrada R

Con R y P, encontramos los


valores de los taps

Se crea el vector de erros


entre la señal deseada y la
señal que el filtro predijo

RESULTADOS

Se crean variables y matrices


Se crea una variable con el
que permiten la graficación Se halla el MSE mínimo
valor del tap esperado
de los resultados

Se definen variables para el


valor esperado del error

FIN

Fig. 5. 7. Diagrama de Flujo del Algoritmo utilizado en la simulación

163
UPS Capítulo V

Con todos estos datos ya se pueden crear las matrices que nos servirán para
poder graficar la curva de convergencia hacia los valores deseados del tap (variable
A), al igual que se crea una variable para poder representar la gráfica de la curva de
aprendizaje del mismo filtro (variable LC).

De igual manera se crean mediante fórmulas planteadas en este capítulo y


anteriores variables que representan el Error Cuadrático Medio Mínimo (MSE
mínimo) los mismos que serán usados para comparaciones de resultados.

Por último, mediante variables que toman como información los datos de lo
anteriormente hallado, se definen cantidades para los valores esperados del error
(variable Astar).

Y esto es en resumidas y forma global como está estructurado el algoritmo de


simulación para cada uno de los filtros. Cabe recalcar que para cada uno de ellos
existen variables con diferentes nombres para poderlas diferenciar, pero que siguen
el mismo esquema a lo anteriormente señalado.

5.4. SIMULACIÓN EXPERIMENTAL

Todos los datos obtenidos serán expuestos como el programa creado en


MATLAB los ha calculado, todos estos se encuentran en la columna izquierda,
mientras que en la columna derecha se presentan los datos hallados matemáticamente
como anteriores puntos de este capítulo se ha demostrado.

Los Resultado obtenidos para la codificación de los siguientes algoritmos son


los siguientes:

Variables Algoritmo LMS


R=
 0,51 0, 4619 
R 
0, 4619 0,51 
0.5233 0.4749
0.4749 0.5233

164
UPS Capítulo V

P=
P  0, 4619 0,353
T

0.4749
0.3630

a óptimo =
 1,5463 
*  R 1  P   
 0, 7073
1.5765
-0.7372

mseLMS =  1,5463 
min  0,51  0, 461 0,3535    0, 0458
 0, 7073
0.0422

Variables Algoritmo CLMS


mse1CLMS =
min1  0,09166

0.0923

R2 =
R2  0,09159  r2  0 

0.0923

P2 =
P2  0,05874  r2 1

0.0618

a2 =
*2  R21P2  0,64139

0.6690

mse2CLMS =

min 2  0,054
0.0510

165
UPS Capítulo V

f1 =

f1*  1*  *2  0,9057  0,64139  1,5471


1.5765

f2 =
f 2*  1**2  0,9057  0,64139  0,5809

-0.6071

Variables Algoritmo FCLMS


mse1CLMSM = min 2  0, 06214969412  0,5804353677  0,9339311736
T

min 2  0, 07941025704
0.0778

R2M = R2  0, 07941025702
R2  r2 (0)
0.0778

P2M =

P2  0,06597876624
0.0646

a 2M =
4  0.8308594974
*

0.8302

mse2CLMSM =
min3  0,024591
0.0242

f1 =

f3*  3  4  1.764790671


* *

1.7164

166
UPS Capítulo V

f2 =
f 4*  3 * 4  -0.7759655855
* *

-0.7358

Al resultado final que se llego, es la visualización de cada una de las curvas,


tanto como la de aprendizaje como la de conversión de los pesos o Taps a los valores
óptimos para el correcto funcionamiento de cada uno de los diferentes filtros. A
continuación, se señala lo mencionado:

Curvas de Aprendizaje
Algoritmo LMS
Curva de Aprendizaje LMS
0.7

0.6

0.5

0.4
MSE

0.3

0.2

0.1

0
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 8. Curva obtenida del Aprendizaje LMS

Visualización con aumento

Fig. 5. 9. Número de Iteraciones de la Curva del Aprendizaje LMS

167
UPS Capítulo V

Algoritmo CLMS
Curva de Aprendizaje CLMS
0.55

0.5

0.45

0.4

0.35
MSE

0.3

0.25

0.2

0.15

0.1

0.05
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 10. Curva obtenida del Aprendizaje CLMS

Visualización con aumento

Fig. 5. 11. Número de Iteraciones de la Curva del Aprendizaje CLMS

168
UPS Capítulo V

Algoritmo FCLMS
Curva de Aprendizaje FLMS
0.4

0.35

0.3

0.25
MSE

0.2

0.15

0.1

0.05

0
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 12. Curva obtenida del Aprendizaje FCLMS

Visualización con aumento

Fig. 5. 13. Número de Iteraciones de la Curva del Aprendizaje FCLMS

169
UPS Capítulo V

Curvas de Convergencia de los Taps


Algoritmo LMS

Convergencia de los Pesos LMS


2

1.5

1
Valor del Peso

0.5

-0.5

-1
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 14. Curva de Convergencia de los Taps de Algoritmo LMS


Algoritmo CLMS

Convergencia de los Pesos CLMS


2

1.5

1
Valor del Peso

0.5

-0.5

-1
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 15. Curva de Convergencia de los Taps de Algoritmo CLMS

170
UPS Capítulo V

Algoritmo FCLMS

Convergencia de los Pesos FCLMS


2

1.5

1
Valor del Peso

0.5

-0.5

-1
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 16. Curva de Convergencia de los Taps de Algoritmo FCLMS

5.5. ANÁLISIS Y COMPARACIÓN DE RESULTADOS

Una vez analizado matemáticamente y simulado los problemas planteados, y


basándonos en resultados y gráficas se podrá comparar y efectivizar el buen
funcionamiento del filtro creado, es así que en las siguientes gráficas comparativas se
explicará de las mejoras del algoritmo FCLMS ante los otros algoritmos tanto
planteados como creados.

171
UPS Capítulo V

Curvas de Aprendizaje

Curva de Aprendizaje LMS / CLMS / FCLMS


0.7

0.6

0.5

0.4
MSE

0.3

0.2

0.1

0
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 17. Curvas de Aprendizaje obtenidas de los distintos Aprendizajes

En cuanto a las curvas de aprendizaje presentadas en la gráfica claramente se


puede notar que la curva LMS (rojo) necesita de mucho mas iteraciones que los otros
dos algoritmos para que el filtro pueda adaptarse a la señal y posteriormente
responda adecuadamente a la construcción de la misma en su salida. Como se
enfatizó en el punto anterior y para esta demostración en específico, el algoritmo
LMS necesita de alrededor de 290 iteraciones para que dicho filtro pueda predecirse
correctamente a la señal de ingreso.

En el caso de la curva CLMS (azúl) las iteraciones no son tan altas como las
que usa el algoritmo LMS, que son alrededor de 40 para este ejercicio dado. Se
puede ver que se ha creado ya un mejor filtro con su algoritmo respectivo, más
eficiente, rápido y adaptable a las diferentes señales de ingreso que puedan darse, sin
embargo, el último filtro y algoritmo creado, presenta mejores características como
se pueden ver en la curva FCLMS (cyan), demostrando que el filtro puede adaptarse
en tan solo 9 iteraciones para poder predecir correctamente la función de entrada.

172
UPS Capítulo V

En resumidas se puede decir, que con estos resultados totalmente numéricos,


se ha desarrollado un algoritmo (FCLMS) eficiente que puede disminuir tiempos en
análisis con respuestas más veloces y efectivas para las diferentes aplicaciones que
puedan darse. Una tabla explicativa representará lo que se ha explicado a
continuación.

Tabla 5. 1.Número de iteraciones entre los 3 métodos de Aprendizaje

ALGORITMO ITERACIONES
LMS 290
CLMS 40
FCLMS 9

Curvas de Convergencia de los Taps

Convergencia de los Pesos (TAPS) LMS / CLMS / FCLMS


2

1.5

1
Valor del Peso

0.5

-0.5

-1
0 50 100 150 200 250 300 350 400
Numero de Iteraciones k

Fig. 5. 18. Convergencia de los Taps de los tres tipos de Aprendizaje

De igual forma, de la gráfica se puede ver claramente el desarrollo de los


algoritmos durante el paso de las iteraciones, y de esto se puede decir que el
algoritmo LMS (negro) necesita de un mayor número de iteraciones, alrededor de
350 para que sus taps converjan al valor deseado el cuál se encuentra representado
por las líneas rojas. Es menester mencionar que se pueden distinguir 2 curvas en

173
UPS Capítulo V

todos los algoritmos, y esto es porque tanto la superior (valores positivos a


converger) y la inferior (valores negativos a converger) representan los taps 1 y 2
respectivamente del filtro. En el caso del Filtro FCLMS dispone de 4 taps, pero que a
pesar de eso los que representan la función de convergencia son los taps 3 y 4 de
dicho filtro.

Tanto la curva CLMS (azul) como FCLMS (cyan) son parecidas pero sigue
siendo la curva que representa al algoritmo FCLMS un poco mejor, pues vemos que
llega primero a su valor optimo del filtro, significando que esta converge al valor
deseado de manera más rápida. Otra aclaración sería, que esta curva FCLMS
mantiene un ritmo constante sobre el valor óptimo y no tiende a tener saltos que se
alejen del valor óptimo para los taps como en ciertas iteraciones presenta el CLMS.
Esto en realidad es casi irrelevante debido a que el filtro siempre tenderá a su valor
ideal después de dichos saltos en algunas iteraciones, pero con esto se puede
demostrar una vez más que la curva FCLMS mantiene estable al filtro al transcurrir
su paso en el tiempo de la señal, lo que es fundamental para obtener datos fiables y
sin picos o interrupciones a la salida.

174
UPS Conclusiones y Recomendaciones

Conclusiones y Recomendaciones

Un sistema adaptativo consigue las características esenciales que requiere el


sistema para obtener el mayor rendimiento u obtener las mejoras a través de las
iteraciones que se presenten en el proceso. Puede extrapolar un modelo de cierto
comportamiento general que se presentan como nuevas señales, con un número
finito de pruebas, y encontrar un resultado deseable a su salida muy acertado a
aquella señal de entrada.

Un sistema de filtros FIR puesto que su sistema de ecuaciones describe fácilmente la


relación entrada-salida de algoritmos eficientes que fácilmente pueden resolverse
para la obtención de resultados deseados; pudiendo representar aproximaciones
exactas de los filtros infinitos IIR en pocas iteraciones y de manera precisa.

Cada uno de los Filtros en Cascada y en forma Directa poseen características


distintas, por lo que combinándolos en un Filtro Digital Híbrido FIR Adaptativo
Lineal Óptimo, que toma el nombre de FCLMS, “Fast Convergense” debido a su
rápida convergencia basándose en el algoritmo LMS, ya existente incluso como
herramienta de varios programas de programación y procesamiento de señales.

El nuevo modelo con respecto a los otros dos métodos de aprendizaje (LMS y CLMS)
con los cuales se lo comparó proporciona una mayor velocidad de convergencia,
con menos iteraciones para converger a los valores “próximos” a lo que propone
Wiener ó resultados deseados como se muestra en las simulaciones, el nuevo
algoritmo creado para este sentido es más eficiente y veloz en llegar a los valores
deseados.

Facilitan el cálculo y con ello la complejidad computacional, ya que estos solo


requieren de un filtro de orden L, en la cual se multiplican los datos de entrada u(n),
u(n-1)… por una cantidad definida de pesos como w1, w2… etc y posteriormente a
esto se aplica una sencilla operación matemática como es la suma de estos
productos para obtener el resultado deseado.

VI
UPS Conclusiones y Recomendaciones

Una más de las ventajas que presentan el nuevo modelo que al contrario de un filtro
normal no se necesita de aproximaciones estadísticas para los datos de correlación
de la señal de deseada con la señal de entrada, y menos aun para la autocorrelación
de las señal de entrada. El filtro adaptativo es aplicable para estos casos aun
sabiendo que la señal de entrada es no estacionaria.

A todo lo dicho anteriormente y como se puede verificar en el proceso, los filtros


adaptativos brindan ventajas con respecto a los otros filtros ya que no requieren de
conocimiento de funciones de entrada o deseadas para la obtención de una señal de
salida.

Además el Filtro tiene mayor estabilidad en el paso en el tiempo de la señal,


además de llegar a la señal deseada en menos tiempo, es decir, adaptarse en menor
tiempo a la señal de entrada, lo que es fundamental para obtener datos fiables y sin
picos o interrupciones a la salida.

Este Filtro proporciona una nueva alternativa en el procesamiento de filtrado digital


de señal, obteniendo mejores resultados en las diferentes áreas y aplicaciones en
donde se requiera su presencia.

VII
UPS Bibliografía

Bibliografía

Libros:

 PROAKIS, John G.; MANOLAKIS, Dimitris G.; Tratamiento Digital de Señales;


Cuarta Edición; México – 1999; Prentice Hall Inc., PEARSON EDUCATION
S.A.
 SOLIMAN, Samis S.; SRINATH, Mandyan D.; Señales y Sistemas continuos y
discretos; Segunda Edición; Madrid, España – 1999; Prentice Hall Inc.,
PEARSON EDUCATION S.A.
 WIDROW, Bernard; STEARNS, Samuel; Adaptative Signal Processing; 1985;
Prentice Hall Inc., PEARSON EDUCATION S.A.
 S. HAYKIN; Adaptative Filter Theory; 1995; Prentice Hall Inc., PEARSON
EDUCATION S.A.
 OPPENHEIM, Alan V.; Signals and Systems; Cuarta Edición; Prentice Hall
S.A., 1996.
 HOLLY, Moore; Matlab para Ingenieros; 2007; Prentice Hall Inc., PEARSON
EDUCATION S.A.
 SMITH, Steven W.; The Scientist and Engineer's Guide to Digital Signal
Processing; Segunda Edición; Prentice Hall S.A., 1997.

Internet:

 http://www.pacop.net/transformada-de-fourier-fft.html
 http://www.elprisma.com/
 http://www.edicionsupc.es/ftppublic/pdfmostra/TL03902M.pdf
 http://www.tecnun.es/asignaturas/tratamiento%20digital/tema6.pdf
 http://www.elo.utfsm.cl/~elo340/apuntes/tvd/cap6.pdf
 http://www.nlm.nih.gov/medlineplus/spanish/ency/article/003868.htm

IX
UPS Glosario

GLOSARIO

ADC: Conversor Analógico – Digital.

Aliasing: Efecto que causa que señales continuas distintas se tornen indistinguibles
cuando se les muestrea digitalmente; la señal original no puede ser reconstruida de
forma unívoca a partir de la señal digital. Una imagen limitada en banda y
muestreada por debajo de su frecuencia de Nyquist en las direcciones "x" e "y",
resulta en una superposición de las replicaciones periódicas del espectro G(fx ,fy).
Este fenómeno de superposición periódica sucesiva es lo que se conoce como
aliasing, afecta a la conversión analógica-digital de señales de audio y vídeo: el
muestreo incorrecto de señales analógicas puede provocar que señales de alta
frecuencia presenten dicho aliasing con respecto a señales de baja frecuencia. El
aliasing es también una preocupación en el área de la computación gráfica e
infografía, donde puede dar origen a patrones de moiré (en las imágenes con muchos
detalles finos) y también a bordes dentados. El aliasing puede traer problemas sobre
todo en el campo de visión por computadores, ya que al procesar imágenes, si no es
correcta la imagen obtenida con la realidad, podemos tener problemas con el
hardware.

Autocorrelación: Herramienta matemática utilizada frecuentemente en el procesado


de señales. Se define como la correlación cruzada de la señal consigo misma. La
función de autocorrelación resulta de gran utilidad para encontrar patrones
repetitivos dentro de una señal, como por ejemplo, la periodicidad de una señal
enmascarada bajo el ruido o para identificar la frecuencia fundamental de una señal
que no contiene dicha componente, pero aparecen numerosas frecuencias armónicas
de ésta.

X
UPS Glosario

Bit oculto: Cuando se usan mantisas normalizadas en el sistema binario, la primera


cifra (bit) significativa ha de ser necesariamente 1. Este primer bit no se suele
expresar en el campo de la mantisa y está implícito de ahí que se llame el bit oculto.
De esta forma se ahorra un bit en la representación que puede ser usado para indicar
un bit significativo adicional. Dependiendo del contexto, el bit oculto puede ser o no
ser tenido en cuenta cuando se describe la longitud de la mantisa en un formato de
coma flotante. Por ejemplo, el formato de doble precisión de IEEE 754 es descrito
tanto como que tiene 53 bits de precisión (contando el bit oculto) como que tiene 52
bits (sin contar el bit oculto).

Biunívoca: Cada elemento del primer conjunto se corresponde con solo un elemento
del segundo conjunto, y cada elemento del segundo conjunto se corresponde con solo
un elemento del primer conjunto.

Convolución: operador matemático que transforma dos funciones f y g en una


tercera función que en cierto sentido representa la magnitud en la que se superponen
f y una versión trasladada e invertida de g. Una convolución es un tipo muy general
de promedio móvil, como se puede observar si una de las funciones la tomamos
como la función característica de un intervalo.

CORDIC: COordinate Rotation DIgital Computer, o el método de dígito por dígito,


o el algoritmo de Volder, es un simple y eficiente algoritmo para calcular funciones
hiperbólicas y trigonométricas. Usado cuando no hay disponible un hardware para
multiplicaciones (por ejemplo, en microcontroladores y FPGAs simples) pues las
únicas operaciones que requiere son suma, resta, desplazamiento de bits (bitshift) y
búsqueda en tablas (table lookup). El algoritmo CORDIC moderno fue descrito por
primera vez en 1959 por Jack E. Volder, desarrollado en el departamento del
aeroelectrónica de Convair para substituir un resolver analógico en el computador de
navegación del bombardero B-58, aunque es similar a las técnicas publicadas por
Henry Briggs desde 1624. John Stephen Walther, en Hewlett-Packard, generalizó

XI
UPS Glosario

más el algoritmo, permitiendo calcular funciones hiperbólicas, exponenciales,


logaritmos, multiplicación, división, y la raíz cuadrada. Originalmente, CORDIC fue
implementado usando el sistema de numeración binario. En los años 1970, la
implementación en el sistema de numeración decimal del CORDIC llegó a ser usado
extensamente en las calculadoras de bolsillo, la mayoría de las cuales operaba en
binary-coded decimal (BCD) en vez de binario. CORDIC está particularmente bien
adaptado para las calculadoras de mano, un uso para las cuales el costo es mucho
más importante que la velocidad, es decir, el número de puertas lógicas del chip tiene
que ser reducido al mínimo. También las subrutinas CORDIC para las funciones
trigonométricas e hiperbólicas pueden compartir la mayor parte de su código.

Correlación: Indica la fuerza y la dirección de una relación lineal entre dos variables
aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando
los valores de una de ellas varían sistemáticamente con respecto a los valores
homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al
aumentar los valores de A lo hacen también los de B y viceversa; la correlación entre
dos variables no implica, por sí misma, ninguna relación de causalidad

Data sheets: Documentos en los que se detallan las características técnicas, físicas,
de funcionamiento y comportamiento de dispositivos o equipos.

Error de cuantificación: Es el error debido a la división en escalones de la señal de


entrada, de modo que para una serie de valores de entrada, la salida digital será
siempre la misma. Este valor se corresponde con el escalonado de la función de
transferencia real, frente a la ideal.

Error de linealidad (linealidad integral): Este error es la manifestación de la


desviación entre la curva de salida teórica y la real, de modo que para iguales
incrementos en la entrada, la salida indica distintos incrementos.

XII
UPS Glosario

Iteración: Acción de repetir una serie de pasos un cierto número de veces o a las
técnicas que se usan en métodos iterativos para la resolución de problemas
numéricos

Jitter: Variación temporal no deseada de una señal periódica de telecomunicaciones.


Jitter se puede observar en características tales como la frecuencia de pulsos
sucesivos, la amplitud de la señal, o fase de las señales periódicas. Puede ser
cuantificada en las mismas condiciones que todas las variables en el tiempo las
señales, RMS, o de pico a pico de desplazamiento. También como el tiempo otras
señales diferentes, el jitter puede ser expresado en términos de densidad espectral (el
contenido de frecuencia); período Jitter es el intervalo entre dos momentos de
máximo efecto (o efecto mínimo) de una señal característica que varía regularmente
con el tiempo. Variación de la frecuencia, la cifra más comúnmente citados, es su
inversa; la frecuencia de fluctuación muy baja no es de interés en el diseño de
sistemas, y la baja frecuencia de corte para el jitter normalmente se especifica a 1 Hz.

Mantisa: Parte de una representación en punto flotante que contiene los dígitos
significativos del número a representar, el orden de magnitud de los cuales está
determinado por el exponente.

Matriz Hermitiana: Ó hermítica es una matriz cuadrada de elementos complejos que


tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el
elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en
la j-ésima fila e i-ésima columna, para todos los índices i y j:

o, escrita con la traspuesta conjugada A*:

XIII
UPS Glosario

Por ejemplo,

Noise Shaping: Técnica generalmente utilizada en el audio digital, la imagen y el


procesamiento de video, en combinación con tramado, como parte del proceso de
cuantificación y reducción de la profundidad de bits de una señal digital. Su objetivo
es aumentar la aparente señal/ruido de la señal resultante mediante la alteración de la
forma espectral del error que se introduce por los titubeos y cuantificación de tal
manera que la potencia de ruido se encuentre en un nivel más bajo en las bandas de
frecuencia a la que el ruido que se percibe como más indeseables y en consecuencia a
un nivel más alto en las bandas donde se percibe que es menos deseable. El
algoritmo usado mayoritariamente en el procesamiento de imágenes se conoce como
"Floyd Steinberg”; ruido de la configuración de muchos algoritmos usados en el
procesamiento de audio, se basan en un" umbral absoluto del modelo de oído".

Offset: El error de offset es la diferencia entre el punto nominal de offset (cero) y el


punto real de offset. Para un convertidor A/D este punto es el punto central de todos
aquellos valores de la entrada que nos proporcionan un cero en la salida digital del
convertidor, afecta a todos los códigos de salida por igual, y puede ser compensado
por un proceso de ajuste.

XIV
UPS Glosario

Ruido Aditivo: Ruido aditivo (denominado n(t)) es aquel que se adiciona a la señal
de voz (s(t)) en el dominio lineal obteniéndose una señal ruidosa (y(t)), es decir,
y(t )  s(t )  n(t )

Ruido Granular: Es el resultado de la utilización de un escalón de altura muy grande


en tramos donde la señal tiene poca variación, puede reducirse disminuyendo la
altura de los escalones. La señal obtenida no será la señal transmitida, sino que en su
lugar se transmite una sucesión de dígitos binarios los cuales sólo indican la
polaridad de los escalones.

Sesgo: Desviación o error producido en mecanismos de medida del tiempo.

Sistema Invariante: Un sistema es invariante con el tiempo si su comportamiento y


sus características son fijas. Un sistema es invariante con el tiempo si un
desplazamiento temporal en la entrada x(t-t0) ocasiona un desplazamiento temporal
en la salida y(t-t0).
si x(t) → y(t), entonces x(t - t0) → y(t - t0)⇒ sistema invariante

Sistema Lineal: Un sistema es lineal si satisface el principio de superposición, que


engloba las propiedades de escalado (homogeneidad) y aditividad.
Si y1(t), y2(t), ... yn(t) son las salidas del sistema para las entradas x1(t), x2(t), ... xn(t)y
a1, a2, ... an son constantes complejas, el sistema es lineal si:
a1x1(t) + a2x2(t) + ... + anxn(t) → a1y1(t) + a2y2(t) + ... + anyn(t)
En un sistema lineal, si la entrada es nula, la salida también ha de serlo.
Un sistema incrementalmente lineal es aquel que, sin verificar la última condición,
responde linealmente a los cambios en la entrada.
y(t) = 2x(t) + 2 no es lineal puesto que y(t) ≠ 0 para x(t) = 0, pero sí es
incrementalmente lineal.

XV
UPS Glosario

Sistema LTI: (Linear Time-Invariant) o sistema lineal e invariante en el tiempo, es


aquel que, como su propio nombre indica, cumple las propiedades de linealidad e
invarianza en el tiempo.

Sobremuestreo: Llamado también oversampling permite evitar las caídas abruptas


se utiliza la técnica conocida como sobremuestreo, para la reconstrucción, tras la
conversión D/A, una señal de pendiente suave. Un sobremuestreo consiste en aplicar
un filtro digital que actúa sobre el tiempo (dominio de frecuencia), cambiando de
lugar las muestras, de forma que al superponerlas, se creen muestreos simultáneos
virtuales. Estos muestreos simultáneos no son reales, son simulaciones generadas por
el propio filtro. Estos muestreos simultáneos se obtienen utilizando el llamado
coeficiente de sobremuestreo (n).

Unívoca: De lo que tiene igual naturaleza, valor o significación que otra cosa.

VLSI: Very Large Scale Integration, integración en escala muy grande, la


integración en escala muy grande de sistemas de circuitos basados en transistores en
circuitos integrados comenzó en los años 1980, como parte de las tecnologías de
semiconductores y comunicación que se estaban desarrollando. Los primeros chip
semiconductores contenían sólo un transistor cada uno, a medida que la tecnología de
fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia
más y más funciones fueron integradas en un mismo chip. El microprocesador es un
dispositivo VLSI. La primera generación de computadoras dependía de válvulas de
vacío, luego vinieron los semiconductores discretos, seguidos de circuitos integrados
que contenían un pequeño número de dispositivos, como diodos, transistores,
resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de
compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas
con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias
decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores
tienen varios millones de compuertas en el mismo chip. Hacia principios de 2006 se

XVI
UPS Glosario

están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera


en un futuro cercano el advenimiento de los 45 nm.

XVII
UPS Anexos

Anexos

XVIII
UPS Anexos

ANEXO 1: CÓDIGO FUENTE DEL PROGRAMA DE SIMULACIÓN


ELABORADO EN MATLAB 7.6.0
clc;
clear all;
%**********Valores Iniciales para el Algoritmo LMS Y
CLMS******************
N=16; %Valor de Las muestras
mu=0.1; %Constante de Ganancia
phi=0.01; %Promedio de la Potencia de
Señal Randomica.
M=400; %Numero de las Iteraciones
k=1:M;
r=0.1*randn(1,M); %Señal Randomica
xk=r+sin(2*pi*k/N); %X(k) Senal de entrada al Filtro

%************Matriz R y
P**************************************************
Xk=toeplitz([0 0 0],[0 xk(1:M-1) xk(1:M-2)]);
MV=cov(Xk');
R=[MV(1,1) MV(1,2); MV(1,2) MV(1,1)]
%Matriz Correlacion de Ingreso R
P=[MV(1,2) MV(1,3)]'
%Vector Columna P
aoptimo=(R)^-1*P
%Solución optima del vector de Peso de Wiener LMS
aoptimoCLMS=[aoptimo(1,1);(MV(1,2)/MV(1,1))^2*aoptimo(2,1)] %
Solución optima del vector de Peso de Wiener CLMS

%************Algoritmo
LMS*************************************************
X=[0 xk(1:M-1);0 0 xk(1:M-2)]; %Señal de entrada al Filtro
dk=xk; %Señal Esperada o deseada.
(En Nuestro caso señal de Entrada sin distorcion)
ve=MV(1,1); %E(xn^2)
mseLMS=ve-P'*aoptimo %MSE minimo(Error Cuadratico
Medio Minimo)
A=[0;0]; %De 2 filas para simular el
efecto de entrada de la senal en 2 vueltas al filtro.
CA=[ve]; %Curva de Aprendizaje LMS
for n=1:M-1
e(n)=dk(n)-X(:,n)'*A(:,n); %Vector error Ek=(dk - W*Xk)
temp=A(:,n)+2*mu*e(n)*X(:,n); %Wk+1=Wk +2*u*Ek*Xk
Valor Esperado del Vector de Peso. (2x1)
A=[A temp]; %a1* y a2* LMS Estimamos el
valor de MSE min para ver la curva. (2xM) Va incrementando hasta M
columnas
templc=ve+temp'*R*temp-2*P'*temp; %Se van creando datos para
LC
CA=[CA templc]; %Representa la curva de
aprendizaje LMS
end

%*************Algoritmo
CLMS***********************************************
ve1=MV(1,1); %E[xn^2]

XVII
UPS Anexos

CA1=[ve1]; %Variable Temporal


LCf2=[ve1]; %Variable que nos
representara la curva de aprendizaje CLMS
R1=MV(1,1);
P1=MV(1,2);
a1=P1/R1; %Etapa del Filtro en
cascada, tap1.
mse1CLMS=ve1-P1'*a1 %MSE minino para la etapa1.

R2=(R1)-2*a1*P1+a1^2*R1 %Creacion de la Matriz de


Correlacion de Entrada 2.
P2=P1-a1*MV(1,3)-a1*R1+a1^2*P1 %Creacion del Vector
Columna2

ve2=R2;
CA2=[ve2];
a2=R2\P2; %Etapa del Filtro en
cascada, tap2

mse2CLMS=R2-P2'*a2 %MSE minimo para la etapa2 y


final

%*************First
stage**************************************************
X1=[0 xk(1:M-1)]; %Vector Senal de entrada para la
1era sub etapa del filtro en cascada.
dk=xk; %Senal deseada
A1=[0]; %Vector para la creacion de
valores tap1, inicializado en 0.
for n=1:M-1; %Inicio del Bucle para la
creacion del Vector tap1 y curva de aprendizaje LC1
e1(n)=dk(n)-X1(:,n)'*A1(:,n); %Vector error Ek=(dk - W*Xk)
para la etapa 1 del Algoritmo CLMS
temp1=A1(:,n)+2*mu*e1(n)*X1(:,n); %Variable temporal para la
creacion final del vector de valores del Tap1
A1=[A1 temp1]; %Vector Tap1
Lc1=ve1+temp1'*R1*temp1-2*P1'*temp1;%Variable Temporal para la
creacion del vector de la curva de aprendizaje LC1
CA1=[CA1 Lc1];
LCf2=[LCf2 Lc1-((P2^2)/Lc1)]; %Vector de la Curva de
aprendizaje
end

%*************Second
stage*************************************************
Y=[0 e1(1:M-1)]; %Entrada para la etapa2 - Salida
de la etapa1 - Algoritmo CLMS
Yk=toeplitz([0 0],[0 e1(1:M-1)]);
MV2=cov(Yk');
R22=MV2(1,1); %Matriz de Correlacion de
entrada R2
P22=MV2(1,2); %Vector Columna P2

dk3=e1(1:M-1);
A2=[0]; %Vector para la creacion de
valores tap2, inicializado en 0
for n=1:M-1

XVIII
UPS Anexos

e2(n)=dk3(n)-Y(:,n)'*A2(:,n); %Vector error Ek=(dk - W*Xk)


para la etapa 2 del Algoritmo CLMS
temp2=A2(:,n)+2*mu*e2(n)*Y(:,n); %Variable temporal para la
creacion final del vector de valores del Tap2
A2=[A2 temp2]; %Vector valores de convergencia
Tap2
Lc2=ve2+temp2'*R22*temp2-2*P22'*temp2;
CA2=[CA2 Lc2];
end

%*************Astar for CLMS


algorithm***********************************
A1optimoCLMS=[A1+A2]; %Vector Total TAP1 - Grafica de
Convergencia de sus valores a valor ideal
A2optimoCLMS=[-A1.*A2]; %Vector Total TAP1 - Grafica de
Convergencia de sus valores a valor ideal

f1=[a1+a2] %Valor final del VECTOR del


TAP1
f2=[-a1*a2] %Valor final del VECTOR del
TAP2 del CLMS

%///////////////////////////////////////////////////////////////////
///////
%*******************************************************************
*******
%************************ALGORITMO
FCLMS***********************************
%///////////////////////////////////////////////////////////////////
///////
xkM=0.35365*cos(4*pi*k/N)-0.77315*cos(2*pi*k/N)+0.51;

XkM=toeplitz([0 0 0],[0 xkM(1:M-1) xkM(1:M-2)]);


MVM=cov(XkM');
RM=[MVM(1,1) MVM(1,2); MVM(1,2) MVM(1,1)] %Matriz Correlacion de
Ingreso R
PM=[ MVM(1,2) MVM(1,3)]' %Vector Columna P

ve1M=MVM(1,1); %E[xn^2]
CA1M=[ve1M]; %Variable Temporal
LCf2M=[ve1M]; %Variable que nos
representara la curva de aprendizaje CLMS
R1M=MVM(1,1);
P1M=MVM(1,2);
a1M=P1M/R1M; %Etapa del Filtro en
cascada, tap1.
mse1CLMSM=ve1M-P1M'*a1M %MSE minino para la
etapa1.

R2M=(R1M)-2*a1M*P1M+a1M^2*R1M %Creacion de la Matriz


de Correlacion de Entrada 2.
P2M=P1M-a1M*MVM(1,3)-a1M*R1M+a1M^2*P1M %Creacion del Vector
Columna2

ve2M=R2M;

XIX
UPS Anexos

CA2M=[ve2M];
a2M=R2M\P2M; %Etapa del Filtro en
cascada, tap2

mse2CLMSM=R2M-P2M'*a2M %MSE minimo para la


etapa2 y final

%*************First
stage**************************************************
X1M=[0 xkM(1:M-1)]; %Vector Senal de entrada
para la 1era sub etapa del filtro en cascada.
dkM=xkM; %Senal deseada
A1M=[0]; %Vector para la creacion
de valores tap1, inicializado en 0.
for n=1:M-1; %Inicio del Bucle para
la creacion del Vector tap1 y curva de aprendizaje LC1
e1M(n)=dkM(n)-X1M(:,n)'*A1M(:,n); %Vector error Ek=(dk -
W*Xk) para la etapa 1 del Algoritmo CLMS
temp1M=A1M(:,n)+2*mu*e1M(n)*X1M(:,n); %Variable temporal para
la creacion final del vector de valores del Tap1
A1M=[A1M temp1M]; %Vector Tap1
Lc1M=ve1M+temp1M'*R1M*temp1M-2*P1M'*temp1M; %Variable Temporal para
la creacion del vector de la curva de aprendizaje LC1
CA1M=[CA1M Lc1M];
LCf2M=[LCf2M Lc1M-((P2M^2)/Lc1M)]; %Vector de la Curva de
aprendizaje
end

%*************Second
stage*************************************************
YM=[0 e1M(1:M-1)]; %Entrada para la etapa2 -
Salida de la etapa1 - Algoritmo CLMS
YkM=toeplitz([0 0],[0 e1M(1:M-1)]);
MV2M=cov(YkM');
R22M=MV2M(1,1); %Matriz de Correlacion de
entrada R2
P22M=MV2M(1,2); %Vector Columna P2

dk3M=e1M(1:M-1);
A2M=[0]; %Vector para la creacion de
valores tap2, inicializado en 0
for n=1:M-1
e2M(n)=dk3M(n)-YM(:,n)'*A2M(:,n); %Vector error Ek=(dk - W*Xk)
para la etapa 2 del Algoritmo CLMS
temp2M=A2M(:,n)+2*mu*e2M(n)*YM(:,n); %Variable temporal para la
creacion final del vector de valores del Tap2
A2M=[A2M temp2M]; %Vector valores de
convergencia Tap2
Lc2M=ve2M+temp2M'*R22M*temp2M-2*P22M'*temp2M;
CA2M=[CA2M Lc2M];
end

%*************Astar for CLMS


algorithm***********************************
f1=[a1M+a2M] %Valor final del VECTOR del
TAP1

XX
UPS Anexos

f2=[-a1M*a2M] %Valor final del VECTOR del


TAP2 del CLMS

A1optimoCLMSM=[A1M+A2M]; %Vector Total TAP1 -


Grafica de Convergencia de sus valores a valor ideal
A2optimoCLMSM=[-A1M.*A2M]; %Vector Total TAP2 -
Grafica de Convergencia de sus valores a valor ideal
%*******************************************************************
*******
%*******************************************************************
*******
%///////////////////////////////////////////////////////////////////
///////

%*************Graficando Curva de Taps y Curvas de


Aprendizaje*************
%*************************Figura
1*****************************************
title('Convergencia de los Pesos (TAPS) LMS / CLMS / FCLMS')
xlabel('Numero de Iteraciones k')
ylabel('Valor del Peso')

figure(1);clf
plot(k,A,'k'); %Curva del Vector del Tap1 y Tap2 a*
LMS
hold on

plot(k,A1optimoCLMS,'b') %Curva del Vector del Tap1 a1* CLMS


hold on
plot(k,A2optimoCLMS,'b') %Curva del Vector del Tap2 a2* CLMS
hold on

plot(k,A1optimoCLMSM,'c') %Vector Tap1 del nuevo Algoritmo a1*


FCLMS
hold on
plot(k,A2optimoCLMSM,'c') %Vector Tap2 del nuevo Algoritmo a1*
FCLMS
hold on

plot(k,aoptimo(1,1),'r'); %Recta que identifica valor max de


a* LMS
hold on
plot(k,aoptimo(2,1),'r') %Recta que identifica valor min de
a* LMS
hold on
plot(k,aoptimoCLMS(2,1),'g') %Recta que identifica valor min de
a* CLMS
hold on

grid on;
%///////////////////////////////////////////////////////////////////
///////

%********* Curva de Aprendizaje LMS / CLMS /FCLMS


*************************

XXI
UPS Anexos

figure(2);clf
title('Curva de Aprendizaje LMS / CLMS / FCLMS')
xlabel('Numero de Iteraciones k')
ylabel('MSE')

plot(k,CA,'r') %Curva de Aprendizaje LMS


hold on

plot(k,LCf2,'b') %Curva de Aprendizaje CLMS


hold on

plot(k,LCf2M,'c') %Curva de Aprendizaje FCLMS


hold on

plot(k, mseLMS ,'g') %Recta q denota el min valor para


Curva de Aprendizaje LMS
hold on

grid on;

XXII
UPS Anexos

ANEXO 2: APLICACIONES DEL FILTRO DIGITAL HIBRIDO FIR


ADAPTATIVO LINEAL ÓPTIMO
El filtro adaptativo que se ha creado tiene una diversidad de aplicaciones y a
continuación se presentara como es que se puede aplicar este filtro digital.

1.- Detección del Electrocardiograma Fetal en el Electrocardiograma de la


Madre.
ECG (Electrocardiograma) que no es más que un TEST que registra la
actividad eléctrica del corazón.

Razones:
Las razones por las cuáles se aplica este examen son para identificar:
-Daños en el corazón.
-el efecto que están produciendo algunos dispositivos dentro del corazón
como un marcapasos.
-Para comprobar la rapidez con la que esta latiendo el corazón e identificar su
normal o anormal funcionamiento según los resultados.
-Para identificar la posición de las cámaras del corazón.
-Si un paciente presenta dolor torácico, se puede tomar un ECG que puede
identificar cualquier anomalía como una cardiopatía.

Un examen ECG puede ser aplicado rutinariamente para personas mayores de


40 años para el buen control y diagnostico de anomalías o cualquier otro
padecimiento.

No existen riesgos puesto que no se emite electricidad a través del cuerpo


evitando así el riesgo de un shock.

Aplicación en la práctica.
Para el caso específico, como se nombro en el título de esta aplicación, lo que
se quiere obtener es el Electrocardiograma fetal (fECG), pero con el problema de que
se tiene como interferencia el Electrocardiograma materno (mECG).

XXIII
UPS Anexos

El problema se da en que en que estas dos señales tiene un contenido


espectral parecido por lo que no sería factible separarlas por un filtro selectivo en
frecuencias ya que distorsionarían la señal del fECG.
Ante esto se propone el uso de un Filtro Digital Adaptativo para cancelar el
ruido.
La señal está compuesta por la señal deseada o señal fetal f(n) y por la señal
materna M(n) (Despreciando el ruido generado por los equipos y externos en el
ambiente).
Como señal de entrada se usara la señal M’(n) obtenida del sensor que se
coloca en el tórax de la madre, la cual no se encontrará correlacionada con la
componente fetal encontrada también en la parte abdominal de la madre.
El objetivo está en que el filtro adaptativo tomará la señal materna y la
modelará de tal forma que a la salida del filtro la señal de error obtenida solo tendrá
la componente fetal.

Matemáticamente la señal de error cuadrático que se generará será:

e2 (n)   f (n)  M (n)  M *(n) 


2

Existe una nula correlación entre f(n) y M’(n) por lo que el sistema modelara
la señal M(n), y en este caso la señal de error es f(n) que la señal que se quiere
obtener. Se debe denotar que el punto clave se encuentra en la correlación entre las
fuentes de ruido, así como la estimación de que no existe relación entre la señal de
ruido de la que se quiere obtener.

f ( n)  M ( n) Señal Deseada
+
-
M * ( n)
M '(n) Predictor Señal de error
D Lineal
z FIR
e( n )  f ( n )  M * ( n )
Retardo de la
decorrelación Algoritmo
Adaptativo

Fig 1. Esquema básico de un Cancelador de Ruido.

XXIV
UPS Anexos

Objetivo del Filtro Adaptativo.


Como se puede ver en la Fig. 1, la señal materna como fetal se sintetizan y
son la entrada al filtro. Por otra parte la señal materna es usada como señal de
referencia haciéndola pasar por el predictor y obteniendo así muestras de la misma.
El objetivo es la substracción de esta señal materna de la de entrada, o de la
sintetizada que es obtenida como ingreso al filtro. Posteriormente este resultado de
substracción pasará por el filtro adaptativo el mismo que se irá acoplando a los
cambios de la señal y se acercará aún más a la obtención de la señal deseada o señal
de error que nos representa la construcción fiable de la señal fetal que se quiere llegar
como objetivo, pero ya sin interferencias, ni señales que puedan distorsionarla.

Gráficas.
Gráficamente se verá el resultado que se obtiene de las diferentes señales que
representan los diferentes ECGs, tanto de la madre, fetal, la síntesis entre ambas y el
resultado obtenido al final del filtro

mECG

Fig 2. Electrocardiograma Materno

XXV
UPS Anexos

fECG

Fig 3. Electrocardiograma Fetal.

Señal de entrada, suma entre el mECG y el fECG

Fig 4. Señal de entrada al filtro-Suma entre mECG y fECG.

XXVI
UPS Anexos

Comparación entre señal sumada (entrada) y el resultado obtenido.

Fig 5. Rojo.- Señal de respuesta, error cuadrático.


Azul.- Señal de entrada al filtro.

XXVII

S-ar putea să vă placă și