Documente Academic
Documente Profesional
Documente Cultură
de Cuenca
galo.aguirre1107@ucuenca.ec
I.
I NTRODUCCI ON
Primero nos introduce un metodo comun para filtrar la voz de un cantante de una cancion tpicamente
grabada en un estudio. El esquema normal es el que
sigue:
AD = [k D0 (p) I0 ] + Dab .
(2)
P LANTEAMIENTO D EL P ROBLEMA
Tipicamente se considera que se inicia con un vector de constantes nulo. Entonces, dado la informacion
de las mediciones que ingresan al filtro, necesitamos
un mecanismo para actualizar el valor de este vector
con el fin de que estos nuevos valores aproximeN
progresivamente el comportamiento del sistema actual
al que deseamos.
En el algoritmo de descenso mas empinado, se
hace hace lo siguiente: Se forma la funcion de error
esperado minimo cuadrado:
J (n) = d2 wH (n)p pH w(n) + wH (n)Rw(n)
(3)
en donde w(n) es el vector de constantes de ponderacion, p es el vector de corelaciones cruzadas entre
el vector de entradas, u(n), y la reapuesta deseada,
d (n), y R es la matriz de correlaciones del vector
de entradas, u(n). La H mayuscula sobrescrita sobre
el vector es el operador Hemitiano, que significa la
transpuesta de los valores conjugados del vector o
matriz.
Esta funcion de varias variables sirve como funcion de perdida para el sistema. La resolucion de
nuestro problema de optimisacion se reduce a encontrar el valor minimo de la superficie multidimensional
descrita por esta funcion de varias variables.
Con este fin, tomamos la gradiente de la funcion
antes mencionada:
J (n) = 2p + 2Rw(n).
(4)
(6)
(7)
En el caso del gradiente deterministico del algoritmo de descenso mas empinado, las solucion
toma un camino determinado hacia la solucion optima
espicificada por las ecuaciones de Weiner-Hoff. A
contrario, para el algoritmo LMS, cada iteracion de
este toma un camino aleatorio sobre la superficie de
soluciones. Esto es de esperar ya que en este caso
la gradiente es estocastica. Es decir, no tiene ningun
conocimiento previo sobre esta, debido a la naturaleza
aleatoria de la senal de entrada.
Sin embargo, de acuerdo al tamano del paso para
cada iteracion, , el disenador elige entre convergencia rapida hacia una solucion o un camino hacia la
solucion mas fiel al caso ideal. Esto es, mientras mas
rapido uno elija aproximarse a la solucion optima,
mas ruidoso sera el camino hacia esta.
VI.
C ONCLUSIONES
p
(n) = u(n)d (n)
(9)
Esto nos lleva a la siguiente ecuacion de actualizacion para el vector de las constantes ponderadas:
w(n+1)
= w(n)+u(n)[d
R EFERENCIAS
[1]