Documente Academic
Documente Profesional
Documente Cultură
=
i
i i
x y u e
o Distancia eucldea:
( ) u e =
i
i i
x y
2
Este resultado se introduce posteriormente en un bloque caracterizado por una de
las siguientes funciones:
Figura 2-8: Tabla de las posibles funciones de salida del perceptrn.
La funcin que representa el comportamiento ideal de una neurona es la funcin
escaln: dependiendo de la entrada se activa la conexin entre neuronas (salida = 1) o no
(salida = 0). Esta decisin puede depender de un cierto umbral (que la salida sea capaz
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 22
de superarlo), representado en las expresiones anteriores por q: introducir este trmino
negativo equivale a considerar que la funcin vale uno a partir de q y no a partir de cero
como se representa en la tabla.
Aunque ste sea el comportamiento ideal, en la prctica se suele utilizar la funcin
sigmoidea. Esto se debe a que es una funcin muy parecida al escaln y derivable en el
entorno de cualquier punto del eje x. Como se ver, esto es necesario en el algoritmo de
retropropagacin ya que est basado en la minimizacin del error con respecto al valor
de los pesos, por lo que hay que derivar e igualar a cero.
El algoritmo de aprendizaje para un perceptrn aislado es el siguiente:
( ) y y X W W
d t
k k
=
+
q
1
donde:
o W = vector de pesos.
o k = iteracin actual.
o h = factor de aprendizaje.
o X = vector de entradas.
o y
d
= salida deseada.
o y = salida obtenida en la iteracin k.
Una propiedad muy importante de este algoritmo es la convergencia en presencia de
solucin y la posibilidad de implementar ciclos lmite en ausencia de la misma.
El factor de aprendizaje h determina la rapidez del algoritmo pero tambin su
exactitud. Cuanto mayor sea, necesitaremos menos iteraciones (antes alcanzaremos las
cercanas del mnimo error de evaluacin) pero el aprendizaje es muy grosero (es ms
probable que nos quedemos oscilando en las cercanas del mnimo error de evaluacin
que lo alcancemos realmente). Cuanto menor sea, ms lento es pero ms fino en el
aprendizaje. Por lo tanto hay que llegar a un compromiso.
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 23
2.5.2 Retropropagacin
A continuacin, se va a explicar el mtodo utilizado para entrenar un perceptrn
multicapa.
2.5.2.1 Algoritmo
El aprendizaje de un perceptrn multicapa es ms complejo. Como se apunt
anteriormente, el entrenamiento de este tipo de Redes Neuronales es un entrenamiento
supervisado. Se define un conjunto de pares de patrones (X
i,
Y
i
) de entrenamiento y se
define una funcin de error (diferencia entre la salida deseada y la obtenida). Una vez
obtenido dicho error se actualizan los pesos para minimizarlo. El procedimiento que se
emplea es el descenso en la direccin del gradiente: una manera muy eficiente de
implementarlo es a travs de un procedimiento equivalente a computar la Red hacia
atrs. Esto da lugar al algoritmo de retropropagacin:
( )
= =
= =
P
p
P
p
S
p p p T
O d E E
1 1
2
2
1
donde:
o E
T
= error total de salida.
o E
p
= error de la salida p.
o P = nmero de neuronas de la ltima capa.
o O
p
S
= salida obtenida en la neurona p de la capa S (la de salida).
o d
p
= salida esperada en la neurona p.
El algoritmo de aprendizaje es:
( ) ( )
( ) k
E
k k
L
ij
T L
ij
L
ij
e
e e
c
c
= +1
donde:
o w
ij
L
= peso de la entrada i de la neurona j en la capa L.
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 24
o k = iteracin actual.
o m = factor de aprendizaje.
La derivada del error es equivalente a:
( ) ( )
=
c
c
=
c
c
P
p
L
ij
p
L
ij
T
k
E
k
E
1
e e
La salida es una funcin sigmoidea de la combinacin lineal de las variables de
entrada:
=
+
=
L
L
j
N
i
L
i
L
ij
L
j
y
L
j
O y
e
O
1
1
;
1
1
e
donde:
o N
L
= nmero de neuronas de la capa L.
o O
j
L
= salida de la neurona j de la capa L.
o y
j
L
= estado de activacin de la neurona j de la capa L.
( ) ( ) k
y
y
O
O
E
k
E
L
ij
L
j
L
j
L
j
L
j
T
L
ij
T
e e c
c
c
c
c
c
=
c
c
( )
( )
L
j
L
j
y
y
y y
y
L
j
L
j
O O
e
e
e e
e
y
O
L
j
L
j
L
j
L
j
L
j
=
+
+
=
+
=
c
c
1
1 1
1
1
( ) ( )
i
ij
j
L
i
L
ij
L
j
i
k
y
capa primera la para O
k
y
=
c
c
=
c
c
1
1
1
,
e e
donde i
i
= entrada i de la Red.
Para la ltima capa:
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 25
( ) ( ) ( ) = =
c
c
=
c
c
=
S
j
S
j
S
j j
S
j
T S
j j
S L
L
j
T
O O O d
y
E
O d
O
E
1
( ) ( )
S
j
S
j
S
j j
y f O d o = = '
donde
j
S
= seal de error.
Para el resto de las capas, cuando vara la salida de la neurona de una de ellas
afecta a la salida de las neuronas de la siguiente capa:
=
c
c
c
+ +
c
c
c
+
c
c
c
=
c
c
+
+
+
+
+
+
+
+
L
j
L
N
L
N
T
L
j
L
L
T
L
j
L
L
T
L
j
T
O
y
y
E
O
y
y
E
O
y
y
E
O
E
L
L
1
1
1
21
1
21
1
1
1
1
1
1
...
( )
+ +
=
+
=
+
+
+
=
c
c
c
c
1 1
1
1
1
1
1
1
L L
N
i
L
ij
N
i
L
i
L
j
L
i
L
i
T
k
O
y
y
E
e o
( ) ( ) ( )
+ +
=
+
=
+ + +
= = =
c
c
1 1
1
1
1
1 1 1
' 1
L L
N
i
L
j
L
ij
N
i
L
i
L
j
L
ij
L
i
L
j
L
j
L
j
T
y f k O O
y
E
o e o e o
2.5.2.2 Resumen
En resumen, el algoritmo de actualizacin de pesos queda:
( ) ( )
L
j
L
i
L
ij
L
ij
O k k o e e = +
1
1
donde las seales de error son:
( ) ( )
S
j j
S
j
S
j
O d y f = ' o
( ) ( )
+
=
+ +
=
1
1
1 1
'
L
N
i
L
j
L
k
L
j
L
j
k y f e o o
2.5.2.3 Pasos del algoritmo
Los pasos a seguir son:
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 26
1. Inicializar pesos y umbrales.
2. Presentar nuevo patrn y salida deseada.
3. Calcular salida de todos los nodos en red.
4. Calcular seales de error de todos los nodos: nodos de salida a nodos de primera
capa.
5. Adaptar pesos en funcin de seales de error.
6. Ir al paso 2.
2.5.2.4 Mejoras y variantes
Se pueden introducir algunas mejoras a este algoritmo que pretenden asegurar la
convergencia o hacer ms rpido el proceso:
o Inicializacin de pesos: enfocado a la convergencia.
o Factor de aprendizaje: enfocado a la convergencia.
o Tamao de la red: enfocado a la generalizacin.
o Trmino del momento: enfocado a obtener mnimos locales en la funcin de
error y a acelerar el proceso.
( ) ( ) + = +
L
j
L
j
L
ij
L
ij
O k k o e e 1 ( ) ( ) ( ) 1 k k
L
ij
L
ij
e e o
2.5.3 Caractersticas del perceptrn multicapa
Para finalizar, cabe destacar algunas de las caractersticas de este tipo de Redes
Neuronales:
o Puede aproximar cualquier funcin continua Y = F (X) con soporte compacto hasta
una precisin dada.
o Generaliza la respuesta frente a nuevos patrones de entrada (basado en
aproximacin/interpolacin).
o Idnea cuando sabemos qu queremos conseguir pero no cmo hacerlo y
adems disponemos de patrones de referencia: queremos que generalice a
nuevos patrones.
MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDES
NEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO
Carlos Martn Valle
Captulo 2: Las Redes Neuronales Pgina 27
o Aplicaciones:
Reconocimiento de patrones:
- Reconocimiento de caracteres en imgenes.
- Reconocimiento de fonemas en voz.
Prediccin de series temporales (demandas, etc):
- Identificacin y control de sistemas.
- Compresin de imgenes y reduccin de dimensionalidad.
- etc.
Todas las ideas de este ltimo apartado han sido extradas de [Martn-01], [Pardo,
00] y [Zufiria, 98].