Documente Academic
Documente Profesional
Documente Cultură
Sistemas Conexionistas 1
REDES AUTOORGANIZATIVAS II
1. Leyes de Grossberg.
1.1. Red de Contrapropagacin.
- Estructura.
- Funcionamiento.
- Limitaciones y Ventajas.
2. Teora de la Resonancia Adaptiva.
2.1. Introduccin.
2.2. ART1. Modelo Simplificado.
- Estructura de la red.
- Fases de Funcionamiento.
- Seales externas.
- Modificacin de Pesos.
- Limitaciones.
2.3. ART2. Modelo Continuo.
LEYES DE GROSSBERG
Sistemas Conexionistas 2
(Freeman, capt.6; Matlab)
W1
X1
X2
Wn
Xn
=I
Sistemas Conexionistas 3
y = a * y + b * neta
a, b > 0
y( t ) =
y el valor de equilibrio es:
b
neta(1 e at )
a
b
yeq (t ) = neta
a
y(t ) = yeq (1 e
Manuel F. Gonzlez Penedo
a( t t )
Sistemas Conexionistas 4
w = cw + dIy
c, d > 0
Suponiendo y = yeq
*
w = cw + dI ( wI )
Si se suprime ahora el vector de entrada:
*
w = cw
Pr oceso de Olvido
Sistemas Conexionistas 5
Para evitar este olvido se modifica la ecuacin de tal forma que todo cambio en el
vector de pesos, dependa de si hay o no que aprender un nuevo vector de entrada:
*
w = ( cw + dIy)U (neta)
c, d > 0
1 neta > 0
Si interpolamos tenemos:
U ( neta) =
0 neta = 0
d
w eq c I y c = d
w = a(I w )
con
lo cual
obtenemos
w ( t + 1 ) = w ( t ) + a ( I w ( t ))
Ejemplo: Freeman pag. 235 (media de vectores) y en el Matlab.
Sistemas Conexionistas 6
Outstart
As como la Instar poda clasificar o reconocer un vector de entrada, este modelo
puede reconstruir un vector o recalcularlo a partir de un valor.
P
w1
wn
Y1
Y2
Yn
P
W1
Y1
= P
Wn
Yn
RED CONTRAPROPAGACIN
Sistemas Conexionistas 7
(Freeman)
y1
x1
y1
x2
y2
xn
ym
xn
ym
Sistemas Conexionistas 8
COMPONENTES:
Capa de Entrada (1,5).
Capa Oculta (3) (PEs Instar. Aprendizaje Competitivo).
Capa de Salida (2,4) (formada por PEs del tipo Outstart).
Nota: En la bibliografa nos podemos encontrar que la Red de Contrapropagacin es
una combinacin de aprendizaje sin supervisar y supervisado:
Modelo de Kohonen (estructura competitiva) Red Perceptrn (capa oculta y de salida) (supervisado).
FUNCIONAMIENTO:
Dado un conjunto de pares de vectores (X,Y), entradas y salidas deseadas, este tipo de
red puede aprender a asociar un vector X a un vector Y. Se trata en su conjunto de una
tarea supervisada.
Si la relacin entre X e Y se puede describir mediante una funcin continua tal que
Y=F(X), entonces la CPN aprender dicha correspondencia para todo valor de X en el
intervalo especificado por el conjunto de vectores de entrenamiento. Adems si existe
la inversa de F, entonces, tambin aprender la correspondencia X=F(Y).
Manuel F. Gonzlez Penedo
Sistemas Conexionistas 9
CARACTERSTICAS:
Las CNP son interesantes por varios motivos:
Sistemas Conexionistas 10
ENTRENAMIENTO DE LA CNP.
Sistemas Conexionistas 11
Estructura Supervisada.
Una vez que se ha entrenado la zona competitiva y tenemos asignada cada una de las
neuronas ocultas a una clase diferente se procede a entrenar la capa de salida. Varias
Formas:
Sistemas Conexionistas 12
w (t + 1) = w (t ) + ( y w (t ))
i
= P
normalmente.
Se repiten los pasos del 1 al 3 hasta obtener las salidas deseadas para cada
patrn.
Sistemas Conexionistas 13
En la capa competitiva para cada patrn slo se activa un PE con lo que las salidas de
los dems PE en dicha capa sern 0.
Los nicos pesos que se modificarn en la estructura supervisada sern los que se
correspondan a las conexiones de los PEs de la capa de salida con el PE ganador
en la capa competitiva.
que en la
bibliografa nos podamos encontrar con que dicha capa fuese del tipo Perceptrn.
Esta similitud viene dada por lo siguiente:
w(t + 1) = w(t ) + 2 E k x k
Si consideramos:
Manuel F. Gonzlez Penedo
Sistemas Conexionistas 14
(t ) + ( y h whj (t ) x j ) x j
(t )
hj
hj
j = neurona ganadora
(t + 1) =
hj
en otro caso
Sistemas Conexionistas 15
W2 = (9,1)
W3 = [(5+4+6)/3,(9+8+7)/3] = (5,8)
Si se representan en el plano estos pesos, coincidirn con los centroides o centros de gravedad de los grupos de
puntos considerados de la misma clase. Los promedios de las salidas deseadas se almacenaran en los
pesos del Perceptrn de salida:
X3
X4
W3
X6
X5
W1
X9
X1
W2
V1 = [(0+0)/2,(0+1)/2,(0+0)/2,(1+1)/2] = (0,0.5,0,1)
V2 = (0,0,1,0)
V3 = [(0+0+0)/3,(0+1+1)/3,(1+0+1)/3,(1+0+0)/3] = (0,0.7,0.7,0.3)
Sistemas Conexionistas 16
(Neural Computing)
Habilidad para aprender nuevos conceptos sin necesitar para ello olvidar
otros aprendidos en el pasado.
Objetivo: Obtener esta misma capacidad en las redes neuronales. Sin embargo, muchas
de estas redes tienden a olvidar informaciones pasadas al tratar de ensearles otras
nuevas.
As: Tarea de Clasificacin de Patrones.
Problema bien definido ------------------ Conjunto de Entrenamiento.
Aprendizaje Correcto ------------------------ Matriz de Pesos (finales).
Limitaciones:
Sistemas Conexionistas 17
Sistemas Conexionistas 18
IDEA:
Para solucionar el dilema de la plasticidad y estabilidad, el modelo ART propone aadir
a las redes un mecanismo de realimentacin entre las neuronas competitivas de la capa
de salida de la red y la capa de entrada. Este mecanismo facilita el aprendizaje de nueva
informacin sin destruir la ya almacenada.
La teora de la resonancia adaptiva se basa en la idea de hacer Resonar la informacin
de entrada con los representantes o prototipos de las categoras que reconoce la red.
Si entra en resonancia con alguno, es suficientemente similar, la red considera que
pertenece a dicha categora y nicamente realiza una pequea adaptacin del
prototipo almacenado representante de la categora para que incorpore algunas
caractersticas del dato presentado.
Cuando no resuena con ninguno, no se parece a ninguno de los existentes,
recordados por la red hasta ese momento, la red se encarga de crear una nueva
categora con el dato de entrada como prototipo de la misma.
Dos operaciones: Entrenamiento y Adaptacin.
Manuel F. Gonzlez Penedo
Sistemas Conexionistas 19
ARQUITECTURA Y FUNCIONAMIENTO.
Una red ART bsicamente consta de dos capas entre las que se establecen
conexiones hacia adelante y hacia atrs y dos tipos de seales de control.
t11
tn1
y1
w11
x1
Capa 1 (Competitiva).
Operaciones:
Entrada y Comparacin.
w1n
1
2
wm1
wmn
xn
ym
tnm
t1m
Control de Ganancia
Control de Reset
Capa 2. Operaciones:
Salida y Reconocimiento.
Sistemas Conexionistas 20
OPERACIN
Fase de Inicializacin.
Fase de Reconocimiento.
Fase de Comparacin.
Fase de Bsqueda.
Fase de Inicializacin
Sistemas Conexionistas 21
SEALES DE CONTROL
Las seales de control se utilizan para controlar el flujo de datos a travs de la red y
conmutar entre las diferentes fases.
Control de Ganancia: controla el flujo para la capa de entrada y conmuta entre dos
estados:
Entrada de Datos. Comparacin.
Esta seal toma valores binarios y dichos valores suelen depender de varias seales:
- Salidas de las Neuronas de la capa de Salida ponderadas por pesos (-N).
- Vector de entrada ponderado por pesos (1).
0
existe alguna neurona activa SG es forzado a 0.
xi N y
i =1
j =1
xi N y
i =1
j =1
0.5
< 0.5
Sistemas Conexionistas 22
Controla el flujo de los datos para la capa de salida. Sirve para conmutar tambin entre
dos estados: Reconocimiento y Bsqueda.
Toma tambin valores binarios y dichos valores activan o desactivan los nodos en la
capa de reconocimiento (capa de salida). Lo mismo que en el caso anterior estos
valores suelen depender de diferentes seales.
1
desactivar la neurona ganadora en la capa
x neta
i =1
i =1
N
1
i
x neta
i =1
i =1
1
i
>0
0
Re set
Sistemas Conexionistas 23
FASE DE RECONOCIMIENTO.
En esta fase la seal de ganancia es 1 ya que ninguna neurona de la capa de salida est
activada. Las neuronas de la capa de entrada se activan utilizando la regla 2/3. Es
decir si 2 o ms entradas estn activadas la neurona se activa produciendo un 1, en
otro caso produce un 0.
Para las neuronas de la capa de salida la operacin que se realiza es la siguiente:
Yj = 1
Yj = 0
si Wji*Xi es mximo.
en otro caso.
Sistemas Conexionistas 24
FASE DE COMPARACIN.
Sistemas Conexionistas 25
X * Y = xi * yij = xi * t ij
i =1
j = neurona ganadora
i =1
X = xi
i =1
Sistemas Conexionistas 26
Sistemas Conexionistas 27
Actualizacin de pesos:
Los pesos feedforward (W) tienen el mismo valor que los feedback (T), pero
normalizado:
W=T/(+T)
es un valor pequeo, normalmente se utiliza 0.5, aunque en la inicializacin de los
pesos se recomiendo como valor la unidad (Lippman).
ij
( t + 1) = t ij ( t )* x i
(t ) * x
t
w ( t + 1) =
+ t (t ) * x
ji
ij
N
i =1
ij
Sistemas Conexionistas 28
FASE DE BSQUEDA:
Sistemas Conexionistas 29
Sistemas Conexionistas 30
ALGORITMO GENERAL:
1- Se inicializan pesos y parmetro de vigilancia.
2- Se aplica una nueva entrada.
3- Se determina la neurona ganadora en la capa de salida.
4- Se compara la categora que representa la neurona ganadora con la entrada.
Si pertenece a la categora, se va al paso 5.
Si no pertenece a la categora se desactiva la ganadora y se vuelve al paso 2.
5- Se adaptan los pesos.
6- Se desactivan todas las neuronas de la capa de salida.
7- Se vuelve al paso 2.
Sistemas Conexionistas 31
Se trata de una red con una gran sensibilidad ante el ruido o distorsin, tambin ante
el desplazamiento de los datos de entrada, que puede dar lugar a una gradual
degradacin de los prototipos correspondientes, debido al carcter destructivo
(operacin AND de datos de entrada y prototipo) de la regla de aprendizaje que
realiza la adaptacin de los pesos. Sin embargo, si estos datos de entrada son
sometidos a un adecuado preprocesamiento, la red ART puede ser til para realizar
una posterior tarea de clasificacin o categorizacin.
Manuel F. Gonzlez Penedo
Sistemas Conexionistas 32
X3=(1,1,1,0)
0.2
1 1 1 1
0.2
T =
W =
1
1
1
1
0.2
Se inicializan pesos:
0.2
0.2
0.2
0.2
0.2
Sistemas Conexionistas 33
0.4 0.2
0
4
0
2
.
.
1 1 0 0
T =
W =
0 0.2
1 1 1 1
As los nuevos pesos sern:
0 0.2
Se presentan el segundo patrn, se produce entonces la competicin entre las neuronas
de la capa de salida con los siguientes resultados: y1=0
y2=0.4
Por tanto resulta ganadora la neurona 2, por lo tanto se vuelven a actualizar los pesos:
1 1 0 0
T=
0 0 1 1
0.4 0
0.4 0
W =
0 0.4
0 0.4
Sistemas Conexionistas 34
Sistemas Conexionistas 35
4.La neurona ganadora j, enva su salida (1) a travs de las conexiones (Tji).
5.Se compara la informacin de entrada X con la informacin Yj recibida. En este
modelo la relacin de semejanza utilizada es:
Relacin de Semejanza=|xi-tji|
6.Se compara la Relacin se Semejanza con el parmetro de vigilancia establecido
por el usuario, que en este modelo tendr un rango vlido (0..mximo valor de las
componentes de X).
7.Si no se satisface dicha comparacin se desactiva la neurona j y vuelve al paso 3.
Si se satisface se ajustan pesos. La regla utilizada es:
+ w ( t ) * Num ( t )
x
w (t + 1) = t (t + 1) =
Num (t ) + 1
i
ji
ji
ij