Sunteți pe pagina 1din 10

63

CAPTULO 4

REDES NEURAIS MORFOLGICAS

Este Captulo apresenta uma introduo s Redes Neurais
Morfolgicas definidas pelos princpios da Morfologia Matemtica e pelas estruturas de
interconexes das clulas elementares, neurnios artificiais, encontradas nas Redes
Neurais Artificiais.

4.1 - INTRODUO S REDES NEURAIS MORFOLGICAS

As redes morfolgicas foram desenvolvidas por pesquisadores
interessados tanto no emprego dos operadores utilizados em MM na rea de RNAs
como tambm por pesquisadores interessados em explorar os mecanismos dos sistemas
conexionistas na rea da MM. Vrios trabalhos nesta rea j foram publicados, ver
Banon (1995); Davidson e Hummer (1992 e 1993); Ko e Morales (1992); Shih e Moh
(1989); e Wilson (1993).

As redes neurais morfolgicas so resultado de vrias pesquisas em
Morfologia Matemtica combinado com pesquisas na rea de redes neurais artificiais.
De acordo com Davidson e Hummer (1993), a principal diferena entre as redes neurais
clssicas e as redes neurais morfolgicas verificada no modo como cada paradigma de
rede combina as informaes numricas.

Nas redes neurais clssicas cada n processa informao em termos
do produto interno entre o vetor de entrada (padro de entrada) e o vetor peso do n em
estado de ativao, o qual submetido a uma funo limiar. Alternativamente, nas redes
neurais morfolgicas, o processamento da informao consiste na adio do vetor de
entrada ao vetor peso, e na avaliao do mximo ou mnimo resultante de cada parcela
somada. Por outro lado possvel verificar que a MM capaz de descrever qualquer



64
transformao de imagem para imagem (Banon e Barrera, 1993) e (Ritter e Wilson,
1987). Isto a torna promissora para o desenvolvimento de novas redes neurais artificiais.

4.2 - PROCESSAMENTO DO NEURNIO CLSSICO E NEURNIO
MORFOLGICO

Segundo Davidson e Hummer (1993), o processamento local (do
n) nas redes clssicas, em geral, definido como a seguir:

b f a w
j j i ji
i
N

|
.

`
,

1
(4.1)

onde N o nmero de pixels na imagem, e f uma funo de limiarizao.

Enquanto que, nas redes neurais morfolgicas, a computao em
cada n definida como a seguir:

b f a w
j j
i
N
i ji
+
|
.

`
,

1
(4.2)

Segundo Davidson e Hummer (1993), o processamento de
informao com redes neurais clssicas pode ser efetuado utilizando-se nmeros reais R
ou complexos C, com o carpo (R,+,*,0,1) ou (C,+,*,0,1) respectivamente. Isto define
uma estrutura algbrica operacional. Nesta estrutura, tm-se as operaes de + e *
representando adio e multiplicao com os elementos identidade 0 e 1
respectivamente.

Em se tratando de redes neurais morfolgicas, a estrutura algbrica
pode ser definida por ( , , , , ) R
t
+ 0 , onde R
t
= R {-,}. A operao o



65
mximo e substitui a operao +, e a operao + adio real estendida substitui a
operao *. Neste caso, o - substitui o 0 (zero), e o zero substitui o 1 (um).

4.3 - APRENDIZAGEM MORFOLGICA SUPERVISIONADA

Para uma rede neural morfolgica, Davidson e Hummer, definiram
a operao mximo aditivo [] por:

[ ]

'

'

t
Y y ), (x t ) a(x b(y) : b(y)) (y,
i y i
K
1 i
Y
b R b t a , (4.3)

e para o mnimo aditivo [], tem-se:

[ ]

'

'


t
Y y ),
i
(x
y
t )
i
a(x
K
1 i
b(y) : b(y)) (y,
Y
b R b t a , (4.4)

onde K o nmero de pixels da imagem a ser processada, a
X
t
R , b
Y
t
R , Y a
dimenso, e t:Y
X
t
R .

A transformao fornecida pela Equao (4.3) usada para
descrever a operao em cada n de uma rede neural morfolgica. Detalhes das
operaes morfolgicas generalizadas podem ser obtidos em Banon (1995) e Stemberg
(1986). Na maioria das aplicaes em processamento de imagens, a imagem de entrada
possui valores finitos; para manter-se a consistncia, deve-se definir a operao de
adio entre todos os elementos de R
t
. As operaes sobre R
t
em relao adio
so definidas da seguinte forma (Davidson e Hummer, 1993):

a + (-) = (-) + a = - p/ a R


a + = + a = p/ a R
+





66
(-) + = + (-) = -

As imagens a onde a = (a
1
, a
2
,...,

a
n
) esto compreendidas em R
t
X
,
isto ,
k
i
a R. Para imagens binrias, os valores sero sempre 0 ou 1. Contudo, se t
um template binrio, inicialmente os valores em t assumiro sempre 0, pois os nicos
valores permitidos em t sero sempre 0 ou -, isto pode ser observado com mais
detalhes a partir do exemplo de regras (ver Figura 4.2) sugerido em Davidson e Hummer
(1993).

Da mesma forma que redes neurais clssicas podem emular
transformaes lineares e no lineares, uma rede neural morfolgica, como definida em
Davidson e Hummer (1993), implementa a transformao do tipo da Equao (4.3).

Seja a R
t
N
e t (R
t
N
)
M
, ento pode-se definir uma rede neural
morfolgica a qual pode realizar uma transformao definida pela Equao (4.3), com N
ns de entrada com valores a
i
= (a
1
, a
2
, ..., a
N
), M ns de sada com valores b
i
= (b
1
, b
2
, ...,
b
M
), pesos w
ji
= t
j
(i), j = 1, ..., M, i = 1, ..., N, e com funo de ativao f
j
(x) = x, j = 1, ...,
M.

Em geral, segundo Davidson e Hummer (1993), o clculo bsico de
uma rede neural morfolgica pode ser definido por:

f(a [] t) = (f
1
(a [] t), ..., f
N
(a [] t)) (4.5)

onde f uma funo limiar que mostra a sada de todos os ns da rede (f
i
a funo de
sada de cada n).




67
Ainda, segundo Davidson e Hummer (1993), podem-se definir uma
rede neural artificial morfolgica (ver Figura 4.1), a qual utilize como funo de
ativao a Equao (4.5).


Fig. 4.1 - Exemplo de rede neural morfolgica.
FONTE: Davidson e Hummer (1993).

Seja a rede neural morfolgica da Figura 4.1, utilizando a funo
identidade como funo limiar, e como padro de entrada a imagem a, e t como
template, pode-se observar a ativao desta rede, a partir do exemplo a seguir:

Para o n b
7
, e utilizando-se a imagem a e o template t, da Figura
4.1, tem-se a seguinte ativao:

b a w a w a w
i
i i
i
7
1
9
7
1
9
1 1 9 79
+ + +


{ ,..., }

+ + + + +

i 1
9
9 4 3 12 2 1 { ( ),..., ( ), , , ( )}


i 1
9
4 4 4 4 4 { ,..., , , , } { , }

Para combinar uma imagem com um template, a computao pode
ser realizada apenas sobre o suporte do template. Formalmente, o suporte S

(t
y
),
- - -
b
1
b
7
b
a
1

2 3 7 8 9
9 8 7
4
1
5 6
2 3
1 2



68
para o template t (R
t
N
)
M
, no ponto y Y, o conjunto de pixels em X onde t
y
(x)
-, isto :

S

(t
y
) = {x X:t
y
(x) -}

4.3.1 - Regra de Aprendizagem Supervisionada em Redes Neurais Morfolgicas

Uma regra de treinamento para aproximao (em alguns casos,
dependendo do treinamento, pode ocorrer imperfeies) da transformao de dilatao
binria, pode ser utilizada em uma rede neural morfolgica de duas camadas de ns a
partir da Equao (4.3).

importante observar que o treinamento descrito a seguir, no trata
de uma rede neural clssica aproximando a funo dilatao, e sim de um novo
paradigma de rede, o qual, no necessariamente, teria inspirao neurobiolgica. No
entanto, as semelhanas de definio de camadas, de processamento paralelo
distribudo, funo de ativao e regra de aprendizagem so inspiradas em modelos de
redes neurais clssicos j expostos anteriormente.

4.4 - ESTUDO DE CASO DE TREINAMENTO E ATIVAO

A exemplo de RNAs clssicas, o conjunto de treinamento consiste
de P pares de padres (imagens), (a
k
, d
k
), k = 0, ..., p-1 (k o ndice que identifica cada
tipo de imagem), onde a
k
representa as imagens de entrada e d
k
= a
k
[] t so as
imagens a
k
dilatada pelo template invariante t. Em casos prticos, o template no
conhecido (Davidson e Hummer, 1993), e durante a fase de treinamento a rede poder
gerar vrias imagens de sada c
k
, as quais so os resultados de sada durante a fase de
treinamento.




69
O treinamento iniciado a partir da apresentao, camada de
entrada da rede, de um padro a ser transformado; em seguida ativa-se a rede a partir da
Equao (4.5) para obteno da imagem transformada exposta na camada de sada. Em
seguida, observada a discrepncia entre o padro obtido na camada de sada e o padro
de referncia desejado como sada para o padro corrente submetido rede. Nesta fase
de processamento, os pesos so alterados de acordo com as regras da Figura 4.2.

O principal objetivo deste processo de aprendizagem a obteno
do template (representado por pesos) que fornea a transformao adequada obteno
da sada desejada d
k
quando a
k
submetido rede em tempo de ativao. Isto pode ser
obtido a partir da modificao dos pesos, usando-se uma regra de aprendizagem.

Algumas consideraes prticas devem ser explicitadas. Deve-se
assumir que a rede limitada quanto ao nmero de conexes, isto , assumindo-se que
o nmero de conexes limitado a um suporte N(j) no domnio X da imagem, o qual
inclui o suporte S

(t
j
) do template, j = 1, ..., N.

Por exemplo, pode-se assumir um template t com 4 elementos
conectados de vizinhana. Ento, escolhe-se um suporte de 8 elementos conectados
como N(j). Os outros pesos do n j devem ser considerados desconectados, ou peso com
valor -. Isto reduz o nmero de pares necessrios para conseguir um bom treinamento,
isto , reduz o nmero de possibilidades para obter-se uma representao adequada em
forma de template. Os autores levam em considerao que o usurio deve especificar
um template de tamanho pr-definido N. Portanto, a rede neural morfolgica processar
imagens a {0,1}
N
, com elementos estruturantes t ({0,-}
N
)
N
.

Na realidade, os valores do template no so conhecidos a priori, e
sero definidos durante o treinamento, semelhante ao processo de modificao dos
pesos das redes neurais clssicas. Os pesos ou valores do template precisam ser
ajustados via uma regra de treinamento, com capacidade para modificar tais valores



70
desconhecidos, at encontrar um template ideal, ou prximo ao ideal, adequado
transformao desejada.

A regra de aprendizagem apresentada em Davidson e Hummer
(1993), definida por uma tabela de modificaes, baseada em casos. A Figura 4.2
mostra as possveis modificaes a serem realizadas no template t (onde t representado
por w
ji
).

Caso
k
i
a
k
j
d
k
j
c
Novo valor para
ji
w
1 0 0 1 Valor corrente
2 0 1 0 Valor corrente
3 1 ou 0 1 1 Valor corrente
4 1 ou 0 0 0 Valor corrente
5 1 0 1 -
6 1 1 0 0

Fig. 4.2 - Regras de Aprendizagem para Rede Neural Morfolgica.
FONTE: Davidson e Hummer (1993).

Inicialmente, pode-se atribuir o valor 0 (zero) a todos os pesos
definidos na vizinhana N(j). Portanto, o template correspondente a estes pesos deve
conter um suporte maior do que o template desconhecido t. Os N valores de c so
calculados depois da entrada a ser processada atravs da rede, j inicializada.

O conhecimento a priori de como os pesos devem variar nas redes
neurais clssicas foi extrado, inicialmente, a partir de inspiraes biolgicas, mas
algumas modificaes nos algoritmos, foram realizadas para obteno de maior
desempenho, isto , menor esforo computacional.

Em se tratando de redes neurais morfolgicas as regras so
extradas a partir do conhecimento a priori das possveis modificaes gerais, que
podem ser realizadas para obteno do template adequado.




71
Portanto, as modificaes dos elementos estruturantes so
realizadas a partir da anlise de cada caso de possveis modificaes (adaptaes ou
treinamento) gerais para obteno do template necessrio transformao desejada.

Um exemplo de como estas regras de aprendizagem foram
definidas, para a rede neural morfolgica, ser descrito para os casos 3, 4 e 5. Caso a
sada(j) calculada tenha o mesmo valor da sada de referncia (resposta desejada), ento
no h modificao nos pesos.

No entanto, para o caso 5; o valor calculado 1, que maior do que
o valor desejado 0, isto , i, a
i
k
tem valor 1, portanto w
ji
deve assumir valor -, uma
vez que d a w a
j
k
i S t
i
k
ji i
k
ji
+

0 0
( )
, para todo i S
-

(t
j
). As regras restantes podem
ser derivadas de maneira similar. O algoritmo de aprendizagem da rede neural
morfolgica apresentado a seguir:

Fig. 4.3 Algoritmo da rede de Davidson e Hummer.
FONTE: Davidson e Hummer (1993).
Inicializar os pesos (valores do template) com 0s dentro de N(j)
Repete
Loop k = 0, P-1 (onde P o nmero de padres)
C calcula sada do n j para entrada a
k
(ativao)
c a w j M
j
k
i
N
i
k
ji
+

1
1 , ,...,
C Ajusta pesos w
ji
pela regras de aprendizagem (adaptao), na
vizinhana definida por N(j) de acordo com a tabela de aprendizagem apresentada na
Figura 3.2.
fim Loop
At a rede conseguir a resposta correta para cada par (de padres) de treinamento (a
k
, d
k
),
para k = 0,..., P-1, ou quando no ocorrer mudanas nos pesos
Fim.



72

importante observar que uma vez w
ji
assuma valor - para um
determinado par (a
k
, d
k
), este valor no mais alterado. Segundo os autores, a rede foi
treinada para um conjunto de imagens, como uma simples demonstrao de
funcionamento, o que ainda no significa uma anlise completa da rede. Os autores
utilizaram duas medidas para determinar a eficcia do algoritmo para os dados de teste.
A primeira foi a medida da diferena entre o template com valores ideais e o template
determinado pelo treinamento da rede.

A segunda medida foi obtida com a avaliao entre as verses de
dilataes perfeitas (utilizando o template ideal), e as dilataes obtidas pela rede.
Esta medida foi efetuada pela contagem do nmero de pixels das imagens dilatadas pela
dilatao ideal e as obtidas pela rede. A maior discrepncia entre valores de pesos entre
o elemento ideal e o encontrado pela rede foi 31%, enquanto que a maior discrepncia
entre o resultado da dilatao com o template ideal e o resultado obtido pela rede, foi de
2.8%. No entanto, os autores enfatizam que os resultados obtidos mostram uma medida
grosseira de quo prximo os pesos da rede esto do template ideal.

S-ar putea să vă placă și