Documente Academic
Documente Profesional
Documente Cultură
C ENTRO DE T ECNOLOGIA
P ROGRAMA DE P ÓS -G RADUAÇÃO EM E NGENHARIA E LÉTRICA E
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE
DE C OMPUTAÇÃO
A minha esposa Carine, pelo apoio, amor, paciência e compreensão durante a realização
deste trabalho.
À minha família, pelo apoio durante esta jornada, principalmente à minha mãe Teresinha
(sempre presente) e ao meu pai Evaristo, que sempre incentivaram os seus filhos a estudar.
Ao meu orientador, Professor José Alfredo Ferreira Costa, pela amizade e por comparti-
lhar seus conhecimentos, me orientando neste caminho.
Ao amigo Fábio Augusto Procópio de Paiva, pela amizade e pelas sugestões para este
trabalho.
The amount of collected and stored information is growing every day in several areas
of knowledge and data mining techniques are applied to these datasets in order to extract
useful knowledge. One or another algorithm, or the same algorithm with different attri-
butes, can lead to different results due to the dataset diversity. To solve this problem,
machines committees methods were developed. A machine committee is a set of neural
networks working independently and the results are combined into a single output, achi-
eving a better generalization. The purpose of this work is to develop a new method for
Kohonen maps ensemble, where the maps fusion is weighted by cluster validation indi-
ces and is suitable for equal size maps fusion and for different size maps fusion. The
proposed algorithm has been tested in multiple data sets from the UCI Machine Learning
Repository and Fundamental Clustering Problems Suite. Computer simulations show the
proposed method is able to reach encouraging results, obtaining raising performance com-
pared with a single Kohonen map.
Sumário i
Lista de Tabelas v
List of Algorithms vi
1 Introdução 1
1.1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Organização do documento . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Fundamentação Teórica 5
2.1 Mapas Auto-organizáveis de Kohonen . . . . . . . . . . . . . . . . . . . 5
2.1.1 Treinamento do Mapa . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Índices de Validação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 O índice de Dunn . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.2 O índice de Calinski e Harabasz . . . . . . . . . . . . . . . . . . 9
2.2.3 O índice Davies-Bouldin . . . . . . . . . . . . . . . . . . . . . . 10
2.2.4 O índice PBM . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 O índice CDbw . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Modificação de índices de validação . . . . . . . . . . . . . . . . . . . . 14
2.4 Comitês de máquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Construção de um comitê de máquinas . . . . . . . . . . . . . . 16
2.4.2 Algumas aplicações de comitês de máquinas . . . . . . . . . . . 18
2.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Materiais e Métodos 21
3.1 Fusão de mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . 21
3.1.1 Seleção e dos candidatos . . . . . . . . . . . . . . . . . . . . . . 22
i
3.1.2 Equações de fusão . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Experimento fatorial . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Abordagens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.5 Algoritmo proposto . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Fusão de mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . 27
3.2.1 Estrutura com 7 mapas . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 30
3.2.3 Validação Cruzada . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Medida de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Teste estatístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Resultados 37
4.1 Conjunto de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1 Estrutura com 7 mapas . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 51
4.3.3 Estrutura de fusão com validação cruzada . . . . . . . . . . . . . 58
4.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Conclusão 63
5.1 Considerações finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.1.1 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . 64
5.1.2 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . 64
5.2 Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Publicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Referências bibliográficas 67
iii
4.18 Acurácia para 7 mapas diferentes - Column. . . . . . . . . . . . . . . . . 49
4.19 Acurácia para 7 mapas diferentes - Engytime. . . . . . . . . . . . . . . . 49
4.20 Acurácia para 7 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 50
4.21 Acurácia para 7 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 50
4.22 Acurácia para 7 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 50
4.23 Acurácia para 7 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 50
4.24 Acurácia para 7 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . . 50
4.25 Acurácia para 7 mapas diferentes - PimaIndians. . . . . . . . . . . . . . . 50
4.26 Acurácia para 7 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . . 51
4.27 Acurácia para 7 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 51
4.28 Acurácia para 7 mapas diferentes - Two Diamonds. . . . . . . . . . . . . 51
4.29 Acurácia para 7 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 51
4.30 Acurácia para 7 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . . 51
4.31 Acurácia para 49 mapas diferentes - BC Wisconsin. . . . . . . . . . . . . 56
4.32 Acurácia para 49 mapas diferentes - Chainlink. . . . . . . . . . . . . . . 56
4.33 Acurácia para 49 mapas diferentes - Column. . . . . . . . . . . . . . . . 56
4.34 Acurácia para 49 mapas diferentes - Engytime. . . . . . . . . . . . . . . 56
4.35 Acurácia para 49 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 57
4.36 Acurácia para 49 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 57
4.37 Acurácia para 49 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 57
4.38 Acurácia para 49 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 57
4.39 Acurácia para 49 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . 57
4.40 Acurácia para 49 mapas diferentes - PimaIndians. . . . . . . . . . . . . . 57
4.41 Acurácia para 49 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . 58
4.42 Acurácia para 49 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 58
4.43 Acurácia para 49 mapas diferentes - Two Diamonds. . . . . . . . . . . . 58
4.44 Acurácia para 49 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 58
4.45 Acurácia para 49 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . 58
4.46 Acurácia com validação cruzada estratificada. . . . . . . . . . . . . . . . 61
v
Lista de Algoritmos
vii
Capítulo 1
Introdução
combinar soluções iguais. Também é necessário que os erros apresentados pelos compo-
nentes sejam independentes uns dos outros, pois não há ganho para o comitê se os todos
os componentes, por exemplo, errarem a mesma classificação de um padrão de entrada.
Para os mapas auto-organizáveis de Kohonen (Kohonen Self-Organizing Maps - SOM)
(Kohonen, 1982), erros descorrelacionados podem ser obtidos, por exemplo, utilizando
diferentes conjuntos de treinamento ou variando parâmetros de treinamento para cada
rede neural. A combinação das saídas dos mapas SOM em uma única saída pode ser feita
a partir da fusão dos neurônios dos mapas que compõem o comitê de máquinas.
1.1 Motivação
Tanto a abordagem de comitês de máquinas quanto o uso de Mapas Auto Organi-
záveis de Kohonen têm sido muito explorados nos últimos anos. Comitês de máquinas
são relativamente simples em seu conceito e complexos em sua implementação, mas são
capazes de aumentar a capacidade de generalização de um modelo. As Redes de Koho-
nen trabalham com dados multidimensionais, projetando-os em um mapa bidimensional,
preservando a topologia dos dados.
A motivação deste trabalho é desenvolver um novo método para combinação de mapas
de Kohonen que empregue a ponderação por índices de validação de agrupamentos, com
o objetivo de aumentar a acurácia desse método em relação a uma única rede de Kohonen.
1.2 Objetivos
A proposta deste trabalho é apresentar um método para fusão de Mapas de Kohonen
por meio de comitês de máquinas e com ponderação por índices de validação de agrupa-
mentos.
Os objetivos específicos desta pesquisa são:
Fundamentação Teórica
kx − wc k = argmini kx − wi k (2.1)
Os pesos do neurônio vencedor são ajustados de acordo com a Equação 2.2, junta-
mente com os pesos dos neurônios vizinhos.
Onde t indica a iteração (ou época), x(t) é o padrão de entrada, hci (t) é a função de
vizinhança, centrada no neurônio vencedor ix , enquanto que α(t) é a taxa de aprendizado,
com valores entre 0 e 1.
Na Figura 2.2 é ilustrado o processo de atualização de pesos do neurônio vencedor e
sua vizinhança. As linhas sólidas correspondem à situação antes da atualização dos pesos
e as linhas tracejadas mostram a mudança devido à aproximação do BMU e seus vizinhos
do padrão de entrada x. Os círculos escuros e claros representam, respectivamente, os
neurônios antes e depois do ajuste dos pesos.
A função gaussiana é utilizada para descrever a influência do BMU sobre seus vizi-
nhos (atualização dos pesos sinápticos), pois apresenta um significado biológico coerente:
o neurônio ativado tende a excitar com maior intensidade os neurônios na sua vizinhança
imediata e decai suavemente com a distância lateral (Haykin, 2001). A Equação 2.3 mos-
tra como é calculada a excitação do neurônio j, em relação ao neurônio vencedor i, sendo
d ji a distância entre eles (normalmente, a distância euclidiana é utilizada).
!
di2j
hi j = exp − (2.3)
2σ2
O índice de Dunn (Dunn, 1973) é calculado pela razão entre a mínima distância entre
dois pontos pertencentes a dois diferentes grupos (δ(Ci ,C j )) e a máxima distância entre
dois pontos pertencentes ao mesmo grupo (∆(Ck )), como ilustra a Figura 2.3. É adequado
para conjunto de dados que possuam grupos compactos e bem separados. É sensível a
ruídos, pois eles interferem no cálculo do diâmetro do grupo, e seu custo computacional
é elevado.
2.2. ÍNDICES DE VALIDAÇÃO 9
B(k)/(k − 1)
CH(k) = (2.5)
W (k)(n − k)
Onde:
1
S (Ci ) =
c ∑ kx − c k
i (2.6)
c∈Ci
Onde:
A separação entre os grupos é dada pela distância Euclidiana entre os centroides dos
grupos, como mostra a Equação 2.7:
δ Ci ,C j =
ci , c j
(2.7)
k
1 S (Ci ) + S C j
DB =
k ∑ max
δ Ci ,C j
(2.8)
i=1
i6= j
c ri
1 1
DensIntra(c) =
c ∑ ∑density(v ), c > 1
ri
ij (2.11)
i=1 i=1
Onde:
• c é o número de grupos.
• ri é número de pontos representativos.
• vi j é j-ésima a representação do agrupamento i.
Sendo a densidade:
ni
density(vi j ) = ∑ f (x , v )
l ij (2.12)
l=1
Onde:
Aqui, stdev corresponde à média dos desvios padrões de cada um dos c agrupamentos
(desvio padrão dos pontos do grupo até o centroide deste grupo).
2.2. ÍNDICES DE VALIDAÇÃO 13
A densidade inter-grupos é definida como a densidade nas áreas entre os grupos. Essa
densidade deve ser baixa quando temos grupos compactos e bem separados.
c c
close repi − close rep j
DensInter(c) = ∑∑ · density(ui j ), c > 1 (2.13)
(kstdev(i)k + kstdev( j)k)
i=1 j=1
Onde:
• close repi − close rep j representam o par de pontos de representação mais próxi-
mos entre o agrupamento i e j.
• ui j é o ponto médio entre este par de pontos.
ni +n j
density(ui j ) = ∑ f (x , u )
k ij (2.14)
k=1
Sendo xk o vetor de entrada que pertence ao grupo i ou j. Já o termo do somatório é
assim definido:
1, se kx − vk ≤ 1 × (kstdev(i)k + kstdev( j)k),
2
f (xk , ui j ) =
0, caso contrario.
c c
close repi − close rep j
Sep(c) = ∑∑ 1 + Inter den(c)
,c > 1 (2.15)
i=1 j=1
j6=i
Assim, o índice de validação de agrupamentos CDbw é dado por pela equação 2.10.
O número ideal de grupos é indicado quando o valor do CDbw atinge o valor máximo,
independente do algoritmo utilizado para o agrupamento dos dados.
Este índice adapta-se bem a grupos com as mais variadas formas geométricas, uma
vez que usa vários vetores representativos para cada grupo e não somente o centroide.
Na seção seguinte será mostrada a modificação no cálculo dos índices de validação de
agrupamentos, adaptados para uso com os mapas de Kohonen, proposto em (Gonçalves,
2009).
14 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
1
δi, j =
|Ci | C j ∑ d (x, y) (2.16)
x∈Ci
y∈C j
Na Equação 2.16, d (x, y) é uma medida de distância e |Ci | e C j referem-se à quanti-
dade de elementos dos grupos Ci e C j , respectivamente.
Quando a quantidade de elementos do grupo é elevada, a complexidade computacio-
nal é elevada. A Equação 2.17 mostra a modificação do cálculo através da metodologia
proposta em (Gonçalves, 2009) :
1
δSOM
i, j = ∑ h (wi ) · h w j · d wi , w j (2.17)
|Ci | C j
wi ∈Wi
w j ∈W j
No caso da re-amostragem dos dados duas técnicas são bastante utilizadas: Bagging
e Boosting.
Bagging (Breiman, 1996) é uma técnica de geração de conjuntos distintos de treina-
mento a partir de um único conjunto, através de re-amostragem com reposição.
Por exemplo, considere um único conjunto de treinamento com N amostras, para trei-
nar m componentes. O objetivo é construir m conjuntos de treinamento com N amostras
cada um. Com uma distribuição de probabilidade uniforme para seleção das amostras a
2.4. COMITÊS DE MÁQUINAS 17
partir do conjunto fonte, teremos algumas amostras selecionadas mais de uma vez, pois
há reposição.
Há a possibilidade de os componentes não generalizarem de forma satisfatória, mas
a combinação destes modelos pode resultar em uma generalização melhor do que cada
componente individual.
Boosting (Schapire, 1990) é um método em que os conjuntos de treinamento são ge-
rados através de uma amostragem não uniforme, diferentemente do método Bagging.
A probabilidade de uma dada amostra ser escolhida depende da contribuição desta
para o erro dos componentes já treinados.
Tomando como exemplo um problema de classificação, uma amostra que não seja cor-
retamente classificada pelos componentes já treinados terá uma maior probabilidade de
ser selecionada do que uma amostra que seja corretamente classificada. Assim, esta amos-
tra terá uma chance maior de compor o conjunto de treinamento do próximo componente
a ser treinado.
Um dos problemas desta técnica é a necessidade de treinamento sequencial dos com-
ponentes do comitê, uma vez que as probabilidades devem ser redefinidas de acordo com
o comportamento dos componentes já treinados.
A versão mais popular do algoritmo de Boosting é chamada AdaBoost, na qual cada
componente é treinado sequencialmente e a distribuição dos dados de treinamento é feita
levando-se em consideração os erros do componente treinado no passo imediatamente
anterior.
Considerando a etapa da seleção de componentes, pode ser que nem todos os com-
ponentes contribuam para o desempenho global do comitê. Assim, é preciso identificar
e descartar estes componentes, uma vez que a inclusão de todos eles no comitê pode
degradar sua performance (Zhou et al., 2002).
Uma maneira de selecionar os componentes é através de alguma medida de erro, por
exemplo. Dois são os métodos mais citados na literatura para seleção de componentes: o
construtivo e o da poda.
O método construtivo pode ser descrito desta maneira: os M candidatos a comporem
o comitê são ordenados com base em algum critério, por exemplo medida de erro, que irá
mensurar o desempenho individual de cada componente. O que tiver melhor desempenho
individual é inserido no comitê. O próximo candidato (o de segundo melhor desempenho
individual), é adicionado ao comitê. Se o desempenho do comitê de máquinas melhorar,
o comitê passa a ter dois componentes. Caso contrário, o elemento recém-inserido é
removido. Este processo se repete então para todos os demais candidatos restantes na
lista ordenada gerada inicialmente.
18 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
A abordagem de comitês demonstrou ser uma forma eficaz para aumentar a precisão
e robustez de reconstrução de sinal de sensores em uma planta de geração de energia
nuclear (Baraldi et al., 2010).
Em seu trabalho, Coelho (2006), propôs uma metodologia de criação de comitês de
máquinas para problemas de classificação, onde os componentes são redes neurais ar-
tificiais do tipo perceptron multicamadas. Para que fossem gerados bons candidatos a
comporem o comitê, atendendo a critérios de desempenho e de diversidade, foi aplicada
uma meta-heurística populacional imuno-inspirada, caracterizada por definir automati-
camente o número de indivíduos na população a cada iteração, promover diversidade e
preservar ótimos locais ao longo da busca. Os resultados obtidos indicam a validade da
metodologia de criação de comitês de máquinas.
Em Naldi (2011), o autor investigou as técnicas de combinação de agrupamentos,
através de algoritmos evolutivos e de índices de validação aplicadas na seleção de agru-
pamentos para combinação e na mineração distribuída de dados, conseguindo partições
de boa qualidade e com bom desempenho computacional.
No trabalho de Ferreira (2012), o método para construção de comitês é baseado em
rotação, que utiliza a técnica de extração de características da análise de componentes
principais (PCA) como artifício para rotacionar os eixos formados pelos subgrupos de
atributos para construção de comitês diversos e acurados.
Até aqui foram relatados alguns trabalhos utilizando a técnica de comitês de máquinas,
para demonstrar a diversidade e exito na aplicação desta técnica em diversas áreas do
conhecimento. Neste trabalho são empregados comitês de Mapas de Kohonen. A seguir
são descritos apenas alguns trabalhos para ilustrar o emprego do método em variadas
áreas.
Em Jiang e Zhou (2004), um método de segmentação de imagens, baseado em um
conjunto de redes SOM é proposto. Os pixels são agrupados de acordo com a cor e carac-
terísticas espaciais em cada rede SOM. Após combinam-se os resultados de agrupamento
para dar a segmentação final. Os resultados experimentais mostram que o método pro-
posto apresenta um desempenho melhor do que métodos baseados em segmentação de
imagem.
Georgakis et al. (2005) comparou um comitê de máquinas de SOM com o SOM tra-
dicional em organização e recuperação de documentos. Como critério para combinação
dos mapas, foi utilizada a distância euclidiana entre os neurônios, para determinar quais
neurônios estavam alinhados, possibilitando a fusão. Os mapas foram avaliados dois a
dois, até que todos os mapas foram combinados em um só. O comitê de SOM obteve um
melhor resultado do que a aplicação tradicional. Para esta metodologia, todos os mapas
20 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
2.5 Resumo
Neste capítulo foram apresentados os principais conceitos que serão utilizados neste
trabalho: mapas auto organizáveis de Kohonen, índices de validação e comitês de má-
quinas. Os mapas auto organizáveis de Kohonen são uma rede neural artificial que têm
demonstrado bons resultados em tarefas de classificação, agrupamento e visualização de
conjuntos de dados multidimensionais. Os índices de validação de agrupamentos tem por
finalidade quantificar o quanto um algoritmo pode ser eficiente em agrupar dados. Os co-
mitês de máquinas constituem uma maneira para lidar com grandes conjuntos de dados,
produzindo bons resultados em relação ao custo computacional envolvido. No próximo
capítulo serão detalhadas as abordagens desenvolvidas neste trabalho para a fusão de ma-
pas de Kohonen.
Capítulo 3
Materiais e Métodos
De acordo com Zhou et al. (2002), não se deve utilizar todos os componentes, pois
isso pode afetar o desempenho do comitê. Assim, a maneira de selecionar estes can-
didatos será através de índices de validação de agrupamentos modificados, propostos
por Gonçalves (2009), a saber: CDbw, Calinski-Harabasz, Dunn generalizado, PBM e
Davies-Bouldin. Estes índices serão a função consenso do comitê.
O método de seleção é baseado na ordenação dos componentes pelos índices de va-
lidação e pode ser descrito da seguinte maneira: os candidatos a compor o comitê são
ordenados com base nos valores dos índices de validação, do melhor para o pior. Assim,
temos uma medida de desempenho individual de cada componente.
O processo de seleção dos mapas de Kohonen desenvolvido neste trabalho é ilustrado
pela Figura 3.2. Neste exemplo os mapas foram ordenados pelo índice de validação de
agrupamentos CDbw e os valores foram normalizados no intervalo [0, 1]. O mapa com o
melhor índice CDbw (0,5369), letra (a) na Figura, é o primeiro componente do comitê.
O mapa com o segundo melhor índice CDbw (0,4386), letra (b) na figura, é primeiro
candidato a compor o comitê. A combinação entre eles resultou em um mapa que, ao
ser segmentado, alcançou um valor para o índice CDbw igual a 0,7207, que é maior do
que o mapa melhor ordenado anteriormente. Desta forma, o segundo mapa é mantido no
comitê, letra (c) na figura. Caso o valor do índice do mapa combinado fosse menor do que
o índice do primeiro mapa, o segundo mapa seria retirado do comitê e o terceiro mapa
seria testado. Este processo de seleção prossegue até que todos os mapas disponíveis
sejam testados.
As equações de fusão, as abordagens e a estrutura geral do experimento fatorial são
descritas a seguir.
Foram testadas três diferentes equações para a fusão dos neurônios dos mapas de
Kohonen. A primeira, Equação 3.1, é uma média aritmética simples entre os vetores de
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 23
wi + w j
wc = (3.1)
2
wi · hi + w j · h j
wc = (3.2)
hi + h j
wi · hi ·V Ii + w j · h j ·V I j
wc = (3.3)
hi ·V Ii + h j ·V I j
onde V Ii e V I j são os valores dos índices de validação para cada um dos mapas a serem
combinados.
24 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.1.4 Abordagens
A ordenação dos mapas foi baseada nos cinco índices de validação de agupamentos
descritos na Seção 2.2 e ainda o MSQE (Mean Square Quantization Error).
O MSQE indica o quão bem os neurônios do mapa se aproximam dos dados do con-
junto de entrada (Corchado e Baruque, 2012), sendo utilizado para avaliar a qualidade da
adaptação do mapa aos dados (Saavedra et al., 2007).
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 25
Nesta pesquisa, foram testadas quatro abordagens para ordenar as performances dos
mapas e para estabelecer os critérios de combinação ou fusão:
Abordagem 1: Mapas ordenados pelo índice de validação e combinados pelo critério da
melhora do MSQE.
Abordagem 2: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
índice de validação.
Abordagem 3: Mapas ordenados pelos índice de validação e combinados pelo critério da
melhora do índice de validação.
Abordagem 4: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
MSQE.
Na primeira abordagem, os mapas são ordenados por cada um dos cinco índices de
validação, mas a fusão é controlada pela melhora do MSQE do mapa fundido. Na segunda
abordagem, os mapas foram ordenados pelo MSQE e o processo de fusão foi controlado
pela melhora do índice de validação de agrupamento do mapa fundido. Na terceira abor-
dagem, os mapas foram ordenados por cada índice de validação de agrupamento e a fusão
foi controlada pela melhora destes índices. É importante destacar que , por exemplo, se os
mapas foram ordenados de acordo com o índice Davies-Bouldin, a fusão será controlada
pela melhoria deste índice. Finalmente, na quarta abordagem os mapas foram ordenados
pelo MSQE e fundidos pelo critério de melhoria do MSQE. A Figura 3.4 mostra o que foi
descrito.
O algoritmo proposto foi aplicado em cada uma das combinações mostrada na Figura
3.3, de acordo com as abordagens ilustradas na Figura 3.4. O algoritmo é descrito a
seguir:
podem ser aplicados para verificação da acurácia do modelo, taxas de erro ou qualquer
outra medida para avaliação de algoritmos. Os resultados empíricos sugerem que eles
também são mais fortes do que os outros testes estudados.
Por essa razão, entre os testes apresentados pelo autor, foi escolhido o teste não pa-
ramétrico de Wilcoxon (Signed Rank Test), com nível de significância de 0,05. Através
deste teste, serão avaliados os resultados obtidos pelo comitê de mapas de Kohonen, isto
é, se o algoritmo proposto leva a resultados estatisticamente diferentes das acurácias ob-
tidas por um único mapa. A hipótese nula, H0 , é que não há diferença entre as acurácias
obtidas pelo mapa único e pelo comitê de mapas. O algoritmo para o teste de Wilcoxon é
descrito a seguir.
Algoritmo 5: T ESTE DE W ILCOXON
Entrada: Resultados obtidos por dois diferentes algoritmos
Saída: Aceitação ou rejeição da Hipótese nula
1 início
3.5 Resumo
Neste capítulo foram apresentadas propostas de abordagens para a fusão de mapas de
Kohonen com tamanhos iguais e com tamanhos diferentes. Foram definidas as equações
para a fusão dos mapas, os critérios para ordenação e fusão, bem como os algoritmos
correspondentes a cada uma das abordagens, além da definição da acurácia utilizada neste
trabalho. Também foi apresentado o teste estatístico de Wilcoxon, que será utilizado na
comparação dos resultados obtidos. No próximo capítulo são apresentados os resultados
obtidos na fusão de mapas de Kohonen através dos algoritmos aqui propostos.
36 CAPÍTULO 3. MATERIAIS E MÉTODOS
Capítulo 4
Resultados
CAPÍTULO 4. RESULTADOS
Tetra (3.1) 2 Dunn 20x20 90 90 1 1
Two Diamonds (3.1) 3 Dunn 10x10 90 50 1 1
Wine (3.1) 2 CDbw 10x10 90 80 0.9382 0.9635
Wingnut (3.2) 3 CDbw 10x10 50 100 0.7539 0.8983
4.2. MAPAS DE TAMANHOS IGUAIS 41
A Figura 4.1 mostra a acurácia média (pois foram realizados dez experimentos) obtida
para cada conjunto de dados. As linhas pretas verticais mostram o valor da acurácia para
um único mapa de Kohonen. Como pode ser observado, em todas as situações as acu-
rácias médias alcançadas pelo método proposto foram maiores do que as acurácias para
um único mapa, exceto para os conjuntos Tetra e TwoDiamonds, que tiveram o mesmo
valor, de 100% na performance. Assim, evidencia-se que através da fusão de mapas de
Kohonen, é possível aumentar o valor da acurácia do algoritmo de agrupamento.
Figura 4.2: Acurácia para mapas iguais Figura 4.3: Acurácia para mapas iguais
- BC Wisconsin. - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.6: Acurácia para mapas iguais Figura 4.7: Acurácia para mapas iguais
- Heart. - Ionosphere.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.8: Acurácia para mapas iguais Figura 4.9: Acurácia para mapas iguais
- Iris. - Lsun.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.10: Acurácia para mapas iguais Figura 4.11: Acurácia para mapas iguais
- Pimaindians. - Seeds.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
44 CAPÍTULO 4. RESULTADOS
Figura 4.12: Acurácia para mapas iguais Figura 4.13: Acurácia para mapas iguais
- Tetra. - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.14: Acurácia para mapas iguais Figura 4.15: Acurácia para mapas iguais
- Two diamonds. - Wingnut.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
A coluna “Índice” mostra quais índices foram melhores para cada conjunto de dados
(DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz).
A coluna “Tamanho do mapa” refere-se ao tamanho definido pela Equação 3.4.
O resultado da acurácia do comitê de mapas é comparado com a acurácia de um único
mapa auto-organizável de Kohonen, nas duas últimas colunas das tabelas.
O teste não paramétrico de Wilcoxon (Wilcoxon Signed Rank Test) (Demšar, 2006),
com nível de significância de 0,05, foi utilizado para avaliar se o resultado obtido pelo
comitê de mapas de Kohonen é estatisticamente diferente das acurácias obtidas por um
único mapa. A hipótese nula, H0 , é que não há diferença entre as acurácias obtidas pelo
mapa único e pelo comitê de mapas.
Utilizando a Equação 3.1 (Tabela 4.3), o teste de Wilcoxon rejeitou a hipótese nula,
com valor p igual a 0.0039063.
Para a fusão pela Equação 3.2 (Tabela 4.4), o teste de Wilcoxon rejeitou a hipótese
nula, com valor p igual a 0.0009766.
Com a Equação 3.3 (Tabela 4.5), o teste de Wilcoxon rejeitou a hipótese nula, com
valor p igual a 0.0019531.
Do exposto nos parágrafos anteriores, conclui-se que o método proposto obteve resul-
tados de acurácia diferentes e melhores do que a acurácia de um único mapa.
46
Tabela 4.3: Resultados da fusão de 7 mapas com a Equação 3.1
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 30 0.9407 0.9556
Column 2 CH 13x10 100 60 0.7258 0.7419
Heart 2 CDbw 11x8 20 80 0.6102 0.7288
Hepatitis 1 CDbw 8x5 40 60 0.5333 0.5333
Ionophere 1 Dunn 13x7 10 100 0.6428 0.6714
Iris 1 Dunn 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 CDbw 14x5 10 10 0.9047 0.9047
Wine 2 CDbw 11x6 10 10 0.9412 0.9706
Chainlink 2 CDbw 14x11 70 100 0.6800 0.7400
CAPÍTULO 4. RESULTADOS
Engytime 2 CH 20x16 10 40 0.9646 0.9670
Lsun 2 DB 11x9 50 10 0.8000 0.8125
Tetra 1 Dunn 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 70 0.9937 1.0000
Wingnut 1 Dunn 16x10 20 30 0.7426 0.7426
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.4: Resultados da fusão de 7 mapas com a Equação 3.2
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 10 0.9407 0.9556
Column 1 CH 13x10 10 100 0.7258 0.7419
Heart 1 CDbw 11x8 50 50 0.6102 0.7119
Hepatitis 1 CH 8x5 10 10 0.5333 0.7333
Ionosphere 1 CDbw 13x7 10 10 0.6428 0.6571
Iris 1 CDbw 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 Dunn 14x5 10 10 0.9048 0.9048
Wine 2 CDbw 11x6 10 10 0.9412 0.9706
Chainlink 1 CH 14x11 70 80 0.6800 0.7500
Engytime 2 DB 20x16 20 50 0.9646 0.9658
Lsun 2 CDbw 11x9 20 30 0.8000 0.8500
Tetra 1 Dunn 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 60 0.9937 1
Wingnut 1 CDbw 16x10 10 90 0.7426 0.7871
47
48
Tabela 4.5: Resultados da fusão de 7 mapas com a Equação 3.3
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 40 0.9407 0.9556
Column 1 PBM 13x10 10 70 0.7258 0.7419
Heart 1 CDbw 11x8 70 70 0.6102 0.7288
Hepatitis 1 CDbw 8x5 40 30 0.5333 0.5333
Ionophere 1 CDbw 13x7 10 10 0.6428 0.6571
Iris 1 CDbw 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 Dunn 14x5 50 20 0.9047 0.9047
Wine 1 CH 11x6 70 10 0.9412 0.9706
Chainlink 1 DB 14x11 20 40 0.6800 0.7400
CAPÍTULO 4. RESULTADOS
Engytime 2 PBM 20x16 20 80 0.9645 0.9658
Lsun 2 CDbw 11x9 10 10 0.8000 1.0000
Tetra 1 PBM 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 60 0.9937 1.0000
Wingnut 2 CDbw 16x10 60 100 0.7426 0.7723
4.3. MAPAS DE TAMANHOS DIFERENTES 49
Como visto, a Equação 3.2 resultou no menor valor p para o teste de Wilcoxon, entre
as três equações utilizadas, para a estrutura com 7 mapas. Assim, as figuras geradas com
esta equação serão mostradas a seguir.
As Figuras 4.16 a 4.30 mostram, de acordo com as variações de Hits e BMUs, as
condições em que foram alcançados os melhores valores de acurácia de cada conjunto de
dados. O eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da
porcentagem de BMUs.
As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto
que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter
uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs.
Figura 4.16: Acurácia para 7 mapas di- Figura 4.17: Acurácia para 7 mapas di-
ferentes - BC Wisconsin. ferentes - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.18: Acurácia para 7 mapas di- Figura 4.19: Acurácia para 7 mapas di-
ferentes - Column. ferentes - Engytime.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
50 CAPÍTULO 4. RESULTADOS
Figura 4.20: Acurácia para 7 mapas di- Figura 4.21: Acurácia para 7 mapas di-
ferentes - Heart. ferentes - Hepatitis.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.22: Acurácia para 7 mapas di- Figura 4.23: Acurácia para 7 mapas di-
ferentes - Ionosphere. ferentes - Iris.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.24: Acurácia para 7 mapas di- Figura 4.25: Acurácia para 7 mapas di-
ferentes - Lsun. ferentes - PimaIndians.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
4.3. MAPAS DE TAMANHOS DIFERENTES 51
Figura 4.26: Acurácia para 7 mapas di- Figura 4.27: Acurácia para 7 mapas di-
ferentes - Seeds. ferentes - Tetra.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.28: Acurácia para 7 mapas di- Figura 4.29: Acurácia para 7 mapas di-
ferentes - Two Diamonds. ferentes - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
os melhores valores para cada conjunto de dados, isto é, em qual abordagem e com qual
índice de validação foi alcançada a melhor acurácia.
A coluna “Abordagem” refere-se à maneira como os mapas foram ordenados e fundi-
dos, como especificado na Seção 3.1.3.
A coluna “Índice” mostra quais índices foram melhores para cada conjunto de dados
(DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz).
A coluna “Tamanho do mapa” refere-se ao tamanho definido pela Equação 4.2.
As colunas “Hits %” e “BMUs %”, mostram os valores destas variáveis que fizeram
com o que o resultado do comitê alcançasse o valor máximo de acurácia.
Por fim, o resultado da acurácia do comitê de mapas é comparado com a acurácia de
um único mapa auto-organizável de Kohonen, nas duas últimas colunas da tabela e, como
pode ser observado os valores de acurácia do comitê ficaram ou acima ou no mesmo
patamar que o valor de acurácia para um único mapa.
O teste não paramétrico de Wilcoxon, com nível de significância de 0,05, rejeitou
a hipótese H0 (de que os valores de acurácias da fusão e do mapa único não diferem
estatisticamente), nas três Equações de fusão utilizadas.
A Tabela 4.6 mostra os resultados para a fusão com a Equação 3.1, a mais simples das
três, sendo apenas uma média aritmética dos vetores de peso dos neurônios dos mapas
fundidos. O valor p do teste de Wilcoxon, com nível de significância de 0,05, foi igual a
0, 00048828.
A Tabela 4.7 mostra os resultados para a fusão com a Equação 3.2, em que a média
dos vetores de peso dos neurônios é ponderada pelos hits destes neurônios. O valor p do
teste de Wilcoxon, com nível de significância de 0,05, foi de 0, 0009766.
A Tabela 4.8 mostra os resultados para a fusão com a Equação 3.3, a mais complexa
das três equações. Aqui a média dos vetores de peso dos neurônios é ponderada pelos
hits destes neurônios e pelo índice de validação de agrupamento. O valor p do teste de
Wilcoxon, com nível de significância de 0,05, foi igual a 0, 0009766, o mesmo encontrado
para os resultados da Tabela 4.7, uma vez que os resultados obtidos na fusão dos mapas
são iguais.
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.6: Resultados das fusões para os 49 mapas com a Equação 3.1
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 60 0.9778 0.9852
Column 1 Dunn 13x7 80 10 0.6774 0.7097
Heart 1 Dunn 11x8 10 10 0.8136 0.8305
Hepatitis 2 PBM 8x5 10 10 0.9333 1
Ionosphere 1 CH 13x7 10 10 0.7286 0.7429
Iris 1 Dunn 13x5 10 10 0.9667 0.9667
Pima Indians 2 Dunn 14x10 70 70 0.59478 0.6144
Seeds 1 CDbw 14x5 10 50 0.9286 0.9524
Wine 1 CDbw 11x6 60 80 0.8529 0.9118
Chainlink 1 Dunn 14x11 10 10 0.7200 0.7450
Engytime 1 CDbw 20x16 50 50 0.9731 0.9731
Lsun 2 Dunn 11x9 10 100 0.7750 0.8625
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 2 Dunn 14x10 10 70 0.9938 1
Wingnut 1 PBM 16x10 10 10 0.7970 0.8267
53
54
Tabela 4.7: Resultados das fusões para os 49 mapas com a Equação 3.2
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 60 0.9778 0.9852
Column 1 CH 13x7 30 10 0.6774 0.7097
Heart 1 CDbw 11x8 10 10 0.8136 0.8305
Hepatitis 1 CDbw 8x5 10 10 0.9333 0.9333
Ionosphere 1 Dunn 13x7 10 10 0.7286 0.7429
Iris 1 CDbw 13x5 10 20 0.9667 0.9667
Pima Indians 1 CH 14x10 30 70 0.5948 0.6209
Seeds 1 CDbw 14x5 10 10 0.9286 0.9524
Wine 2 CH 11x6 30 20 0.8529 0.9412
Chainlink 2 DB 14x11 10 90 0.7200 0.7800
Engytime 1 CDbw 20x16 60 30 0.9731 0.9731
Lsun 2 Dunn 11x9 20 90 0.7750 0.9125
CAPÍTULO 4. RESULTADOS
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 1 Dunn 14x10 10 100 0.9938 1
Wingnut 2 Dunn 16x10 20 90 0.7970 0.8119
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.8: Resultados das fusões para os 49 mapas com a Equação 3.3
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 60 0.9778 0.98519
Column 1 CH 13x7 30 10 0.6774 0.7097
Heart 1 CDbw 11x8 10 10 0.8136 0.8305
Hepatitis 1 CDbw 8x5 10 10 0.9333 0.9333
Ionosphere 1 Dunn 13x7 10 10 0.7286 0.7429
Iris 1 CDbw 13x5 10 20 0.9667 0.9667
Pima Indians 1 CH 14x10 30 70 0.5948 0.6209
Seeds 1 CDbw 14x5 10 10 0.9286 0.9524
Wine 2 CH 11x6 30 20 0.8529 0.9412
Chainlink 2 DB 14x11 10 90 0.7200 0.7800
Engytime 1 CDbw 20x16 60 30 0.9731 0.9731
Lsun 2 Dunn 11x9 20 90 0.7750 0.9125
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 1 Dunn 14x10 10 100 0.9938 1
Wingnut 2 Dunn 16x10 20 90 0.7970 0.8119
55
56 CAPÍTULO 4. RESULTADOS
Assim como visto para a estrutura com 7 mapas, aqui serão apresentadas as figuras
de acurácia para a equação que resultou no menor valor p no teste de Wilcoxon. Para a
estrutura com 49 mapas, o menor valor p foi obtido com a Equação 3.1.
As Figuras 4.31 a 4.45 ilustram os valores de acurácia de cada conjunto de dados. O
eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da porcen-
tagem de BMUs.
As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto
que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter
uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs.
Figura 4.31: Acurácia para 49 mapas di- Figura 4.32: Acurácia para 49 mapas di-
ferentes - BC Wisconsin. ferentes - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.33: Acurácia para 49 mapas di- Figura 4.34: Acurácia para 49 mapas di-
ferentes - Column. ferentes - Engytime.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
4.3. MAPAS DE TAMANHOS DIFERENTES 57
Figura 4.35: Acurácia para 49 mapas di- Figura 4.36: Acurácia para 49 mapas di-
ferentes - Heart. ferentes - Hepatitis.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.37: Acurácia para 49 mapas di- Figura 4.38: Acurácia para 49 mapas di-
ferentes - Ionosphere. ferentes - Iris.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.39: Acurácia para 49 mapas di- Figura 4.40: Acurácia para 49 mapas di-
ferentes - Lsun. ferentes - PimaIndians.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
58 CAPÍTULO 4. RESULTADOS
Figura 4.41: Acurácia para 49 mapas di- Figura 4.42: Acurácia para 49 mapas di-
ferentes - Seeds. ferentes - Tetra.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
Figura 4.43: Acurácia para 49 mapas di- Figura 4.44: Acurácia para 49 mapas di-
ferentes - Two Diamonds. ferentes - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
CAPÍTULO 4. RESULTADOS
13 TwoDiamonds 3.1 1 0.9988 1 0.9875 1 1 1 0.0039
14 Wine 3.1 4 0.9090 0.9444 0.8125 0.8889 0.9444 0.9444 0.0509
15 Wingnut 3.1 3 0.7587 0.7941 0.7157 0.7255 0.7647 0.7843 0.0294
4.4. RESUMO 61
A Figura 4.46 mostra o boxplot que resume as informações da Tabela 4.9. Os números
no eixo das abscissas representam os conjuntos de dados.
4.4 Resumo
Neste capítulo foram mostrados os resultados obtidos com as simulações computacio-
nais, para a fusão de mapas de tamanhos iguais e de tamanhos diferentes. Sendo a primeira
abordagem um experimento fatorial, o custo computacional foi bem mais elevado do que
a segunda abordagem, uma vez que havia maior quantidade de elementos variando. Para
os mapas de tamanhos diferentes, como pode ser observado, os resultados obtidos para
as duas estruturas, com 7 e com 49 mapas, alcançaram resultados muito semelhantes em
termos de acurácia. As divergências encontradas relacionam-se às porcentagens de hits e
BMUs considerados na fusão. A validação cruzada estratificada obteve bons resultados de
estimação da acurácia do algoritmo desenvolvido. No próximo capítulo são apresentadas
as principais conclusões deste trabalho.
62 CAPÍTULO 4. RESULTADOS
Capítulo 5
Conclusão
o maior número de instâncias (4096). Isso foi uma opção adotada, para que o tempo de
execução do algoritmo não fosse tão elevado, para o caso dos mapas de tamanhos iguais.
Outra limitação deste trabalho é o fato de que, para os mapas de tamanhos diferentes,
foram testadas apenas uma proporção de conjunto de treinamento e teste da rede neural,
isto é, fixaram-se valores únicos de 80% para treinamento e 20% para teste. Não foi
investigado aqui se outras proporções fixas, ou proporções diferentes para cada conjunto
de dados, poderiam alcançar resultados melhores de acurácia.
Embora para alguns conjuntos de dados não houve aumento na acurácia, o teste de
Wilcoxon demonstrou que, em geral, o método proposto neste trabalho obteve resultados
significativos e melhores do que um único mapa.
Foram testadas três equações distintas para a combinação dos mapas e os resultados
apresentados nas Tabelas 4.6, 4.7 e 4.8 mostram que não há diferença de resultados entre
as Equações 3.2 e 3.3. A primeira é uma média ponderada entre os pesos dos neurônios
e seus respectivos hits e a última considera, além dos hits, o índice de validação de agru-
pamento na ponderação. Os resultados também mostram que há pouca diferença entre as
acurácias dos mapas combinados pela Equação 3.1 e as demais.
Considerando cada conjunto de dados, de um modo geral a estrutura de 49 mapas
alcançou acurácias melhores do que a estrutura com 7 mapas. A cada fusão que ocorre,
a medida de performance melhora (seja o índice de validação ou o MSQE, conforme
definidos na Subseção 3.1.3). Assim, como na estrutura com 49 mapas há mais mapas
disponíveis para a fusão, é de se esperar que haja mais fusões, melhorando cada vez mais
os valores de performance do mapa fundido.
fácil do que o método da poda. Não foram realizados testes preliminares com o
método da poda, então não se pode afirmar que haveria vantagens em relação ao
método construtivo, mas é uma possibilidade de investigação.
5. Para o caso de fusão de mapas de tamanhos iguais, poderia ser utilização o método
de Boosting para a re-amostragem dos dados. O método de Bagging utilizado para
geração dos subconjuntos é de execução mais simples do que o Boosting. Neste
último, a probabilidade de uma dada amostra ser escolhida depende da contribuição
desta para o erro dos componentes já treinados. Assim, a utilização da técnica de
Boosting pode incrementar o desempenho do comitê.
5.3 Publicações
Esta pesquisa propiciou a publicação de trabalhos em eventos científicos nacionais e
internacionais, além de um periódico. No Apêndice B há uma lista dos trabalhos publica-
dos até o momento.
Referências Bibliográficas
Amigó, Enrique, Julio Gonzalo, Javier Artiles e Felisa Verdejo (2009), ‘A Comparison of
Extrinsic Clustering Evaluation Metrics Based on Formal Constraints’, Information
Retrieval 12(4), 461–486.
Baraldi, Piero, Antonio Cammi, Francesca Mangili e Enrico E. Zio (2010), ‘Local Fusion
of an Ensemble of Models for the Reconstruction of Faulty Signals’, IEEE Transac-
tions on Nuclear Science 57(2), 793–806.
Bezdek, James C e Nikhil R Pal (1998), ‘Some New Indexes of Cluster Validity’, IEEE
Transactions on Systems, Man and Cybernetics 28(3), 301–315.
Chitra, A e S Uma (2010), ‘An Ensemble Model of Multiple Classifiers for Time Series
Prediction’, International Journal of Computer Theory and Engineering 2(3), 454–
458.
67
68 REFERÊNCIAS BIBLIOGRÁFICAS
DeLooze, L.L. (2006), Attack Characterization and Intrusion Detection using an Ensem-
ble of Self-Organizing Maps, em ‘The 2006 IEEE International Workshop on Infor-
mation Assurancegs’, West Point, pp. 2121–2128.
Demšar, Janez (2006), ‘Statistical comparisons of classifiers over multiple data sets’, J.
Mach. Learn. Res. 7, 1–30.
Dunn, J. C. (1973), ‘A Fuzzy Relative of the ISODATA Process and Its Use in Detecting
Compact Well-Separated Clusters’, Cybernetics and Systems 3(3), 32–57.
Ferreira, Ednaldo José (2012), Método baseado em rotação e projeção otimizadas para
construção de ensembles de modelos, Tese de doutorado, Universidade de São
Paulo.
Fustes, Diego, Carlos Dafonte, Bernardino Arcay, Minia Manteiga, Kester Smith, An-
tonella Vallenari e Xavier Luri (2013), ‘SOM ensemble for unsupervised outlier
analysis. Application to outlier identification in the Gaia astronomical survey’, Ex-
pert Systems with Applications 40(5), 1530–1541.
Greene, Derek, Alexey Tsymbal, Bolshakova Nadia e Padraig Cunningham (2004), En-
semble clustering in medical diagnostics, em ‘IEEE Symposium on Computer-Based
Medical Systems’, Press, pp. 576–581.
Hansen, Lars Kai e Peter Salamon (1990), ‘Neural Network Ensembles’, IEEE Transac-
tions on Pattern Analysis and Machine Intelligence 12(10), 9.
Haykin, Simon (2001), Redes Neurais - Prinípios e Prática, 2a edição, Bookman, Porto
Alegre.
Jiang, Yuan e Zhi-Hua Zhou (2004), ‘SOM Ensemble-Based Image Segmentation’, Neu-
ral Processing Letters 20(3), 171–178.
Krawczyk, Bartosz, Michal Wo, Tomasz Orczyk, Piotr Porwik e Barbara Blo (2012),
Neural Network Ensemble based on Feature Selection for Non-Invasive Recognition
of Liver Fibrosis Stage, em ‘On Line Conference on Soft Computing in Industrial
Applications’, p. 10.
Low, Kian Hsiang, Wee Kheng Leow e Marcelo H. Ang (2005), ‘An ensemble of coopera-
tive extended kohonen maps for complex robot motion tasks’, Neural Computation
17, 41.
Maqsood, Imran, MuhammadRiaz Khan e Ajith Abraham (2004), ‘An ensemble of neural
networks for weather forecasting’, Neural Computing and Applications 13(2), 112–
122.
Mattos, César Lincoln Cavalcante (2011), Comitês de Classificadores Baseados nas Re-
des SOM e Fuzzy ART com Sintonia de Parâmetros e Seleção de Atributos via
Metaheurísticas Evolucionárias, Dissertação, Universidade Federal do Ceará.
Pakhira, Malay K., S. Bandyopadhyay e U. Maulik (2004), ‘Validity index for crisp and
fuzzy clusters’, Pattern Recognition 37(3), 487–501.
Rendón, Eréndira, Itzel M. Abundez, Citlalih Gutierrez, Sergio Díaz Zagal, Alejandra
Arizmendi, Elvia M. Quiroz e H. Elsa Arzate (2011), A comparison of internal and
external cluster validation indexes, em ‘Proceedings of the 2011 American Confe-
rence on Applied Mathematics and the 5th WSEAS International Conference on
Computer Engineering and Applications’, AMERICAN-MATH’11/CEA’11, World
Scientific and Engineering Academy and Society (WSEAS), Stevens Point, Wiscon-
sin, USA, pp. 158–163.
Saavedra, Carolina, Rodrigo Salas, Sebastián Moreno e Hector Allende (2007), Fusion
of Self Organizing Maps, em ‘9th international work-conference on artificial neural
networks’, Springer Berlin Heidelberg, San Sebastián, Spain, pp. 227–234.
Sripada, Satya Chaitanya e M. Sreenivasa Rao (2011), ‘Comparison of Purity and Entropy
of k-means Clustering and Fuzzy C Means Clustering’, Indian Journal of Computer
Science and Engineering 2(3), 343–346.
Tsai, Chih-Fong (2014), ‘Combining cluster analysis with classifier ensembles to predict
financial distress’, Information Fusion 16, 46–58.
Ultsch, Alfred (2005), Clustering with SOM: U*C, em ‘Proc. Workshop on Self-
Organizing Maps’, Paris, France, pp. 75–82.
Vesanto, Juha (2002), Data Exploration Process Based on the Self Organizing Map, Tese
de doutorado, Helsinki University of Techonology.
Wang, Ching Wei (2006), New Ensemble Machine Learning Method for Classification
and Prediction on Gene Expression Data, em ‘28th IEEE EMBS Annual Internatio-
nal Conference’, New York, pp. 3478–3481.
Zhou, Zhi-Hua, Jianxin Wu e Wei Tang (2002), ‘Ensembling neural networks: Many
could be better than all’, Artificial Intelligence 137(1-2), 239–263.
72 REFERÊNCIAS BIBLIOGRÁFICAS
Apêndice A
Trabalhos publicados
4. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2015). “Um novo algoritmo para
combinaçao de comitês de máquinas de Mapas Auto-Organizáveis de Kohonen de
tamanhos diferentes”, 12o CBIC - Congresso Brasileiro de Inteligência Computaci-
onal, Curitiba. http://abricom.org.br/eventos/cbic_2015/cbic2015_submission_157/