Sunteți pe pagina 1din 95

U NIVERSIDADE F EDERAL DO R IO G RANDE DO N ORTE

C ENTRO DE T ECNOLOGIA
P ROGRAMA DE P ÓS -G RADUAÇÃO EM E NGENHARIA E LÉTRICA E
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE

DE C OMPUTAÇÃO

Contribuição ao Estudo de Fusão de Mapas


Auto Organizáveis de Kohonen com Ponderação
por meio de Índices de Validação de
Agrupamentos

Leandro Antonio Pasa

Orientador: Prof. Dr. José Alfredo Ferreira Costa

Tese de Doutorado apresentada ao Pro-


grama de Pós-Graduação em Engenharia
Elétrica e da Computação da UFRN (área de
concentração: Engenharia de Computação)
como parte dos requisitos para obtenção do
título de Doutor em Ciências.

Número de ordem PPgEEC: D163


Natal, RN, Fevereiro de 2016.
Seção de Informação e Referência
Catalogação da publicação na fonte. UFRN / Biblioteca Central Zila Mamede

Pasa, Leandro Antonio.


Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen
com Ponderação por meio de Índices de Validação de Agrupamentos / Leandro
Antonio Pasa. - Natal, 2016.
95 f.: il.

Orientador: José Alfredo Ferreira Costa.

Tese (Doutorado em Engenharia Elétrica e de Computação) - Universidade


Federal do Rio Grande do Norte. Centro de Tecnologia - Programa de Pós-
Graduação em Engenharia Elétrica e de Computação.

1. Comitês de máquinas - Tese. 2. Mapas auto-organizáveis de Kohonen -


Tese. 3. Índice de validação de agrupamentos - Tese. I. Costa, José Alfredo
Ferreira. II. Título.

RN/UF/BCZM CDU 621.3:004


Contribuição ao Estudo de Fusão de Mapas
Auto Organizáveis de Kohonen com Ponderação
por meio de Índices de Validação de
Agrupamentos

Leandro Antonio Pasa

Tese de Doutorado aprovada em 19 de fevereiro de 2016 pela banca examinadora com-


posta pelos seguintes membros:
Este trabalho é dedicado à querida
Carine e ao querido Eduardo.
Agradecimentos

A Deus, pela força e iluminação sempre presentes em nossas vidas.

A minha esposa Carine, pelo apoio, amor, paciência e compreensão durante a realização
deste trabalho.

À minha família, pelo apoio durante esta jornada, principalmente à minha mãe Teresinha
(sempre presente) e ao meu pai Evaristo, que sempre incentivaram os seus filhos a estudar.

Ao meu orientador, Professor José Alfredo Ferreira Costa, pela amizade e por comparti-
lhar seus conhecimentos, me orientando neste caminho.

Ao amigo Marcial Guerra de Medeiros, pela amizade, estímulo, contribuições fundamen-


tais e todo o tempo dedicado para auxiliar neste trabalho.

Ao amigo Fábio Augusto Procópio de Paiva, pela amizade e pelas sugestões para este
trabalho.

À Universidade Tecnológica Federal do Paraná, pelo apoio e tempo concedidos para a


realização deste trabalho.
Resumo

A quantidade de informações coletadas e armazenadas cresce a cada dia nas mais


diversas áreas do conhecimento e técnicas de mineração de dados são aplicadas a estes
conjuntos de dados com o objetivo de extrair conhecimento útil. A utilização de um ou
outro algoritmo, ou o mesmo algoritmo com diferentes atributos pode levar a diferentes
resultados, devido à diversidade dos conjuntos de dados. Na busca por soluções eficientes
para este problema, foram desenvolvidos métodos de comitês de máquinas. Um comitê
de máquinas é um conjunto de redes neurais trabalhando independentemente cujos resul-
tados são combinados em uma única saída, alcançando uma melhor generalização do que
cada uma das redes trabalhando separadamente. A proposta deste trabalho é desenvolver
um novo método para comitês de mapas de Kohonen, em que a combinação (fusão) dos
mapas seja ponderada por índices de validação de agrupamentos, que seja válido para
combinação de mapas de tamanhos iguais e mapas de tamanhos diferentes. O algoritmo
proposto foi testado em variados conjuntos de dados provenientes do repositório UCI e
do Conjunto de Problemas Fundamentais de Agrupamento. As simulações computaci-
onais demonstram que o método proposto neste trabalho é capaz de alcançar resultados
promissores, conseguindo elevar a performance em comparação com um único mapa de
Kohonen.

Palavras-chave: Comitês de máquinas, Mapas auto-organizáveis de Kohonen, Índice


de validação de agrupamentos.
Abstract

The amount of collected and stored information is growing every day in several areas
of knowledge and data mining techniques are applied to these datasets in order to extract
useful knowledge. One or another algorithm, or the same algorithm with different attri-
butes, can lead to different results due to the dataset diversity. To solve this problem,
machines committees methods were developed. A machine committee is a set of neural
networks working independently and the results are combined into a single output, achi-
eving a better generalization. The purpose of this work is to develop a new method for
Kohonen maps ensemble, where the maps fusion is weighted by cluster validation indi-
ces and is suitable for equal size maps fusion and for different size maps fusion. The
proposed algorithm has been tested in multiple data sets from the UCI Machine Learning
Repository and Fundamental Clustering Problems Suite. Computer simulations show the
proposed method is able to reach encouraging results, obtaining raising performance com-
pared with a single Kohonen map.

Keywords: Machine committee, Kohonen Self Organizing Maps, Cluster validity


index.
Sumário

Sumário i

Lista de Figuras iii

Lista de Tabelas v

List of Algorithms vi

1 Introdução 1
1.1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Organização do documento . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Fundamentação Teórica 5
2.1 Mapas Auto-organizáveis de Kohonen . . . . . . . . . . . . . . . . . . . 5
2.1.1 Treinamento do Mapa . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Índices de Validação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 O índice de Dunn . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.2 O índice de Calinski e Harabasz . . . . . . . . . . . . . . . . . . 9
2.2.3 O índice Davies-Bouldin . . . . . . . . . . . . . . . . . . . . . . 10
2.2.4 O índice PBM . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 O índice CDbw . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Modificação de índices de validação . . . . . . . . . . . . . . . . . . . . 14
2.4 Comitês de máquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Construção de um comitê de máquinas . . . . . . . . . . . . . . 16
2.4.2 Algumas aplicações de comitês de máquinas . . . . . . . . . . . 18
2.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Materiais e Métodos 21
3.1 Fusão de mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . 21
3.1.1 Seleção e dos candidatos . . . . . . . . . . . . . . . . . . . . . . 22

i
3.1.2 Equações de fusão . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Experimento fatorial . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Abordagens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.5 Algoritmo proposto . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Fusão de mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . 27
3.2.1 Estrutura com 7 mapas . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 30
3.2.3 Validação Cruzada . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Medida de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Teste estatístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4 Resultados 37
4.1 Conjunto de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1 Estrutura com 7 mapas . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 51
4.3.3 Estrutura de fusão com validação cruzada . . . . . . . . . . . . . 58
4.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5 Conclusão 63
5.1 Considerações finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.1.1 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . 64
5.1.2 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . 64
5.2 Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Publicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Referências bibliográficas 67

Apêndice A Conjuntos de dados utilizados 73

Apêndice B Trabalhos publicados 75


Lista de Figuras

2.1 Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011) 6


2.2 Atualização do BMU e vizinhos. (Vesanto, 2002) . . . . . . . . . . . . . 7
2.3 Diagrama do cálculo do índice de Dunn. . . . . . . . . . . . . . . . . . . 9
2.4 Diagrama do cálculo do índice Davies-Bouldin. . . . . . . . . . . . . . . 10
2.5 Estrutura de um comitê de méquinas. (Coelho, 2006) . . . . . . . . . . . 15

3.1 Visão geral do processo. . . . . . . . . . . . . . . . . . . . . . . . . . . 21


3.2 Seleção e combinação dos mapas. . . . . . . . . . . . . . . . . . . . . . 23
3.3 Estrutura do experimento fatorial. . . . . . . . . . . . . . . . . . . . . . 24
3.4 Abordagens para a fusão dos mapas. . . . . . . . . . . . . . . . . . . . . 25
3.5 Estrutura com 7 mapas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Estrutura com 49 mapas. . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4.1 Acurácia média para mapas de tamanhos iguais. . . . . . . . . . . . . . . 41


4.2 Acurácia para mapas iguais - BC Wisconsin. . . . . . . . . . . . . . . . . 42
4.3 Acurácia para mapas iguais - Chainlink. . . . . . . . . . . . . . . . . . . 42
4.4 Acurácia para mapas iguais - Column. . . . . . . . . . . . . . . . . . . . 42
4.5 Acurácia para mapas iguais - Engytime. . . . . . . . . . . . . . . . . . . 42
4.6 Acurácia para mapas iguais - Heart. . . . . . . . . . . . . . . . . . . . . 43
4.7 Acurácia para mapas iguais - Ionosphere. . . . . . . . . . . . . . . . . . 43
4.8 Acurácia para mapas iguais - Iris. . . . . . . . . . . . . . . . . . . . . . . 43
4.9 Acurácia para mapas iguais - Lsun. . . . . . . . . . . . . . . . . . . . . . 43
4.10 Acurácia para mapas iguais - Pimaindians. . . . . . . . . . . . . . . . . . 43
4.11 Acurácia para mapas iguais - Seeds. . . . . . . . . . . . . . . . . . . . . 43
4.12 Acurácia para mapas iguais - Tetra. . . . . . . . . . . . . . . . . . . . . . 44
4.13 Acurácia para mapas iguais - Wine. . . . . . . . . . . . . . . . . . . . . 44
4.14 Acurácia para mapas iguais - Two diamonds. . . . . . . . . . . . . . . . 44
4.15 Acurácia para mapas iguais - Wingnut. . . . . . . . . . . . . . . . . . . . 44
4.16 Acurácia para 7 mapas diferentes - BC Wisconsin. . . . . . . . . . . . . . 49
4.17 Acurácia para 7 mapas diferentes - Chainlink. . . . . . . . . . . . . . . . 49

iii
4.18 Acurácia para 7 mapas diferentes - Column. . . . . . . . . . . . . . . . . 49
4.19 Acurácia para 7 mapas diferentes - Engytime. . . . . . . . . . . . . . . . 49
4.20 Acurácia para 7 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 50
4.21 Acurácia para 7 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 50
4.22 Acurácia para 7 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 50
4.23 Acurácia para 7 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 50
4.24 Acurácia para 7 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . . 50
4.25 Acurácia para 7 mapas diferentes - PimaIndians. . . . . . . . . . . . . . . 50
4.26 Acurácia para 7 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . . 51
4.27 Acurácia para 7 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 51
4.28 Acurácia para 7 mapas diferentes - Two Diamonds. . . . . . . . . . . . . 51
4.29 Acurácia para 7 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 51
4.30 Acurácia para 7 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . . 51
4.31 Acurácia para 49 mapas diferentes - BC Wisconsin. . . . . . . . . . . . . 56
4.32 Acurácia para 49 mapas diferentes - Chainlink. . . . . . . . . . . . . . . 56
4.33 Acurácia para 49 mapas diferentes - Column. . . . . . . . . . . . . . . . 56
4.34 Acurácia para 49 mapas diferentes - Engytime. . . . . . . . . . . . . . . 56
4.35 Acurácia para 49 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 57
4.36 Acurácia para 49 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 57
4.37 Acurácia para 49 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 57
4.38 Acurácia para 49 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 57
4.39 Acurácia para 49 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . 57
4.40 Acurácia para 49 mapas diferentes - PimaIndians. . . . . . . . . . . . . . 57
4.41 Acurácia para 49 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . 58
4.42 Acurácia para 49 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 58
4.43 Acurácia para 49 mapas diferentes - Two Diamonds. . . . . . . . . . . . 58
4.44 Acurácia para 49 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 58
4.45 Acurácia para 49 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . 58
4.46 Acurácia com validação cruzada estratificada. . . . . . . . . . . . . . . . 61

A.1 Conjunto de dados UCI. . . . . . . . . . . . . . . . . . . . . . . . . . . 73


A.2 Conjunto de dados do FCPS. (Ultsch, 2005) . . . . . . . . . . . . . . . . 74
Lista de Tabelas

4.1 Conjuntos de dados utilizados. . . . . . . . . . . . . . . . . . . . . . . . 37


4.2 Resultados da fusão de mapas de tamanhos iguais . . . . . . . . . . . . . 40
4.3 Resultados da fusão de 7 mapas com a Equação 3.1 . . . . . . . . . . . . 46
4.4 Resultados da fusão de 7 mapas com a Equação 3.2 . . . . . . . . . . . . 47
4.5 Resultados da fusão de 7 mapas com a Equação 3.3 . . . . . . . . . . . . 48
4.6 Resultados das fusões para os 49 mapas com a Equação 3.1 . . . . . . . . 53
4.7 Resultados das fusões para os 49 mapas com a Equação 3.2 . . . . . . . 54
4.8 Resultados das fusões para os 49 mapas com a Equação 3.3 . . . . . . . . 55
4.9 Resultados para a validação cruzada estratificada . . . . . . . . . . . . . 60

v
Lista de Algoritmos

1 F USÃO DE MAPAS DE TAMANHOS IGUAIS . . . . . . . . . . . . . . . . . 26


2 F USÃO DE 7 MAPAS DE TAMANHOS DIFERENTES . . . . . . . . . . . . . 29
3 F USÃO DE 49 MAPAS DE TAMANHOS DIFERENTES . . . . . . . . . . . . 31
4 F USÃO ATRAVÉS DA VALIDAÇÃO CRUZADA . . . . . . . . . . . . . . . . 33
5 T ESTE DE W ILCOXON . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

vii
Capítulo 1

Introdução

Em várias áreas do conhecimento, cresce a cada dia a quantidade de informações


coletadas e armazenadas e devido ao volume e dimensionalidade, estes dados acabam
ficando sem uma análise e interpretação adequadas.
A diversidade de características dos conjuntos de dados pode fazer com que a utiliza-
ção de um ou outro algoritmo de agrupamento, ou o mesmo algoritmo, mas com diferen-
tes atributos, resulte em diferentes resultados. O aumento do desempenho de sistemas de
classificação, agrupamentos e análise de dados é uma busca constante em Mineração de
Dados e áreas correlatas.
Algoritmos novos ou variações de algoritmos já existentes são publicados na litera-
tura constantemente. Algoritmos não supervisionados são empregados quando não há um
conhecimento prévio sobre a estrutura e a distribuição do conjunto de dados. Dentre os
algoritmos não supervisionados, destaca-se a Rede de Kohonen, com aprendizado com-
petitivo e não supervisionado, capaz de projetar um mapa bidimensional de um conjunto
multidimensional de dados, preservando as relações topológicas destes dados.
Na busca por soluções eficientes na exploração do conhecimento embutido nas massas
de dados, foram criados métodos de comitês de máquinas (ensemble), onde combinam-
se os resultados de várias redes neurais artificiais em um só. Esta abordagem tem sido
muito explorada, pois trata-se de uma técnica simples e que pode aumentar o poder de
generalização das redes neurais.
A combinação de múltiplos componentes é vantajosa, uma vez que componentes di-
ferentes podem implicitamente representar aspectos distintos e, ao mesmo tempo, rele-
vantes para a solução de um dado problema. Esta técnica é capaz de fornecer um melhor
resultado do que cada componente individualmente.
Duas características são fundamentais para o bom desempenho de um comitê de má-
quinas: diversidade de resultados e erros descorrelacionados dos componentes. É preciso
que os componentes do comitê apresentem resultados diferentes, pois de nada adianta
2 CAPÍTULO 1. INTRODUÇÃO

combinar soluções iguais. Também é necessário que os erros apresentados pelos compo-
nentes sejam independentes uns dos outros, pois não há ganho para o comitê se os todos
os componentes, por exemplo, errarem a mesma classificação de um padrão de entrada.
Para os mapas auto-organizáveis de Kohonen (Kohonen Self-Organizing Maps - SOM)
(Kohonen, 1982), erros descorrelacionados podem ser obtidos, por exemplo, utilizando
diferentes conjuntos de treinamento ou variando parâmetros de treinamento para cada
rede neural. A combinação das saídas dos mapas SOM em uma única saída pode ser feita
a partir da fusão dos neurônios dos mapas que compõem o comitê de máquinas.

1.1 Motivação
Tanto a abordagem de comitês de máquinas quanto o uso de Mapas Auto Organi-
záveis de Kohonen têm sido muito explorados nos últimos anos. Comitês de máquinas
são relativamente simples em seu conceito e complexos em sua implementação, mas são
capazes de aumentar a capacidade de generalização de um modelo. As Redes de Koho-
nen trabalham com dados multidimensionais, projetando-os em um mapa bidimensional,
preservando a topologia dos dados.
A motivação deste trabalho é desenvolver um novo método para combinação de mapas
de Kohonen que empregue a ponderação por índices de validação de agrupamentos, com
o objetivo de aumentar a acurácia desse método em relação a uma única rede de Kohonen.

1.2 Objetivos
A proposta deste trabalho é apresentar um método para fusão de Mapas de Kohonen
por meio de comitês de máquinas e com ponderação por índices de validação de agrupa-
mentos.
Os objetivos específicos desta pesquisa são:

1. Propor uma metodologia para implementar o comitê de máquinas de mapas de


Kohonen de tamanhos iguais e de tamanhos diferentes;
2. Verificar a influência da quantidade de hits e BMUs no resultado final do comitê de
máquinas;
3. Verificar a eficácia em empregar índices de validação de agrupamentos na seleção
de componentes do comitê de máquinas.
1.3. ORGANIZAÇÃO DO DOCUMENTO 3

1.3 Organização do documento


Este documento está organizado da seguinte forma: no Capítulo 1 é apresentada uma
breve descrição da proposta desta tese, bem como os aspectos que motivaram o seu de-
senvolvimento e os objetivos. No Capítulo 2 os conceitos principais que serão utilizados
neste trabalho são descritos e são apresentados alguns trabalhos relacionados. No Capí-
tulo 3 é apresentada a proposta para a fusão de mapas de Kohonen de tamanhos iguais e de
tamanhos diferentes. No Capítulo 4 são apresentados os resultados obtidos na aplicação
dos algoritmos propostos para a fusão de mapas de Kohonen. Por fim, no Capítulo 5 são
apresentadas as conclusões e os trabalhos futuros.
4 CAPÍTULO 1. INTRODUÇÃO
Capítulo 2

Fundamentação Teórica

Neste capítulo são apresentados os conceitos utilizados no desenvolvimento deste tra-


balho. Uma visão geral sobre mapas auto organizáveis de Kohonen é vista na Seção 2.1.
Já na Seção 2.2, são apresentadas descrições simplificadas de alguns índices de validação
e na Seção 2.3 temos a modificação dos índices de validação modificados para uso com o
SOM. Ao final, na Seção 2.4 temos uma introdução aos métodos de comitês de máquinas.

2.1 Mapas Auto-organizáveis de Kohonen


Os mapas auto-organizáveis de Kohonen (Self-Organizing Maps - SOM) (Kohonen,
1982) tornaram-se um modelo de rede neural muito popular. Constituem uma rede neural
artificial, com aprendizado competitivo e não supervisionado, que realiza uma projeção
não-linear de um espaço de entrada ℜ p , sendo p >> 2, em uma grade de neurônios dis-
postos em um arranjo, normalmente, bidimensional, tendo apenas duas camadas: uma de
entrada de dados e outra de saída de dados.
As entradas da rede x são vetores no espaço p-dimensional. Os neurônios i da camada
de saída são conectados a todas as entradas da rede, representados por um vetor de pesos
sinápticos no espaço p-dimensional, wi = [wi1 , wi2 , ..., wi p ]T . Estes neurônios são conec-
tados aos neurônios adjacentes por uma relação de vizinhança que descreve a estrutura
topológica do mapa. A Figura 2.1 mostra um diagrama representativo da arquitetura da
Rede de Kohonen.
Na fase de treinamento, em uma sequência aleatória, os padrões de entrada x são
comparados com os neurônios da camada de saída. O neurônio vencedor, chamado de
BMU (Best Match Unit), representa o vetor peso com a menor distância, usualmente a
Euclidiana, em relação ao padrão de entrada x.
Chamando o neurônio vencedor de c, ele pode ser formalmente definido de acordo
com a Equação 2.1.
6 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

Figura 2.1: Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011)

kx − wc k = argmini kx − wi k (2.1)

Os pesos do neurônio vencedor são ajustados de acordo com a Equação 2.2, junta-
mente com os pesos dos neurônios vizinhos.

wi (t + 1) = wi (t) + α (t) hci (t) [x (t) − wi (t)] (2.2)

Onde t indica a iteração (ou época), x(t) é o padrão de entrada, hci (t) é a função de
vizinhança, centrada no neurônio vencedor ix , enquanto que α(t) é a taxa de aprendizado,
com valores entre 0 e 1.
Na Figura 2.2 é ilustrado o processo de atualização de pesos do neurônio vencedor e
sua vizinhança. As linhas sólidas correspondem à situação antes da atualização dos pesos
e as linhas tracejadas mostram a mudança devido à aproximação do BMU e seus vizinhos
do padrão de entrada x. Os círculos escuros e claros representam, respectivamente, os
neurônios antes e depois do ajuste dos pesos.

2.1.1 Treinamento do Mapa


São duas as maneiras de treinamento de um Mapa de Kohonen: treinamento se-
quencial e treinamento em lote. O processo de treinamento sequencial dos mapas auto-
organizáveis consiste em três etapas, segundo Haykin (2001):

1. Competição: a cada padrão de entrada que é apresentado para a rede, os neurônios


da camada de saída competem entre si, (esta competição é baseada em uma medida
de similaridade), Geralmente a menor distância euclidiana entre os pesos sinápticos
dos neurônios e o padrão de entrada determinará o único vencedor (BMU).
2.1. MAPAS AUTO-ORGANIZÁVEIS DE KOHONEN 7

Figura 2.2: Atualização do BMU e vizinhos. (Vesanto, 2002)

2. Cooperação: escolhido o neurônio vencedor, este torna-se o centro de uma vizi-


nhança topológica de neurônios excitados.
3. Adaptação: os neurônios da vizinhança topológica determinada na fase de coo-
peração têm seus pesos sinápticos ajustados, de maneira que os neurônios mais
próximos ao BMU sofrem ajustes maiores do que os neurônios mais distantes.

A função gaussiana é utilizada para descrever a influência do BMU sobre seus vizi-
nhos (atualização dos pesos sinápticos), pois apresenta um significado biológico coerente:
o neurônio ativado tende a excitar com maior intensidade os neurônios na sua vizinhança
imediata e decai suavemente com a distância lateral (Haykin, 2001). A Equação 2.3 mos-
tra como é calculada a excitação do neurônio j, em relação ao neurônio vencedor i, sendo
d ji a distância entre eles (normalmente, a distância euclidiana é utilizada).
!
di2j
hi j = exp − (2.3)
2σ2

Com o fim do processo de aprendizagem, os vetores de código do SOM constituem


uma aproximação não-linear dos padrões de entrada. O processo busca manter a preser-
vação topológica dos padrões, isto é, padrões próximos no conjunto de entrada da rede
permanecerão relacionados a neurônios próximos na grade de saída.
O processo de treinamento em lote difere do treinamento sequencial por apresentar
todos os vetores de entrada para a rede. de uma única vez. Assim, não é necessário o
parâmetro taxa de aprendizagem, α(t), da Equação 2.2 e também não se faz necessária
aleatoriedade para a apresentação dos vetores de entrada.
Na próxima seção, serão apresentados os índices de validação de agrupamentos utili-
zados como ponderação na fusão dos mapas de Kohonen.
8 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

2.2 Índices de Validação


Devido às diferentes geometrias e dimensionalidades dos conjuntos de dados, não
existe um algoritmo único que possa agrupar, de forma não supervisionada, um conjunto
de dados qualquer. Os índices de validação são necessários para avaliar e validar os
resultados destes algoritmos de agrupamentos, auxiliando na tomada de decisão quanto à
definição da quantidade correta, ou natural, de grupos formados a partir de um conjunto
de dados.
Existe, na literatura, uma variedade muito grande de índices de validação de agrupa-
mentos, cada um com características próprias para aplicação em conjuntos de dados com
determinadas características. Alguns aplicam-se à conjuntos de dados que apresentam boa
separação entre os agrupamentos, outros se destinam a dados de alta dimensionalidade,
outros não apresentam boa resposta na presença de ruídos. Para cada tipo de aplicação,
um método para validar os agrupamentos foi desenvolvido.
Na validação de agrupamentos podem ser abordados três critérios: o externo, o interno
e o relativo (Theodoridis e Koutroumbas, 2009).
No critério externo a estrutura dos grupos é avaliada em termos de uma estrutura
independente, imposta ao conjunto de dados a priori.
No critério interno a estrutura dos grupos é avaliada em base em informações estatís-
ticas dos dados de cada grupo (por exemplo, a matriz de proximidade).
No critério relativo a estrutura dos grupos é avaliada por comparação com outras es-
truturas de agrupamentos, resultantes da aplicação do mesmo algoritmo (mas com parâ-
metros com diferentes valores), ou comparada com outros algoritmos de agrupamentos.
Como exemplos de índices de validação que utilizam critérios relativos, temos: o
índice de Dunn, o índice de Calinski e Harabasz o índice Davies-Bouldin, o índice PBM
e o índice CDbw. Nas seções 2.2.1, 2.2.3 e 2.2.5 estes índices serão explicados.

2.2.1 O índice de Dunn

O índice de Dunn (Dunn, 1973) é calculado pela razão entre a mínima distância entre
dois pontos pertencentes a dois diferentes grupos (δ(Ci ,C j )) e a máxima distância entre
dois pontos pertencentes ao mesmo grupo (∆(Ck )), como ilustra a Figura 2.3. É adequado
para conjunto de dados que possuam grupos compactos e bem separados. É sensível a
ruídos, pois eles interferem no cálculo do diâmetro do grupo, e seu custo computacional
é elevado.
2.2. ÍNDICES DE VALIDAÇÃO 9

Figura 2.3: Diagrama do cálculo do índice de Dunn.


Fonte: Elaborada pelo autor.

O seu cálculo é mostrado na Equação 2.4


  
δ(Ci ,C j )
D = min min (2.4)
1≤i≤c 1≤ j≤c,i6= j max1≤k≤c ∆(Ck )

No artigo de Bezdec (Bezdek e Pal, 1998) são propostas generalizações do Índice de


Dunn, para melhor adequação às diferentes geometrias dos agrupamentos. Estas generali-
zações são obtidas pelas variações nos cálculos dos diâmetros dos grupos e das distâncias
entre grupos.
Valores elevados para o Índice de Dunn indicam a existência de grupos compactos
(diâmetro pequeno) e bem separados (distâncias grandes entre os grupos).

2.2.2 O índice de Calinski e Harabasz


O índice de Calinski e Harabasz (Calinski e Harabasz, 1974) avalia a quantidade de
grupos presentes em um conjunto de dados por meio de medidas de dispersão entre e intra
grupos. O seu cálculo é mostrado na Equação 2.5.

B(k)/(k − 1)
CH(k) = (2.5)
W (k)(n − k)
Onde:

• k indica a quantidade de grupos no conjunto de dados.


• n é a quantidade de pontos no conjunto.
• B(k) é a dispersão entre os grupos.
• W (k) é a soma das dispersões intra-grupos.

O número de ótimo de grupos é o valor de k que maximiza a função 2.5.


10 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

2.2.3 O índice Davies-Bouldin


O índice Davies-Bouldin (Davies e Bouldin, 1979) é uma função da razão entre a
soma da dispersão interna dos grupos e a separação entre eles. Na Figura 2.4, as linhas
vermelhas no interior do grupo Ci , ilustram a dispersão interna, enquanto a linha verde
que une os centroides dos grupos Ci e C j representa a separação entre eles.

Figura 2.4: Diagrama do cálculo do índice Davies-Bouldin.


Fonte: Elaborada pelo autor.

A dispersão interna de um grupo é dada pela Equação 2.6:

1
S (Ci ) =
c ∑ kx − c k
i (2.6)
c∈Ci

Onde:

• c indica a quantidade de elementos do grupo.


• ci representa o centroide do grupo.
• x representa cada ponto do grupo.
• k.k é a distância Euclidiana.

A separação entre os grupos é dada pela distância Euclidiana entre os centroides dos
grupos, como mostra a Equação 2.7:

δ Ci ,C j = ci , c j (2.7)

Por fim, a Equação 2.8 calcula o índice Davies-Bouldin

k 
1 S (Ci ) + S C j
DB =
k ∑ max
δ Ci ,C j
 (2.8)
i=1
i6= j

Onde k é o número de agrupamentos, S representa a dispersão interna do agrupa-


mento (distância intra-grupos), com relação ao centroide e δ corresponde à distância inter-
2.2. ÍNDICES DE VALIDAÇÃO 11

grupos, baseada nos centroides.


Valores pequenos para o Índice Davies-Bouldin indicam grupos compactos cujos cen-
tros estão bem separados entre si. O valor de k que minimiza o índice representará o valor
mais provável do número real de grupos no conjunto de dados. Este índice não depende
do número de grupos no conjunto de dados e nem do algoritmo utilizado para formar estes
grupos.

2.2.4 O índice PBM


O índice PBM (Pakhira et al., 2004), (acrônimo formado pelas iniciais dos autores
Pakhira, Bandyopadhyay and Maulik), baseia-se em compactação de grupos e separação
entre grupos. A compactação é medida pela soma das distâncias entre cada ponto do
grupo e seu centroide. A separação entre os grupos é medida pela máxima distância entre
dois centroides.
 2
1 E1
PBM(k) = · · Dk (2.9)
k Ek
Onde:

• k indica a quantidade de grupos.


• E1 é a soma das distâncias entre cada ponto de um grupo e o centroide desse grupo.
• Ek é a soma das distâncias entre cada ponto e o centroide do conjunto de dados.
• Dk é a máxima distância entre dois quaisquer centroides de grupos.

Maximizando este índice, obtem-se o número ótimo de grupos em um conjunto de


dados.

2.2.5 O índice CDbw


Em Halkidi e Vazirgiannis (2008), foi proposto um índice de validação de agrupamen-
tos chamado CDbw (Composing Density Between and With clusters). Este índice CDbw
ajusta-se bem a geometrias não esféricas dos dados por considerar multi-representantes
por grupos e não apenas o centroide, podendo ser aplicado a conjuntos de dados com alta
dimensionalidade. Para um conjunto de dados particionados em c agrupamentos, define-
se um conjunto de pontos representativos Vi = {vi1 , vi2 , ..., vir } para o agrupamento i,
sendo que r representa o número de pontos de representação do agrupamento i.
Os representantes de cada grupo são assim determinados: na 1a iteração escolhe-se o
ponto mais distante do centro. Nas seguintes iterações escolhe-se o ponto mais distante
12 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

do ponto escolhido previamente. Isso resulta em um conjunto de pontos r que representa


a periferia, ou contorno, do grupo. O critério de parada é definido empiricamente, ou seja,
escolhe-se previamente o número de representantes de cada grupo (Halkidi e Vazirgiannis,
2008).
Este índice de validação baseia-se na densidade intra-grupos e na separação entre os
grupos, conforme a Equação 2.10.

CDbw(c) = DensIntra(c) × Sep(c) (2.10)

Sendo DensIntra(c) a densidade intra-grupos e Sep(c) a separação entre os grupos. A


densidade intra-grupos é definida como o número de pontos que pertencem à vizinhança
dos pontos que representam os grupos r. A densidade intra-grupos é alta para grupos bem
separados.

c ri
1 1
DensIntra(c) =
c ∑ ∑density(v ), c > 1
ri
ij (2.11)
i=1 i=1
Onde:

• c é o número de grupos.
• ri é número de pontos representativos.
• vi j é j-ésima a representação do agrupamento i.

Sendo a densidade:
ni
density(vi j ) = ∑ f (x , v )
l ij (2.12)
l=1
Onde:

• xl pertence ao i-ésimo agrupamento.


• ri é número de pontos representativos.
• vi j é j-ésima a representação do agrupamento i.

O termo do somatório é definido da seguinte maneira:



1, se xl − vi j ≤ stdev,
f (xl , vi j )i j =
0, se caso contrario.

Aqui, stdev corresponde à média dos desvios padrões de cada um dos c agrupamentos
(desvio padrão dos pontos do grupo até o centroide deste grupo).
2.2. ÍNDICES DE VALIDAÇÃO 13

A densidade inter-grupos é definida como a densidade nas áreas entre os grupos. Essa
densidade deve ser baixa quando temos grupos compactos e bem separados.

c c
close repi − close rep j
DensInter(c) = ∑∑ · density(ui j ), c > 1 (2.13)
(kstdev(i)k + kstdev( j)k)
i=1 j=1

Onde:

• close repi − close rep j representam o par de pontos de representação mais próxi-
mos entre o agrupamento i e j.
• ui j é o ponto médio entre este par de pontos.

Sendo esta densidade:

ni +n j
density(ui j ) = ∑ f (x , u )
k ij (2.14)
k=1
Sendo xk o vetor de entrada que pertence ao grupo i ou j. Já o termo do somatório é
assim definido:

1, se kx − vk ≤ 1 × (kstdev(i)k + kstdev( j)k),
2
f (xk , ui j ) =
0, caso contrario.

A separação entre agrupamentos leva em conta a distância inter-grupos e a densidade


inter-grupos.

c c
close repi − close rep j
Sep(c) = ∑∑ 1 + Inter den(c)
,c > 1 (2.15)
i=1 j=1
j6=i
Assim, o índice de validação de agrupamentos CDbw é dado por pela equação 2.10.
O número ideal de grupos é indicado quando o valor do CDbw atinge o valor máximo,
independente do algoritmo utilizado para o agrupamento dos dados.
Este índice adapta-se bem a grupos com as mais variadas formas geométricas, uma
vez que usa vários vetores representativos para cada grupo e não somente o centroide.
Na seção seguinte será mostrada a modificação no cálculo dos índices de validação de
agrupamentos, adaptados para uso com os mapas de Kohonen, proposto em (Gonçalves,
2009).
14 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

2.3 Modificação de índices de validação


Devido à alta complexidade computacional exigida no cálculo dos índices de vali-
dação de agrupamentos, Gonçalves (2009) propôs em sua Tese de doutoramento uma
modificação nos cálculos dos índices de validação, para aplicá-los em conjuntos de dados
de imagens de sensoriamento remoto que, por sua natureza, são bastante volumosos.
O autor modificou alguns índices de validação através da quantização vetorial produ-
zida pelo SOM. Assim, não foram utilizados os padrões originais e sim os vetores de pesos
sinápticos dos neurônios do SOM nos cálculos destes índices. Desta forma, diminui-se a
quantidade de dados e, consequentemente, a complexidade computacional para o cálculo
do índice de validação.
Para contornar possíveis diferenças de valores entre o cálculo do índice considerando
todos os dados e considerando apenas os protótipos, o autor também propôs que fossem
utilizados os níveis de atividade conjuntamente com os vetores de pesos sinápticos. O
nível de atividade significa a quantidade de padrões de entrada que foram associados a
cada protótipo pelo processo de mapeamento do SOM.
A modificação proposta no cálculo dos índices pode ser compreendida através de um
exemplo no cálculo de distância entre dois agrupamentos CI e C j :

1
δi, j =
|Ci | C j ∑ d (x, y) (2.16)
x∈Ci
y∈C j

Na Equação 2.16, d (x, y) é uma medida de distância e |Ci | e C j referem-se à quanti-
dade de elementos dos grupos Ci e C j , respectivamente.
Quando a quantidade de elementos do grupo é elevada, a complexidade computacio-
nal é elevada. A Equação 2.17 mostra a modificação do cálculo através da metodologia
proposta em (Gonçalves, 2009) :

1
δSOM
 
i, j = ∑ h (wi ) · h w j · d wi , w j (2.17)
|Ci | C j
wi ∈Wi
w j ∈W j

Onde Wi e W j são os conjuntos de protótipos do SOM que representam os grupos Ci


e C j , respectivamente, d (x, y) é a mesma medida de distância da Equação 2.16, h (wi ) é

o nível de atividade do protótipo wi pertencente a Wi e h w j é o nível de atividade do
protótipo w j pertencente a W j .
Assim o cálculo da distância apresenta um custo computacional mais baixo, uma vez
2.4. COMITÊS DE MÁQUINAS 15

que as quantidades envolvidas, Wi e W j , são menores do que Ci e C j .


Com a inclusão dos níveis de atividades h (.) dos protótipos no cálculo, obtém-se
uma minimização dos erros causados pela quantização vetorial que o Mapa de Kohonen
produz, já que introduz no cálculo a aproximação da densidade de pontos no espaço de
entrada ora representados pelos protótipos.
Na sequência, os comitês de máquinas são introduzidos, abordando aspectos relativos
à geração, seleção e combinação dos componentes destes comitês.

2.4 Comitês de máquinas


Um comitê de máquinas, ou ensemble, pode ser visto como uma coleção de redes
neurais artificiais individuais, que possuem diversidade entre si e que levam à uma maior
capacidade de generalização do que quando trabalhando em separado (Dietterich, 2000).
Cada componente atua independentemente dos outros e gera uma solução que é com-
binada pelo comitê, produzindo uma única saída. A Figura 2.5 mostra a estrutura geral de
um comitê de máquinas.

Figura 2.5: Estrutura de um comitê de méquinas. (Coelho, 2006)

O estudo de comitês de máquinas iniciou com o trabalho de Hansen e Salamon (1990),


combinando redes neurais artificiais, treinadas separadamente, conseguindo melhorar a
capacidade de generalização do sistema.
Um comitê de máquinas baseia-se no princípio de "dividir-para-conquistar", bus-
cando superar o desempenho de uma máquina de aprendizado operando de modo isolado
(Haykin, 2001). Os comitês de máquinas podem ser divididos em dinâmicos e estáticos.
No caso dinâmico, o comitê recebe o nome de mistura de especialistas, onde a di-
visão de tarefas e a síntese dos especialistas são realizadas simultaneamente e de forma
automática pelo algoritmo de aprendizagem (Haykin, 2001).
Nos comitês estáticos cada componente apresenta uma solução para o problema e
estas soluções são agregadas fornecendo um só resultado. Desta forma, há um aumento
16 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

da capacidade de generalização, diminuição da variância do modelo e maior tolerância à


ruídos quando comparados ao resultado de um único componente (Haykin, 2001).
Um dos requisitos básicos para o bom resultado do comitê de máquinas é que os com-
ponentes generalizem de forma diferente, pois de nada adianta combinar modelos que
adotam os mesmos procedimentos e hipóteses para a solução de um problema, sendo
fundamental que os erros apresentados por cada um dos componentes sejam descorrelaci-
onados (Perrone e Cooper, 1993). Isso pode ser obtido, por exemplo, utilizando diferentes
conjuntos para o treinamento ou variando os parâmetros de treinamento de cada rede neu-
ral que compõe o comitê de máquinas, entre outras maneiras.

2.4.1 Construção de um comitê de máquinas


As etapas da construção de um comitê de máquinas são: geração de componentes,
seleção dos componentes e combinação dos componentes individuais (Villanueva, 2006).
Inicialmente, geram-se os componentes candidatos a participarem do comitê. Na
sequência, selecionam-se os componentes candidatos que irão contribuir realmente para a
melhoria do desempenho do comitê. Por fim, combinam-se as saídas de cada componente
em uma única saída.
Na etapa da geração de componentes é preciso considerar um baixo erro de treina-
mento e uma descorrelação entre os erros de cada componente. Também é necessário
que haja diversidade entre os componentes, para garantir que generalizem de modo dife-
rente. Para garantir que as redes neurais tenham diversidade entre si, pode-se adotar como
estratégias:

• Inicialização aleatória dos pesos para cada componente.


• Variação na arquitetura da rede neural.
• Variação do algoritmo de treinamento.
• Re-amostragem dos dados.

No caso da re-amostragem dos dados duas técnicas são bastante utilizadas: Bagging
e Boosting.
Bagging (Breiman, 1996) é uma técnica de geração de conjuntos distintos de treina-
mento a partir de um único conjunto, através de re-amostragem com reposição.
Por exemplo, considere um único conjunto de treinamento com N amostras, para trei-
nar m componentes. O objetivo é construir m conjuntos de treinamento com N amostras
cada um. Com uma distribuição de probabilidade uniforme para seleção das amostras a
2.4. COMITÊS DE MÁQUINAS 17

partir do conjunto fonte, teremos algumas amostras selecionadas mais de uma vez, pois
há reposição.
Há a possibilidade de os componentes não generalizarem de forma satisfatória, mas
a combinação destes modelos pode resultar em uma generalização melhor do que cada
componente individual.
Boosting (Schapire, 1990) é um método em que os conjuntos de treinamento são ge-
rados através de uma amostragem não uniforme, diferentemente do método Bagging.
A probabilidade de uma dada amostra ser escolhida depende da contribuição desta
para o erro dos componentes já treinados.
Tomando como exemplo um problema de classificação, uma amostra que não seja cor-
retamente classificada pelos componentes já treinados terá uma maior probabilidade de
ser selecionada do que uma amostra que seja corretamente classificada. Assim, esta amos-
tra terá uma chance maior de compor o conjunto de treinamento do próximo componente
a ser treinado.
Um dos problemas desta técnica é a necessidade de treinamento sequencial dos com-
ponentes do comitê, uma vez que as probabilidades devem ser redefinidas de acordo com
o comportamento dos componentes já treinados.
A versão mais popular do algoritmo de Boosting é chamada AdaBoost, na qual cada
componente é treinado sequencialmente e a distribuição dos dados de treinamento é feita
levando-se em consideração os erros do componente treinado no passo imediatamente
anterior.
Considerando a etapa da seleção de componentes, pode ser que nem todos os com-
ponentes contribuam para o desempenho global do comitê. Assim, é preciso identificar
e descartar estes componentes, uma vez que a inclusão de todos eles no comitê pode
degradar sua performance (Zhou et al., 2002).
Uma maneira de selecionar os componentes é através de alguma medida de erro, por
exemplo. Dois são os métodos mais citados na literatura para seleção de componentes: o
construtivo e o da poda.
O método construtivo pode ser descrito desta maneira: os M candidatos a comporem
o comitê são ordenados com base em algum critério, por exemplo medida de erro, que irá
mensurar o desempenho individual de cada componente. O que tiver melhor desempenho
individual é inserido no comitê. O próximo candidato (o de segundo melhor desempenho
individual), é adicionado ao comitê. Se o desempenho do comitê de máquinas melhorar,
o comitê passa a ter dois componentes. Caso contrário, o elemento recém-inserido é
removido. Este processo se repete então para todos os demais candidatos restantes na
lista ordenada gerada inicialmente.
18 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

O método da poda funciona de modo oposto ao método construtivo. Os M candida-


tos também são ordenados a partir de seu desempenho individual em relação à medida de
erro, por exemplo. Todos os candidatos são inseridos no comitê. O candidato com pior
performance individual é removido e o comitê de máquinas tem seu desempenho avaliado
novamente. Se ocorrer uma melhora de seu desempenho em relação à configuração an-
terior, o comitê passa a contar então com M-1 componentes. Senão, o candidato retirado
volta ao comitê e o processo se repete para os demais candidatos, exceto o de melhor
desempenho individual, que nunca é removido do comitê de máquinas.
A seleção de componentes é realizada basicamente para maximizar a generalização
do modelo, descartando componentes que não contribuam para o desempenho do comitê.
De acordo com Greene et al. (2004), a diversidade entre os componentes é necessária,
porém não é suficiente para gerar uma solução melhor do que um único componente se
não for utilizado um método de integração adequado para combinar estes componentes.
De acordo com Villanueva (2006), a combinação dos componentes para obter o re-
sultado final do comitê de máquinas pode ser baseada em técnicas de votação simples,
para tarefas de classificação de dados ou média simples ou ponderada, para tarefas de
regressão de dados. No caso de agrupamentos de dados, onde não há conhecimento à pri-
ori, uma opção é empregar a matriz de co-associação. Esta combinação dos componentes
é feita através da chamada função consenso. Ela deve ser escolhida cuidadosamente, pois
influencia diretamente o resultado do comitê de máquinas.

2.4.2 Algumas aplicações de comitês de máquinas


É possível encontrar variações nas implementações dos métodos de comitês de má-
quinas e suas aplicações em diversas áreas do conhecimento: Wang (2006) empregou
comitês para a classificação e predição de dados de expressão de genes, para a correta e
confiável classificação de tumores, o que é essencial para o sucesso do tratamento. Outra
aplicação médica é encontrada em Krawczyk et al. (2012), que utilizou comitês para re-
conhecimento não invasivo de fibrose hepática. Greene et al. (2004) também estudou as
técnicas de comitês aplicadas em diagnósticos médicos.
Em Villanueva (2006) e Chitra e Uma (2010) foram empregados comitês de máquinas
para predição de séries temporais, obtendo um ganho significativo quando comparado
com o uso de um único modelo preditor. Curiac e Volosencu (2012) utilizou comitês de
classificadores para detecção de anomalias em redes de sensores sem fio.
Comitês de máquinas também foram aplicados em previsão de tempo, com resultados
satisfatórios (Maqsood et al., 2004).
2.4. COMITÊS DE MÁQUINAS 19

A abordagem de comitês demonstrou ser uma forma eficaz para aumentar a precisão
e robustez de reconstrução de sinal de sensores em uma planta de geração de energia
nuclear (Baraldi et al., 2010).
Em seu trabalho, Coelho (2006), propôs uma metodologia de criação de comitês de
máquinas para problemas de classificação, onde os componentes são redes neurais ar-
tificiais do tipo perceptron multicamadas. Para que fossem gerados bons candidatos a
comporem o comitê, atendendo a critérios de desempenho e de diversidade, foi aplicada
uma meta-heurística populacional imuno-inspirada, caracterizada por definir automati-
camente o número de indivíduos na população a cada iteração, promover diversidade e
preservar ótimos locais ao longo da busca. Os resultados obtidos indicam a validade da
metodologia de criação de comitês de máquinas.
Em Naldi (2011), o autor investigou as técnicas de combinação de agrupamentos,
através de algoritmos evolutivos e de índices de validação aplicadas na seleção de agru-
pamentos para combinação e na mineração distribuída de dados, conseguindo partições
de boa qualidade e com bom desempenho computacional.
No trabalho de Ferreira (2012), o método para construção de comitês é baseado em
rotação, que utiliza a técnica de extração de características da análise de componentes
principais (PCA) como artifício para rotacionar os eixos formados pelos subgrupos de
atributos para construção de comitês diversos e acurados.
Até aqui foram relatados alguns trabalhos utilizando a técnica de comitês de máquinas,
para demonstrar a diversidade e exito na aplicação desta técnica em diversas áreas do
conhecimento. Neste trabalho são empregados comitês de Mapas de Kohonen. A seguir
são descritos apenas alguns trabalhos para ilustrar o emprego do método em variadas
áreas.
Em Jiang e Zhou (2004), um método de segmentação de imagens, baseado em um
conjunto de redes SOM é proposto. Os pixels são agrupados de acordo com a cor e carac-
terísticas espaciais em cada rede SOM. Após combinam-se os resultados de agrupamento
para dar a segmentação final. Os resultados experimentais mostram que o método pro-
posto apresenta um desempenho melhor do que métodos baseados em segmentação de
imagem.
Georgakis et al. (2005) comparou um comitê de máquinas de SOM com o SOM tra-
dicional em organização e recuperação de documentos. Como critério para combinação
dos mapas, foi utilizada a distância euclidiana entre os neurônios, para determinar quais
neurônios estavam alinhados, possibilitando a fusão. Os mapas foram avaliados dois a
dois, até que todos os mapas foram combinados em um só. O comitê de SOM obteve um
melhor resultado do que a aplicação tradicional. Para esta metodologia, todos os mapas
20 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA

devem ter o mesmo tamanho.


No trabalho de Saavedra et al. (2007), a fusão dos neurônios foi denominada Fusion-
SOM e baseia-se nos polígonos de Voronoi - regiões do espaço de entrada às quais os
neurônios do mapa de Kohonen podem ser associados, ou seja, para os neurônios serem
combinados, precisam representar a mesma região do espaço de entrada.
O trabalho de Low et al. (2005) apresenta uma abordagem de comitê chamada Mapa
de Kohonen Extendido e Cooperativo (Cooperative EKM - Extendend Kohonen Maps)
com mapeamento indireto aplicado a movimentação de robôs.
No trabalho de DeLooze (2006) um conjunto de redes SOM são utilizadas para iden-
tificar e caracterizar adequadamente ataques a computadores.
Tsai (2014) desenvolveu modelos de previsão de dificuldades no mercado financeiro,
baseados em comitê de SOM, obtendo resultados melhores do que modelos individuais.
Em Fustes et al. (2013) foi utilizado comitê de SOM, para análise não supervisionada
de outliers, que permite a descoberta de conhecimento em bancos de dados astronômicos,
como a missão Gaia, da agência espacial européia que vai observar com uma precisão
posições, distâncias, movimentos do espaço, e muitas propriedades físicas de mais de um
bilhão de objetos em nossa galáxia e além.

2.5 Resumo
Neste capítulo foram apresentados os principais conceitos que serão utilizados neste
trabalho: mapas auto organizáveis de Kohonen, índices de validação e comitês de má-
quinas. Os mapas auto organizáveis de Kohonen são uma rede neural artificial que têm
demonstrado bons resultados em tarefas de classificação, agrupamento e visualização de
conjuntos de dados multidimensionais. Os índices de validação de agrupamentos tem por
finalidade quantificar o quanto um algoritmo pode ser eficiente em agrupar dados. Os co-
mitês de máquinas constituem uma maneira para lidar com grandes conjuntos de dados,
produzindo bons resultados em relação ao custo computacional envolvido. No próximo
capítulo serão detalhadas as abordagens desenvolvidas neste trabalho para a fusão de ma-
pas de Kohonen.
Capítulo 3

Materiais e Métodos

Para projetar um comitê de máquinas é preciso definir três parâmetros importantes:


como obter a diversidade entre os componentes do comitê; como selecionar os com-
ponentes que farão parte do comitê e como agregar, ou combinar, o resultado de cada
componente.
Neste capítulo serão apresentadas as metodologias para a investigação da solução do
tema proposto por este trabalho através de duas Seções: fusão de mapas de tamanhos
iguais e fusão de mapas de tamanhos diferentes.

3.1 Fusão de mapas de tamanhos iguais


O método consiste na fusão de mapas de Kohonen formados a partir de subconjuntos
do conjunto de dados, criados por re-amostragem (Bagging).
Como descrito na Seção 2.4.1, Bagging e Boosting são duas técnicas bastante empre-
gadas para a re-amostragem de dados. Neste trabalho foi escolhida a técnica de Bagging
por ser de implementação e execução mais simples.
Uma visão geral do processo é mostrado na Figura 3.1. A fusão ocorre entre dois
neurônios que têm a mínima distância Euclidiana entre eles, indicando que eles represen-
tam a mesma região do espaço de entrada.

Figura 3.1: Visão geral do processo.


Fonte: Elaborada pelo autor.
22 CAPÍTULO 3. MATERIAIS E MÉTODOS

O método de re-amostragem foi utilizado para gerar subconjuntos a partir do conjunto


de treinamento, com probabilidade uniforme e reposição. O SOM foi aplicado a cada
subconjunto gerado e todos os mapas foram segmentadas pelo algoritmo k-means. Os
mapas segmentados são os candidatos a comporem o comitê de máquinas.

3.1.1 Seleção e dos candidatos

De acordo com Zhou et al. (2002), não se deve utilizar todos os componentes, pois
isso pode afetar o desempenho do comitê. Assim, a maneira de selecionar estes can-
didatos será através de índices de validação de agrupamentos modificados, propostos
por Gonçalves (2009), a saber: CDbw, Calinski-Harabasz, Dunn generalizado, PBM e
Davies-Bouldin. Estes índices serão a função consenso do comitê.
O método de seleção é baseado na ordenação dos componentes pelos índices de va-
lidação e pode ser descrito da seguinte maneira: os candidatos a compor o comitê são
ordenados com base nos valores dos índices de validação, do melhor para o pior. Assim,
temos uma medida de desempenho individual de cada componente.
O processo de seleção dos mapas de Kohonen desenvolvido neste trabalho é ilustrado
pela Figura 3.2. Neste exemplo os mapas foram ordenados pelo índice de validação de
agrupamentos CDbw e os valores foram normalizados no intervalo [0, 1]. O mapa com o
melhor índice CDbw (0,5369), letra (a) na Figura, é o primeiro componente do comitê.
O mapa com o segundo melhor índice CDbw (0,4386), letra (b) na figura, é primeiro
candidato a compor o comitê. A combinação entre eles resultou em um mapa que, ao
ser segmentado, alcançou um valor para o índice CDbw igual a 0,7207, que é maior do
que o mapa melhor ordenado anteriormente. Desta forma, o segundo mapa é mantido no
comitê, letra (c) na figura. Caso o valor do índice do mapa combinado fosse menor do que
o índice do primeiro mapa, o segundo mapa seria retirado do comitê e o terceiro mapa
seria testado. Este processo de seleção prossegue até que todos os mapas disponíveis
sejam testados.
As equações de fusão, as abordagens e a estrutura geral do experimento fatorial são
descritas a seguir.

3.1.2 Equações de fusão

Foram testadas três diferentes equações para a fusão dos neurônios dos mapas de
Kohonen. A primeira, Equação 3.1, é uma média aritmética simples entre os vetores de
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 23

Figura 3.2: Seleção e combinação dos mapas.


Fonte: Elaborada pelo autor.

peso dos neurônios as serem fundidos.

wi + w j
wc = (3.1)
2

onde wc representa cada neurônio do mapa combinado; wi e w j são os neurônios dos


mapas a serem combinados.
A segunda equação é uma média ponderada entre os pesos dos neurônios e seus res-
pectivos hits. O propósito de incluir os hits é evitar a influência de neurônios sem hits no
resultado da fusão, como mostra a Equação 3.2

wi · hi + w j · h j
wc = (3.2)
hi + h j

onde hi e h j são os hits de cada neurônio de cada mapa.


Através da Equação 3.3, a terceira equação testada, analisamos se o índice de valida-
ção de agrupamento influencia na melhora da acurácia do algoritmo.

wi · hi ·V Ii + w j · h j ·V I j
wc = (3.3)
hi ·V Ii + h j ·V I j

onde V Ii e V I j são os valores dos índices de validação para cada um dos mapas a serem
combinados.
24 CAPÍTULO 3. MATERIAIS E MÉTODOS

3.1.3 Experimento fatorial


Foi definido um experimento fatorial para avaliar o algoritmo proposto para a fusão
dos mapas. Foram avaliados três tamanhos de mapas: o 10x10, o 15x15 e o 20x20. Atra-
vés da re-amostragem, foram gerados dez conjuntos de dados, com a seguinte quantidade
de subconjuntos: 10, 20, 30, 40, 50, 60, 70, 80, 90 e 100 subconjuntos. Cada um dos
subconjuntos foi criado com três diferentes porcentagens de Bagging, sendo 50%, 70% e
90% dos dados de treinamento.
Isto significa que para cada tamanho de mapa, há dez diferentes subconjuntos e três
valores de porcentagem da re-amostragem, resultando em 900 mapas. Assim, no primeiro
experimento o mapa tem o tamanho de 10x10, com 10 subconjuntos gerados pela re-
amostragem com uma porcentagem de 50% dos dados de treinamento, como mostra a
Figura 3.3.

Figura 3.3: Estrutura do experimento fatorial.


Fonte: Elaborada pelo autor.

3.1.4 Abordagens
A ordenação dos mapas foi baseada nos cinco índices de validação de agupamentos
descritos na Seção 2.2 e ainda o MSQE (Mean Square Quantization Error).
O MSQE indica o quão bem os neurônios do mapa se aproximam dos dados do con-
junto de entrada (Corchado e Baruque, 2012), sendo utilizado para avaliar a qualidade da
adaptação do mapa aos dados (Saavedra et al., 2007).
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 25

Nesta pesquisa, foram testadas quatro abordagens para ordenar as performances dos
mapas e para estabelecer os critérios de combinação ou fusão:
Abordagem 1: Mapas ordenados pelo índice de validação e combinados pelo critério da
melhora do MSQE.
Abordagem 2: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
índice de validação.
Abordagem 3: Mapas ordenados pelos índice de validação e combinados pelo critério da
melhora do índice de validação.
Abordagem 4: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
MSQE.

Na primeira abordagem, os mapas são ordenados por cada um dos cinco índices de
validação, mas a fusão é controlada pela melhora do MSQE do mapa fundido. Na segunda
abordagem, os mapas foram ordenados pelo MSQE e o processo de fusão foi controlado
pela melhora do índice de validação de agrupamento do mapa fundido. Na terceira abor-
dagem, os mapas foram ordenados por cada índice de validação de agrupamento e a fusão
foi controlada pela melhora destes índices. É importante destacar que , por exemplo, se os
mapas foram ordenados de acordo com o índice Davies-Bouldin, a fusão será controlada
pela melhoria deste índice. Finalmente, na quarta abordagem os mapas foram ordenados
pelo MSQE e fundidos pelo critério de melhoria do MSQE. A Figura 3.4 mostra o que foi
descrito.

Figura 3.4: Abordagens para a fusão dos mapas.


Fonte: Elaborada pelo autor.
26 CAPÍTULO 3. MATERIAIS E MÉTODOS

3.1.5 Algoritmo proposto

O algoritmo proposto foi aplicado em cada uma das combinações mostrada na Figura
3.3, de acordo com as abordagens ilustradas na Figura 3.4. O algoritmo é descrito a
seguir:

Algoritmo 1: F USÃO DE MAPAS DE TAMANHOS IGUAIS


Entrada: Conjunto de dados, tamanho do mapa, número de subconjuntos,
porcentagem da re-amostragem
Saída: Mapas fundido
1 início

2 Gerar, através da re-amostragem (Bagging), os subconjuntos a partir do


conjunto de treinamento
3 Aplicar o SOM nos subconjuntos gerados, resultando em Ni (i = 1, 2, ...) mapas
com a mesma dimensão
4 Segmentar os mapas com o algoritmo k-means
5 Calcular os índices de validação de agrupamentos e o MSQE para cada Ni
(i = 1, 2, ...) mapa e ordená-los de acordo com os valores obtidos, do melhor
para o pior
6 Fundir o melhor mapa (mapa base - o que possuir o melhor valor para o índice
de validação de agrupamento ou MSQE) com o próximo melhor mapa, de
acordo com a ordenação, seguindo as Equações 3.1, 3.2 e 3.3
7 Calcular o índice de validação de agrupamento ou o MSQE do mapa fundido
8 Se
9 Há melhoria no índice de validação de agrupamento ou MSQE
10 Então
11 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 6 até
que todos os mapas sejam fundidos;
12 Senão
13 A fusão é descartada, retorne ao PASSO 6 até que todos os mapas sejam
fundidos;
14 fim

Os principais parâmetros do SOM foram: grade hexagonal, vizinhança gaussiana,


raio inicial de treinamento igual a 4, raio final de treinamento igual a 1 e 2000 épocas de
treinamento. Devido à inicialização aleatória, o algoritmo k-means foi repetido dez vezes
e foi selecionado o resultado que apresentou a menor soma dos quadrados dos erros.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 27

3.2 Fusão de mapas de tamanhos diferentes


Na literatura, até o momento, não foram encontrados métodos que possam resolver
o problema de fusão de mapas de Kohonen com diferentes tamanhos. A complexidade
está no fato de que, em mapas de tamanhos diferentes, teremos diferenças topológicas.
Mapas considerados pequenos têm neurônios vencedores (BMU) com grande número
de hits, isto é, vários padrões de entrada associados a eles. Por outro lado, em mapas
considerados grandes a vantagem é a distância elevada entre os BMUs, o que possibilita
melhor visualização do mapa.
Neste trabalho foi desenvolvido um novo método para combinar as saídas de mapas de
Kohonen com tamanhos diferentes em uma única saída. O objetivo é melhorar a acurácia
do comitê em relação à acurácia de um único mapa de Kohonen.
Para a fusão de mapas com tamanhos diferente novamente foram investigadas as pos-
sibilidades de ordenação e fusão de acordo com o que foi estabelecido para a fusão de
mapas de tamanhos iguais (Subseção 3.1.3).
O comitê é composto por mapas de diferentes tamanhos, derivados de um Mapa Base,
isto é, o mapa que será melhorado através de fusões consecutivas com outros mapas de
tamanhos diferentes.
Para determinação do tamanho do Mapa Base foi utilizada a Equação 3.4, definida em
Kohonen (1982), onde as dimensões x e y (linhas e colunas, respectivamente) do mapa
devem ser proporcionais aos dois maiores autovalores da matriz de covariância dos dados:
λ1 e λ2 : s
x λ1
≈ (3.4)
y λ2
O Mapa Base é o primeiro componente do comitê e os mapas restantes são candidatos
a comporem o comitê. Estes mapas são organizados de acordo com a performance obtida
(MSQE e os cinco índices de validação de agrupamentos). Os mapas são combinados aos
pares acordo com as três Equações de fusão: 3.1, 3.2 e 3.3.
Assim como na abordagem para fusão de mapas de mesmo tamanho, apresentada na
Seção 3.1, é preciso identificar e retirar do comitê os componentes que não contribuem
para o aumento do desempenho do comitê (Zhou et al., 2002).
Deste modo, o processo de seleção dos componentes é o mesmo que foi descrito para
mapas de tamanhos iguais (ver Figura 3.2), iniciando com o Mapa Base sendo combinado
com o mapa que apresenta a melhor performance entre os outros mapas. Se a performance
resultante da combinação dos mapas for melhorada em relação à performance do mapa
base, a combinação destes mapas é mantida. Caso contrário, a combinação destes dois
28 CAPÍTULO 3. MATERIAIS E MÉTODOS

mapas é descartada e o próximo mapa, com a segunda melhor performance, é combinado


com o mapa base. Cada vez que a combinação dos mapas resulta em um aumento da
performance, o próximo mapa (em ordem descendente de performance) é combinado a
eles e assim sucessivamente até que todos os mapas sejam testados na combinação.
Para a segmentação dos mapas foi utilizado o algoritmo k-means. O mesmo é repetido
dez vezes e o resultado escolhido é o que apresentar a menor soma dos quadrados dos
erros, devido à natureza de inicialização aleatória do k-means.
Para esta abordagem foram testadas duas maneiras distintas para a realização da fusão
dos mapas. A primeira maneira refere-se a uma estrutura de 7 mapas. Na segunda maneira
a estrutura é composta por 49 mapas. As diferenças e características de cada uma destas
variações é explicada nas subseções seguintes.
A influência do número de hits e BMUs no processo de fusão foi avaliada através da
variação das porcentagens destas medidas desde 10% até 100%, com passo de 10%. Cada
neurônio do Mapa Base tem um número de hits (quantas vezes o neurônio foi o vencedor
- BMU). Quando este neurônio é fundido a outro neurônio (de outro mapa), será levado
em consideração o valor mínimo da porcentagem de hits que este neurônio deve ter em
relação ao neurônio do Mapa Base.
A limitação da porcentagem de BMUs é o coração do método de fusão de mapas
com tamanhos diferentes. No processo de fusão, os mapas são avaliados aos pares. Os
neurônios destes mapas também são avaliados aos pares, através da distância Euclidiana.
Quando o Mapa Base tem dimensões menores do que o mapa a ser fundido com ele,
haverá mais neurônios neste segundo mapa do que no Mapa Base. Por exemplo, conside-
rando que um Mapa Base tenha tamanho de 10x10 e o mapa a ser com ele fundido tenha
tamanho de 12x12, haverá 100 neurônios no primeiro mapa e 144 no segundo mapa. Com
a limitação da porcentagem de BMUs, a fusão ficará limitada a 100% dos neurônios do
Mapa Base. Significa que, para o exemplo dado, apenas 100 dos 144 neurônios serão
avaliados no processo de fusão. Estes 100 neurônios são os que possuem as menores
distâncias Euclidianas com os 100 neurônios do Mapa Base. Os outros 44 neurônios não
entram no processo. Assim é possível fundir mapas maiores à mapas menores.

3.2.1 Estrutura com 7 mapas


Considerando o Mapa Base com dimensões N x M, os outros seis mapas têm as se-
guintes dimensões: (N+3) x M, N x (M+3), (N-3) x M, (N-3) x (M+3), (N-3) x (M-3),
N x (M-3), como mostrado na Fig. 3.5. Desta maneira teremos mapas com tamanhos
variados, promovendo uma certa diversidade entre estes mapas.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 29

Figura 3.5: Estrutura com 7 mapas.


Fonte: Elaborada pelo autor.

O algoritmo para a fusão dos sete mapas é descrito a seguir.


Algoritmo 2: F USÃO DE 7 MAPAS DE TAMANHOS DIFERENTES
Entrada: Conjunto de dados
Saída: Fusão dos mapas de Kohonen
1 início

2 Dividir o conjunto de dados em treinamento (80%) e teste (20%)


3 Calcular o tamanho do Mapa Base, através da Equação 3.4
4 Criar, a partir do Mapa Base, os outros seis mapas
5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
sete mapas
6 Segmentar todos os mapas, através do algoritmo k-means
7 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
10 Calcular a performance do mapa fundido
11 Se
12 Há melhoria na performance
13 Então
14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até
que todos os mapas sejam fundidos;
15 Senão
16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam
fundidos;
17 fim
30 CAPÍTULO 3. MATERIAIS E MÉTODOS

3.2.2 Estrutura com 49 mapas


O comitê é composto por 49 mapas, sendo um Mapa Base e 48 mapas com tamanhos
derivados a partir do tamanho do Mapa Base.
As dimensões do Mapa Base são definidas pela Equação 3.4, tal como na estrutura
com 7 mapas. Neste trabalho definiu-se que uma permutação de 3 valores acima e abaixo
dos valores das dimensões do Mapa Base seria utilizada para gerar os outros 48 mapas.
Por exemplo, se o Mapa Base tiver dimensões iguais a 10x10, os mapas restantes
teriam os valores de linha e coluna variando entre 7 e 13, isto é, 7x7, 7x8, ..., 13x12,
13x13, totalizando 49 mapas com diferentes tamanhos, como mostra a Figura 3.6.

Figura 3.6: Estrutura com 49 mapas.


Fonte: Elaborada pelo autor.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 31

O algoritmo para a fusão dos 49 mapas é descrito a seguir.


Algoritmo 3: F USÃO DE 49 MAPAS DE TAMANHOS DIFERENTES
Entrada: Conjunto de dados
Saída: Fusão dos mapas de Kohonen
1 início

2 Dividir o conjunto de dados em treinamento (80%) e teste (20%)


3 Calcular o tamanho do Mapa Base, através da Equação 3.4
4 Criar, a partir do Mapa Base, os outros quarenta e oito mapas
5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
mapas
6 Segmentar todos os mapas, através do algoritmo k-means
7 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
10 Calcular a performance do mapa fundido
11 Se
12 Há melhoria na performance
13 Então
14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até
que todos os mapas sejam fundidos;
15 Senão
16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam
fundidos;
17 fim
32 CAPÍTULO 3. MATERIAIS E MÉTODOS

3.2.3 Validação Cruzada


A validação cruzada (ou Cross Validation) é um procedimento para estimar a perfor-
mance de um algoritmo. Basicamente o conjunto de dados é dividido aleatoriamente em
K subconjuntos (ou folds), mutuamente exclusivos e com tamanhos iguais ou aproxima-
damente iguais.
Uma maneira usual é utilizar K igual a 10, chamando a validação cruzada de "10-fold
cross-validation". Neste caso, um dos subconjuntos é utilizado para o teste do algoritmo
e os outros K − 1 subconjuntos formam o conjunto de treinamento. Este procedimento é
repetido K vezes, sendo que em cada repetição, um subconjunto diferente é usado para o
teste os subconjuntos restantes são utilizados no treinamento. Ao final, a performance do
algoritmo (acurácia, por exemplo) é obtida pela média das performances obtidas a cada
repetição deste procedimento (Kuncheva, 2004).
Uma variação do deste procedimento é a Validação Cruzada Estratificada. Aqui,
ao dividir o conjunto de dados em K subconjuntos, a distribuição de classes em cada
subconjunto é aproximadamente a mesma do conjunto original de dados (Diamantidis
et al., 2000).
Neste trabalho, foi utilizada a validação cruzada estratificada, para mapas de tamanhos
diferentes, na estrutura de 49 mapas, para estimar a acurácia do algoritmo proposto para
a fusão.
O algoritmo desenvolvido para a validação cruzada é descrito a seguir.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 33

Algoritmo 4: F USÃO ATRAVÉS DA VALIDAÇÃO CRUZADA


Entrada: Conjunto de dados
Saída: Estimativa de acurácia da fusão de mapas de tamanhos diferentes
1 início
2 Dividir o conjunto de dados em K=10 partes (folds), mantendo a proporção de
classes do conjunto de dados original
3 Retirar uma das partes (um dos subconjuntos) para o teste
4 Calcular o tamanho do Mapa Base, através da Equação 3.4, utilizando K-1
subconjuntos
5 Criar, a partir do Mapa Base, os outros 48 mapas
6 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
mapas
7 Segmentar todos os mapas, através do algoritmo k-means
8 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
9 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
10 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
11 Calcular a performance do mapa fundido, com o conjunto de testes (o
subconjunto que não foi utilizado no treinamento)
12 Se
13 Há melhoria na performance
14 Então
15 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 10
até que todos os mapas sejam fundidos;
16 Senão
17 A fusão é descartada, retorne ao PASSO 10 até que todos os mapas sejam
fundidos
18 Retornar ao PASSO 2 até que o algoritmo seja repetido 10 vezes
19 Calcular a performance do algoritmo, como sendo a média das 10
performances obtidas.
20 fim
34 CAPÍTULO 3. MATERIAIS E MÉTODOS

3.3 Medida de performance


Quando há um conhecimento prévio da estrutura original dos dados, pode-se adotar
critérios externos para avaliação da performance do algoritmo de agrupamento.
Assim, os algoritmos são mensurados de forma a avaliar o quão bem o agrupamento
coincide com as classes verdadeiras presentes em um dado conjunto de dados.
A pureza (purity, em inglês) é um critério externo de qualidade para o agrupamento e
é utilizado quando os rótulos dos dados são conhecidos (Manning et al., 2008).
Esta medida de performance de agrupamento é calculada pela somatória das amostras
corretamente posicionadas em um dado grupo, dividida pelo número total de amostras.
A maneira mais fácil de calcular a pureza de um agrupamento é encontrar a classe
majoritária em cada grupo e contar o número de objetos marcados dessa classe em cada
grupo. Depois divide-se o valor desta somatória pela quantidade total de amostras do
conjunto de dados (Forestier et al., 2010). Os valores da pureza do agrupamento ficam
entre 0 e 1, sendo que valores próximos a 1 indicam bons agrupamentos e valores baixos
indicam agrupamentos ruins.
Esta definição da pureza e sua utilização como medida de performance de algoritmos
de agrupamento pode ser encontrada nos trabalhos de Amigó et al. (2009), Rendón et al.
(2011), Sripada e Rao (2011) e Deepa e Revathy (2012), entre outros.
Já nos trabalhos de Greene et al. (2004) e de Kuncheva et al. (2006), o critério para
avaliação de um comitê de máquinas de agrupamento foi uma medida de desempenho
denominada acurácia e definida como a proporção de atribuição correta de rótulos às
amostras em função do número total de amostras. Ou seja, a definição de pureza e acurácia
é a mesma.
Neste trabalho, será utilizado o termo “acurácia” para designar a performance dos
algoritmos propostos.

3.4 Teste estatístico


No trabalho de Demšar (2006) são apresentados alguns testes para comparação esta-
tística das performances de algoritmos considerando múltiplos conjuntos de dados. Com
base nos estudos apontados no trabalho, o autor sugere que seja utilizado o teste não pa-
ramétrico de Wilcoxon (Wilcoxon Signed Rank Test) para comparação de dois algoritmos,
pois é um teste simples, seguro e robusto.
Testes não paramétricos são mais seguros do que testes paramétricos, uma vez que
não assumem distribuição normal ou homogeneidade da variância dos dados. Assim, eles
3.5. RESUMO 35

podem ser aplicados para verificação da acurácia do modelo, taxas de erro ou qualquer
outra medida para avaliação de algoritmos. Os resultados empíricos sugerem que eles
também são mais fortes do que os outros testes estudados.
Por essa razão, entre os testes apresentados pelo autor, foi escolhido o teste não pa-
ramétrico de Wilcoxon (Signed Rank Test), com nível de significância de 0,05. Através
deste teste, serão avaliados os resultados obtidos pelo comitê de mapas de Kohonen, isto
é, se o algoritmo proposto leva a resultados estatisticamente diferentes das acurácias ob-
tidas por um único mapa. A hipótese nula, H0 , é que não há diferença entre as acurácias
obtidas pelo mapa único e pelo comitê de mapas. O algoritmo para o teste de Wilcoxon é
descrito a seguir.
Algoritmo 5: T ESTE DE W ILCOXON
Entrada: Resultados obtidos por dois diferentes algoritmos
Saída: Aceitação ou rejeição da Hipótese nula
1 início

2 Calcular a diferença di = Xi −Yi , onde xi e yi são os pares dos resultados para


cada conjunto de dados
3 Ordenar os resultados de di , sem considerar os sinais, ou seja, atribuir o posto 1
para o menor valor de |di |, posto 2 para o próximo e assim por diante.
4 Atribuir o sinal para cada posto de acordo com o sinal de di
5 Calcular a soma dos postos positivos (R+ ) e a soma dos postos negativos (R− )
6 Escolha T = min(R+ , R− )
7 Verificar o valor crítico para aceitação ou rejeição de H0
8 A Hipótese nula é rejeitada se o valor de T for menor do que o valor
encontrado nas tabelas de valores críticos para o teste de Wilcoxon
9 fim

3.5 Resumo
Neste capítulo foram apresentadas propostas de abordagens para a fusão de mapas de
Kohonen com tamanhos iguais e com tamanhos diferentes. Foram definidas as equações
para a fusão dos mapas, os critérios para ordenação e fusão, bem como os algoritmos
correspondentes a cada uma das abordagens, além da definição da acurácia utilizada neste
trabalho. Também foi apresentado o teste estatístico de Wilcoxon, que será utilizado na
comparação dos resultados obtidos. No próximo capítulo são apresentados os resultados
obtidos na fusão de mapas de Kohonen através dos algoritmos aqui propostos.
36 CAPÍTULO 3. MATERIAIS E MÉTODOS
Capítulo 4

Resultados

Este capítulo apresenta os resultados obtidos na aplicação dos algoritmos propostos


para a fusão de mapas de Kohonen. Está dividido em duas seções: fusão de mapas de
mesmo tamanho e fusão de mapas de tamanhos diferentes. Esta última contém três sub-
seções: estrutura com 7 mapas, estrutura com 49 mapas e validação cruzada estratificada.

4.1 Conjunto de dados


O algoritmo proposto foi testado em variados conjuntos de dados do Repositório UCI
(Lichman, 2013) e do FCPS (Fundamental Clustering Problems Suite) (Ultsch, 2005). As
características de cada conjunto de dados são mostradas na Tabela 4.1 e no Apêndice A
estão as ilustrações destes conjuntos de dados.

Tabela 4.1: Conjuntos de dados utilizados.


No Dataset Repositório Instâncias Atributos Classes
01 BC Wisconsin UCI 699 10 2
02 Column UCI 310 6 2
03 Heart UCI 303 75 2
04 Hepatitis UCI 155 19 2
05 Ionosphere UCI 351 34 2
06 Iris UCI 150 4 3
07 Pima Indians UCI 768 8 2
08 Seeds UCI 210 7 3
09 Wine UCI 178 13 3
10 Chainlink FCPS 1000 3 2
11 Engytime FCPS 4096 2 2
12 Lsun FCPS 400 2 3
13 Tetra FCPS 400 3 4
14 Two Diamonds FCPS 800 2 2
15 Wingnut FCPS 1070 2 2
38 CAPÍTULO 4. RESULTADOS

4.2 Mapas de tamanhos iguais


O objetivo da simulação foi verificar em qual configuração de tamanho do mapa, de
número de subconjuntos e de percentagem de bagging, o melhor valor da acurácia poderia
ser obtida.
Cada experimento foi executado 10 vezes e foram obtidos valores médios para um
intervalo de confiança de 95%. Os resultados foram comparados com um único mapa
SOM, para verificar a melhora na acurácia.
A Tabela 4.2 apresenta os resultados experimentais para cada conjunto de dados. A
coluna “Equação” mostra qual foi a equação de fusão que alcançou o melhor resultado,
para cada conjunto de dados. A Equação (3.1) é a mais simples das três equações tes-
tadas, sendo apenas uma média simples entre os vetores dos dois neurônios de peso. A
Equação (3.2) é uma média ponderada entre pesos dos neurônios e seus hits. A Equação
(3.3) é uma média ponderada entre pesos dos neurônios, hits e índice de validação de
agrupamento. Esta última equação, a mais complexa dentre as três utilizadas, apresentou
o melhor resultado para apenas 2 dos 15 conjuntos de dados avaliados.
A coluna “Abordagem” refere-se à forma como os mapas foram ordenados e fundidos,
tal como especificado na Subseção 3.1.3. Para a maioria dos conjuntos de dados, as
abordagens 2 (Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
índice de validação) e 3 (Mapas ordenados pelo índice de validação e combinados pelo
critério da melhora do índice de validação) foram as que levaram aos melhores resultados
para o método proposto.
A coluna “CVI”, de Cluster Validity Index - índice de validação de agrupamentos -
mostra qual índice foi usado para conseguir a melhor acurácia de fusão em relação ao
único mapa, para cada conjunto de dados (DB é o índice Davies-Bouldin e CH é o índice
Calinski e Harabasz). O índice Davies-Bouldin é o que aparece mais vezes e o índice
PBM não conduziu a bons resultados para os conjuntos de dados utilizados.
A coluna “Tamanho do mapa” refere-se ao tamanho do mapa que alcançou o melhor
valor da acurácia. O mapa 15x15 não obteve resultados para os conjuntos de dados ava-
liados. Isto não significa que mapas com estas dimensões, ou seja, com 225 neurônios
na camada de saída, não são apropriados. Apenas significa que, para estes conjuntos de
dados, mapas com 100 ou com 400 neurônios se adaptaram melhor aos dados de entrada
e conduziram à melhores acurácias.
A coluna “Bagging” mostra que, para grande parte dos conjuntos de dados, utilizando
90% das amostras foi possível obter os melhores resultados. Uma elevada percentagem
do valor Bagging significa que há uma maior variedade de dados para o treinamento,
4.2. MAPAS DE TAMANHOS IGUAIS 39

levando a um melhor resultado de acurácia da fusão. Estes resultados mostram que é


possível obter boas precisões sem utilizar todos os elementos do conjunto de treinamento.
A coluna “Número de Subconjuntos” mostra o número de subconjuntos que foram
avaliados para encontrar a melhor acurácia. Para a maioria dos conjuntos de dados utili-
zados nesta experimento, as melhores acurácias foram obtidas com grandes quantidades
de subconjuntos. Isto era esperado, uma vez que quanto mais subconjuntos disponíveis,
mais fusões podem ocorrer e, consequentemente, o resultado da acurácia melhora.
A acurácia de um único mapa de Kohonen é comparado com os resultados da acurácia
do comitê de mapas nas duas últimas colunas da tabela.
Como pode ser visto na Tabela 4.2, para todos os conjuntos de dados utilizados neste
experimento, houve melhora na acurácia. Para os conjuntos Tetra e Two Diamonds as
acurácias tanto para o mapa único quanto para o comitê foram de 100%. Isso deve-se
ao fato de que as classes destes conjuntos de dados são bem distintas, como pode ser
observado na Figura A.2.
40
Tabela 4.2: Resultados da fusão de mapas de tamanhos iguais
Dataset Equação Abordagem CVI Tamanho Bagging Número de Acurácia Acurácia
do mapa (%) subconjuntos único mapa do comitê
BC Wisconsin (3.1) 2 DB 20x20 90 80 0.9634 0.9661
Chainlink (3.3) 2 DB 10x10 70 80 0.6654 0.7685
Column (3.2) 3 DB 10x10 70 100 0.6674 0.7219
Engytime (3.1) 1 CH 20x20 70 10 0.9538 0.9587
Heart (3.1) 2 Dunn 20x20 90 30 0.7879 0.8037
Ionosphere (3.2) 3 DB 10x10 90 20 0.7037 0.7211
Iris (3.1) 2 Dunn 10x10 50 70 0.9200 0.9260
Lsun (3.3) 3 DB 10x10 90 100 0.7500 0.9850
PimaIndians (3.2) 3 CH 20x20 50 60 0.6458 0.6939
Seeds (3.2) 3 DB 20x20 70 60 0.8809 0.9243

CAPÍTULO 4. RESULTADOS
Tetra (3.1) 2 Dunn 20x20 90 90 1 1
Two Diamonds (3.1) 3 Dunn 10x10 90 50 1 1
Wine (3.1) 2 CDbw 10x10 90 80 0.9382 0.9635
Wingnut (3.2) 3 CDbw 10x10 50 100 0.7539 0.8983
4.2. MAPAS DE TAMANHOS IGUAIS 41

A Figura 4.1 mostra a acurácia média (pois foram realizados dez experimentos) obtida
para cada conjunto de dados. As linhas pretas verticais mostram o valor da acurácia para
um único mapa de Kohonen. Como pode ser observado, em todas as situações as acu-
rácias médias alcançadas pelo método proposto foram maiores do que as acurácias para
um único mapa, exceto para os conjuntos Tetra e TwoDiamonds, que tiveram o mesmo
valor, de 100% na performance. Assim, evidencia-se que através da fusão de mapas de
Kohonen, é possível aumentar o valor da acurácia do algoritmo de agrupamento.

Figura 4.1: Acurácia média para mapas de tamanhos iguais.


Fonte: Elaborada pelo autor.

No trabalho de Demšar (2006) são apresentadas maneiras de comparar a performance


de algoritmos de agrupamento ou de classificação, considerando múltiplos conjuntos de
dados. Entre os testes apresentados, foi escolhido o teste não paramétrico de Wilcoxon
(Signed Rank Test), com nível de significância de 0,05.
Através deste teste, pode-se avaliar se o resultado obtido pelo comitê de mapas de
Kohonen é estatisticamente diferente das acurácias obtidas por um único mapa. A hipó-
tese nula, H0 , é que não há diferença entre as acurácias obtidas pelo mapa único e pelo
comitê de mapas.
O teste de Wilcoxon rejeitou a hipótese nula, com valor p igual a 0, 0004882, ou seja:
o método proposto obteve resultados de acurácia que são diferentes, e melhores, do que a
42 CAPÍTULO 4. RESULTADOS

acurácia de um único mapa.


As Figuras 4.2 a 4.15 mostram a acurácia (eixo Z) obtida para cada conjunto de dados
de acordo com a variação da porcentagem de Bagging (eixo X) e quantidade de subcon-
juntos (eixo Y).
Em cada figura, as linhas pretas representam o intervalo de confiança do experimento,
que foi repetido dez vezes, e as regiões quentes (em vermelho) representam a maior acu-
rácia média obtida e regiões frias (em azul) mostram acurácias médias mais baixas.
Por exemplo, a Figura 4.2 mostra que a maior acurácia média obtida para o conjunto
de dados BC Wisconsin foi conseguida com uma maior quantidade de subconjuntos e
com uma percentagem elevada de Bagging. A análise pode ser estendida para as demais
figuras.

Figura 4.2: Acurácia para mapas iguais Figura 4.3: Acurácia para mapas iguais
- BC Wisconsin. - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.5: Acurácia para mapas iguais


Figura 4.4: Acurácia para mapas iguais
- Engytime.
- Column.
Fonte: Elaborada pelo autor
Fonte: Elaborada pelo autor
4.2. MAPAS DE TAMANHOS IGUAIS 43

Figura 4.6: Acurácia para mapas iguais Figura 4.7: Acurácia para mapas iguais
- Heart. - Ionosphere.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.8: Acurácia para mapas iguais Figura 4.9: Acurácia para mapas iguais
- Iris. - Lsun.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.10: Acurácia para mapas iguais Figura 4.11: Acurácia para mapas iguais
- Pimaindians. - Seeds.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
44 CAPÍTULO 4. RESULTADOS

Figura 4.12: Acurácia para mapas iguais Figura 4.13: Acurácia para mapas iguais
- Tetra. - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.14: Acurácia para mapas iguais Figura 4.15: Acurácia para mapas iguais
- Two diamonds. - Wingnut.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

4.3 Mapas de tamanhos diferentes


Como descrito na Seção 3.2, foram testadas diferentes abordagens para a fusão de
mapas de tamanhos diferentes e os resultados são apresentados nas Subseções seguintes
sob a forma de tabelas e gráficos. Além disso, são mostrados os resultados para o teste
estatístico de Wilcoxon para cada situação.

4.3.1 Estrutura com 7 mapas


As Tabelas 4.3, 4.4 e 4.5 mostram os resultados das simulações para os mapas de
tamanhos diferentes na estrutura com sete mapas, para cada uma das três equações de
fusão.
A coluna “Abordagem” refere-se à maneira como os mapas foram ordenados e com-
binados, como especificado na Seção 3.1.3.
4.3. MAPAS DE TAMANHOS DIFERENTES 45

A coluna “Índice” mostra quais índices foram melhores para cada conjunto de dados
(DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz).
A coluna “Tamanho do mapa” refere-se ao tamanho definido pela Equação 3.4.
O resultado da acurácia do comitê de mapas é comparado com a acurácia de um único
mapa auto-organizável de Kohonen, nas duas últimas colunas das tabelas.
O teste não paramétrico de Wilcoxon (Wilcoxon Signed Rank Test) (Demšar, 2006),
com nível de significância de 0,05, foi utilizado para avaliar se o resultado obtido pelo
comitê de mapas de Kohonen é estatisticamente diferente das acurácias obtidas por um
único mapa. A hipótese nula, H0 , é que não há diferença entre as acurácias obtidas pelo
mapa único e pelo comitê de mapas.
Utilizando a Equação 3.1 (Tabela 4.3), o teste de Wilcoxon rejeitou a hipótese nula,
com valor p igual a 0.0039063.
Para a fusão pela Equação 3.2 (Tabela 4.4), o teste de Wilcoxon rejeitou a hipótese
nula, com valor p igual a 0.0009766.
Com a Equação 3.3 (Tabela 4.5), o teste de Wilcoxon rejeitou a hipótese nula, com
valor p igual a 0.0019531.
Do exposto nos parágrafos anteriores, conclui-se que o método proposto obteve resul-
tados de acurácia diferentes e melhores do que a acurácia de um único mapa.
46
Tabela 4.3: Resultados da fusão de 7 mapas com a Equação 3.1
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 30 0.9407 0.9556
Column 2 CH 13x10 100 60 0.7258 0.7419
Heart 2 CDbw 11x8 20 80 0.6102 0.7288
Hepatitis 1 CDbw 8x5 40 60 0.5333 0.5333
Ionophere 1 Dunn 13x7 10 100 0.6428 0.6714
Iris 1 Dunn 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 CDbw 14x5 10 10 0.9047 0.9047
Wine 2 CDbw 11x6 10 10 0.9412 0.9706
Chainlink 2 CDbw 14x11 70 100 0.6800 0.7400

CAPÍTULO 4. RESULTADOS
Engytime 2 CH 20x16 10 40 0.9646 0.9670
Lsun 2 DB 11x9 50 10 0.8000 0.8125
Tetra 1 Dunn 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 70 0.9937 1.0000
Wingnut 1 Dunn 16x10 20 30 0.7426 0.7426
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.4: Resultados da fusão de 7 mapas com a Equação 3.2
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 10 0.9407 0.9556
Column 1 CH 13x10 10 100 0.7258 0.7419
Heart 1 CDbw 11x8 50 50 0.6102 0.7119
Hepatitis 1 CH 8x5 10 10 0.5333 0.7333
Ionosphere 1 CDbw 13x7 10 10 0.6428 0.6571
Iris 1 CDbw 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 Dunn 14x5 10 10 0.9048 0.9048
Wine 2 CDbw 11x6 10 10 0.9412 0.9706
Chainlink 1 CH 14x11 70 80 0.6800 0.7500
Engytime 2 DB 20x16 20 50 0.9646 0.9658
Lsun 2 CDbw 11x9 20 30 0.8000 0.8500
Tetra 1 Dunn 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 60 0.9937 1
Wingnut 1 CDbw 16x10 10 90 0.7426 0.7871

47
48
Tabela 4.5: Resultados da fusão de 7 mapas com a Equação 3.3
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 40 0.9407 0.9556
Column 1 PBM 13x10 10 70 0.7258 0.7419
Heart 1 CDbw 11x8 70 70 0.6102 0.7288
Hepatitis 1 CDbw 8x5 40 30 0.5333 0.5333
Ionophere 1 CDbw 13x7 10 10 0.6428 0.6571
Iris 1 CDbw 13x5 10 10 0.9667 0.9667
Pima Indians 1 Dunn 17x10 10 10 0.6797 0.6797
Seeds 1 Dunn 14x5 50 20 0.9047 0.9047
Wine 1 CH 11x6 70 10 0.9412 0.9706
Chainlink 1 DB 14x11 20 40 0.6800 0.7400

CAPÍTULO 4. RESULTADOS
Engytime 2 PBM 20x16 20 80 0.9645 0.9658
Lsun 2 CDbw 11x9 10 10 0.8000 1.0000
Tetra 1 PBM 11x9 10 10 0.9875 0.9875
Two Diamonds 1 Dunn 14x10 10 60 0.9937 1.0000
Wingnut 2 CDbw 16x10 60 100 0.7426 0.7723
4.3. MAPAS DE TAMANHOS DIFERENTES 49

Como visto, a Equação 3.2 resultou no menor valor p para o teste de Wilcoxon, entre
as três equações utilizadas, para a estrutura com 7 mapas. Assim, as figuras geradas com
esta equação serão mostradas a seguir.
As Figuras 4.16 a 4.30 mostram, de acordo com as variações de Hits e BMUs, as
condições em que foram alcançados os melhores valores de acurácia de cada conjunto de
dados. O eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da
porcentagem de BMUs.
As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto
que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter
uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs.

Figura 4.16: Acurácia para 7 mapas di- Figura 4.17: Acurácia para 7 mapas di-
ferentes - BC Wisconsin. ferentes - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.18: Acurácia para 7 mapas di- Figura 4.19: Acurácia para 7 mapas di-
ferentes - Column. ferentes - Engytime.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
50 CAPÍTULO 4. RESULTADOS

Figura 4.20: Acurácia para 7 mapas di- Figura 4.21: Acurácia para 7 mapas di-
ferentes - Heart. ferentes - Hepatitis.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.22: Acurácia para 7 mapas di- Figura 4.23: Acurácia para 7 mapas di-
ferentes - Ionosphere. ferentes - Iris.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.24: Acurácia para 7 mapas di- Figura 4.25: Acurácia para 7 mapas di-
ferentes - Lsun. ferentes - PimaIndians.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
4.3. MAPAS DE TAMANHOS DIFERENTES 51

Figura 4.26: Acurácia para 7 mapas di- Figura 4.27: Acurácia para 7 mapas di-
ferentes - Seeds. ferentes - Tetra.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.28: Acurácia para 7 mapas di- Figura 4.29: Acurácia para 7 mapas di-
ferentes - Two Diamonds. ferentes - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.30: Acurácia para 7 mapas di-


ferentes - Wingnut.
Fonte: Elaborada pelo autor

4.3.2 Estrutura com 49 mapas


Os resultados obtidos são apresentados em três tabelas distintas representando cada
uma das Equações de Fusão utilizadas neste trabalho. As Tabelas 4.6, 4.7 e 4.8 mostram
52 CAPÍTULO 4. RESULTADOS

os melhores valores para cada conjunto de dados, isto é, em qual abordagem e com qual
índice de validação foi alcançada a melhor acurácia.
A coluna “Abordagem” refere-se à maneira como os mapas foram ordenados e fundi-
dos, como especificado na Seção 3.1.3.
A coluna “Índice” mostra quais índices foram melhores para cada conjunto de dados
(DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz).
A coluna “Tamanho do mapa” refere-se ao tamanho definido pela Equação 4.2.
As colunas “Hits %” e “BMUs %”, mostram os valores destas variáveis que fizeram
com o que o resultado do comitê alcançasse o valor máximo de acurácia.
Por fim, o resultado da acurácia do comitê de mapas é comparado com a acurácia de
um único mapa auto-organizável de Kohonen, nas duas últimas colunas da tabela e, como
pode ser observado os valores de acurácia do comitê ficaram ou acima ou no mesmo
patamar que o valor de acurácia para um único mapa.
O teste não paramétrico de Wilcoxon, com nível de significância de 0,05, rejeitou
a hipótese H0 (de que os valores de acurácias da fusão e do mapa único não diferem
estatisticamente), nas três Equações de fusão utilizadas.
A Tabela 4.6 mostra os resultados para a fusão com a Equação 3.1, a mais simples das
três, sendo apenas uma média aritmética dos vetores de peso dos neurônios dos mapas
fundidos. O valor p do teste de Wilcoxon, com nível de significância de 0,05, foi igual a
0, 00048828.
A Tabela 4.7 mostra os resultados para a fusão com a Equação 3.2, em que a média
dos vetores de peso dos neurônios é ponderada pelos hits destes neurônios. O valor p do
teste de Wilcoxon, com nível de significância de 0,05, foi de 0, 0009766.
A Tabela 4.8 mostra os resultados para a fusão com a Equação 3.3, a mais complexa
das três equações. Aqui a média dos vetores de peso dos neurônios é ponderada pelos
hits destes neurônios e pelo índice de validação de agrupamento. O valor p do teste de
Wilcoxon, com nível de significância de 0,05, foi igual a 0, 0009766, o mesmo encontrado
para os resultados da Tabela 4.7, uma vez que os resultados obtidos na fusão dos mapas
são iguais.
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.6: Resultados das fusões para os 49 mapas com a Equação 3.1
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do Mapa (%) (%) único mapa do comitê
BC Wisconsin 1 Dunn 22x6 10 60 0.9778 0.9852
Column 1 Dunn 13x7 80 10 0.6774 0.7097
Heart 1 Dunn 11x8 10 10 0.8136 0.8305
Hepatitis 2 PBM 8x5 10 10 0.9333 1
Ionosphere 1 CH 13x7 10 10 0.7286 0.7429
Iris 1 Dunn 13x5 10 10 0.9667 0.9667
Pima Indians 2 Dunn 14x10 70 70 0.59478 0.6144
Seeds 1 CDbw 14x5 10 50 0.9286 0.9524
Wine 1 CDbw 11x6 60 80 0.8529 0.9118
Chainlink 1 Dunn 14x11 10 10 0.7200 0.7450
Engytime 1 CDbw 20x16 50 50 0.9731 0.9731
Lsun 2 Dunn 11x9 10 100 0.7750 0.8625
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 2 Dunn 14x10 10 70 0.9938 1
Wingnut 1 PBM 16x10 10 10 0.7970 0.8267

53
54
Tabela 4.7: Resultados das fusões para os 49 mapas com a Equação 3.2
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 60 0.9778 0.9852
Column 1 CH 13x7 30 10 0.6774 0.7097
Heart 1 CDbw 11x8 10 10 0.8136 0.8305
Hepatitis 1 CDbw 8x5 10 10 0.9333 0.9333
Ionosphere 1 Dunn 13x7 10 10 0.7286 0.7429
Iris 1 CDbw 13x5 10 20 0.9667 0.9667
Pima Indians 1 CH 14x10 30 70 0.5948 0.6209
Seeds 1 CDbw 14x5 10 10 0.9286 0.9524
Wine 2 CH 11x6 30 20 0.8529 0.9412
Chainlink 2 DB 14x11 10 90 0.7200 0.7800
Engytime 1 CDbw 20x16 60 30 0.9731 0.9731
Lsun 2 Dunn 11x9 20 90 0.7750 0.9125

CAPÍTULO 4. RESULTADOS
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 1 Dunn 14x10 10 100 0.9938 1
Wingnut 2 Dunn 16x10 20 90 0.7970 0.8119
4.3. MAPAS DE TAMANHOS DIFERENTES
Tabela 4.8: Resultados das fusões para os 49 mapas com a Equação 3.3
Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia
do mapa (%) (%) único mapa do comitê
BC Wisconsin 1 CH 22x6 10 60 0.9778 0.98519
Column 1 CH 13x7 30 10 0.6774 0.7097
Heart 1 CDbw 11x8 10 10 0.8136 0.8305
Hepatitis 1 CDbw 8x5 10 10 0.9333 0.9333
Ionosphere 1 Dunn 13x7 10 10 0.7286 0.7429
Iris 1 CDbw 13x5 10 20 0.9667 0.9667
Pima Indians 1 CH 14x10 30 70 0.5948 0.6209
Seeds 1 CDbw 14x5 10 10 0.9286 0.9524
Wine 2 CH 11x6 30 20 0.8529 0.9412
Chainlink 2 DB 14x11 10 90 0.7200 0.7800
Engytime 1 CDbw 20x16 60 30 0.9731 0.9731
Lsun 2 Dunn 11x9 20 90 0.7750 0.9125
Tetra 1 CDbw 11x9 10 10 1 1
Two Diamonds 1 Dunn 14x10 10 100 0.9938 1
Wingnut 2 Dunn 16x10 20 90 0.7970 0.8119

55
56 CAPÍTULO 4. RESULTADOS

Assim como visto para a estrutura com 7 mapas, aqui serão apresentadas as figuras
de acurácia para a equação que resultou no menor valor p no teste de Wilcoxon. Para a
estrutura com 49 mapas, o menor valor p foi obtido com a Equação 3.1.
As Figuras 4.31 a 4.45 ilustram os valores de acurácia de cada conjunto de dados. O
eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da porcen-
tagem de BMUs.
As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto
que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter
uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs.

Figura 4.31: Acurácia para 49 mapas di- Figura 4.32: Acurácia para 49 mapas di-
ferentes - BC Wisconsin. ferentes - Chainlink.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.33: Acurácia para 49 mapas di- Figura 4.34: Acurácia para 49 mapas di-
ferentes - Column. ferentes - Engytime.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
4.3. MAPAS DE TAMANHOS DIFERENTES 57

Figura 4.35: Acurácia para 49 mapas di- Figura 4.36: Acurácia para 49 mapas di-
ferentes - Heart. ferentes - Hepatitis.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.37: Acurácia para 49 mapas di- Figura 4.38: Acurácia para 49 mapas di-
ferentes - Ionosphere. ferentes - Iris.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.39: Acurácia para 49 mapas di- Figura 4.40: Acurácia para 49 mapas di-
ferentes - Lsun. ferentes - PimaIndians.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor
58 CAPÍTULO 4. RESULTADOS

Figura 4.41: Acurácia para 49 mapas di- Figura 4.42: Acurácia para 49 mapas di-
ferentes - Seeds. ferentes - Tetra.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.43: Acurácia para 49 mapas di- Figura 4.44: Acurácia para 49 mapas di-
ferentes - Two Diamonds. ferentes - Wine.
Fonte: Elaborada pelo autor Fonte: Elaborada pelo autor

Figura 4.45: Acurácia para 49 mapas di-


ferentes - Wingnut.
Fonte: Elaborada pelo autor

4.3.3 Estrutura de fusão com validação cruzada


A estrutura com 49 mapas de tamanhos diferentes foi testada através da validação
cruzada estratificada. Como descrito no capítulo anterior, os conjuntos de dados são divi-
4.3. MAPAS DE TAMANHOS DIFERENTES 59

didos em 10 subconjuntos e a cada simulação, um subconjunto é retirado para teste e os


outros 9 formam o conjunto de treinamento.
A Tabela 4.9 mostra as principais medidas estatísticas obtidas para o algoritmo através
da validação cruzada estratificada. As equações que deram melhores resultados para os
conjuntos de dados são as equações 3.1 (média simples dos vetores de peso dos neurônios
dos mapas) e equação 3.2 (média ponderada entre os pesos dos neurônios e seus res-
pectivos hits). Quanto às abordagens de ordenação e fusão, a primeira mostrou-se mais
eficiente para grande parte dos conjuntos de dados, em que os mapas são ordenados pelo
índice de validação e combinados pelo critério da melhora do MSQE.
60
Tabela 4.9: Resultados para a validação cruzada estratificada
No Dataset Equação Abordagem Valor Valor Valor Q1 Q2 Q3 Desvio
máximo mínimo médio (mediana) padrão
01 BC Wisconsin 3.2 2 0.9547 0.9853 0.9412 0.9412 0.9498 0.9559 0.0174
02 Chainlink 3.2 1 0.6770 0.7600 0.5500 0.6500 0.6750 0.7100 0.0576
03 Column 3.1 4 0.6613 0.8065 0.5161 0.5484 0.6774 0.7419 0.1056
04 Engytime 3.1 2 0.9451 0.9732 0.8732 0.9195 0.9573 0.9656 0.0319
05 Heart 3.2 1 0.7882 0.9000 0.633 0.7667 0.7833 0.8148 0.077
06 Hepatitis 3.2 2 0.6714 0.8750 0.500 0.6250 0.6697 0.7500 0.1188
07 Ionosphere 3.2 1 0.7250 0.8333 0.5833 0.6944 0.7083 0.7778 0.0698
08 Iris 3.1 1 0.8800 0.9333 0.800 0.8667 0.8667 0.9333 0.0422
09 Lsun 3.2 2 0.8900 1 0.7750 0.800 0.9125 0.9500 0.0843
10 PimaIndians 3.1 4 0.6433 0.7403 0.5325 0.6104 0.6429 0.6753 0.0587
11 Seeds 3.1 1 0.8810 1 0.7619 0.8574 0.8810 0.9048 0.0683
12 Tetra 3.1 1 0.9925 1 0.9500 1 1 1 0.0169

CAPÍTULO 4. RESULTADOS
13 TwoDiamonds 3.1 1 0.9988 1 0.9875 1 1 1 0.0039
14 Wine 3.1 4 0.9090 0.9444 0.8125 0.8889 0.9444 0.9444 0.0509
15 Wingnut 3.1 3 0.7587 0.7941 0.7157 0.7255 0.7647 0.7843 0.0294
4.4. RESUMO 61

A Figura 4.46 mostra o boxplot que resume as informações da Tabela 4.9. Os números
no eixo das abscissas representam os conjuntos de dados.

Figura 4.46: Acurácia com validação cruzada estratificada.


Fonte: Elaborada pelo autor.

4.4 Resumo
Neste capítulo foram mostrados os resultados obtidos com as simulações computacio-
nais, para a fusão de mapas de tamanhos iguais e de tamanhos diferentes. Sendo a primeira
abordagem um experimento fatorial, o custo computacional foi bem mais elevado do que
a segunda abordagem, uma vez que havia maior quantidade de elementos variando. Para
os mapas de tamanhos diferentes, como pode ser observado, os resultados obtidos para
as duas estruturas, com 7 e com 49 mapas, alcançaram resultados muito semelhantes em
termos de acurácia. As divergências encontradas relacionam-se às porcentagens de hits e
BMUs considerados na fusão. A validação cruzada estratificada obteve bons resultados de
estimação da acurácia do algoritmo desenvolvido. No próximo capítulo são apresentadas
as principais conclusões deste trabalho.
62 CAPÍTULO 4. RESULTADOS
Capítulo 5

Conclusão

Neste Capítulo são apresentadas as considerações finais e indicações para trabalhos


futuros.

5.1 Considerações finais


Este trabalho apresentou um novo método para combinar os resultados de mapas de
Kohonen que compõem um comitê de máquinas, baseado na ordenação por índices de
validação de agrupamentos e pelo MSQE, usando como critério de fusão a melhoria destes
índices de validação e do MSQE dos mapas fundidos.
O método desenvolvido foi empregado na fusão de mapas de tamanhos iguais e, de
maneira inédita, em mapas de tamanhos diferentes, onde foi imposta uma limitação para
a fusão através da porcentagem de BMUs.
As simulações computacionais propiciaram uma avaliação de diferentes configura-
ções de tamanhos de mapas, número de subconjuntos e variações na quantidade de dados
para o treinamento dos mapas além de uso de cinco diferentes índices de validação de
agrupamento na ordenação e fusão dos mapas.
Considerando que a primeira abordagem (mapas de tamanhos iguais) foi um experi-
mento fatorial fica claro que o custo computacional foi bem mais elevado do que a segunda
abordagem (mapas de tamanhos diferentes), pois há variações de diversos parâmetros.
Na fusão de mapas de tamanhos diferentes os resultados obtidos para as duas estru-
turas definidas, com 7 e com 49 mapas, alcançaram resultados muito semelhantes em
termos de acurácia.
Os conjuntos de dados testados tem características diversas, como pode ser observado
na Tabela 4.1 e nas Figuras A.1 e A.2. Porém, uma limitação deste trabalho é que os
algoritmos não foram testados em conjuntos de dados com elevado número de classes e
instâncias. O conjunto Tetra possui o maior número de classes (4) e o conjunto Engytime,
64 CAPÍTULO 5. CONCLUSÃO

o maior número de instâncias (4096). Isso foi uma opção adotada, para que o tempo de
execução do algoritmo não fosse tão elevado, para o caso dos mapas de tamanhos iguais.
Outra limitação deste trabalho é o fato de que, para os mapas de tamanhos diferentes,
foram testadas apenas uma proporção de conjunto de treinamento e teste da rede neural,
isto é, fixaram-se valores únicos de 80% para treinamento e 20% para teste. Não foi
investigado aqui se outras proporções fixas, ou proporções diferentes para cada conjunto
de dados, poderiam alcançar resultados melhores de acurácia.
Embora para alguns conjuntos de dados não houve aumento na acurácia, o teste de
Wilcoxon demonstrou que, em geral, o método proposto neste trabalho obteve resultados
significativos e melhores do que um único mapa.

5.1.1 Mapas de tamanhos iguais


Quanto aos mapas de tamanhos iguais, os resultados mostram que quanto mais simples
a equação de fusão melhores as acurácias alcançadas.
Dentre as quatro abordagens definidas na Subseção 3.1.3, os melhores resultados fo-
ram observados quando o critério de fusão (que define se a fusão entre dois mapas será
mantida ou descartada) é a melhora do índice de validação. Ou seja, o objetivo deste
trabalho foi alcançado.
Com relação à utilização do método de Bagging para a re-amostragem, o mesmo
mostrou-se eficaz. Para 20% dos conjuntos de dados avaliados, a porcentagem de 50%
levou aos melhores valores de acurácia. O fato de que os conjuntos de dados onde a por-
centagem da re-amostragem foi de 90% conduzir a bons resultados mostra que é possível
obter boas acurácias sem que seja necessário utilizar todos os elementos do conjunto de
treinamento.
A quantidade de subconjuntos de dados, ou seja, a quantidade de mapas disponíveis
para comporem o comitê influencia diretamente na acurácia alcançada.

5.1.2 Mapas de tamanhos diferentes


Com relação às fusões de mapas de tamanhos diferentes, de um modo geral baixos
valores da porcentagem de hits e BMUs resultaram nas melhores acurácias.
Quanto às abordagens definidas na Subseção 3.1.3, observa-se, tal como para a fusão
de mapas iguais, que apenas as abordagens 1 (Mapas ordenados pelo índice de validação
e combinados pelo critério da melhora do MSQE) e 2 (Mapas ordenados pelo MSQE
e combinados pelo critério da melhora do índice de validação) levaram aos melhores
resultados.
5.2. TRABALHOS FUTUROS 65

Foram testadas três equações distintas para a combinação dos mapas e os resultados
apresentados nas Tabelas 4.6, 4.7 e 4.8 mostram que não há diferença de resultados entre
as Equações 3.2 e 3.3. A primeira é uma média ponderada entre os pesos dos neurônios
e seus respectivos hits e a última considera, além dos hits, o índice de validação de agru-
pamento na ponderação. Os resultados também mostram que há pouca diferença entre as
acurácias dos mapas combinados pela Equação 3.1 e as demais.
Considerando cada conjunto de dados, de um modo geral a estrutura de 49 mapas
alcançou acurácias melhores do que a estrutura com 7 mapas. A cada fusão que ocorre,
a medida de performance melhora (seja o índice de validação ou o MSQE, conforme
definidos na Subseção 3.1.3). Assim, como na estrutura com 49 mapas há mais mapas
disponíveis para a fusão, é de se esperar que haja mais fusões, melhorando cada vez mais
os valores de performance do mapa fundido.

5.2 Trabalhos futuros


A continuação dos trabalhos desenvolvidos nesta tese incluem:

1. O emprego de outros algoritmos de segmentação dos mapas. Neste trabalho foi


utilizado apenas o algoritmo k-means para a segmentação dos mapas de Kohonen.
Testes realizados apontam que o algoritmo watershed, que é uma técnica morfoló-
gica de segmentação de imagens, conseguem resultados melhores na segmentação
dos mapas do que o algoritmo k-means.
2. Variar os parâmetros de treinamento dos mapas de Kohonen. Neste trabalho optou-
se por fixar os parâmetros de treinamento dos mapas, uma vez que vários outros
parâmetros foram variados, como descrito no Capítulo 3. Há espaço para varia-
ção, por exemplo, nos raios inicial e final de treinamento, quantidade de épocas de
treinamento etc.
3. Verificar a influência do número de componentes do comitê. Para os mapas de
tamanhos iguais foram testados comitês com quantidades de 10, 20, até 100 mapas.
Já para os mapas de tamanhos diferentes, foram testados comitês com 7 e com 49
mapas. Sabe-se que, quanto maior a quantidade de elementos no comitê, melhor é
o seu desempenho. Porém, o tempo de processamento do comitê aumenta. Desta
forma, é preciso encontrar a quantidade ótima de elementos que levam o comitê ao
desempenho ótimo.
4. Gerar os componentes do comitê através do método da poda (prunning). Neste
trabalho foi utilizado o método construtivo que tem execução computacional mais
66 CAPÍTULO 5. CONCLUSÃO

fácil do que o método da poda. Não foram realizados testes preliminares com o
método da poda, então não se pode afirmar que haveria vantagens em relação ao
método construtivo, mas é uma possibilidade de investigação.
5. Para o caso de fusão de mapas de tamanhos iguais, poderia ser utilização o método
de Boosting para a re-amostragem dos dados. O método de Bagging utilizado para
geração dos subconjuntos é de execução mais simples do que o Boosting. Neste
último, a probabilidade de uma dada amostra ser escolhida depende da contribuição
desta para o erro dos componentes já treinados. Assim, a utilização da técnica de
Boosting pode incrementar o desempenho do comitê.

5.3 Publicações
Esta pesquisa propiciou a publicação de trabalhos em eventos científicos nacionais e
internacionais, além de um periódico. No Apêndice B há uma lista dos trabalhos publica-
dos até o momento.
Referências Bibliográficas

Amigó, Enrique, Julio Gonzalo, Javier Artiles e Felisa Verdejo (2009), ‘A Comparison of
Extrinsic Clustering Evaluation Metrics Based on Formal Constraints’, Information
Retrieval 12(4), 461–486.

Baraldi, Piero, Antonio Cammi, Francesca Mangili e Enrico E. Zio (2010), ‘Local Fusion
of an Ensemble of Models for the Reconstruction of Faulty Signals’, IEEE Transac-
tions on Nuclear Science 57(2), 793–806.

Bezdek, James C e Nikhil R Pal (1998), ‘Some New Indexes of Cluster Validity’, IEEE
Transactions on Systems, Man and Cybernetics 28(3), 301–315.

Breiman, Leo (1996), ‘Bagging Predictors’, Machine Learning 140(24), 123–140.

Calinski, T. e J. Harabasz (1974), ‘A Dendrite Method for Cluster Analysis’, Communi-


cations in Statistics 1(3), 1–27.

Chitra, A e S Uma (2010), ‘An Ensemble Model of Multiple Classifiers for Time Series
Prediction’, International Journal of Computer Theory and Engineering 2(3), 454–
458.

Coelho, Guilherme Palermo (2006), Geração , Seleção e Combinação de Componentes


para Ensembles de Redes Neurais Aplicadas a Problemas de Classificação, Tese de
doutorado, Universidade Estaudal de Campinas.

Corchado, Emilio e Bruno Baruque (2012), ‘Wevos-visom: An ensemble summarization


algorithm for enhanced data visualization’, Neurocomputing 75(1), 171–184.

Curiac, Daniel-Ioan e Constantin Volosencu (2012), ‘Ensemble based sensing ano-


maly detection in wireless sensor networks’, Expert Systems with Applications
39(10), 9087–9096.

Davies, David L. e Donald W. Bouldin (1979), ‘A Cluster Separation Measure’, IEEE


Transactions on Pattern Analysis and Machine Intelligence PAM I-1(2), 224–227.

67
68 REFERÊNCIAS BIBLIOGRÁFICAS

Deepa, M. e P Revathy (2012), ‘Validation of Document Clustering based on Purity and


Entropy Measures’, International Journal of Advanced Research in Computer and
Communication Engineering 1(3), 147–152.

DeLooze, L.L. (2006), Attack Characterization and Intrusion Detection using an Ensem-
ble of Self-Organizing Maps, em ‘The 2006 IEEE International Workshop on Infor-
mation Assurancegs’, West Point, pp. 2121–2128.

Demšar, Janez (2006), ‘Statistical comparisons of classifiers over multiple data sets’, J.
Mach. Learn. Res. 7, 1–30.

Diamantidis, N. A., D. Karlis e E. A. Giakoumakis (2000), ‘Unsupervised stratification


of cross-validation for accuracy estimation’, Artificial Intelligence 116(1-2), 1–16.

Dietterich, Thomas G. (2000), Ensemble methods in machine learning, em ‘International


Workshop on Multiple Classifier Systems’, Springer-Verlag, pp. 1–15.

Dunn, J. C. (1973), ‘A Fuzzy Relative of the ISODATA Process and Its Use in Detecting
Compact Well-Separated Clusters’, Cybernetics and Systems 3(3), 32–57.

Ferreira, Ednaldo José (2012), Método baseado em rotação e projeção otimizadas para
construção de ensembles de modelos, Tese de doutorado, Universidade de São
Paulo.

Forestier, G., C. Wemmert e P. Gancarski (2010), Background knowledge integration in


clustering using purity indexes, em ‘International Conference on Knowledge Sci-
ence, Engineering and Management’, Vol. 6291, Springer, pp. 28–38.

Fustes, Diego, Carlos Dafonte, Bernardino Arcay, Minia Manteiga, Kester Smith, An-
tonella Vallenari e Xavier Luri (2013), ‘SOM ensemble for unsupervised outlier
analysis. Application to outlier identification in the Gaia astronomical survey’, Ex-
pert Systems with Applications 40(5), 1530–1541.

Georgakis, Apostolos, Haiboi Li e Mihaela Gordan (2005), An ensemble of SOM


networks for document organization and retrieval, em ‘International conference on
adaptive knowledge representation and reasoning’, número Dml, Espoo, Finland,
p. 7.

Gonçalves, Márcio Leandro (2009), Métodos de Classificação Não-supervisionada de


Imagens de Sensoriamento Remoto usando Mapas Auto-organizáveis de Kohonen,
Tese de doutorado, Universidade Estadual de Campinas.
REFERÊNCIAS BIBLIOGRÁFICAS 69

Greene, Derek, Alexey Tsymbal, Bolshakova Nadia e Padraig Cunningham (2004), En-
semble clustering in medical diagnostics, em ‘IEEE Symposium on Computer-Based
Medical Systems’, Press, pp. 576–581.

Halkidi, M. e M. Vazirgiannis (2008), ‘A density-based cluster validity approach using


multi-representatives’, Pattern Recognition Letters 29(6), 773–786.

Hansen, Lars Kai e Peter Salamon (1990), ‘Neural Network Ensembles’, IEEE Transac-
tions on Pattern Analysis and Machine Intelligence 12(10), 9.

Haykin, Simon (2001), Redes Neurais - Prinípios e Prática, 2a edição, Bookman, Porto
Alegre.

Jiang, Yuan e Zhi-Hua Zhou (2004), ‘SOM Ensemble-Based Image Segmentation’, Neu-
ral Processing Letters 20(3), 171–178.

Kohonen, Teuvo (1982), ‘Self-organized formation of topologically correct feature maps’,


Biological Cybernetics 43(1), 59–69.

Krawczyk, Bartosz, Michal Wo, Tomasz Orczyk, Piotr Porwik e Barbara Blo (2012),
Neural Network Ensemble based on Feature Selection for Non-Invasive Recognition
of Liver Fibrosis Stage, em ‘On Line Conference on Soft Computing in Industrial
Applications’, p. 10.

Kuncheva, Ludmila I. (2004), Combining Pattern Classifiers: Methods and Algorithms,


Wiley-Interscience, Hoboken.

Kuncheva, Ludmila I., S. T. Hadjitodorov e L. P. Todorova (2006), Experimental compa-


rison of cluster ensemble methods, em ‘2006 9th International Conference on Infor-
mation Fusion’, pp. 1–7.

Lichman, M. (2013), ‘UCI machine learning repository’.

Low, Kian Hsiang, Wee Kheng Leow e Marcelo H. Ang (2005), ‘An ensemble of coopera-
tive extended kohonen maps for complex robot motion tasks’, Neural Computation
17, 41.

Manning, Christopher D., Prabhakar Raghavan e Hinrich Schütze (2008), Introduction to


Information Retrieval, Cambridge University Press, New York, NY, USA.
70 REFERÊNCIAS BIBLIOGRÁFICAS

Maqsood, Imran, MuhammadRiaz Khan e Ajith Abraham (2004), ‘An ensemble of neural
networks for weather forecasting’, Neural Computing and Applications 13(2), 112–
122.

Mattos, César Lincoln Cavalcante (2011), Comitês de Classificadores Baseados nas Re-
des SOM e Fuzzy ART com Sintonia de Parâmetros e Seleção de Atributos via
Metaheurísticas Evolucionárias, Dissertação, Universidade Federal do Ceará.

Naldi, Murilo Coelho (2011), Técnicas de combinação para agrupamento centralizado e


distribuído de dados, Tese, Universidade de São Paulo.

Pakhira, Malay K., S. Bandyopadhyay e U. Maulik (2004), ‘Validity index for crisp and
fuzzy clusters’, Pattern Recognition 37(3), 487–501.

Perrone, Michael P. e Leaon N. Cooper (1993), When networks disagree: Ensemble


methods for hybrid neural networks, em ‘Neural Networks for Speech and Image
Processing’, Chapman and Hall, pp. 126–142.

Rendón, Eréndira, Itzel M. Abundez, Citlalih Gutierrez, Sergio Díaz Zagal, Alejandra
Arizmendi, Elvia M. Quiroz e H. Elsa Arzate (2011), A comparison of internal and
external cluster validation indexes, em ‘Proceedings of the 2011 American Confe-
rence on Applied Mathematics and the 5th WSEAS International Conference on
Computer Engineering and Applications’, AMERICAN-MATH’11/CEA’11, World
Scientific and Engineering Academy and Society (WSEAS), Stevens Point, Wiscon-
sin, USA, pp. 158–163.

Saavedra, Carolina, Rodrigo Salas, Sebastián Moreno e Hector Allende (2007), Fusion
of Self Organizing Maps, em ‘9th international work-conference on artificial neural
networks’, Springer Berlin Heidelberg, San Sebastián, Spain, pp. 227–234.

Schapire, Robert E. (1990), ‘The strength of weak learnability’, Machine Learning


5(2), 197–227.

Sripada, Satya Chaitanya e M. Sreenivasa Rao (2011), ‘Comparison of Purity and Entropy
of k-means Clustering and Fuzzy C Means Clustering’, Indian Journal of Computer
Science and Engineering 2(3), 343–346.

Theodoridis, S. e K. Koutroumbas (2009), Pattern Recognition, 4a edição, Elsevier, Lon-


don.
REFERÊNCIAS BIBLIOGRÁFICAS 71

Tsai, Chih-Fong (2014), ‘Combining cluster analysis with classifier ensembles to predict
financial distress’, Information Fusion 16, 46–58.

Ultsch, Alfred (2005), Clustering with SOM: U*C, em ‘Proc. Workshop on Self-
Organizing Maps’, Paris, France, pp. 75–82.

Vesanto, Juha (2002), Data Exploration Process Based on the Self Organizing Map, Tese
de doutorado, Helsinki University of Techonology.

Villanueva, Wilfredo Jaime Puma (2006), Comitê de Máquinas em Predição de Séries,


Tese de doutorado, Universidade Estadual de Campinas.

Wang, Ching Wei (2006), New Ensemble Machine Learning Method for Classification
and Prediction on Gene Expression Data, em ‘28th IEEE EMBS Annual Internatio-
nal Conference’, New York, pp. 3478–3481.

Zhou, Zhi-Hua, Jianxin Wu e Wei Tang (2002), ‘Ensembling neural networks: Many
could be better than all’, Artificial Intelligence 137(1-2), 239–263.
72 REFERÊNCIAS BIBLIOGRÁFICAS
Apêndice A

Conjuntos de dados utilizados

A Figura A.1 mostra graficamente os conjuntos de dados do repositório UCI. Foram


obtidas através de análise de componentes principais (PCA) e projetadas no espaço
bidimensional.

Figura A.1: Conjunto de dados UCI.


Fonte: Elaborada pelo autor.
74 APÊNDICE A. CONJUNTOS DE DADOS UTILIZADOS

A Figura A.2 mostra ilustrações dos conjuntos de dados provenientes do FCPS.

Figura A.2: Conjunto de dados do FCPS. (Ultsch, 2005)


Apêndice B

Trabalhos publicados

1. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2015). “A Contribution to the Study


of Ensemble of Self Organizing Maps”, Mathematical Problems in Engineering
(Online), V. 2015, p. 1 − 10. http://www.hindawi.com/journals/mpe/2015/592549/

2. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2015). “Fusion of Self-Organizing


Maps with Different Sizes”, Intelligent Data Engineering and Automated Learning
- IDEAL 2015, Lecture Notes in Computer Science, V. 9375, p. 77 − 86.

3. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2015), “Self-Organizing Maps Fu-


sion: An Approach to Different Size Maps”, Hybrid Artificial Intelligent Systems -
HAIS 2015, Lecture Notes in Computer Science, V. 9121, p. 568 − 579.

4. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2015). “Um novo algoritmo para
combinaçao de comitês de máquinas de Mapas Auto-Organizáveis de Kohonen de
tamanhos diferentes”, 12o CBIC - Congresso Brasileiro de Inteligência Computaci-
onal, Curitiba. http://abricom.org.br/eventos/cbic_2015/cbic2015_submission_157/

5. Pasa, L. A., Costa, J. A. F., Medeiros, M. G. de (2014), “Fusion of Kohonen Maps


Ranked by Cluster Validity Indexes”, Hybrid Artificial Intelligence Systems - HAIS
2014, Lecture Notes in Computer Science, V. 8480, p. 654 − 665.

6. Pasa, L. A., Costa, J. A. F. (2013), “Ensemble de Mapas Auto Organizáveis de


Kohonen com Ponderação através do Índice de Validação CDbw Modificado”. Sym-
posium on Knowledge Discovery, Mining and Learning - KDMILE, São Carlos.
http://homepages.dcc.ufmg.br/ gfrancis/kdmile/papers/wip/attphrwv.pdf

S-ar putea să vă placă și