Documente Academic
Documente Profesional
Documente Cultură
Construo de programas de
computador que melhoram seu
desempenho por meio de experincia
Aprendizado Supervisionado
Tcnicas:
Redes Neurais do tipo Multilayer Perceptron
Mquinas de Vetores Suporte
rvores de Deciso
AM Conceitos Bsicos
Aprendizado No-supervisionado
Encontrar aglomerados
Tcnicas:
Redes Neurais do tipo mapas auto-organizveis
Algoritmo k-mdias
AM Conceitos Bsicos
Caracterstica
g1 g2 gj gN-1gN
Classe
Padro 1 Cncer
Padro 2 Normal
Padro 3
Padro i
Padro m Cncer
AM Conceitos Bsicos
Preciso: Especificidade:
VP
Pr Esp
VN
VP FP VN FP
Sensibilidade=recall: Acurcia:
Sens
VP VP VN
Ac
VP FN VP VN FP FN
Exerccio 01
F-Measure:
http://pt.wikipedia.org/wiki/Navalha_de_Occam
http://extra.globo.com/casos-de-policia/aurilio-nascimento/a-navalha-de-occam-3348506.html
rvores de Deciso ADs
Forma mais simples e ainda assim mais bem
sucedidas, de algoritmos de aprendizagem
Lista de perguntas respostas sim ou
no
Hierarquicamente arranjadas
Levam a uma deciso
20
rvores de Deciso ADs
Exemplo
A Figura mostra faminto como sendo usado para dividir os exemplos restantes.
Induzindo rvores a partir de exemplos
3. Se no resta nenhum exemplo, isso significa que nenhum exemplo desse tipo foi
observado, e retornamos um valor-padro calculado a partir da classificao da
maioria no pai do n.
1 1 1 1 1 1
I ( , ) log 2 log 2
2 2 2 2 2 2
1 1 1 1
I ( , ) (-1) (-1)
2 2 2 2 Ou seja, um bit de
informao suficiente para
1 1 1 1 responder a uma pergunta
I ( , ) 1 bit sim/no sobre a qual no se
2 2 2 2
tem nenhuma ideia, como o
lanamento de uma moeda
imparcial.
Escolha de testes de atributos
1 99 1 99
I( , ) (-0,0145) (-6,64386 )
100 100 100 100
1 99
I( , ) 0,014355 0,066439 0,080793
100 100
Escolha de testes de atributos
v pi ni pi ni
Restante(A) I( , )
i 1 p n pi ni pi ni
p n
ganho( A) I ( , ) res tan te
pn pn
2 4 6 2 4
ganho(clientes) 1 I (0,1) I (1,0) I , 0,541 bits
12 12 12 6 6
O que significam
Por qu 1? Por qu 2, 4 e 6 os nmeros entre
no numerador? parnteses
O conjunto tem 2 ex. de nenhum
A quantidade de
p=n=6. Logo 1 bit 4 de algum e 6 de
pos e neg em
cheio
cada teste do atributo
Escolha de testes de atributos
2 4 6 2 4
ganho(clientes) 1 I (0,1) I (1,0) I , 0,541 bits
12 12 12 6 6
Escolha de testes de atributos
2 1 1 2 1 1 4 1 1 4 1 1
ganho(tipo) 1 I ( , ) I ( , ) I , I , 0
12 2 2 12 2 2 12 2 2 12 2 2
Escolha de testes de atributos
E selecionar o melhor
Ele calcular os valores:
Ganho(cheio, alt)
Ganho(cheio,bar)
Ganho(cheio,chu)
E selecionar o melhor
Escolha de testes de atributos
Soluo:
T = [29+,35-]
info(T) = info([29+,35-]) = 29/64 log2 29/64 35/64 log2 35/64 = 0.99
T = [20+,32-,12*]
info(T) = info([20+,32-,12*]) = 20/64 log2 20/64 32/64 log2 32/64 12/64log2 12/64
= 1.48
T = [20+,32-,6*,6$]
info(T) = info([20+,32-,6*,6$]) = 20/64 log2 20/64 32/64 log2 32/64 6/64 log2 6/64
6/64 log2 6/64 = 1.66
Escolha de testes de atributos
http://archive.ics.uci.edu/ml/datasets.html?format=&task=&att=&a
rea=game&numAtt=&numIns=&type=&sort=nameUp&view=table
2 4 6 2 4
ganho(clientes) 1 I (0,1) I (1,0) I , 0,541 bits
12 12 12 6 6
2 2 4 4 6 6
split inf o(Clientes, T ) log2 log2 log2
12 12 12 12 12 12
2 4 6
split inf o(Clientes, T ) ( 2.58496 ) ( 1.58496 ) ( 1) 1.459
12 12 12
Razo de ganho (gain ratio)
Conceito importantes:
Information Gain, gain ratio e Entropy
1. Information Gain:
Medida que indica o quanto um dado atributo ir
separar os exemplos de aprendizado
de acordo com a sua funo objetivo (classes).
Valor numrico - quantifica o ganho!
Para determinar o ganho, precisamos calcular a
entropia dos dados antes
Escolha de testes de atributos
Resumindo
2. Gain ratio:
3. Entropia
Problemas:
Quando existem rudos ou erros aleatrios
nos dados ou
Quando o nmero de exemplos de treino
muito pequeno no constituindo uma amostra
representativa da verdadeira funo objetivo
Nestes casos ID3 pode produzir rvores que se
superadaptam os exemplos de treino isto ,
aprendem inclusive os rudos e os erros.
Definio de Superadaptao
Vantagens:
Estrutura de fcil manipulao
Desvantagens:
Pouca robustez a dados de grande dimenso
Weka http://www.cs.waikato.ac.nz/ml/weka/
Sites:
http://www.aispace.org/dTree/
http://www2.dbd.puc-
rio.br/pergamum/tesesabertas/0210488_04_cap_03.pdf
rfaces.googlecode.com/files/7346C805d01.pdf
http://sites.ffclrp.usp.br/ccp/%28SEM%208%29/MATDID/EACBD/Apostila
%20DW%20e%20DM%20PUC%20RJ.pdf
http://professor.ufabc.edu.br/~ronaldo.prati/MachineLearning/AM-I-
Arvores-Decisao.pdf