Documente Academic
Documente Profesional
Documente Cultură
Minera de datos
Minera de datos
Informacin disponible:
Clases: wi, i=1...c
Caractersticas : X variable aleatoria multidimensional.
Probabilidades: P(wi), p(x | wi), i=1...c
Mediante la Regla de Bayes:
p( x | wi ) P( wi )
P( wi | x ) =
, i = 1...c
p( x )
con p( x ) = p( x | wi ) P( wi )
i =1
Ejemplo:
p(x | w2)
p(x | w1)
P(w2|x)
p(x | w3)
p(x | w4)
P(w3 |x)
P(w1| x)
P(w4 |x)
Distribucin de X en cada clase
Probabilidades a posteriori
Probabilidades a priori iguales
Minera de datos
P(Error | x ) =
P( wk | x ) = 1 P( wi | x )
k =1,k i
P(w2|x)
P(w3 |x)
P(w1| x)
P(w4 |x)
Propiedad:
Hace mnima la probabilidad de error:
P(Error ) = P(Error | x )p( x ) dx
Elegir
w1
Elegir Elegir
w2
w4
Elegir
w3
Elegir
w4
Minera de datos
Clasificadores y su Representacin
x1
x
Vector de
Caractersticas
x2
.
.
.
xd
Entrada
g1
g1(x)
g2
g2(x)
.
.
.
gc(x)
.
.
.
max
(x)
gc
Clculo de las Funciones Discriminantes
Esquema de un clasificador genrico
Selector de Mximo
Decisin
Minera de datos
Regiones de decisin
Todo clasificador divide el espacio de caractersticas en regiones
de decisin Ri donde se elige la clase i. La frontera entre dos
regiones de decisin de llama frontera de decisin.
Utilizando las funciones discriminante las regiones de decisin se
escriben para cada clase wi como Ri={x/gi(x) gj(x) ij}
Si Ri son Rj contiguas entonces la frontera de decisin es la
interseccin de las dos regiones RiRj={x/gi(x)=gj(x)}.
Minera de datos
Recordatorio de Probabilidad
p( x ) =
1
(2 )
d /2
1/ 2
1
( x )T 1( x )
e 2
x, R d
matriz de dxd elementos,
simtrica y definida positiva (| |> 0)
Propiedades
Su valor medio es ahora un vector E(X)= = ( , ,..., )T con i =E(Xi)
La dispersin y relacin entre las variables se refleja en la matriz de
covarianzas =E( (X- ) (X- )T ) = (ij) con ij = E((Xi- i)(Xj- j))
1
Minera de datos
g i ( x ) = aiT x + ai 0
ai =
ai 0 =
a = i j
i
1
T i
2 i
+ ln(P( wi ))
1
2 P( wi )
x 0 = ( i + j ) 2 ln
a
2
P(
w
)
a
j
Funcin discriminante
1
R1
R2
= a Ta
Superficie de decisin
Representacin Grfica
Minera de datos
Segundo caso:
Las matrices de covarianzas de todas las clases son iguales, esto
es: i = con una matriz comn.
g i ( x ) = aiT x + ai 0
aT ( x x0 ) = 0
ai = 1 i
a = 1d , d = i j
1
ai 0 = iT 1 i + ln(P( wi ))
2
x0 =
1
1
( i + j )
2
d T 1d
Funcin discriminante
R2
P( wi )
d
ln
P( w )
j
R1
Superficie de decisin
2
Representacin Grfica
R2
R1
R1
R2
R2
R1
R1
R2
RR1 1
R2
R1
R2
R1
Representacin Grfica
Minera de datos
Objetivo:
Estimar p(x|wi) , P(wi), necesarios para aplicar el modelo de
Decisin Bayesiano.
Informacin disponible:
Un conjunto de muestras de entrenamiento H representativas de
las distintas clases, correctamente etiquetadas con su clase de
pertenencia.
Esto es, H= H1 H2 ... Hc, donde cada Hi tiene las muestras de
la clase wi
Asumiremos:
Que las muestras de cada clase no proporcionan informacin
acerca de la otra clase.
Las muestras en cada clase son independientes
Esto permite:
Estimar p(x|wi) , P(wi) nicamente a partir de las muestras en Hi.
Tenemos que resolver el problema de estimacin para cada clase
Problema:
La estimacin de P(wi) es simple, sin embargo la estimacin de
p(x|wi) es un problema complejo
Minera de datos
Estrategias de Estimacin
Estimacin Paramtrica
Se basa en suponer que la forma de p(x|wi) es conocida (gausiana,
beta, etc...) y depende de un conjunto de parmetros i .
Principal Ventaja: Los mtodos de estimacin son ms simples y
precisos
Principal Desventaja: Es necesario conocer la forma de la distribucin.
Los mtodos suelen ser sensibles a errores en dicha forma.
Mtodos ms importantes:
Estimacin por Mxima Verosimilitud.
Estimacin mximo a posteriori
Estimacin Bayesiana.
Estimacin no Paramtrica.
No se realiza ninguna asuncin acerca de la forma de p(x|wi)
Principal Ventaja: Mtodos robustos
Principal Desventaja: Mtodos complejos y que requieren un gran
nmero de muestras para una estimacin precisa.
Mtodos ms importantes
Ventanas de Parzen.
Vecinos ms prximos.
Facultad de Matemticas. Universidad de La Laguna
Minera de datos
Mtodos paramtricos
Se asume que la forma de las funciones de densidad condicionales
son conocidas y dependen de un conjunto de parmetros i.
Escribiremos esta dependencia como p(x|wi ,i).
Por ejemplo para una normal multidimensional tendremos que
i={i,i}
Sin embargo, se desconoce el valor verdadero del conjunto de
parmetros que la determinan completamente. Este verdadero valor
se estima a partir de un conjunto de entrenamiento mediante un
estimador.
Es importante recordar que:
El valor del estimador (estimacin) depende del conjunto de
entrenamiento y distintos conjuntos de entrenamiento proporcionan
distintas estimaciones.
La estimacin no tiene por qu coincidir con el verdadero valor del
parmetro.
Minera de datos
Simplificacion:
Las muestras de la clase wi slo dan informacin acerca del
parmetro de dicha clase i,.
Esto permite trabajar con cada clase por separado y obtener c
problemas de la forma:
Utilizar un conjunto de muestras Hi tomadas de forma
independiente de p(x | wi ,i ) para estimar i
Notacin:
Eliminaremos de la notacin la dependencia de la clase para
simplificar la escritura y escribiremos p(x | ) en vez de p(x | wi ,i )
y H en lugar de Hi.
No obstante debemos recordar siempre que estamos utilizando las
muestras de una nica clase y estimado los parmetros para esa
clase.
Por tanto para completar el clasificador debemos tener resuelto el
problema de estimacin para cada clase por separado.
Minera de datos
EMV: Mtodo
Idea:
Encontrar los valores del conjunto de parmetros que hace mxima
la verosimilitud del conjunto de entrenamiento
Obtencin de la mxima verosimilitud
Si H={x1,x2,...,xn} son muestras generadas de forma independiente
de la funcin de densidad p(x| ) entonces
1.- Calcular la funcin de verosimilitud de todas las muestras:
n
L = p(H | ) = p( x k | )
p(H|)
k =1
EMV
ln( p(H | )) = 0
Ejemplo:
Estimar la media , y la matriz de una distribucin normal por
EMV, a partir de un conjunto H={x1,x2,...,xn}.
1 n
1 n
EMV = x k ,
EMV = ( x k EMV )( x k EMV )T
n k =1
n k =1
Minera de datos
Minera de datos
Distribuciones verdaderas:
0 1 0
p(x | w1 ,1 )~ N ,
0 0 1
P(w1)=0.5, P(w2)=0.5
Clasificacin:
Conjunto de testeo:
1 1 0
, p(x | w2 ,2 )~ N ,
1 0 1
Conjunto de entrenamiento:
50 muestras por clase
Estimacin:
0.45 0.02 0.09
,
p ( x | w1 ) ~ N
0
.
32
0
.
09
0
.
53
0
.
73
0
.
23
Error bayesiano:
0.23
Facultad de Matemticas. Universidad de La Laguna
-1
-2
-1.5
-1
-0.5
0.5
1.5
2.5
Minera de datos
Mtodos no Paramtricos:
Es un conjunto de mtodos que no necesita informacin acerca de la forma
de las funciones de densidad condicionales p(x | wi)
Simplificacin:
Se asume que los elementos de Hi solo dan informacin sobre dicha clase.
Esto permite resolver c problemas independientes
Notacin:
Eliminaremos de la notacin la dependencia de la clase para simplificar la
escritura y escribiremos p(x) en lugar de p(x | wi ) y H en lugar de Hi
No obstante debemos recordar siempre que estamos utilizando las
muestras de una nica clase y por tanto para completar el clasificador
debemos tener resuelto el problema de estimacin para cada clase por
separado.
Algunos Procedimientos:
Ventanas de Parzen
Se estima la funcin de densidad p(x) examinando el conjunto de entrenamiento
H en un entorno de x que cuya forma no depende de H
k- Vecinos ms prximos
Se estima la funcin de densidad p(x) examinando el conjunto de entrenamiento
H en un entorno de x cuya forma depende de H
Facultad de Matemticas. Universidad de La Laguna
Minera de datos
k n
,
V
V =
dx
R
k=5
n=18
V=rea de R
x
R
p ( x ) =
5 / 18
V
Minera de datos
Ventanas de Parzen:Introduccin
Idea inicial:
Fijar un tamao de regin, construirla nicamente
alrededor del punto x para el que se desea
k n
estimar su probabilidad
p ( x ) = y aplicar la frmula de los
V
mtodos no paramtricos:
Vamos a formalizarlo:
Caso unidimensional
La regin es un intervalo
h /2 centrado en x de longitud h
Caso multidimensional
-h/2
h /2
La celda es un hipercubo
- h /2 centrado en x y la longitud de
Hipercubo en 2-D
cada lado es h
Minera de datos
Problemas...
La estimacin depende de h. Si h es muy grande la estimacin es
muy suave. Si por el contrario h es muy pequeo la estimacin
suele tener variaciones bruscas inaceptables (se produce
sobreajuste).
Una solucin:
Dividir el conjunto de entrenamiento en dos partes: uno para testeo
y otro para validacin. Utilizar el conjunto de entrenamiento para
definir distintas estimaciones en funcin de h. Posteriormente elegir
aquel valor de h para el que la probabilidad del conjunto de
validacin sea mxima.
Grficos de: Richard O. Duda, Peter E. Hart, and David G. Stork, Pattern Classification. Copyright (c) 2001 por John Wiley & Sons, Inc.
Minera de datos
Distribuciones verdaderas:
0 1 0
p(x | w1 ,1 )~ N ,
0
0
1
1 1 0
, p(x | w2 ,2 )~ N ,
1 0 1
P(w1)=0.5, P(w2)=0.5
Clasificacin:
Conjunto de testeo:
50 muestras por clase
Conjunto de entrenamiento:
50 muestras por clase
2.154
Error bayesiano:
0.23
-1
-2
-1.5
-1
-0.5
0.5
1.5
2.5
Minera de datos
Idea:
Parece que en zonas con pocas muestras deberamos hacer la
regin grande mientras que en zonas con pocas muestras la
podemos hacer pequea. Una idea sera entonces fijar el nmero
de muestras que queremos en la regin alrededor del punto x para
el que se desea estimar su probabilidad y aplicar la frmula de los
mtodos no paramtricos:
k n
p ( x ) =
V
Grficos de: Richard O. Duda, Peter E. Hart, and David G. Stork, Pattern Classification. Copyright (c) 2001 por John Wiley & Sons, Inc.
Minera de datos
Recordemos:
El clasificador ptimo bayesiano se puede construir hallando la
clase para la que es mxima la probabilidad a posteriori: p (wi |x)
Entonces:
Supongamos que el conjunto de datos H contiene ni muestras en la
clase wi y n muestras en total.
Supongamos que fijamos una regin R de volumen V para todas
las clases
Como sabemos, debemos resolver un problema de estimacin por
clase. Para la clase wi la estimacin ser:
k n
p ( x | wi ) = i i
V
ni
k
Entonces si utilizamos p (w i ) =
tendremos p (w i | x ) = i
n
k
La regla es simple: Seleccionar la clase con mayor nmero de
elementos en la regin R.
La regin R puede definirse mediante el esquema de las ventanas
de Parzen o los k-vecinos. Este ltimo esquema lleva a la
clasificacin por vecinos ms cercanos.
Minera de datos
P* P P*2
P * < 2P * , para n
c 1
Minera de datos
1
ke
Minera de datos
Distribuciones verdaderas:
0 1 0
p(x | w1 ,1 )~ N ,
0
0
1
1 1 0
, p(x | w2 ,2 )~ N ,
1 0 1
P(w1)=0.5, P(w2)=0.5
Clasificacin:
Conjunto de testeo:
50 muestras por clase
Conjunto de entrenamiento:
-1
Error bayesiano:
0.23
-2
-1.5
-1
-0.5
0.5
1.5
2.5