Sunteți pe pagina 1din 49

Métodos de

Inteligencia Artificial

L. Enrique Sucar (INAOE)


esucar@inaoep.mx
ccc.inaoep.mx/esucar
Tecnologías de Información
UPAEP
Agentes que razonan bajo
incertidumbre
• Introducción
• Repaso de probabilidad
• Sistemas basados en reglas
– Factores de certeza (MYCIN)
• Sistemas expertos probabilistas
Incertidumbre
• En muchas aplicaciones en el “mundo real” existe
incertidumbre, por ejemplo:
– Un sistema de diagnóstico médico no cuenta con toda la
información del paciente
– Un robot tiene sensores con limitaciones y ruidosos
– Un agente financiero tiene información limitada de las
empresas y no puede conocer todos los factores que las afectan
• Un sistema inteligente debe poder tomar decisiones
aunque no tenga toda la información o conocimiento
necesarios, e incluso cuando existan errores en la
información que recibe o en su conocimiento
Ejemplo de Incertidumbre

• Un robot móvil tiene


incertidumbre
respecto a lo que
obtiene de sus
sensores y de su
posición en el mundo
Ejemplos de dominios con incertidumbre
• Diagnóstico médico o industrial
• Predicción financiera
• Exploración minera / petrolera
• Interpretación de imágenes (visión)
• Reconocimiento de voz
• Monitoreo / control de procesos industriales
complejos
• Robótica
Introducción

Los sistemas inteligentes deben ser


capaces de representar y razonar con
incertidumbre.

Existen varias causas de incertidumbre que


tienen que ver con la información, el
conocimiento y la representación.
Información

• Incompleta
• Poco confiable
• Ruido, distorsión
Conocimiento
• Impreciso
• Contradictorio
Representación
• No adecuada
• Falta de poder descriptivo
Efectos de Incertidumbre
Si pierden varias propiedades de los
sistemas que no tienen incertidumbre,
basados en lógicas o reglas, lo cual hace el
manejo de incertidumbre más complejo. Las
principales dos características que, en
general, ya no aplican son:

1. Modularidad
2. Monotonicidad
Modularidad
Un sistema de reglas es modular, ya que
para saber la verdad de una regla sólo tiene
que considerarla a ésta, sin importar el
resto del conocimiento.

Pero si hay incertidumbre ya no puedo


considerar la regla por si sola, debo tomar
en cuenta otras reglas
Monotonicidad

Un sistema es monotónico si al agregar


nueva información a su base de datos, no
se alteran las conclusiones que seguían de
la base de datos original.
Si hay incertidumbre ya no puedo
considerar que la certeza en una
hipótesis ya no puede cambiar, debo
tomar en cuenta otras reglas que
involucren a dicha hipótesis.
Técnicas
• Se han desarrollado diversas técnicas para
manejo de incertidumbre en sistemas
inteligentes, que podemos dividir en dos
grandes grupos:
– Técnicas simbólicas (no numéricas)
– Técnicas numéricas
Técnicas
• No-numéricas
* Lógicas no-monotónicas
* Sistemas de mantenimiento de
verdad (TMS, ATMS)
* Teoría de endosos
Técnicas

• Numéricas
* Empíricas (MYCIN, Prospector)
* Métodos aproximados
* Lógica difusa
* Teoría de Dempster-Shafer
* Probabilísticas - Redes Bayesianas
Conceptos de Probabilidad

Recordaremos algunos conceptos de


probabilidad relevantes, en particular:

• Probabilidad Condicional
• Independencia
• Teorema de Bayes
¿Qué es probabilidad?
Definición
• Dado un experimento E y el espacio de
muestreo S, a cada evento A le asociamos
un número real P(A), el cual es la
probabilidad de A y satisface los siguientes
axiomas

A
Axiomas
• 0 <= P(A) <= 1
• P(S) = 1
• P(A ∪ B ∪ C … ) = P(A) + P(B) + P(C) + …
A, B, C … mutuamente exclusivos
Teoremas
• P (0) = 0
• P (¬A) = 1 – P(A)
• P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
Probabilidad Condicional
P(A | B) = P(A ∩ B) / P(B)

• Probabilidad de que ocurra un evento dado


que ocurrió otro:
– Dado que el dado cayó par, cuál es
probabilidad de que sea un número primo?
– Dado que tiene catarro, cuál es la probabilidad
de que tenga gripe?
Regla de Bayes
• De la definición de probabilidad condicional
se puede deducir:
P(B | A) = P(B) P(A | B) / P(A), dado P(A) > 0
• Esto permite “invertir” las probabilidades,
por ejemplo obtener la P de una enfermedad
dado un síntoma, con conocimiento de la P
de los síntomas dado que alguien tiene cierta
enfermedad
Probabilidad Total
• Dada una partición, B, de S, la probabilidad
de un evento A se puede obtener como:
P(A) = Σi P(A | Bi ) P(Bi)

B1 B3 B4

B2 A
B5
Teorema de Bayes
• Con la definición de probabilidad total, el
teorema de Bayes se puede escribir como:

P(B | A) = P(B) P(A | B) / Σi P(A | Bi ) P(Bi)


Eventos independientes
• Dos eventos son independientes si la
ocurrencia de uno no altera la probabilidad
de ocurrencia del otro:
P(A | B) = P(A) ó
P(B | A) = P(B)
• Lo que es equivalente a:
P(A ∩ B) = P(A) P(B)
• Independientes ≠ mutuamente exclusivos
Independencia condicional
• A es condicionalmente independiente de B
dado C, si el conocer C hace que A y B
sean independientes:
P(A | B,C) = P(A | C)
• Ejemplo:
– A – regar el jardín
– B – predicción del clima
– C – lluvia
Regla de la Cadena
• De la definición de probabilidad condicional,
se puede evaluar la probabilidad de
A1 ∩ A2 ∩ A3 ... ∩ AN (probabilidad
conjunta) como:

P(A1, A2, ..., AN ) =


P(A1 | A2, ..., AN ) P(A2 | A3, ..., AN ) ... P(AN )
Técnicas numéricas
Las primeras técnicas que surgen, cuando
menos dentro del área de sistemas expertos,
son técnicas empíricas o ad-hoc orientadas a
resolver aplicaciones específicas y sin un
fuerte fundamento teórico.

Las más conocidas son las que corresponden


a dos de los primeros sistemas expertos:
• PROSPECTOR (exploración minera)

• MYCIN (diagnóstico de nfermedades


infecciosas en la sangre)
Sistemas basados en reglas
En sistemas basados en reglas se
tiene en general una estructura similar
a la siguiente:
Si: se observa cierta evidencia E
Entonces: se concluye cierta hipótesis H con
probabilidad (certeza, ...) P
De aquí surgen varias interrogantes:

• ¿Cómo obtener estas medidas?

• ¿Cómo combinar estas medidas?

• ¿Cómo interpretar estas medidas?


MYCIN
Las técnicas desarrolladas en MYCIN y
Prospector son similares, ambas consideran
sistemas basados en reglas a los que se les
adicionan Factores de Certeza o
Probabilidades Subjetivas, respectivamente.

Veremos brevemente el método de MYCIN.


MYCIN define un Factor de Certeza (CF) que
se asocia a cada regla y cada evidencia, y
se definen un conjunto de reglas para
combinar estos factores.

Los CFs están en el rango de [-1, +1], donde


-1 denota que la evidencia es totalmente en
contra de la hipótesis y +1 que es
totalmente a favor
Reglas de combinación
1. Propagación (fprop) o reglas en serie:

2. AND (conjunción), OR (disjunción) de


evidencias ( fand, for):
3. Co-Conclusión (fco) o reglas en paralelo:
R1: IF A and (B or C) Then H cf 0.8
R2: If D and F Then B cf 0.6
Ejemplo R3: If F or G Then H cf 0.4
R4: If A Then D cf 0.75
R5: If I Then G cf 0.3

Se conoce:
CF(A,Ev) = 1,
CF(C,Ev) = 0.5,
CF(F,Ev) = 0.7,
CF(I,Ev) = -0.4
Desventajas:

Aunque pretendía apartarse de


probabilidad, se ha demostrado
[Heckerman 86] que la técnica de MYCIN
corresponde a un subconjunto de
probabilidad con una serie de suposiciones
implícitas:
• La evidencia es condicionalmente
independiente de la hipótesis y su negación.

• La red de inferencia debe corresponder a un


árbol para que los resultados sean
coherentes.

• Las fórmulas para conjunción y disjunción


(min y max ) sólo son válidas si uno de los
términos es subconjunto del otro.
Estas suposiciones no son válidas
en muchas aplicaciones por lo que
el método de MYCIN no se puede
generalizar.
Probabilidad en Sistemas Expertos

Sean H ={ h1,…,hn} el conjunto de n


posibles hipótesis y E ={e1,…,em }, m
posibles evidencias. Si asuminos que la
hipótesis y los eventos son V o F, lo que
queremos encontrar es la h más probable
dado e.
Se tiene que calcular P(h/e ) para cada
valor de h y seleccionar la de mayor
probabilidad utilizando el teorema de
Bayes.
Opción 1: Exhaustivo

Como:
A esto se le llama normalización ya que 1
P(e)
se toma como una constante que permite que
los términos condicionales sumen 1.
Generalización
En general:
Para aplicar Bayes, se requiere calcular las
probabilidades condicionales P(e/hi ) para
cada combinación de evidencias (en general
no se pueden calcular de sus componentes
individuales).

Esto implica que se tienen que conocer un


número exponencial de probabilidades!
Opción 2: independencia
Las evidencias son condicionalmente
independientes.

Con ésto, solo se requieren m x n


probabilidades condicionales y n - 1
probabilidades a priori.
Conclusión

En la opción 1 el sistema se vuelve demasiado


complejo, mientras que la opción 2 puede no
ser realista para muchas aplicaciones.

Una alternativa es buscar un compromiso


entre ambos extremos, esto se logra mediante
las redes Bayesianas.
Tarea
• Leer sobre manejo de incertidumbre en
sistemas expertos (liga en la página)

S-ar putea să vă placă și