Sunteți pe pagina 1din 112

Inteligencia

Artificial
Clase 02 y 04

Departamento de Ciencias e Ingeniera


de la Computacin
UNIVERSIDAD NACIONAL DEL SUR
2016
Lograr
Inteligencia
Artificial
Inteligencia Artificial

Inteligencia Artificial o Sinttica?


Artificial sugiere algo cuya calidad es diferente de
lo natural (Corazn Artificial)

Sinttico solo sugiere algo manufacturado


(Perla de Cultivo)

Una analoga sugerente:

Mquinas voladoras y
Mquinas pensantes

[G.R.Simari] 3
Aproximacin Naturalista

4
Aproximacin Ingenieril

5
Aproximacin Naturalista vs. Ingenieril

6
Inteligencia Artificial
Se distinguen dos metas que se entrelazan fuertemente:

La Meta Cientfica de determinar cuales son las ideas y


principios para la Representacin de Conocimiento,
para el uso del Conocimiento y para el ensamblaje de
Sistemas que explican los diversos tipos de
Inteligencia.

La Meta Ingenierl de resolver problemas en el mundo


real usando herramientas de IA para la Representacin
de Conocimiento, para el uso del Conocimiento y para
el ensamblaje de Sistemas en el mundo real (Artefactos
tiles, inteligentes).

[G.R.Simari] 7
Inteligencia Artificial

Inteligencia Computacional?

Esta denominacin claramente hace explicito un


Propsito y una Metodologa.

El propsito es entender como es posible producir


comportamiento inteligente.

La metodologa es disear, construir y experimentar


con Sistemas Computacionales que realicen tareas
que se consideran inteligentes.

[G.R.Simari] 8
Sistema de Smbolos Fsicos
Un Sistema de Smbolos Fsicos consiste de un
conjunto de entidades, llamados smbolos, que son
patrones fsicos que pueden ocurrir como
componentes de otro tipo de entidades denominadas
expresiones (o estructuras simblicas).

As, una estructura simblica est compuesta por un


nmero de instancias de smbolos (o tokens)
relacionados de alguna forma fsica (tal como que un
token est al lado de otro).

En un momento particular de su evolucin el sistema


contendr una coleccin de estas estructuras
simblicas.

[G.R.Simari] 9
Sistema de Smbolos Fsicos
Adems de estas estructuras, el sistema contiene una
coleccin de procesos que operan sobre las
expresiones para producir otras expresiones:
Procesos de Creacin
Procesos de Modificacin
Procesos de Reproduccin
Procesos de Destruccin
Un Sistema de Smbolos Fsicos es una mquina que
produce una coleccin de estructuras simblicas que
evoluciona en el tiempo.
Tal sistema existe en un mundo de objetos ms amplio
que estas expresiones simblicas.

[G.R.Simari] 10
Sistema de Smbolos Fsicos
La hiptesis del Sistema de Smbolos Fsicos fue
introducida por A. Newell y H. Simon cuando
recibieron en 1976 el Premio Turing por su
contribucin a las Ciencias de la Computacin.

En su disertacin titulada Computer Science as an


Empirical Inquiry: Symbols and Search, publicada en
el Communications of the ACM 19(3):113-126,
describen estos sistemas, y proponen que:

La condicin necesaria y suficiente para que un


Sistema Fsico exhiba actividad inteligente es que sea
un Sistema de Smbolos Fsicos.

[G.R.Simari] 11
Inteligencia Computacional
Se aceptan dos supuestos fundamentales:

La hiptesis del Sistema de Smbolos Fsicos:


1. La condicin necesaria y suficiente para que
un Sistema Fsico exhiba actividad inteligente
es que sea un Sistema de Smbolos Fsicos.
A. Newell y H. Simon (1976)

La Tesis de Church-Turing:

2. Cualquier manipulacin algortmica de


smbolos puede realizarse sobre una Mquina
de Turing.

[G.R.Simari] 12
Inteligencia Computacional
Observemos que la mquina de Turing es el modelo
terico de las computadoras actuales.

Luego, aceptando la Tesis de Church-Turing,


cualquier clase de manipulacin de smbolos puede
realizarse en una computadora.
(de tamao apropiado)

As la conjuncin de los supuestos (1) y (2)


implicar que cualquier clase actividad inteligente
puede realizarse en una computadora.
(de tamao apropiado)

Es decir, la inteligencia es algortmica.

[G.R.Simari] 13
Inteligencia Computacional

Es interesante remarcar que la afirmacin


precedente no es formalmente demostrable
dado que se funda en supuestos que no
son en si mismos demostrables.

Al aceptar esos supuestos se condiciona de


fuertemente la forma de resolver el
problema de lograr razonamiento
inteligente.

[G.R.Simari] 14
Inteligencia Computacional

Cules son las consecuencias de esta


visin computacional del razonamiento?

No debe interpretarse que cada funcin en


nuestro cerebro sea de naturaleza
simblica.

Solo se asume que en el nivel de


abstraccin adecuado el razonamiento
inteligente puede considerarse como una
manipulacin de smbolos.

[G.R.Simari] 15
Inteligencia Computacional

La visin simblica no es la nica posible.

Redes neuronales.

Inteligencia como reactividad a estmulos


exteriores.

Inteligencia como fenmeno social


emergente.

[G.R.Simari] 16
Inteligencia Computacional

Es Ciencia e Ingeniera.

Se deben crear y verificar teoras refutables,


pero ...

Las teoras son exploradas y explotadas en


forma emprica a partir de su implementacin.

Tanto el aspecto cientfico como el ingenierl


son absolutamente inseparables.

[G.R.Simari] 17
Lneas de Investigacin y Desarrollo

Hay dos lneas de trabajo:

Una es biolgica y se basa en la idea de que


dado que los seres humanos son inteligentes, la
ciencia de IA debe estudiarlos e imitar su
fisiologa y/o sicologa.

La otra es fenomelgica, orientada a la


reproduccin de los fenmenos inteligentes y
basada en el estudio y formalizacin del uso del
sentido comn acerca del mundo.

[G.R.Simari] 18
Otra Controversia
IA Dbil vs. IA Fuerte

IA Fuerte

Las mquinas que muestren inteligencia


tendrn mentes reales y sern conscientes.

IA Dbil

Es posible lograr que las mquinas


acten como si fueran inteligentes.

[G.R.Simari] 20
El cuarto chino (John Searle)
Searle caracteriza a la IA Fuerte como la
afirmacin de que una computadora, con la
programacin adecuada, literalmente posee
estados cognitivos [similares a los humanos]
y que por lo tanto estos programas explican
la funcin cognitiva humana.
John Searle, Minds, brains, and programs John Searle
Behavioral and Brain Sciences 3:417-424.
Searle (1980) propone el Argumento del Cuarto
Chino para mostrar que la idea de la IA Fuerte
es errnea.

[G.R.Simari] 21
El cuarto chino (John Searle)
Tenemos un cuarto cerrado con una ranura de entrada y
otra de salida.
Por la entrada entran hojas con caracteres chinos.
En el cuarto hay una persona que no entiende chino.
Dentro del cuarto hay una cantidad de libros conteniendo
instrucciones para construir nuevos caracteres chinos a
partir de los que se reciben por la entrada.
Luego de constuir todos los caracteres posibles a partir de
la entrada, el resultado se enva al exterior por la otra
ranura.
Afuera del cuarto hay una persona que entiende chino y
que introduce las hojas con caracteres y recibe la
respuesta, maravillandose por su correccin.

[G.R.Simari] 22
si entonces

Libros conteniendo
reglas para
manipular los
caracteres chinos

El cuarto chino
(John Searle)
El cuarto chino (Discusin)

El ser humano no entiende chino.

El cuarto no entiende chino.

Searle afirma que no hay entendimiento.

El Sistema (Humano+Libros de Reglas)


entiende chino?

La llamada Berkeley-answer es positiva.

[G.R.Simari] 24
El argumento de Searle
Ciertas clases de objetos son incapaces de
comprensin conciente (de chino).

El ser humano, el papel y el libro de reglas son


objetos de este tipo.

Dado un conjunto de objetos, si ninguno de ellos


es capaz de comprensin conciente entonces
cualquier sistema construdo a partir de ellos es
incapaz de lograrlo.

Por lo tanto, no puede haber comprensin


conciente en el Cuarto Chino.

[G.R.Simari] 25
Un contra-argumento

Una respuesta contraria a este argumento en


contra del Sistema es la siguiente:
Los seres humanos estn compuestos de
tomos.
Luego, en los presupuestos mencionados
acerca de las incapacidades de un sistema,
se debe aceptar que, o bien:
el ser humano no es capaz de comprensin
consciente, o bien
los tomos tienen esa capacidad.

[G.R.Simari] 26
El cuarto chino (Discusin)

Otra objecin a la respuesta positiva es que en


realidad no hay acceso a la semntica del
lenguaje, dado que:

Toda la actividad es a nivel sintctico.

No existe la experiencia directa de lo que


los smbolos representan.

[G.R.Simari] 27
El cuarto chino (Discusin)

A esto se contrapone la idea de introducir un


robot en el experimento (Jerry Fodor, 1980).
Este robot estara equipado con sensores
capaces de tener experiencia de primera mano
sobre el significado de los smbolos.

Como es posible asegurar que
en el robot no existe una mente
similar a la nuestra?

[G.R.Simari] 28
Un Par de
Experimentos
de Pensamiento
Cerebros en frascos

[G.R.Simari] 30
Cerebros en frascos

[G.R.Simari] 31
Cerebros en frascos

[G.R.Simari] 32
La Prtesis
Cerebral
Porqu estas
preguntas son
Importantes?
De la
Definicin de
Inteligencia
Artificial
Inteligencia Artificial

Tomaremos la siguiente como definicin


operativa de Inteligencia Artificial:

es el estudio del diseo e


implementacin de Agentes Inteligentes y
la teora asociada con esta actividad.

En el prximo encuentro veremos con


ms detalle la definicin de Agente.

[G.R.Simari] 47
Los Lmites de
la Inteligencia
Artificial
Los Lmites de la IA

Es posible para el hombre crear una mquina ms


inteligente que el mismo?
Existen componentes en la inteligencia humana
que no se encuentran en otros animales o puedan
ser duplicados en una mquina?
Es posible duplicar todo comportamiento
inteligente descomponiendo una tarea en una
sucesin de tareas o subproblemas ms simples
que puedan ser planteados con precisin y luego
resueltos?

[G.R.Simari] 49
Los Lmites de la IA

Puede una mquina exhibir comportamiento


completamente humano sin haber tenido
experiencia humana y sin herencia ancestral?
Es posible lograr comportamiento inteligente con
el equipamiento computacional que se puede
crear?
Es acaso el comportamiento inteligente una
propiedad de la estructura orgnica y por lo tanto
nunca reproducible por maquinaria no-orgnica?

[G.R.Simari] 50
Agentes Inteligentes
y
Sistemas Multiagente
(Introduccin)
Inteligencia Artificial ( IA )

Recordemos nuestra definicin (no formal) de


Inteligencia Artificial (ligeramente modificada):

es el estudio del diseo e implementacin


de Agentes Inteligentes y la o lasTeoras
asociadas con estas actividades.

En esta definicin se utiliza la palabra Agente y


ahora trataremos de clarificar este concepto.

[G.R.Simari] 52
Agentes
Cuando se hace referencia a la idea de agente
surgen dos mbitos de trabajo que estn
fuertemente relacionados:

El Agente en s mismo, y los


Conjuntos de Agentes
Entre estas dos entidades, el individuo y el
conjunto, existe una relacin que muestra una
fuerte similitud con lo que sucede a nivel humano.

Este parecido puede ser til de varias maneras.

[G.R.Simari] 53
Agentes
Tendremos computacin Personal en el
agente individual y tendremos computacin
Social producida por conjuntos de agentes.
Notemos que estamos utilizando un lenguaje
metafrico para hablar de procesos
computacionales.
Resulta apropiado detenerse brevemente en la
utilidad de usar estas metforas en la
descripcin del concepto de Agencia.
Pero antes hagamos algunos comentarios
sobre la Metfora.
[G.R.Simari] 54
Metfora
Una metfora es, de acuerdo al diccionario, el
uso de una palabra con un sentido distinto del
propio en virtud de una comparacin tcita.
El propsito de este mecanismo es poder
mejorar la capacidad de comprensin.
La esencia de la metfora es entender y
experimentar un tipo de cosa en trminos de
otra.
Gran parte el pensamiento humano es
metafrico.

[G.R.Simari] 55
Metfora
Al decir: Ella era como un da de verano el
poeta est tratando de transmitir la idea de las
sensaciones que l siente por el sujeto de la
frase.
El receptor de la metfora utiliza lo que ya
conoce acerca de un da de verano para
entender el sentimiento expresado por el
emisor.
As, una metfora es til en tanto y en cuanto
permite comprender mejor.
Muchas metforas se han vuelto transparentes.
[G.R.Simari] 56
Metfora
La esencia de la metfora es entender y experimentar un tipo de
cosa en trminos de otra:
Por ejemplo, la metfora El tiempo es oro permite usar el
concepto de valor en sentencias tales como:
Ests malgastando mi tiempo
Este dispositivo te va a ahorrar muchas horas
Como gastas tu tiempo en estos das?
Invert en este proyecto mucho tiempo
Perd mucho tiempo cuando me enferm
Es necesario administrar bien el tiempo
Esta metfora permite transmitir la idea de que el tiempo es una
cosa valiosa asociandolo con algo que claramente lo es.

[G.R.Simari] 57
Utilidad de la Metfora
Al interactuar con las computadoras y otros
dispositivos complejos usualmente utilizamos,
metafricamente, lenguaje que comnmente
usamos para hablar de los seres humanos.
En especial, les asignamos cualidades mentales
tales como Creencias, Deseos, Intenciones, y otras
similares a nuestra conveniencia (tales como
sentimientos).
Esto nos permite interactuar con estos dispositivos
de manera ms sencilla, teniendo una visin
antropomrfizada de los mismos.

[G.R.Simari] 58
Utilidad de la Metfora
Esta visin humanizada permite entender el
funcionamiento del dispositivo a un nivel prctico
sin tener una comprensin del funcionamiento real
del mismo.
Por ejemplo, decimos:
El cajero no quiere darme el dinero porque
todavia no sabe que hice un depsito.
La computadora no quiere bootear porque no
reconoce el disco.

[G.R.Simari] 59
Utilidad de la Metfora
La razn por la que los investigadores estn interesados
en esta visin metafrica en trminos cualidades
mentales de los dispositivos complejos es doble:

Se quiere proveer a las mquinas teoras sobre el


conocimiento y creencias de forma tal que ellas
puedan razonar acerca de lo que sus usuarios
creen o desean.

Al definir un comportamiento basandose en tales


teoras el usuario de las mismas puede comprender
mejor el funcionamiento de los dispositivos
complejos.

[G.R.Simari] 60
Ejemplo Trivial: El Termostato
Control de Temperatura:
Acondicionador de aire

Bimetal

[G.R.Simari] 61
Ejemplo: El Termostato
La actividad de un termostato que controla
un equipo de acondicionamiento de aire es
un ejemplo simple de este tipo de
interpretacin basado en cualidades
mentales.

El termostato observa la temperatura de la


habitacin en la que se encuentra y posee
una creencia sobre cul es el estado
correcto y esto le dar una meta.

[G.R.Simari] 62
Ejemplo: El Termostato

A partir de lo que obtiene como temperatura del


cuarto puede formar tres creencias:

El cuarto est demasiado fro

El cuarto est demasiado caliente

El cuarto est a la temperatura correcta

Adems, el termostato tiene la meta de


mantener a la habitacin en la temperatura
correcta.

[G.R.Simari] 63
Ejemplo: El Termostato
A partir de su creencia sobre el estado de la
habitacin y de la meta que quiere alcanzar toma la
accin apropiada (prender o apagar el
acondicionador).
Esta sencilla descripcin de la actividad de un
termostato, muestra las posibilidades de la
interpretacin metforica.
Sin embargo, si este fuera el grado de complejidad
de los dispositivos con los que nos encontramos
diariamente no existira la necesidad de asignarle
cualidades mentales.
Claramente, existen dispositivos mucho ms
complicados.
[G.R.Simari] 64
D. Dennett Posturas
La Postura Fsica: Se predice o se explica el
comportamiento del artefacto en funcin de sus
caractersticas fsicas y las leyes correspondientes.
La Postura de Diseo: Se predice o se explica el
comportamiento del artefacto en base a la funcin para
la que el artefacto fue diseado.
La Postura Intencional: Se predice o se explica el
comportamiento del artefacto en funcin de la
Racionalidad (asumida) del Comportamiento
considerandolo como un agente inteligente.

[G.R.Simari] 65
Interoperabilidad
Inteligente:
Simplificando la Computacin
Distribuida
Evolucin

El trabajo de investigacin y desarrollo en Inteligencia


Artificial Distribuida evolucion de manera natural hacia
los Sistemas Multi-agente.
Esto estuvo motivado fundamentalmente por la creciente
sofisticacin lograda en los elementos distribuidos (las
fuentes de conocimiento) que participan en la resolucin
de un problema.
El foco de la investigacin actual est en formalizar la
interaccin de una coleccin de agentes para resolver un
problema.

[G.R.Simari] 67
Brodie, M.L. 1989, Future Intelligent Information Systems:
AI and Database Technologies Working Together.

Disjunto

Transferencia de
Archivos,
Consultas a DB,
Impresoras
Ad hoc

Estndares de
Comunicacin:
TCP/IP, HTTP,
Encapsulado etc.

La Evolucin en la Conectividad de Sistemas


(Sin Cooperacin)
[G.R.Simari] 68
Brodie, M.L. 1989, Future Intelligent Information Systems:
AI and Database Technologies Working Together.

Las lneas
representan
conexiones entre
las aplicaciones y
los agentes.

Agentes
Administradores
de Recursos

La Evolucin en la Conectividad de Sistemas


(Agentes como Planificadores Centralizados)
[G.R.Simari] 69
Brodie, M.L. 1989, Future Intelligent Information Systems:
AI and Database Technologies Working Together.

Las lneas
representan
conexiones
activas entre los
agentes.

La Evolucin en la Conectividad de Sistemas


(Sistemas que Cooperan como Agentes)
[G.R.Simari] 70
Sistemas
Multi-Agente
Sistemas Multi-Agente ( MAS )
En los Sistemas Multi-Agente la investigacin y las
aplicaciones se concentran en la coordinacin del
comportamiento inteligente entre una coleccin de
agentes inteligentes y autnomos (posiblemente pre-
existentes).
Entre los problemas que aparecen est el de lograr la
coordinacin de su conocimiento, sus metas, sus
habilidades y planes de manera tal de lograr actuar
en acuerdo para resolver problemas.
Los agentes en un MAS pueden trabajar hacia una
meta nica o hacia metas independientes cuya
resolucin puede requerir interaccin.

[G.R.Simari] 72
Sistemas Multi-Agente ( MAS )

Al igual que en los mdulos de un Sistema de


Resolucin Distribuida de Problemas, los agentes en
un MAS deben compartir conocimiento sobre el
problema y las posibles soluciones.
Sin embargo, los agentes deben razonar acerca del
proceso de coordinacin entre el conjunto de los
agentes.
En estos sistemas la tarea de coordinacin puede ser
muy difcil dado que pueden existir situaciones en las
que no existe la posibilidad de acceder a objetos de
conocimiento globales.

[G.R.Simari] 73
Sistemas Multi-Agente ( MAS )
Estos objetos de conocimiento globales pueden
inclur Control Global, Consistencia Global del
Conocimiento, Metas Globales Compartidas o
Criterios Globales de xito.

La dificultad puede inclur la falta de una


Representacin Global del propio Sistema, lo que
hace que razonar acerca del sistema sea muy
complicado.

Estos sistemas reciben comnmente el nombre de


Sistemas Abiertos (Open Systems).

[G.R.Simari] 74
Sistemas Multi-Agente ( MAS )
Los Sistemas Abiertos (Open Systems) se
caracterizan por:
Concurrencia en el manejo de la informacin.
Asincrona entre los componentes y del
sistema con el entorno.
Control Descentralizado, con decisiones
locales.
Informacin potencialmente inconsistente.
Relaciones cercanas entre los componentes.
Operacin Contnua.
[G.R.Simari] 75
Sistemas Multi-Agente
Son sistemas con los siguientes componentes esenciales:
Existe un entorno E que define el espacio de la
actividad.
Un conjunto de objetos O situados en E.
Estos objetos pueden ser percibidos, creados, modificados
o destrudos por los agentes.
Un conjunto de agentes A, tal que A O.
Un conjunto R de relaciones en O.
Un conjunto Op de operaciones.
Estas operaciones hacen posible que los agentes perciban,
produzcan, consuman y manipulen objetos.

[G.R.Simari] 76
Agentes
Inteligentes
Agentes
Qu es un Agente?
Son entidades, fsicas o virtuales, activas y
persistentes que:
perciben
razonan
actan y ...
se comunican

Adicionalmente, se sugiere que deben


poseer autonoma y tener metas propias.

[G.R.Simari] 78
Caractersticas Generales

Son capaces de actuar sobre el entorno.

Pueden comunicarse con otras entidades


similares.

Poseen un conjunto de tendencias que


gobiernan su comportamiento, que pueden
tomar la forma de objetivos y/o funciones de
supervivencia o de satisfaccin de objetivos.

Poseen recursos propios, i.e. recursos de los


que solo el agente puede disponer.

[G.R.Simari] 79
Caractersticas Generales

Son capaces de percibir (en forma limitada) el


entorno en el que desarrollan su actividad.
Poseen una representacin parcial del entorno.
Poseen habilidades y puede ofrecer servicios.
Es posible que posean la habilidad de
reproducirse.
Su comportamiento tiende a la satisfaccin de
objetivos, teniendo en cuenta sus habilidades y
recursos disponibles y dependiente de sus
percepciones, comunicaciones y su
representacin.
[G.R.Simari] 80
Caractersticas Generales

Una caracterstica fundamental es que su


comportamiento tiende a lograr sus objetivos
utilizando habilidades y recursos propios, o que
se encuentran disponibles en su entorno.

Su representacin del entorno depende de


propios sensores directos y de las
comunicaciones que posiblemente establece
con otros agentes.

[G.R.Simari] 81
La Nocin de Agencia

Una nocin dbil de Agencia incluye:

Autonoma.

Habilidad social a travs de un


lenguaje de comunicacin entre
agentes.

Reactividad (en alguna medida).

Pro-actividad

[G.R.Simari] 82
La Nocin de Agencia

Una nocin fuerte de Agencia que


involucra actitudes mentales tales
como:

Conocimiento y Creencias

Intencionalidad

Reconocimiento de sus Obligaciones

Consideracin de las Emociones

[G.R.Simari] 83
Diseo:
Teoras y
Arquitecturas
Teoras y Arquitecturas

Una Teora de Agencia es fundamentalmente


una especificacin que responde a la pregunta
de como conceptualizar a un agente en
trminos de sus propiedades y la
representacin de las mismas.

Una Arquitectura de Agente representa el


movimiento desde la especificacin hacia la
implementacin y responde a la pregunta de
como construir un agente.

[G.R.Simari] 85
Teoras y Arquitecturas

Algunas de las propiedades estudiadas


son:

Intencionalidad, i.e., en que grado los


agentes son un sistema intencional.

Actitudes que un agente puede tomar.

Veremos ahora estas dos propiedades


con mayor detalle.
[G.R.Simari] 86
Intencionalidad
Un sistema intencional es una entidad cuyo
comportamiento puede ser predicho atribuyndole
creencias, deseos y capacidad de razonamiento.
Existen grados de intencionalidad.
Un Sistema Intencional de primer orden tiene creencias
y deseos pero no creencias y deseos acerca de
creencias y deseos.
Un Sistema Intencional de segundo orden tiene
creencias y deseos acerca de creencias y deseos
(propios y de otros agentes).

[G.R.Simari] 87
Actitudes

Cules son las actitudes ms interesantes


para la representacin de agentes?

Dos de las ms importantes son las


denominadas Actitudes Informacionales y las
Pro-actitudes.

Actitudes Informacionales: Creencia y


Conocimiento.

Pro-actitudes: Deseos, Intencionalidad,


Obligacin, Compromiso, Selectividad.

[G.R.Simari] 88
Arquitecturas

Uno de los problemas clsicos en el diseo


de una arquitectura es balancear la parte de
percepcin / accin y el razonamiento sobre
como actuar, (i.e., control de crisis vs.
accin cuidadosa).

Si el razonamiento domina a la percepcin


tenemos una Arquitectura Deliberativa.

Si la percepcin domina al razonamiento


tenemos una Arquitectura Reactiva.

[G.R.Simari] 89
Mdulo de sensores y control de
Tacto
efectores

Olfato Gusto

Lenguaje Audicin

Emociones Vista
Mdulo Qu hacer?

Comportamiento
Cognitivo Control
Muscular

Pensamiento
Memoria

Modelo para armar


Agente Genrico
Sensores

Los sensores reciben


percepciones

Entorno
Que hacer?

Los efectores ejecutan las


acciones que se decide
realizar

Efectores

91
Arquitectura
Sensores

Creencias Planes

Deseos
Intencione
s

Actuador
Actuador
92
Arquitectura
Planes Sensores
Creencias

Deseos

Intrprete

Intenciones

Actuador
Actuador
93
Agente Reactivo Simple (Reflejo)

Agente
Sensores
function simple-reflex-agent(percept)
returns an action
static: rules, a set of condition-action rules
state interpret-input(percept)
rule rule-match(state, rules)
Observaciones
action rule-action(rule)
acerca del mundo

Entorno
return action

Reglas
Condicin-accin Que hacer?

Efectores

94
Agente Reactivo Simple (Reflejo)

function simple-reflex-agent(percept)
returns an action
static: rules, a set of condition-action
rules
state interpret-input(percept)
rule rule-match(state, rules)
action rule-action(rule)
return action
95
Agente Reactivo con Estado Interno

Estado Sensores

Como
Evoluciona Observaciones
el Mundo acerca del mundo

Entorno
Consecuencias de las acciones

Reglas
Condicin-accin Que hacer?

Agente Efectores

96
Agente Reactivo con Estado Interno

function reflex-agent-with-state(percept)
returns an action
static:
state, a description of the current world state
rules, a set of condition-action rules
action, the most recent action, initially none
state update-state(state, action, percept)
rule rule-match(state, rules)
action rule-action(rule)
return action

97
Un Agente con Metas Explcitas

Sensores
Estado

Observaciones
Como acerca del mundo
Evoluciona actual
el Mundo

Entorno
Consecuencias de Cuales son las
las acciones consecuencias de
realizar accin A

Que hacer
Metas
ahora?

Agente Efectores

98
Un Agente Basado en Utilidades

Sensores
Estado
Observaciones
acerca del mundo
actual
Como
Evoluciona
el Mundo

Entorno
Cuales son las
Consecuencias de consecuencias de
realizar accin A
las acciones

Qu tan bueno
es el estado al
Utilidad que llegara?

Que hacer ahora?

Agente
Efectores

99
Cuestiones Fundamentales

Teoras de Agencia

Arquitecturas de Agentes

Lenguajes de Agentes

[G.R.Simari] 100
Cuestiones Fundamentales (1)

Teoras de Agencia:
Qu es un agente?
Qu propiedades debe tener?
Cmo se representan dichas
propiedades formalmente?
Cmo se razona acerca de ellas?

[G.R.Simari] 101
Cuestiones Fundamentales (2)

Arquitecturas de Agentes:

Cmo deben construrse los


agentes de manera que posean las
propiedades que deseamos?

Qu estructuras de Software, o
Hardware, son necesarias para
soportar esta arquitectura?

[G.R.Simari] 102
Cuestiones Fundamentales (3)

Lenguajes de Agentes:

Cmo deben programarse estos


agentes?

Cules deben ser las primitivas para


esta tarea?

Cmo es posible hacer que estos


lenguajes provean un marco efectivo?
[G.R.Simari] 103
Agentes
y
Objetos
Dos Aspectos de Autonoma

Autonoma Dinmica: Pueden


decidir actuar, Reactivo vs.
Proactivo, determinada por la
estructura interna del Agente.

Autonoma No Predecible: Pueden


decir NO, Predecible vs.
Impredecible, determinado por un
observador externo.

[G.R.Simari] 105
Agentes
La metfora de Agencia asigna caractersticas
antropomrficas al mbito de las unidades
computacionalmente hbiles, a las que se le
pueden asignar metas y reconocer en ellas
propsitos e intenciones.

Al mismo tiempo, permite lograr una ventaja de


diseo para el estudio de los sistemas complejos.

Tambin es posible explorar un nuevo modelo


general de computacin cuya capacidad est
basada en la interaccin.

[G.R.Simari] 106
Objetos
Los objetos se definen como entidades
computacionales que encapsulan un estado, que
pueden realizar acciones (o ejecutar mtodos)
sobre ese estado y que se comunican por medio
de mensajes.

Al encapsularlo, los objetos tienen cierto control


sobre su estado.

Sin embargo, si un objeto tiene mtodos pblicos


estos pueden ser invocados por otros objetos y
en tal sentido pierde el control sobre su
comportamiento.
[G.R.Simari] 107
Objetos

Es decir, si un objeto tiene un mtodo pblico, al


serlo, puede ser invocado por cualquier objeto en
el sistema.

Por supuesto, un objeto est obligado a tener


algunos mtodos pblicos haciendolos de esa
manera invocables desde otros objetos.

Esta caracterstica lleva disear un sistema que,


por construccin, tiene una meta que todos los
objetos colaboran a lograr y por la que estn
includos en tal sistema.

[G.R.Simari] 108
Agentes y Objetos
La computacin basada en objetos es
interactiva, pero los objetos carecen de ciertas
propiedades deseables con respecto a la forma
como se produce la interaccin.

Agregar esas propiedades representa un paso


evolutivo natural del modelo computacional
orientado a objetos al que se le agregan las
nuevas caractersticas.

Sin embargo, no es una extensin ya que se


pierden algunas propiedades, por ejemplo el
determinismo.
[G.R.Simari] 109
Agentes vs. Objetos
Los Agentes poseen una nocin ms fuerte de
autonoma al poder elegir si ejecutar o no una accin
a solicitud de otro agente.

Los Agentes son capaces de gran flexibilidad en su


comportamiento que puede ser reactivo, proactivo,
social.

En el modelo genrico de objetos no existe nada


similar.

Un Sistema Multi-Agente es inherentemente multi-


hebra (multi-threaded) dado que cada agente posee
al menos una hebra de control.
[G.R.Simari] 110
A Continuacin ...

Habiendo definido un marco conceptual


ahora debemos introducir los elementos
bsicos para lograr modelar a los Agentes
y los Sistemas Multi-Agente.

Comenzaremos con algunas herramientas


fundamentales que se utilizan para
resolver problemas simples e iremos
avanzando en la complejidad.

[G.R.Simari] 111
Fin

S-ar putea să vă placă și