Documente Academic
Documente Profesional
Documente Cultură
notas de curso
Facultad de Fsica e Inteligencia Artificial
Departamento de Inteligencia Artificial
http://www.uv.mx/dia/
2013, Enero
Alejandro Guerra-Hernndez. Inteligencia Artificial II: Conocimiento, Razonamiento y Planeacin. Universidad Veracruzana, Facultad de Fsica e Inteligencia Artificial
Departamento de Inteligencia Artificial, Xalapa, Ver., Mxico, 2013.
website:
http://www.uv.mx/aguerra/
e-mail:
aguerra@uv.mx
ABSTRACT
Welcome to the notes for Artificial Intelligence II, a course about Knowledge, Reasoning and Planning. The contents correspond roughly to the part III of Artificial Intelligence, a modern approach, although they are also influenced by other texts about
logic in computer science, model checking and rational agency.
RESUMEN
Bienvenidos a las notas del curso Inteligencia Artificial II: Conocimiento, Razonamiento y Planeacin. El contenido de este curso corresponde a la parte II del libro Inteligencia Artificial, un enfoque Moderno, aunque est influenciado por otros textos sobre
la lgica en la ciencias de la computacin, la verificacin de modelos y los agentes
racionales.
AGRADECIMIENTOS
A V. Anglica Garca Vega y Jos Negrete Martnez
Alejandro
Guerra-Hernndez
iii
NDICE GENERAL
1
agentes inteligentes
1
1.1 Comportamiento flexible y autnomo
1.2 Medio Ambiente
6
1.3 PEAS
8
1.4 Lecturas y ejercicios sugeridos
9
arquitectura y programa agente
11
2.1 Agentes reactivos
14
2.2 Agentes con estado
15
2.3 Agentes lgicos
16
2.4 Agentes basados en Metas
18
2.5 Agentes basados en funciones de utilidad
2.6 Lecturas y ejercicios sugeridos
20
bibliografa
iv
21
19
AGENTES INTELIGENTES
Filosofa
Neuro
Ciencias
Inteligencia
Artificial
Ciencias
Cognitivas
Lingistica
Psicologa
Cognitiva
Varela [21] situa a la Inteligencia Artificial entre las Ciencias Cognitivas (Ver figura
1), enfatizando su constructivismo inherente que la diferencia de otras disciplinas que
comparten objetivos similares: filosofa, neuro ciencias, lingistica, filosofa cognitiva,
etc. Esta geografa, cabe mencionar, es de suma utilidad para reflexionar acerca del
carcter cientfico e ingenieril de la Inteligencia Artificial.
Por tanto, no deja de ser sorprendente que no sea hasta finales de los aos ochenta
que el concepto de agente es incorporado a la Inteligencia Artificial, como un tema
que se pretende unificador. Parte del problema, pudiera deberse a un distanciamiento entre los intereses cientficos y prcticos del rea. Este captulo espera ofrecer un
acercamiento entre ambas perspectivas. Primero Qu es un agente? De donde adoptamos este trmino?
1 Lanier [11] argumenta que la interaccin de los agentes artificiales con los humanos, difcilmente pueden
calificarse de inteligente. En su opinin nuestros actuales agentes resultan un verdadero peligro para la
humanidad Estos agentes no se volvern inteligentes, pero los humanos ajustarn su comportamiento
y sus expectativas al limitado comportamiento de algo que se les ha presentado como inteligente.
agentes inteligentes
Histricamente, fuera de la Inteligencia Artificial, el trmino agente ha sido usado
con dos acepciones. Primero, a partir de Aristteles [1] y hasta nuestros das, en filosofa el trmino agente se ha referido a una entidad que acta con un propsito
dentro de un contexto social. Segundo, la nocin legal de agente, como la persona
que acta en beneficio de otra con un propsito especfico, bajo la delegacin limitada
de autoridad y responsabilidad, estaba ya presente en el derecho Romano y ha sido
ampliamente utilizada en economa [14].
En el contexto de la computacin [25], el concepto de agente se consolida como una
solucin a las demandas actuales: ubicuidad, interconexin, inteligencia, delegacin
y homocentrismo. Esto es, en entornos como el que se muestra en la figura 2,donde
tenemos una diversidad de dispositivos de cmputo distribuidos en nuestro entorno
e interconectados, los agentes inteligentes emergen como la herramienta para delegar
adecuadamente nuestro trabajo y abordar esta problemtica desde una perspectiva
ms familiar para usuarios, programadores y diseadores.
Tiendas
Cine/TV
Banca
Trabajo
Telefona
Internet
Escuela
Franklin y Graesser [8] argumentan que todas las definiciones del trmino agente
en el contexto de la Inteligencia Artificial, se basan en alguna de estas dos acepciones
histricas. Una definicin consensual de agente [19, 26] puede ser:
Un agente es un sistema computacional capaz de actuar de manera autnoma para satisfacer sus objetivos y metas, mientras se encuentra situado
persistentemente en su medio ambiente.
Esta definicin que puede parecer demasiado general, provee una abstraccin del
concepto de agente basada en su presencia e interaccin con el medio ambiente (Ver
la Figura 3). Russell y Subramanian [18] encuentran que esta abstraccin presenta al
menos tres ventajas:
1. Nos permite observar las las facultades cognitivas de los agentes al servicio de
encontrar cmo hacer lo correcto.
agentes inteligentes
Percepcin
Accin
agente
Ambiente
agentes inteligentes
PT =
donde: PT es el puntaje total. El segundo trmino evala la persistencia del agente: T Max es
el tiempo mximo de la prueba y T Oper es el tiempo que el robot se mantuvo en operacin.
Si el robot trabaja durante toda la prueba no es penalizado, si no la puede terminar, si lo es.
El primer trmino evala la capacidad del agente. Para ello el piso a limpiar, rectangular, se
divide conceptualmente en celdas. CLi es la i-sima celda limpiada con xito, o si se prefiere
toma valor 1 si la celda se limpio, y 0 en caso contrario. DAi es el valor de dificultad de acceso
a la i-sima celda limpiada.
Es necesario precisar que la racionalidad de un agente se define en relacin con el
xito esperado dado lo que el agente ha percibido. Esto es, no podemos exigir a un
agente que tome en cuenta lo que no puede percibir, o haga lo que sus efectores no
pueden hacer. Por lo tanto, la racionalidad de un agente a un tiempo dado depende
de:
La medida de desempeo que define el estndar de xito.
La secuencia de percepciones del agente, esto es, todo lo que el agente halla
percibido hasta el tiempo dado.
El conocimiento del agente sobre el medio ambiente en el que est situado.
La habilidad del agente, esto es, las acciones que el agente puede llevar a cabo
con cierta destreza.
Un agente racional ideal es aquel que para toda secuencia de percepciones posible,
selecciona y ejecuta una accin que se espera maximice la medida de desempeo, con
base en la informacin que proveen su percepcin y conocimiento sobre el ambiente.
Luego entonces, es posible describir un agente por medio de una tabla con las
acciones que el agente toma en respuesta a cada posible secuencia de percepciones.
Esta tabla se conoce como el mapeo percepcin-accin. Por lo tanto un mapeo ideal
describe a un agente ideal y define el diseo de un agente ideal. A la bsqueda de
un mecanismo que aproxime este mapeo ideal, se le conoce como el problema de
seleccin de accin. El ejemplo 3 muestra el mapeo ideal de xbiff.
Ejemplo 3. En el caso de xbiff el mapeo ideal es muy sencillo. Si el buzn contiene al menos
un mensaje con la etiqueta nuevo, desplegar el icono de mensaje nuevo; en cualquier otro
caso, desplegar el icono de mensajes ledos.
1.1
agentes inteligentes
quien ofrece argumentos similares y seala la bimodailidad entre la autonoma y la
pertenencia a una comunidad social.
Covrigaru y Lindsay argumentan que ser autnomo, depende no slo de la habilidad para seleccionar metas u objetivos de entre un conjunto de ellos, ni de la habilidad
de formularse nuevas metas, sino de tener el tipo adecuado de metas. Los agentes artificiales son usualmente diseados para llevar a cabo tareas por nosotros, de forma
que debemos comunicarles que es lo que esperamos que hagan. En un sistema computacional tradicional esto se reduce a escribir el programa adecuado y ejecutarlo. Un
agente puede ser instruido sobre que hacer usando un programa, con la ventaja colateral de que su comportamiento estar libre de incertidumbre. Pero programar un
agente de esta forma, atenta contra su autonoma, teniendo como efecto colateral la
incapacidad del agente para enfrentar situaciones imprevistas mientras ejecuta su programa. Las metas y las funciones de utilidad son dos maneras de indicarle a un agente
lo que hacer, sin decirle cmo hacerlo.
1.2
medio ambiente
agentes inteligentes
considerara a otra entidad como un agente si su desempeo depende del comportamiento de esa entidad. La clave aqu es el concepto de interaccin que da
lugar a ambientes competitivos y cooperativos.
Esta categorizacin sugiere que es posible encontrar diferentes clases de ambientes.
Russell y Norvig [19] presentan algunos ejemplos de ambientes bien estudiados en
Inteligencia Artificial y sus propiedades (ver Cuadro 1). Cada ambiente, o clase de ambientes, requiere de alguna forma agentes diferentes para que estos tengan xito. La
clase ms compleja de ambientes corresponde a aquellos que son inaccesibles, no episdicos, dinmicos, continuos y multi-agente, lo que desgraciadamente corresponde
a nuestro ambiente cotidiano.
Ambiente
Crucigrama
Ajedrez con reloj
Backgammon
Poker
Tutor ingls
Brazo robtico
Control refinera
Robot navegador
Anlisis imgenes
Manejo de autos
Diagnstico
Observable
si
si
si
parcial
parcial
efectivo
parcial
parcial
si
parcial
parcial
Determinista
si
estratgico
estocstico
estocstico
estocstico
estocstico
estocstico
estocstico
si
estocstico
estocstico
Episdico
no
no
no
no
no
si
no
no
si
no
no
Esttico
si
semi
si
si
no
no
no
no
semi
no
no
Discreto
si
si
si
si
si
no
no
no
no
no
no
SMA
mono
multi
multi
multi
multi
mono
mono
mono
mono
multi
mono
Cuadro 1: Ejemplos de ambientes estudiados en Inteligencia Artificial y sus propiedades segn Russell y Norvig [19].
Con los elementos discutidos hasta ahora, es posible definir a un agente racional
como aquel que exhibe un comportamiento flexible y autnomo, mientras est situado
en un sistema de informacin, por ej., un sistema operativo o el web. Esto constituye lo
que Wooldridge y Jennings [26] llaman la nocin dbil de agente, como contra parte
de una nocin fuerte que adems de las propiedades mencionadas hasta ahora, utiliza
trminos que hacen referencia a propiedades que solemos aplicar exclusivamente a
los seres humanos y que he entrecomillado hasta ahora en el texto: creencias, deseos,
intenciones. Si descartamos que el medio ambiente sea un sistema de informacin
necesariamente, los robots pueden ser caracterizados como agentes racionales.
1.3
peas
Desempeo
salud paciente,
minimizar costos y
demandas
Ambiente
paciente, hospital,
persona,
tratamientos
Actuadores
preguntas,
pruebas
diagnsticos,
Sensores
lecturas,
reportes,
respuestas
que funcione como el sistema operativo del agente, por ejemplo, que facilite la interaccin del programa de agente con la computadora donde se ejecuta, de forma que el
agente pueda ser programado a un nivel ms alto. La siguiente expresin resume la
relacin entre agente, arquitectura y programa:
1.4
Se sugiere una lectura rpida de los captulos uno y dos del libro de Russell y Norvig [19] para una panormica del tema de los agentes racionales con respecto a la
Inteligencia Artificial. Huns y Singh [10] ofrecen una coleccin de artculos fundamentales en el rea, algunos de los cuales sern revisados en las tareas del curso.
Wei [23] estructur el primer texto completo y coherente sobre el estudio de los Sistemas Multi-Agentes. Su introduccin al libro es altamente recomendable como una
revisin de los problemas propios del rea. Finalmente Wooldridge [25] nos ofrece
un texto de introduccin bsico a los Sistemas Multi-Agentes, imprescindible por su
cobertura y complejidad moderada.
Problema 1. Describa un ejemplo de agente y su medio ambiente. Base su descripcin en
el esquema PEAS Existe un mapeo ideal para su agente? Puede definir una medida de
desempeo para su agente?
Problema 2. Describa un agente financiero que opera en un mercado de valores, en los trminos utilizados en este captulo.
Es posible formalizar la definicin abstracta de agente que hemos presentado (p. 3),
en la forma de una arquitectura abstracta de agentes Wooldridge [24]. Primero asumiremos que el ambiente puede caracterizarse por medio de un conjunto finito de
estados discretos posibles, definido como:
E = {e, e 0 , . . . }
Como hemos visto, no todos los ambientes son discretos, en el sentido estricto del
trmino. Sin embargo, asumir que el ambiente es discreto facilitar esta primera aproximacin formal al concepto de agente. Por otra parte, este supuesto se justifica por
el hecho de que an cuando el ambiente no fuese discreto, ste puede ser modelado
como un ambiente discreto con cierto nivel deseable de precisin.
Definamos la competencia de un agente, como el conjunto finito de acciones que
ste puede ejecutar:
Ac = {, 0 , . . . }
Ahora, supongamos que el ambiente se encuentra en algn estado inicial e0 y que el
agente comienza su actividad eligiendo una accin 0 en ese estado. Como resultado
de esta accin, el ambiente puede responder con cierto nmero de estados posibles.
Eventualmente, uno de estos estados posibles resulta de esta interaccin, digamos e1 .
Inmerso en este nuevo estado del ambiente, el agente selecciona otra accin a ejecutar,
y as continua. Una corrida r de un agente en un ambiente es, por lo tanto, una
secuencia finita de estados y acciones intercalados:
u1
0
1
2
3
r = e0
e1
e2
e3
eu
Sea R el conjunto de todas las posibles secuencias finitas sobre E y Ac. Definimos
como el subconjunto de las corridas que terminan en una accin y RE como el
subconjunto de las corridas que terminan en un estado del ambiente.
Para modelar el efecto de una accin en el ambiente, usamos una funcin de transicin entre estados1 que mapea una corrida terminando en accin a un conjunto de
posibles estados del ambiente:
RAc
: RAc (E)
En esta forma, el ambiente se asume como sensible a su historia, esto es, su prximo
estado no est determinado exclusivamente por la accin ejecutada por el agente en
1 Vase Fagin, Halpern, Moses y col. [6], p. 154, pero aqu es aplicada a un solo agente.
11
12
el estado actual. Las acciones ejecutadas por el agente en el pasado, tambin afectan
esta transicin. Esta definicin introduce un grado de indeterminismo en el ambiente,
y por lo tanto, incertidumbre sobre el resultado de una accin ejecutada en cierto
estado. Como vimos, considerar que el ambiente es no determinista, es importante
para entender las limitaciones de los agentes.
Si (r) = para todo r RAc , entonces no hay posibles estados sucesores para r
y se dice que el sistema ha terminado su corrida. Asumimos que todas las corridas
terminan eventualmente.
Un ambiente se define como una tripleta Env = hE, e0 , i donde E es el conjunto
de los posibles estados del ambiente, e0 E es un estado inicial y es la funcin de
transicin de estados.
Los agentes se modelan como funciones que mapean corridas que terminan en un
estado del ambiente, a acciones:
Ag : RE Ac
Observen que mientras los ambientes se asumen no deterministas, asumimos que
los agentes son deterministas.
Un Sistema agente es una tupla conformada por un agente y un ambiente. El
conjunto de posibles corridas del agente Ag en el ambiente Env se denota como
R(Ag, Env). Por simplicidad, consideraremos por ahora solo corridas finitas. Una secuencia de la forma:
(e0 , 0 , e1 , 1 , e2 , . . . )
representa una corrida del agente Ag en el ambiente Env = hE, e0 , i si y slo si e0 es
el estado inicial del ambiente Env; 0 = Ag(e0 ); y para u > 0:
eu ((e0 , 0 , . . . , u1 ))
y
u = Ag((e0 , 0 , . . . , eu ))
Puesto que nuestra tarea es implementar programas de agente, podemos usar la
formalizacin propuesta para definir un programa de agente que acepte percepciones
de su ambiente y regrese acciones sobre ste. Como habamos mencionado, la forma
ms sencilla de implementar un programa de agente es a travs de su mapeo ideal. El
algoritmo 1 muestra la funcin que implementa un agente de este tipo.
Aunque sta es tambin la forma ms sencilla de fracasar en la construccin de
un agente inteligente. An para agentes en ambientes controlados como el ajedrez, la
tabla del mapeo alcanza ordenes de 10150 entradas. Si consideramos que el nmero
de tomos en el universo observable es menor que 1080 , entenderemos las razones
del fracaso ineludible de esta estrategia.
5: end function
Algorithm 2 Ambiente
1: procedure Ambiente(e, , ags, fin)
2:
repeat
3:
for all ag ags do
4:
p(ag) percibir(ag, e)
5:
end for
6:
for all ag ags do
7:
accion(ag)
ag(p(ag))
8:
end for
S
9:
e ( agags accion(ag))
10:
until fin(e)
11: end procedure
Podemos tambin implementar un programa bsico de ambiente que ilustre la relacin entre ste y los agentes situados en l. El algoritmo 2 muestra el programa
Ambiente. La historicidad del ambiente queda oculta en las percepciones del agente.
La funcin percibir/2 mapea estados del ambiente a alguna entrada perceptiva. Los
agentes con formas robticas, pueden implementar percibir/2 usando hardware, por
ejemplo, cmaras de vdeo, sensores infrarrojos, sonares, etc. Los agentes software
pueden implementar esta funcin usando comandos del sistema operativo. El ejemplo 4 muestra diferentes opciones de percepcin para el agente xbiff.
Ejemplo 4. Un agente del estilo de xbiff puede usar el comando de UNIX whoami para
determinar la identidad de su usuario y encontrar as su buzn de correo. Luego puede usar
el comando grep para contar el nmero total de mensajes, el nmero de mensajes ledos, y el
nmero de mensajes abiertos pero no ledos2 .
Sea Per un conjunto no vaco de percepciones, la funcin de percibir/2 se define
como el mapeo del conjunto de estados del ambiente E al conjunto de percepciones
posibles Per:
percibir : E Per
El ejemplo 5 muestra la diferencia entre percepcin y estados posibles del ambiente,
en el caso del agente xbiff.
Ejemplo 5. Para el agente de estilo xbiff, podemos definir es conjunto de percepciones posibles como Per = {mensajesNuevos, noMensajesNuevos}, mientras que los estados posibles del ambiente en E son ms complejos, incluyendo como mencion, el login del usuario, el
nmero de cada tipo de mensaje en el buzn, etc.
2 Todas estas etiquetas para los mensajes de correo electrnico se encuentran especificadas por el el estndar de formato para mensajes de texto en ARPA Internet (RFC# 822).
13
14
se define entonces como el mapeo entre conjuntos de percepciones Per y el conjunto de acciones posibles Acc del agente:
accion
: Per Acc
Un agente puede definirse ahora como la tupla Ag = hpercibir, accioni.
Usando
esta extensin, es posible expresar interesantes propiedades sobre la percepcin de
los agentes. Supongamos dos diferentes estados del mismo ambiente, e1 E y e2 E,
tal que e1 6= e2 pero percibir(e1 ) = percibir(e2 ). Entonces tenemos dos estados
diferentes del ambiente que mapean a la misma percepcin, y desde el punto de vista
del agente e1 y e2 son indistinguibles.
Ejemplo 6. Observe que la definicin de Per para el agente estilo xbiff, oculta al agente la
identidad del usuario! Todo lo que el agente cree es que hay un buzn con o sin mensajes
nuevos. Si son mis mensajes o los mensajes del usuario que entr ms tarde al sistema, resulta
indistinguible para nuestro agente.
Dados dos estados del ambiente e, e 0 E, percibir(e) = percibir(e 0 ) ser abreviado
como e e 0 . Observen que es una relacin de equivalencia sobre E. El ambiente
es accesible para el agente, si y slo si |E| = | | y entonces se dice que el agente
es omnisciente. Si | | = 1 entonces se dice que el agente no tiene capacidad de
percepcin, es decir, el ambiente es percibido por el agente como si tuviera un estado
nico, porque todos los estados de ste son idnticos desde la perspectiva del agente.
2.1
agentes reactivos
Consideremos ahora nuestro primer programa de agente concreto. Los agentes reactivos [2], o reflex [9, 19], seleccionan sus acciones basados en su percepcin actual del
ambiente, ignorando el resto de su historia perceptiva. La figura 4 ilustra la interaccin de estos agentes con su ambiente. El ejemplo 7 nos muestra la formulacin del
programa xbiff como si fuese un agente reactivo.
Ejemplo 7. Los estados posibles del ambiente, las acciones y la funcin de seleccin de accin
para xbiff:
E = {correoNuevo}
Agente
percepcin
sensado
accin
actuacin
Ambiente
Ac = {despliegaIconoCorreoNuevo, despliegaIconoCorreoViejo}
despliegaIconoCorreoNuevo Si e = correoNuevo
Ag(e) =
despliegaIconoCorreoViejo En otro caso
La manera ms sencilla de implementar este tipo de programa de agente es mediante reglas condicin-accin. El algoritmo 3 muestra la forma general de un programa
de agente reactivo.
Algorithm 3 Agente reactivo o reflex
1: function Agente-Reactivo(e)
2:
estado percibir(e)
3:
regla seleccionAcci
on(estado,
reglas)
4:
accion
cons(regla)
5:
return accion
6: end function
2.2
15
16
Ambiente
actuacin
sensado
Agente
percepcin
Siguiente
accin
Estado
on(estado,
reglas)
5:
accion
AccionRegla(regla)
6:
return accion
7: end function
2.3
agentes lgicos
siguiente : D Per D
. Ac Acciones.
. predefinida, base de conocimientos.
17
18
2.4
: R {0, 1}
esto es, una funcin de las corridas del agente a 1 (verdadero) o 0 (falso). Se considerar que una corrida r R satisface la especificacin si y slo si (r) = 1. Un
ambiente de tareas se define entonces como el par hEnv, i. Dado un ambiente de
tareas:
2.5
Otra forma de comunicarle al agente que hacer, sin decirle como hacerlo, es definiendo sus metas indirectamente, por medio de alguna medida de desempeo, por ej.,
utilidades. Una utilidad es un valor numrico que denota la bondad de un estado
del ambiente. Implcitamente, un agente tiene la intencin de alcanzar aquellos estados que maximizan su utilidad a largo trmino. Por lo tanto, la especificacin de
una tarea en este enfoque corresponde simplemente a una funcin u : E < la cual
asocia valores reales a cada estado del ambiente. Para poder especificar una visin a
largo plazo del desempeo del agente, algunas veces las utilidades no se asignan a
los estados del ambiente, sino a las corridas del agente.
Ejemplo 9. Pensemos en un agente de correo electrnico ms complejo que el programa xbiff,
uno que filtre el spam en el correo recibido. La utilidad para una corrida r de este agente, puede
definirse como:
u(r) =
SpamFiltrado(r)
SpamRecibido(r)
Esto da una medida normalizada del desempeo del agente en el rango de 0 (el agente no
logr filtrar ningn mensaje spam) a 1 (el agente filtr todo el spam recibido) durante la corrida
r.
Asumiendo que la funcin de utilidad u tiene algn lmite superior en los valores
que asigna, por ej., existe un k < tal que r R.u(r) 6 k, entonces es posible
hablar de agentes ptimos, agentes que maximizan la utilidad esperada. Definamos
P(r|Ag, Env) como la probabilidad de que una corrida r ocurra cuando el agente Ag
est situado en el ambiente Env, y sea R el conjunto de todas las posibles corridas de
Ag en Env. Es evidente que:
X
rR(Ag,Env)
P(r|Ag, Env) = 1
19
20
AgAG
u(r)P(r|Ag, Env)
rR(Ag,Env)
2.6
BIBLIOGRAFA
[1]
Aristteles, Prior analytics no 391, en Loeb Classical Library, Harvard University Press, 1960 (vid. pg. 2).
[2]
R. Brooks, Cambrian Intelligence: the Early History of the New AI. Cambridge, MA.,
USA: MIT Press, 1999 (vid. pgs. 6, 14).
[3]
[4]
[5]
O. Etzioni, Intelligence without robots, AI Magazine, vol. 14, n.o 4, 1993 (vid.
pg. 6).
[6]
R. Fagin, J. Y. Halpern, Y. Moses y M. Y. Vardi, Reasoning about Knowledge. Cambridge, MA., USA: MIT Press, 1995 (vid. pg. 11).
[7]
L. Foner, Whats an agent, anyway? a sociological case study, MIT Media Lab,
Cambridge, MA., USA, inf. tc. Agents Memo 93-01, 1993 (vid. pg. 4).
[8]
[9]
[10]
M. Huns y M. Singh, eds., Readings in Agents. San Mateo, CA., USA: Morgan
Kauffman Publisher, 1998 (vid. pg. 9).
[11]
[12]
D. J. Levitin, This is Your Brain on Music: The Science of a Human Obsesion. New
York, NY., USA: A Plume Book, 2006 (vid. pg. 14).
[13]
[14]
W. Muller-Freienfels, Agency, en Encyclopedia Britannica, Internet version, Encyclopedia Britannica, Inc., 1999 (vid. pg. 2).
[15]
A. Newell, The knowledge level, AI Magazine, vol. 2, pgs. 1-20, 1981 (vid.
pg. 18).
[16]
[17]
J. Rawls, A Theory of Justice. New York, NJ., USA: Oxford University Press, 1973
(vid. pg. 5).
21
22
bibliografa
[18]
[19]
[20]
H. Simon, Models of Bounded Rationality. Cambridge, MA., USA: MIT Press, 1982,
vol. 2 (vid. pg. 20).
[21]
F. Varela, Invitation aux Science Cognitives. Paris, France.: Editions du Seuil, 1989
(vid. pg. 1).
[22]
J. Von Neumann y O. Morgesten, Theory of Games and Economic Behavior. Princeton, USA.: Princeton University Press, 1947 (vid. pg. 20).
[23]
G. Wei, ed., Multiagent Systems, a modern approach to Distributed Artificial Intelligence. Cambridge, MA., USA: MIT Press, 1999 (vid. pg. 9).
[24]
[25]
[26]