Sunteți pe pagina 1din 8

AGENTES INTELIGENTES

Un agente es cualquier cosa capaz de captar algo y hacer algo. El agente debe tomar
decisiones en base al histrico.
Funcin agente.- Proyecta una percepcin dada en una accin.
Programa agente.- Implementa la funcin sobre la arquitectura del agente.
Buen comportamiento.- Agente hace lo correcto.
Un agente es cualquier cosa capaz de percibir su medio ambiente con la ayuda de sensores y
actuar en ese medio utilizando actuadores.
El trmino percepcin se utiliza en este contexto para indicar que el agente puede recibir
entradas en cualquier instante. La secuencia de percepciones de un agente refleja el historial
completo de lo que el agente ha recibido. En general, un agente tomar una decisin en un
momento dado dependiendo de la secuencia completa de percepciones hasta ese instante. Si
se puede especificar qu decisin tomar un agente para cada una de las posibles secuencias
de percepciones, entonces se habr explicado ms o menos todo lo que se puede decir de un
agente. En trminos matemticos se puede decir que el comportamiento del agente viene
dado por la fundn del agente proyecta una percepcin dada en una accin.
Agente Racional
Un agente racional es aquel que hace lo correcto; en trminos conceptuales, cada elemento de
la tabla que define la funcin del agente se tendra que rellenar correctamente. Obviamente,
hacer lo correcto es mejor que hacer algo incorrecto, pero qu significa hacer lo correcto?
Como primera aproximacin, se puede decir que lo correcto es aquello que permite al agente
obtener un resultado mejor. Por tanto, se necesita determinar una forma de medir el xito.
Ello, junto a la descripcin del entorno y de los sensores y actuadores del agente,
proporcionar una especificacin completa de la tarea que desempea el agente. Dicho esto,
ahora es posible definir de forma ms precisa qu significa la racionalidad.

Medidas de Rendimientos
La medida de rendimiento debe determinarse en base al estado deseado del ambiente y no en
lo que considera un correcto comportamiento del agenta.
Las medidas de rendimiento incluyen los criterios que determinan el xito en el
comportamiento del agente. Cuando se sita un agente en un medio, ste genera una
secuencia de acciones de acuerdo con las percepciones que recibe.

Racionalidad
La racionalidad en un momento determinado depende de cuatro factores:

La medida de rendimiento que define el xito.


El conocimiento del entorno.
Las acciones que el agente puede realizar.
La secuencia de estmulos correctamente captados.

Omnisciencia, aprendizaje y autonoma


Es necesario tener cuidado al distinguir entre racionalidad y omnisciencia. Un agente
omnisciente conoce el resultado de su accin y acta de acuerdo con l; sin embargo, en
realidad la omnisciencia no es posible.
Se dice que un agente carece de autonoma cuando se apoya ms en el conocimiento inicial
que le proporciona su diseador que en sus propias percepciones. Un agente racional debe ser
autnomo, debe saber aprender a determinar cmo tiene que compensar el conocimiento
incompleto o parcial inicial.
2.3 La naturaleza del entorno.
Entornos de trabajo, que son esencialmente los problemas para los que los agentes
racionales son las soluciones
En la discusin de la racionalidad de un agente aspiradora simple, hubo que especificar las
medidas de rendimiento, el entorno, y los actuadores y sensores del agente. Todo ello forma lo
que se llama el entorno de trabajo, para cuya denominacin se utiliza el acrnimo REAS
(Rendimiento, Entorno, Actuadores, Sensores). En el diseo de un agente, el primer paso debe
ser siempre especificar el entorno de trabajo de la forma ms completa posible.
Propiedades de los entornos de trabajo
1. Totalmente observable vs. Parcialmente observable
Un entorno de trabajo es, efectivamente, totalmente observable si los sensores detectan
todos los aspectos que son relevantes en la toma de decisiones; la relevancia, en cada
momento, depende de las medidas de rendimiento. Un entorno puede ser parcialmente
observable debido al ruido y a la existencia de sensores poco exactos o porque los sensores no
reciben informacin de parte del sistema.
2. Determinstica vs. Estocstico
Si el siguiente estado del medio est totalmente determinado por el estado actual y la accin
ejecutada por el agente, entonces se dice que el entorno es determinista; de otra forma es
estocstico.
3. Episdico vs. Secuencial
En un entorno de trabajo episdico, la experiencia del agente se divide en episodios atmicos.
Cada episodio consiste en la percepcin del agente y la realizacin de una nica accin
posterior. Es muy importante tener en cuenta que el siguiente episodio no depende de las
acciones que se realizaron en episodios previos. En entornos secuenciales, por otro lado, la
decisin presente puede afectar a decisiones futuras.
4. Esttico vs. Dinmico
Si el entorno puede cambiar cuando el agente est deliberando, entonces se dice que el
entorno es dinmico para el agente; de otra forma se dice que es esttico. Si el entorno no
cambia con el paso del tiempo, pero el rendimiento del agente cambia, entonces se dice que el
medio es semidinmico.

5. Discreto vs. Contino


La distincin entre discreto y continuo se puede aplicar al estado del medio, a la forma en la
que se maneja el tiempo y a las percepciones y acciones del agente.
6. Agente individual vs. Multiagente
La distincin clave est en identificar si el comportamiento de B se describe por la
maximizacin de una medida de rendimiento cuyo valor depende del comportamiento de A. B
es agente. Surgen tambin entonos de multiagente competitivo y cooperativo.

2.4 ESTRUCTURA DE LOS AGENTES.


Percepcin es igual Funcin (percepciones) que devuelve acciones.
Agente = arquitectura + programa
El programa de agente debe ser apropiado para la arquitectura.
Funcin de Agente Dirigido por tabla (percepcin) devuelve una accin
Variables estticas: percepciones, lista inicialmente vaca
Tabla, con las acciones indexada por las secuencias de percepciones.
Aadir la percepcin al final de las percepciones
Accin < consulta (percepciones, tabla)
Devolver accin.

E, entradas de la tabla
P, posibles percepciones
T, tiempo de vida del agente
a)
b)
c)
d)

Agente incapaz de almacenar la tabla


Diseador no tiene tiempo para crear la tabla
No es posible aprender todo en base a la experiencia
No se tiene asesora para conocer la forma de rellenar la tabla

Tipos bsicos de programas para agentes.

Agentes reactivos simples.


Agentes reactivos basados en modelos.
Agentes basados en objetivos.
Agentes basados en utilidad.

Agentes reactivos simples


Estos agentes seleccionan las acciones sobre la base de las percepciones actuales, ignorando el
resto de las percepciones histricas.
Funcin ARS(percepcin) devuelve accin
Esttico: reglas, un conjunto de reglas condicin-accin
Estado Interpretar-ENTRADA(percepcion)
regla Regla-Coincidencia[estado, reglas)

Accin REGLA-AcciN[regla]
devolver accin.

Agentes reactivos basados en modelos.


La forma ms efectiva que tienen los agentes de manejar la visibilidad parcial es almacenar
informacin de las partes del mundo que no pueden ver. O lo que es lo mismo, el agente debe
mantener algn tipo de estado interno que dependa de la historia percibida y que de ese
modo refleje por lo menos alguno de los aspectos no observables del estado actual.
Agentes basados en objetivos
El conocimiento sobre el estado actual del mundo no es siempre suficiente para decidir qu
hacer. En otras palabras, adems de la descripcin del estado actual, el agente necesita algn
tipo de informacin sobre su meta que describa las situaciones que son deseables.
Agentes basados en utilidad
Las metas por si solas no son realmente suficientes para generar comportamiento de gran
calidad en la mayora de los entornos.
Una funcin de utilidad proyecta un estado (o una secuencia de estados) en un nmero real,
que representa un nivel de felicidad. La definicin completa de una funcin de utilidad permite
tomar decisiones racionales en dos tipos de casos en los que las metas son inadecuadas.
Agentes que aprenden
El mtodo que propone es construir mquinas que aprendan y despus ensearlas. La
distincin ms importante entre el elemento de aprendizaje y el elemento de actuacin es que
el primero est responsabilizado de hacer mejoras y el segundo se responsabiliza de la
seleccin de acciones externas. El elemento de actuacin es lo que anteriormente se haba
considerado como el agente completo: recibe estmulos y determina las acciones a realizar. El
elemento de aprendizaje se realimenta con las crticas sobre la actuacin del agente y
determina cmo se debe modificar el elemento de actuacin para proporcionar mejores
resultados en el futuro.

3. RESOLVER PROBLEMAS MEDIANTE BUSQUEDAS


3.1 Agentes resolventes de problema
El primer paso para solucionar un problema es la formulacin del objetivo basado en la
situacin actual y la medida de rendimiento del agente. Consideraremos un objetivo como un
conjunto de estados del mundo (exactamente aquellos estados que satisfacen el objetivo). La
tarea del agente es encontrar qu secuencia de acciones permite obtener un estado objetivo.
Dado un objetivo, la formulacin del problema es el proceso de decidir qu acciones y estados
tenemos que considerar. Discutiremos con ms detalle este proceso. Por ahora, suponemos
que el agente considerar acciones del tipo conducir de una ciudad grande a otra.
Problemas y soluciones bien definidos
Un problema puede definirse, formalmente, por cuatro componentes:
El estado inicial en el que comienza el agente.
Una descripcin de las posibles acciones disponibles por el agente. La formulacin ms
comn utiliza una funcin sucesor. Dado un estado particular x, Sucesor-fn (a) devuelve un
conjunto de pares ordenados {accin, sucesor), donde cada accin es una de las acciones
legales en el estado x y cada sucesor es un estado que puede alcanzarse desde x, aplicando la

accin. Implcitamente el estado inicial y la funcin sucesor definen el espacio de estados del
problema (el conjunto de todos los estados alcanzables desde el estado inicial). El espacio de
estados forma un grafo en el cual los nodos son estados y los arcos entre los nodos son
acciones.
El test objetivo, el cual determina si un estado es un estado objetivo. Algunas veces existe un
conjunto explcito de posibles estados objetivo, y el test simplemente comprueba si el estado
es uno de ellos.
Una funcin costo del camino que asigna un costo numrico a cada camino. El agente
resolvente de problemas elige una funcin costo que refleje nuestra medida de rendimiento.
El costo individual de una accin a que va desde un estado x al estado y se denota por c(x,a,y).
Los elementos anteriores definen un problema y pueden unirse en una estructura de datos
simple que se dar como entrada al algoritmo resolvente del problema. Una solucin de un
problema es un camino desde el estado inicial a un estado objetivo. La calidad de la solucin se
mide por la funcin costo del camino, y una solucin ptima tiene el costo ms pequeo del
camino entre todas las soluciones.
3.3 Bsqueda de soluciones
Hemos formulado algunos problemas, ahora necesitamos resolverlos. Esto se hace mediante
bsqueda a travs del espacio de estados. Este captulo se ocupa de las tcnicas de bsqueda
que utilizan un rbol de bsqueda explcito generado por el estado inicial y la funcin sucesor,
definiendo as el espacio de estados. En general, podemos tener un grafo de bsqueda ms
que un rbol, cuando el mismo estado puede alcanzarse desde varios caminos.
Hay muchas formas de representar los nodos, pero vamos a suponer que un nodo es una
estructura de datos con cinco componentes:
ESTADO : el estado, del espacio de estados, que corresponden con el nodo;
NODO PADRE: el nodo en el rbol de bsqueda que ha generado este nodo;
ACCION: la accin que se aplicar al padre para generar el nodo;
COSTO DEL CAMINO : el costo, tradicionalmente denotado por g(n), de un camino desde el
estado inicial al nodo, indicado por los punteros a los padres; y
PROFUNIDAD: El nmero de pasos a lo largo del camino desde el estado inicial.
Es importante recordar la distincin entre nodos y estados. Un nodo es una estructura de
datos usada para representar el rbol de bsqueda. Un estado corresponde a una
configuracin del ambiente.
Medir el rendimiento de la resolucin del problema.
3.4 Estrategias de bsqueda no informada
Esta seccin trata cinco estrategias de bsqueda englobadas bajo el nombre de bsqueda no
informada (llamada tambin bsqueda a ciegas). El trmino significa que ellas no tienen
informacin adicional acerca de los estados ms all de la que proporciona la definicin del
problema. Todo lo que ellas pueden hacer es generar los sucesores y distinguir entre un estado
objetivo de uno que no lo es. Las estrategias que saben si un estado no objetivo es ms
prometedor que otro se llaman bsqueda informada o bsqueda heurstica; stas sern
tratadas en el Captulo 4. Todas las estrategias se distinguen por el orden de expansin de los
nodos.
Bsqueda primero en anchura

La bsqueda primero en anchura es una estrategia sencilla en la que se expande primero el


nodo raz, a continuacin se expanden todos los sucesores del nodo raz, despus sus
sucesores, etc. En general, se expanden todos los nodos a una profundidad en el rbol de
bsqueda antes de expandir cualquier nodo del prximo nivel. La bsqueda primero en
anchura se puede implementar llamando a la Bsqueda-rboles con una frontera vaca que
sea una cola primero en entrar primero en salir (FIFO), asegurando que los nodos primeros
visitados sern los primeros expandidos. En otras palabras, llamando a la Bsqueda-rboles
(problema, COLA-FIFO ()) resulta una bsqueda primero en anchura. La cola FIFO pone todos
los nuevos sucesores generados al final de la cola, lo que significa que los nodos ms
superficiales se expanden antes que los nodos ms profundos. La Figura 3.10 muestra el
progreso de la bsqueda en un rbol binario sencillo. Evaluemos la bsqueda primero en
anchura usando los cuatro criterios de la seccin anterior. Podemos ver fcilmente que es
completa (si el nodo objetivo ms superficial est en una cierta profundidad finita d, la
bsqueda primero en anchura lo encontrar despus de expandir todos los nodos ms
superficiales, con tal que el factor de ramificacin (sea finito). El nodo objetivo ms superficial
no es necesariamente el ptimo; tcnicamente, la bsqueda primero en anchura es ptima si
el costo del camino es una funcin no decreciente de la profundidad del nodo (por ejemplo,
cuando todas las acciones tienen el mismo coste).
Bsqueda de costo uniforme
La bsqueda primero en anchura es ptima cuando todos los costos son iguales, porque
siempre expande el nodo no expandido ms superficial. Con una extensin sencilla, podemos
encontrar un algoritmo que es ptimo con cualquier funcin costo. En vez de expandir el nodo
ms superficial, la bsqueda de costo uniforme expande el nodo n con el camino de costo ms
pequeo. Notemos que si todos los costos son iguales, es idntico a la bsqueda primero en
anchura.
Bsqueda primero en profundidad
La bsqueda primero en profundidad siempre expande el nodo ms profundo en la frontera
actual del rbol de bsqueda. La bsqueda procede inmediatamente al nivel ms profundo del
rbol de bsqueda, donde los nodos no tienen ningn sucesor. Cuando esos nodos se
expanden, son quitados de la frontera, as entonces la bsqueda retrocede al siguiente nodo
ms superficial que todava tenga sucesores inexplorados. Esta estrategia puede
implementarse por la Bsqueda-rboles con una cola ltima en entrar primero en salir (LIFO),
tambin conocida como una pila. Como una alternativa a la implementacin de la Bsquedarboles, es comn aplicar la bsqueda primero en profundidad con una funcin recursiva que
se llama en cada uno de sus hijos. La bsqueda primero en profundidad tiene unos requisitos
muy modestos de memoria. Necesita almacenar slo un camino desde la raz a un nodo hoja,
junto con los nodos hermanos restantes no expandidos para cada nodo del camino. Una vez
que un nodo se ha expandido, se puede quitar de la memoria tan pronto como todos su
descendientes han sido explorados.
Una variante de la bsqueda primero en profundidad, llamada bsqueda hada atrs, utiliza
todava menos memoria. En la bsqueda hacia atrs, slo se genera un sucesor a la vez; cada
nodo parcialmente expandido recuerda qu sucesor se expande a continuacin.

Bsqueda primero en profundidad con profundidad iterativa

La bsqueda con profundidad iterativa (o bsqueda primero en profundidad con profundidad


iterativa) es una estrategia general, usada a menudo en combinacin con la bsqueda primero
en profundidad, la cual encuentra el mejor lmite de profundidad. Esto se hace aumentando
gradualmente el lmite (primero 0, despus 1, despus 2, etctera) hasta que encontramos un
objetivo. Esto ocurrir cuando el lmite de profundidad alcanza d, profundidad del nodo
objetivo. La profundidad iterativa combina las ventajas de la bsqueda primera en profundidad
y primera en anchura. En la bsqueda primero en profundidad, sus exigencias de memoria son
muy modestas: 0 (bd) para ser exacto.
Bsqueda bidireccional
La idea de la bsqueda bidireccional es ejecutar dos bsquedas simultneas: una hacia delante
desde el estado inicial y la otra hacia atrs desde el objetivo, parando cuando las dos
bsquedas se encuentren en el centro. La motivacin es que bd/2 + bd/2 es mucho menor que
bd, o en la figura, el rea de los dos crculos pequeos es menor que el rea de un crculo
grande centrado en el inicio y que alcance al objetivo. La bsqueda bidireccional se
implementa teniendo una o dos bsquedas que comprueban antes de ser expandido si cada
nodo est en la frontera del otro rbol de bsqueda; si esto ocurre, se a encontrado una
solucin.

3.5 Evitar estados repetidos


Hasta este punto, casi hemos ignorado una de las complicaciones ms importantes al proceso
de bsqueda: la posibilidad de perder tiempo expandiendo estados que ya han sido visitados y
expandidos. Para algunos problemas, esta posibilidad nunca aparece; el espacio de estados es
un rbol y hay slo un camino a cada estado. Para algunos problemas, la repeticin de estados
es inevitable. Esto incluye todos los problemas donde las acciones son reversibles, como son
los problemas de bsqueda de rutas y los puzles que deslizan sus piezas. Los rboles de la
bsqueda para estos problemas son infinitos, pero si podamos parte de los estados repetidos,
podemos cortar el rbol de bsqueda en un tamao finito, generando slo la parte del rbol
que atraviesa el grafo del espacio de estados. Considerando solamente el rbol de bsqueda
hasta una profundidad fija, es fcil encontrar casos donde la eliminacin de estados repetidos
produce una reduccin exponencial del coste de la bsqueda.

3.6 Bsqueda con informacin parcial


Asumimos que el entorno es totalmente observable y determinista y que el agente conoce
cules son los efectos de cada accin. Por lo tanto, el agente puede calcular exactamente cul
es el estado resultado de cualquier secuencia de acciones y siempre sabe en qu estado est.
Su percepcin no proporciona ninguna nueva informacin despus de cada accin. Qu pasa
cuando el conocimiento de los estados o acciones es incompleto? Encontramos que diversos
tipos de incompletitud conducen a tres tipos de problemas distintos:
1.

Problemas sin sensores (tambin llamados problemas conformados): si el agente no


tiene ningn sensor, entonces (por lo que sabe) podra estar en uno de los posibles
estados iniciales, y cada accin por lo tanto podra conducir a uno de los posibles
estados sucesores.

2.

Problemas de contingencia: si el entorno es parcialmente observable o si las acciones


son inciertas, entonces las percepciones del agente proporcionan nueva informacin
despus de cada accin. Cada percepcin posible define una contingencia que debe de
planearse. A un problema se le llama entre adversarios si la incertidumbre est
causada por las acciones de otro agente.
3. Problemas de exploracin: cuando se desconocen los estados y las acciones del
entorno, el agente debe actuar para descubrirlos. Los problemas de exploracin
pueden verse como un caso extremo de problemas de contingencia.

S-ar putea să vă placă și