Sunteți pe pagina 1din 108

Estrategias Evolutivas aplicadas a los

Algoritmos de Enjambres para el control


de sistemas complejos
Mario Andr es Mu noz
Tesis presentada como requisito para optar al ttulo de
Magister en Ingeniera

Enfasis Electr onica
Facultad de Ingeniera
Escuela de Ingeniera El ectrica y Electr onica
Santiago de Cali
2008
Estrategias Evolutivas aplicadas a los Algoritmos de Enjambres para el
control de sistemas complejos
Mario Andr es Mu noz
Director(es):
Eduardo Francisco Caicedo, Ph.D.
Jes us Alfonso L opez, Ph.D.
Evaluador(es):
Unknown
Universidad del Valle
Escuela de Ingeniera El ectrica y Electr onica
Santiago de Cali Enero de 2008
Documento preparado en L
A
T
E
X Ghostscript.
Res umen
En este documento se presenta el desarrollo e implementaci on de una metodologa para
la autoadaptaci on de algoritmos de Inteligencia de Enjambres por medio de la aplicaci on
de los conceptos de Estrategias Evolutivas. La metodologa hace uso del promedio del
desempe no de cada uno de los individuos del enjambre para determinar si los par ametros
de la estrategia son los adecuados para las circunstancias actuales del problema. Por medio
de esta realimentaci on, el sistema prueba de manera controlada varios puntos en el espacio
de par ametros con el n de obtener mejores soluciones.
Se realizaron pruebas en tres escenarios diferentes: La b usqueda del mnimo en diez
funciones de uso com un en la prueba de m etodos de optimizaci on; la sintonizaci on de un
controlador PID para un sistema de dos masas con exibilidad y amortiguamiento; y la
implementaci on de un control indirecto adaptativo para la Plataforma de Experimentaci on
de Temperatura Multizona (MuTEP). Los resultados obtenidos permitieron demostrar que
la autoadaptaci on permite el control de los par ametros al seleccionar de un grupo de
mutaciones aquella que en la iteraci on presente el mejor desempe no y que adem as permite
dise nar controladores con mejores resultados en los problemas examinados, al alcanzarse
ndices de desempe no menores.
Palabras Claves: Inteligencia Articial, Computaci on Evolutiva, Inteligencia de Enjambres,
Estrategias Evolutivas, Control de Par ametros, Dise no de Controladores, Algoritmos de
Optimizaci on.
I
Abstract
This document presents the development and implementation of an selfadaptation
methodology for Swarm Intelligence algorithms by the use of the concepts of the Evolution
Strategies. The methodology proposed uses the cost average of each swarm agent to
determine if the parameters of the strategy are the adequate for the current problem
circumstances. By this feedback, the system tests in a controlled way, several points in the
parameter space with the objective to obtain better solutions. As proofs, three sceneries were
chosen: The minimum search in ten benchmark functions, the tuning of a PID controller for a
twomass system with exibility and damping, and the implementation of an indirect adaptive
controller for the Multizone Temperature Experimentation Platform (MuTEP). The results
obtained showed that the swarm selfadaptation allows the parameter control by selecting,
from a group of mutations, the one that achieves the best performance in the iteration, and
also helps in the design of controllers with better performance in the proposed problems.
Keywords: Articial Intelligence, Evolutionary Computation, Swarm Intelligence, Evolution
Strategies, Parameter Control, Controller Design, Optimization Algorithms.
III
A mi familia. Sin su apoyo, consejos y paciencia, no podra haber terminado otra
etapa de mi vida.
A mis amigas, que me brindaron sus odos durante los momentos difciles.
Por los sue nos y victorias que vendr an...

Indice general
Introducci on 1
Denici on del Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Contenidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1. Computaci on Evolutiva: Sociedades para solucionar problemas 5
1.1. Computaci on Evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Las Estrategias Evolutivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Inteligencia de enjambres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Optimizaci on por Enjambre de Partculas . . . . . . . . . . . . . . . . 12
1.3.2. Optimizaci on por Colonia de Hormigas . . . . . . . . . . . . . . . . . . 14
1.3.3. Optimizaci on por Enjambre de Bacterias . . . . . . . . . . . . . . . . . 17
VII

INDICE GENERAL
1.3.4. B usqueda por Difusi on Estoc astica . . . . . . . . . . . . . . . . . . . 20
1.3.5. Colonias de Abejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Evoluci on de enjambres 25
2.1. Implementaci on de Enjambres Evolutivos . . . . . . . . . . . . . . . . . . . . 26
2.1.1. Evoluci on de Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . 28
2.1.2. Evoluci on de Enjambre de Partculas . . . . . . . . . . . . . . . . . . 29
2.2. Evaluaci on de desempe no . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3. Sintonizaci on de un Control PID por medio de enjambres evolutivos 41
3.1. Sistema de dos masas con exibilidad y amortiguamiento . . . . . . . . . . . 42
3.2. Sintonizaci on de controladores PID . . . . . . . . . . . . . . . . . . . . . . . 45
3.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4. Regulaci on de Temperatura en la Plataforma de Experimentaci on de Temperatura
Multizona 49
4.1. Plataforma de Experimentaci on de Temperatura Multizona . . . . . . . . . . . 50
4.2. Control Indirecto Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5. Conclusiones y Trabajos Futuros 69
5.1. Discusi on nal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
VIII

INDICE GENERAL
5.2. Publicaciones resultantes de la investigaci on . . . . . . . . . . . . . . . . . . 70
5.2.1. Artculos en Revistas . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2. Trabajos en Conferencias . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3. Trabajos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
A. Tablas de resultados 75
IX

INDICE GENERAL
X

Indice de guras
2.1. Resultados para la funci on SCB . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2. Resultados para la funci on PFUNC . . . . . . . . . . . . . . . . . . . . . . . 34
2.3. Resultados para la funci on Peaks . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4. Resultados para la funci on DeJong F1 . . . . . . . . . . . . . . . . . . . . . . 35
2.5. Resultados para la funci on Grienwank . . . . . . . . . . . . . . . . . . . . . . 35
2.6. Resultados para la funci on Rastrigin . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Resultados para la funci on Ackley . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Resultados para la funci on DeJong F2 . . . . . . . . . . . . . . . . . . . . . . 37
2.9. Resultados para la funci on Schaffer F6 . . . . . . . . . . . . . . . . . . . . . 37
2.10.Resultados para la funci on Schewefel . . . . . . . . . . . . . . . . . . . . . . 38
3.1. Sistema de dos masas con exibilidad y amortiguamiento . . . . . . . . . . . 42
3.2. Resultados obtenidos con el PID sintonizado por EvBSFO . . . . . . . . . . . 47
3.3. Resultados obtenidos con el PID sintonizado por EvPSO . . . . . . . . . . . . 47
XI

INDICE DE FIGURAS
4.1. Aquitectura de la planta en la Plataforma de Experimentaci on de Temperatura
Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2. Arquitectura general de la Plataforma de Experimentaci on de Temperatura
Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3. Esquema de un Controlador Indirecto Adaptativo . . . . . . . . . . . . . . . . 52
4.4. Resultados obtenidos con el IAC1 con identicaci on por BSFO con referencia
constante de 35

C y volumen innito . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Resultados obtenidos con el IAC3 con identicaci on por IWPSO con referencia
constante de 45

C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 55
4.6. Resultados obtenidos con el IAC1 con identicaci on por EvBSFO con
referencia constante de 35

C y volumen aislado . . . . . . . . . . . . . . . . 56
4.7. Resultados obtenidos con el IAC2 con identicaci on por EvBSFO con
referencia constante de 40

C y volumen innito . . . . . . . . . . . . . . . . . 56
4.8. Resultados obtenidos con el IAC3 con identicaci on por EvBSFO con
referencia variable y volumen innito . . . . . . . . . . . . . . . . . . . . . . . 56
4.9. Resultados obtenidos con el IAC1 con identicaci on por EvPSO con referencia
constante de 40

C y volumen innito . . . . . . . . . . . . . . . . . . . . . . 58
4.10.Resultados obtenidos con el IAC2 con identicaci on por EvPSO con referencia
constante de 45

C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 58
4.11.Resultados obtenidos con el IAC3 con identicaci on por EvPSO con referencia
variable y volumen aislado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.12.Temperatura nal promedio con referencia ja . . . . . . . . . . . . . . . . . . 59
4.13.Error relativo con referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.14.Dispersi on de la supercie con referencia ja . . . . . . . . . . . . . . . . . . 60
4.15.Error cuadrado medio con referencia ja . . . . . . . . . . . . . . . . . . . . . 60
4.16.Error absoluto medio con referencia ja . . . . . . . . . . . . . . . . . . . . . 61
4.17.Error cuadrado por el tiempo medio con referencia ja . . . . . . . . . . . . . 61
4.18.Error absoluto por el tiempo medio con referencia ja . . . . . . . . . . . . . . 62
XII

INDICE DE FIGURAS
4.19.Suavidad de la acci on de control con referencia ja . . . . . . . . . . . . . . . 62
4.20.Acci on de control promedio con referencia ja . . . . . . . . . . . . . . . . . . 63
4.21.Temperatura nal promedio con referencia variable . . . . . . . . . . . . . . . 64
4.22.Error relativo con referencia variable . . . . . . . . . . . . . . . . . . . . . . . 64
4.23.Dispersi on de la supercie con referencia variable . . . . . . . . . . . . . . . 65
4.24.Error cuadrado medio con referencia variable . . . . . . . . . . . . . . . . . . 65
4.25.Error absoluto medio con referencia variable . . . . . . . . . . . . . . . . . . 66
4.26.Error cuadrado por el tiempo medio con referencia variable . . . . . . . . . . . 66
4.27.Error absoluto por el tiempo medio con referencia variable . . . . . . . . . . . 67
4.28.Suavidad de la acci on de control con referencia variable . . . . . . . . . . . . 67
4.29.Acci on de control promedio con referencia variable . . . . . . . . . . . . . . . 68
XIII

INDICE DE FIGURAS
XIV

Indice de tablas
1.1. Algoritmo de la Estrategia Evolutiva (/+, ) . . . . . . . . . . . . . . . . . 11
1.2. Optimizaci on por Enjambre de Partculas . . . . . . . . . . . . . . . . . . . . 13
1.3. Optimizaci on por Colonia de Hormigas . . . . . . . . . . . . . . . . . . . . . 16
1.4. Optimizaci on por Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . . 19
1.5. B usqueda por Difusi on Estoc astica . . . . . . . . . . . . . . . . . . . . . . . 21
1.6. Algoritmo de Colmena de Abejas Articiales . . . . . . . . . . . . . . . . . . 23
2.1. Algoritmo de Enjambres Evolutivo . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2. Optimizaci on por Enjambre de Bacterias Evolutivo . . . . . . . . . . . . . . . 29
2.3. Optimizaci on por Enjambre de Partculas Evolutivo . . . . . . . . . . . . . . . 30
2.4. Par ametros de los algoritmos para la prueba con funciones . . . . . . . . . . . 31
2.5. Par ametros de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 31
2.6. Ecuaciones de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 32
2.7. Resultados del ttest para el Algoritmo EvBSFO . . . . . . . . . . . . . . . . 39
XV

INDICE DE TABLAS
2.8. Resultados del ttest para el Algoritmo EvPSO . . . . . . . . . . . . . . . . . 39
3.1. Par ametros del sistema de dos masas . . . . . . . . . . . . . . . . . . . . . . 44
3.2. Par ametros de los algoritmos para la sintonizaci on del control PID . . . . . . . 46
3.3. Par ametros del Controlador PID obtenidos por Enjambres Evolutivos . . . . . . 46
3.4. Tiempos de establecimiento obtenidos con el experimento de referencia variable 48
4.1. Par ametros de los algoritmos para el control adaptativo . . . . . . . . . . . . . 54
4.2. Indices de desempe no para la comparaci on de los controladores . . . . . . . . 57
A.1. Desempe no del Controlador Indirecto Adaptativo con volumen de control
innito y referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
A.2. Desempe no del Controlador Indirecto Adaptativo con volumen de control
aislado y referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
A.3. Desempe no del Controlador Indirecto Adaptativo con volumen de control
innito y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
A.4. Desempe no del Controlador Indirecto Adaptativo con volumen de control
aislado y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
XVI
Introducci on
Para obtener una soluci on a un problema, la primera decisi on a tomar es la selecci on de
un m etodo. Esta decisi on puede basarse en algunos aspectos subjetivos como preferencias
personales debidas al conocimiento pr actico y te orico del dise nador, o aspectos objetivos
como la complejidad del m etodo al ser aplicado al problema. Sin embargo la selecci on de la
herramienta adecuada puede determinar en gran manera el exito o no del proceso de dise no.
Las siguientes decisiones est an relacionadas con la adaptaci on del m etodo al problema
propuesto. Cuando se trabaja con sistemas inteligentes, esta es una parte crtica debido a
que estos sistemas poseen formas gen ericas que pueden ser utiles a una gran variedad de
problemas, pero es necesario seleccionar adecuadamente arquitecturas y par ametros para
su correcto desempe no. Por lo general la selecci on de par ametros se realiza por medio de
una b usqueda sistem atica hasta encontrar un conjunto de valores que resulten adecuados,
pero se desconoce si estos son los mejores disponibles. Para evitar este inconveniente, se
han establecido estrategias que modican los par ametros del sistema durante la soluci on
del problema principal, ya sea por reglas determinsticas sin realimentaci on o por m etodos
adaptativos o evolutivos (autoadaptativos) que poseen realimentaci on.
Este documento presenta el desarrollo y aplicaci on de una metodologa para la
autoadaptaci on de algoritmos de Inteligencia de Enjambres por medio de la aplicaci on de
los conceptos de Estrategias Evolutivas. La autoadaptaci on utiliza los resultados promedio
del enjambre para determinar si los par ametros del sistema de b usqueda son los adecuados.
De esta manera el sistema prueba de manera controlada varios puntos en el espacio de
par ametros con el objetivo de obtener mejores soluciones.
1
INTRODUCCI

ON
Denici on del Problema
En Ingeniera de Control se presentan diferentes tipos de problemas que involucran
el an alisis de sistemas, algunos de los cuales, poseen caractersticas que los hacen
susceptibles de ser solucionados por m etodos convencionales o cl asicos, como por ejemplo
por medio de la sintonizaci on de un controlador PID, debido a que existe un completo
modelo determinstico. Sin embargo, existen problemas cuyas caractersticas impiden que
sean r apida y ecientemente solucionados por m etodos cl asicos o convencionales. Estos
problemas involucran sistemas con m ultiples entradas y salidas, caractersticas no lineales,
alto acoplamiento y presencia de fuertes disturbios. Este tipo de problemas pueden ser
solucionados ecientemente con m etodos inspirados en la biologa, psicologa y otras
ciencias, dando nacimiento al Control Inteligente, el cual se encarga de utilizar t ecnicas de
inteligencia articial en la soluci on de problemas de identicaci on, optimizaci on y control.
Los algoritmos de inteligencia de enjambres, que hacen parte de la inteligencia articial,
constituyen un m etodo para solucionar problemas complejos por medio de la interacci on en
paralelo de m ultiples agentes computacionales que modelan el comportamiento de algunos
seres vivos que conforman grupos o enjambres tanto en la b usqueda de alimento como
en estados de migraci on y defensa. Estos algoritmos representan un m etodo adicional
para el dise no de sistemas de control que presenten buenos resultados sin el estudio
intensivo necesario en las t ecnicas convencionales. Sin embargo, estos algoritmos presentan
la desventaja de considerar una poblaci on de agentes cuyas caractersticas intrnsecas est an
determinadas por un conjunto de par ametros est aticos seleccionados de manera emprica o
sistem atica. El trabajo de selecci on puede llegar a ser tedioso y generar valores que no sean
los m as adecuados.
Determinar el conjunto de par ametros que permitan obtener la mejor respuesta a un
determinado problema requiere la incursi on de mecanismos que permitan decidir, durante la
ejecuci on, cuales son los m as adecuados de acuerdo a las circunstancias. Este mecanismo,
conocido como autoadaptaci on permiten a una poblaci on la b usqueda de su estado optimo,
d andole a los algoritmos la adaptabilidad necesaria, para encontrar soluciones que tiendan a
la optima.
Objetivos
El proyecto de investigaci on tiene como objetivo principal el desarrollar y aplicar un m etodo
basado en la autoadaptaci on de par ametros existente en los algoritmos de Estrategias
Evolutivas para el control de par ametros de un algoritmo de enjambres, de tal manera que
2
Contenidos
pueda ser util para dise nar controladores que tiendan a ser optimos aplicables a sistemas
complejos. Con base en este objetivo, se denieron los siguientes objetivos especcos:
Realizar un estudio del estado del arte para conocer las tendencias actuales en la
investigaci on de la inteligencia de enjambres, estrategias evolutivas y su aplicaci on a
sistemas de control.
Determinar la estrategia de control m as adecuada para ser utilizada con la optimizaci on
por inteligencia de enjambres.
Seleccionar los algoritmos de enjambres que posean las caractersticas necesarias
para desarrollar una estrategia del tipo seleccionado.
Determinar qu e par ametros dentro de la poblaci on del enjambre son susceptibles a ser
evolucionados.
Evaluar si la poblaci on del enjambre, al aplicar una estrategia evolutiva, tiende a ser
optima.
Validar el comportamiento del controlador sobre la plataforma de experimentaci on de
temperatura multizona (MuTEP).
Contenidos
El documento se ha dividido en los siguientes captulos:
El captulo 1 presenta una revisi on de los conceptos y una taxonoma de la
Computaci on Evolutiva, haciendo enfasis en las t ecnicas de Inteligencia de Enjambres
y Estrategias Evolutivas, para las cuales se presentan algunas aplicaciones relevantes.
El captulo 2 presenta la metodologa de autoadaptaci on de los algoritmos de
enjambres, su aplicaci on a dos algoritmos de b usqueda en espacios continuos
(Optimizaci on por Enjambres de Partculas y Optimizaci on por Enjambre de Bacterias)
y un an alisis estadstico de desempe no con respecto a las versiones est aticas de los
mismos algoritmos para establecer que tipo de mejoras induce la autoadaptaci on.
El captulo 3 presenta el problema de control optimo de tiempo mnimo para el sistema
de dos masas con exibilidad y amortiguamiento y la aplicaci on de los algoritmos de
enjambres evolutivos para la sintonizaci on de un controlador que permita obtener una
respuesta optimizada.
3
INTRODUCCI

ON
El captulo 4 presenta la construcci on de un controlador indirecto adatativo para la
Plataforma de Experimentaci on de Temperatura Multizona (Multizone Temperature
Experimentation Platform MuTEP) haciendo uso de los algoritmos de enjambres
evolutivos como esquema de identicaci on.
Finalmente el captulo 5 presentan las conclusiones y las publicaciones resultantes de
esta investigaci on, adem as de los trabajos futuros propuestos para la continuaci on de
la tem atica.
Agradecimientos
Un trabajo de investigaci on de maestra solo es posible con la colaboraci on de varias
personas que ofrecieron sus ideas, ayuda e inclusive crticas. Deseo agradecer en primera
instancia a los profesores Eduardo F. Caicedo, Ph.D. y Jes us A. L opez, Ph.D. cuya conanza,
asesora y amistad, ha propiciado la culminaci on este trabajo con exito. Al ingeniero Wilfredo
Alfonso, cuyo trabajo en MuTEP, sus aportes en inteligencia de enjambres y sobretodo
su amistad, permitieron el enriquecimiento de este trabajo. A los profesores Jos e Miguel
Ramrez, Ph.D. y Jorge Finke, Ph.D. por su evaluaci on de la propuesta de este proyecto,
sus comentarios, correcciones y crticas, que espero hayan incrementado la calidad de este
trabajo. A los ingenieros Hern an Bentez, Alexander Campo y Javier Castillo, por despejar
algunas dudas respecto a algunos temas puntuales durante la investigaci on. A la audiencia
durante las ponencias en los congresos CERMA 2006, ACA 2007 e IFSA 2007, donde se
produjeron algunas discusiones que fueron utiles para aclarar algunos conceptos.
Finalmente, a la Universidad del Valle, al Programa de Postgrado en Ingeniera El ectrica
y Electr onica, y al Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnologa
COLCIENCIAS, por la beca otorgada por medio del proyecto Plataforma de Procesamiento
Distribuido, con Acceso Remoto Multiusuario y Emulaci on de Sistemas Din amicos, para la
Investigaci on y Educaci on en Ingeniera, contrato No. 1106-11-17707. Sin su nanciaci on
este trabajo no podra haberse realizado.
4
CAP

ITULO 1
Computaci on Evolutiva: Sociedades para solucionar
problemas
El ser humano se ha dado a si mismo el nombre cientco de homo sapiens como una
valoraci on de la trascendencia de sus habilidades mentales tanto para su vida cotidiana
como en su propio sentido de identidad, y por lo tanto, la comprensi on de estas habilidades
ha permitido el nacimiento de ramas cientcas que se encargan, por diferentes m etodos,
de analizar, entender y, en un caso particular, emular la inteligencia. A esta rama en
particular se le conoce como Inteligencia Articial o IA, la cual se enfoca en lograr no solo
la comprensi on de las entidades inteligentes sino su construcci on. La importancia de la IA no
radica unicamente en un esfuerzo de dotar de capacidades mentales a objetos inanimados
sino tambi en aprender m as acerca de la humanidad misma.
La IA es una disciplina relativamente nueva y sus orgenes se remontan formalmente a
1956, cuando el t ermino fue acu nado [Russell96], sin embargo, el estudio de la inteligencia
puede remontarse a la antig uedad, cuando los l osofos se esforzaban por comprender como
se ve, aprende, recuerda y razona, e inclusive como deberan ser realizadas estas tareas.
Existen en la actualidad dos escuelas de pensamiento dentro de la IA de como deberan
construirse y razonar las entidades inteligentes: La Inteligencia Articial Convencional (Good
Old Fashioned Articial Intelligence GOFAI), la cual dene que las soluciones deben
ser elegantes, claras y probablemente correctas, e involucra m etodos formales y l ogicos;
y la Inteligencia Computacional (Computational Intelligence CI), la cual considera que la
5
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


inteligencia es muy compleja para ser solucionada de manera formal, por lo tanto involucra
m etodos iterativos donde se desarrolla el conocimiento [Wikipedia08d].
Si bien las soluciones l ogicas propuestas por GOFAI no pueden ser descartadas en varias
aplicaciones, es claro que en algunas circunstancias, el desarrollo del conocimiento es m as
util que su programaci on. Las t ecnicas de CI tienen cada vez una mayor acogida y a cada
instante se obtienen nuevos descubrimientos en sus tres campos: Las Redes Neuronales
Articiales (Articial Neural Networks ANN), los Sistemas Difusos (Fuzzy Systems FS) y
la Computaci on Evolutiva (Evolutionary Computation EC) [Wikipedia08b].
En este captulo, se presenta una revisi on a los conceptos de la EC, en particular la rama
de Inteligencia de Enjambres (Swarm Intelligence SI). En la secci on 1.1 se presentan las
caractersticas principales de la EC y sus dos ramas: los Algoritmos Evolutivos (Evolutionary
Algorithms EA) y la Inteligencia de Enjambres. En la secci on 1.2 se presentan los conceptos
b asicos de las estrategias evolutivas (Evolution Strategies ES), un EA cuya principal
caracterstica es la auto adaptaci on de sus par ametros. En la secci on 1.3 se presentan los
conceptos b asicos de SI y sus principales t ecnicas. Finalmente en la secci on 1.4 se presentan
algunas conclusiones sobre la teora b asica.
1.1. Computaci on Evolutiva
Una de las aplicaciones m as comunes de la CI es la b usqueda de la soluci on optima en
problemas de alta complejidad, tanto en espacios continuos como discretos. Un algoritmo de
optimizaci on es un m etodo num erico que encuentra un valor
i
R
n
, donde R
n
es un espacio
ndimensional de b usqueda, que minimiza o maximiza una funci on J (), por medio de la
selecci on sistem atica de valores de la variable
i
posiblemente con algunas restricciones.
La variable
i
puede ser un escalar o un vector de valores discretos o continuos llamados
funciones factibles, mientras que J () es llamada funci on objetivo. Una soluci on factible que
minimiza o maximiza la funci on objetivo es llamada una soluci on optima [Wikipedia08a]. Un
tipo de problemas de optimizaci on son aquellos que requieren combinaciones de valores, a
estos problemas se le denominan de optimizaci on combinatoria.
Las t ecnicas utilizadas para resolver problemas complejos de optimizaci on combinatoria han
evolucionado progresivamente de m etodos constructivos a m etodos de b usqueda local y
nalmente a algoritmos basados en poblaciones [Hertz00]. Estos ultimos son muy populares
actualmente puesto que proveen buenas soluciones al utilizar un m etodo constructivo para
la obtenci on de la poblaci on inicial, y una t ecnica de b usqueda local para mejorar la soluci on
de la poblaci on. Adem as los m etodos basados en poblaciones tienen la ventaja adicional de
ser capaces de combinar buenas soluciones en orden de obtener unas mejores, ya que se
6
1.1 Computaci on Evolutiva
considera que las buenas soluciones comparten componentes con las soluciones optimas.
A estos m etodos se les conoce como algoritmos de computaci on evolutiva (Evolutionary
Computation EC).
Los algoritmos de EC comprenden un conjunto de t ecnicas iterativas que manejan una
poblaci on de individuos que son evolucionados (modicados) mediante una serie de reglas
que han sido claramente especicadas. En cada iteraci on, periodos de auto adaptaci on, los
cuales implican cambios en el individuo; son alternados con periodos de cooperaci on, los que
implican el intercambio de informaci on entre individuos.
Debido a que varios algoritmos pueden ser descritos de esta manera, al considerar el dise no
de un nuevo algoritmo de EC para la soluci on de un problema particular de optimizaci on, se
debe tener en cuenta las siguientes caractersticas principales:
La existencia de individuos que pueden representar soluciones de un problema. Estas
soluciones pueden ser factibles o no, parciales o completas, individuales o grupales.
Un proceso de evoluci on que permite denir los cambios en la poblaci on a cada
generaci on o de manera continua.
Una denici on de vecindad que permite conocer el modo en que los individuos
intercambian informaci on. Puede ser estructurada si solo un grupo de la poblaci on
puede conocer la informaci on de un miembro, o por el contrario, todos los individuos
pueden tener acceso a la informaci on.
Un mecanismo que permita identicar las fuentes de informaci on de un individuo, ya
que la vecindad puede proveer una gran cantidad de informaci on, se puede determinar
cual es m as conveniente utilizar.
Una medida de la factibilidad de la soluci on obtenida, lo cual permite determinar cual
es buena, optima o inadecuada.
Un mecanismo de intensicaci on, el cual corresponde al uso de m etodos que puedan
generar mejoras signicativas durante la fase de autoadaptaci on. Este mecanismo
realiza mejoras sobre un individuo sin tener en cuenta la informaci on suministrada por
otros individuos, permitiendo la intensicaci on de la b usqueda sobre algunas regiones
del espacio.
Un mecanismo de diversicaci on, el cual permite evitar convergencia hacia puntos
optimos locales. Este procedimiento modica cada individuo independientemente, pero
al contrario del mecanismo de intensicaci on, tiene resultados inesperados sobre un
individuo. Un tipo de mecanismo de diversicaci on es el operador mutaci on en los GA.
7
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


As, la EC representan un amplio grupo de t ecnicas, b asicamente dividida en dos ramas cuyas
diferencias fundamentales se encuentran en la aplicaci on de los conceptos anteriores: Los
Algoritmos Evolutivos (Evolutionary Algorithms EA) y la Inteligencia de Enjambres (Swarm
Intelligence SI).
Los Algoritmos Evolutivos: Corresponden a un grupo de t ecnicas estoc asticas que
utilizan los conceptos de evoluci on biol ogica [Wikipedia08c]. Los EA act uan sobre una
poblaci on de soluciones potenciales aplicando los principios de diversidad de individuos
y supervivencia del m as fuerte para producir mejores aproximaciones a una soluci on.
En cada generaci on, es creado un nuevo grupo de aproximaciones por el proceso
de selecci on de individuos de acuerdo a su nivel de desempe no en el dominio
del problema, y se cruzan entre si utilizando operadores que imitan los conceptos
gen eticos. Este proceso lleva a la evoluci on de poblaciones de individuos que est an
mejor adaptados a su ambiente. Sus principales t ecnicas son los Algoritmos Gen eticos
(Genetic Algorithms GA), las Estrategias Evolutivas (Evolutionsstrategie ES), la
Programaci on Evolutiva (Evolutionary Programming EP) y la Programaci on Gen etica
(Genetic Programming GP). Existen otros algoritmos que pueden ser catalogados
dentro de esta rama, uno de ellos es la Optimizaci on por Matrimonio de Abejas
(Marriage in Honey Bees Optimization MBO) [Abbass01], en el cual se simula el
proceso de apareamiento en una colonia de abejas.
Inteligencia de Enjambres: Corresponden a un grupo de t ecnicas que est an
basadas en el estudio del comportamiento colectivo en sistemas auto organizados
y descentralizados (distribuidos) [Wikipedia08e]. Estos sistemas est an conformados
tpicamente por una poblaci on de agentes computacionales simples capaces de
percibir y modicar su ambiente de manera local. Esta capacidad hace posible la
comunicaci on entre los individuos, que detectan los cambios en el ambiente generado
por el comportamiento de sus semejantes [White06]. Aunque normalmente no hay una
estructura centralizada de control que dictamina como los agentes deben comportarse,
las interacciones locales entre los agentes usualmente llevan a la emergencia de un
comportamiento global. Otra caracterstica adicional es la inexistencia de un modelo
explcito del ambiente. Dentro de esta rama las t ecnicas principales son la Optimizaci on
por Enjambre de Partculas (Particle Swarm Optimization PSO) y la Optimizaci on
por Colonia de Hormigas (Ant Colony Optimization ACO). Existen otros algoritmos
que pueden ser catalogados dentro de esta rama como lo es la Optimizaci on por
Enjambre de Bacterias (Bacteria Swarm Foraging Optimization BSFO), la B usqueda
por Difusi on Estoc astica (Stochastic Diffusion Search SDS) y la Colonia Articial de
Abejas (Articial Bee Colony ABC).
Al examinar las diferentes caractersticas de cada rama de la EC, podemos establecer una
serie de diferencias entre las t ecnicas, siendo la m as notoria la naturaleza centralizada de los
8
1.2 Las Estrategias Evolutivas
EA frente al comportamiento distribuido en SI. Otra diferencia se encuentra en la interacci on
con la funci on objetivo, donde en los EA corresponde al nivel de desempe no y en la SI por
lo general corresponde al ambiente a ser explorado. A su vez, los agentes en EA no pueden
modicar su ambiente, mientras que en SI esta caracterstica es fundamental. Al comprender
mejor cuales son los mecanismos asociados a EA y SI, podemos examinar con detenimiento
las estrategias evolutivas y algunas t ecnicas de SI.
1.2. Las Estrategias Evolutivas
Las Estrategias Evolutivas (Evolutionsstrategie ES), creadas en la Universidad T ecnica
de Berln en 1965 por H. P. Schwefel en su tesis de Maestra, corresponden a una de las
principales variantes dentro de los EA. En un principio las ES no fueron pensadas para
calcular mnimos o m aximos de funciones est aticas con valores reales con un n umero jo
de variables y sin ruido durante la evaluaci on, sino como una serie de reglas para el dise no
y an alisis de experimentos consecutivos con ajuste de variables paso a paso manejando un
sistema apropiado [Beyer02].
La optimizaci on por ES est a basada en la hip otesis que durante la evoluci on biol ogica, las
leyes de la herencia han sido desarrolladas para una r apida adaptaci on logen etica. Las ES
imitan, en contraste a un algoritmo gen etico, los efectos de los procedimientos gen eticos
sobre el fenotipo
1
. La presunci on para codicar las variables en la realizaci on de una ES
son fuerte causalidad (peque nos cambios en la causa producen peque nos cambios en el
efecto). El clmax de la teora de ES es el descubrimiento de la ventana de evoluci on: Los
procesos evolutivos toman lugar unicamente dentro de una muy peque na banda en el paso
de mutaci on. Este hecho induce la necesidad de una regla para el tama no de los pasos de
auto adaptaci on (su principal caracterstica) y mutaci on [Rechenberg08].
En general, el objetivo tpico de una ES es optimizar (algunos) objetivos dados, o una funci on
o funciones de calidad, F con respecto a un grupo de variables de decisi on o par ametros de
control y = (y
1
, y
2
, . . .) llamados par ametros objetivo, tales que:
F (y) = opt., y Y (1.1)
En principio, Y puede ser cualquier grupo de estructura de datos nitos pero no
necesariamente de un tama no jo. Ejemplos de Y son espacios de b usqueda reales
N-dimensionales R
n
, el espacio de b usqueda discreto Z
n
, el espacio de b usqueda binario
1
Manifestaci on visible de las caractersticas gen eticas del individuo en un determinado ambiente
9
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


B
n
, el espacio de b usqueda de permutaci on P
n
, tambi en mezclas de diferentes espacios y
subespacios debidos a restricciones.
Las ES operan sobre poblaciones de P individuos a. Un individuo a
k
con ndice k comprende
no solamente el grupo de par ametros especcos (o vector) y
k
y su valor de la funci on objetivo
F
k
= F (y
k
) a veces referido como desempe no o tness, sino tambi en a los par ametros
end ogenos o evolucionables de la estrategia S
k
. Por lo tanto, a
k
se dene de acuerdo a la
ecuaci on 1.2.
a
k
= (y
k
, S
k
, F
k
) (1.2)
Los par ametros end ogenos de la estrategia son una peculiaridad de las ES y son
modicados durante el proceso evolutivo. Estos par ametros son utilizados para controlar
ciertas propiedades estadsticas de los operadores gen eticos, especialmente el operador de
mutaci on.
En un paso generacional de la ES, un grupo de individuos hijos a
i
son generados a partir del
grupo de individuos padres a
m
, por medio de mecanismos de cruza o mutaci on. Usualmente
el tama no de la poblaci on individuos hijos P
o
es diferente al tama no de la poblaci on padre
P
p
. Los par ametros especcos de la estrategia y al igual que (denominado n umero de
mezcla y representa el n umero de padres involucrados en la creaci on de un hijo) son llamados
par ametros ex ogenos de la estrategia, los cuales son mantenidos constantes durante el ciclo
evolutivo.
La manera en que la poblaci on hijo es generada se expresa por la notaci on (/+, ).
Existen casos para los cuales no existe recombinaci on ( = 1), denotados usualmente como
( +) y (, ). Los signos de + y , reeren al caso de selecci on a utilizar. Si se utiliza
la selecci on +, se seleccionan los individuos m as aptos unicamente de la poblaci on hijo.
Si se utiliza la selecci on ,, se seleccionan los individuos m as aptos de la poblaci on padre y
de la poblaci on hijo. N otese como la recombinaci on es realizada antes de la selecci on, por lo
cual, cualquier individuo puede transmitir sus caractersticas a la siguiente generaci on, si sus
descendientes son aptos. En general, un algoritmo de ES (/+, ) realiza las operaciones
mostradas en la tabla 1.1.
Las ES desde su concepci on han encontrado m ultiples aplicaciones en diversos campos
como por ejemplo el dise no y optimizaci on de controladores cl asicos, difusos y neuronales
[Cord on97, Salomon97, Jin99, Pohlheim99, Hoffmann00, Wong03, Kim06]; la soluci on de
problemas de enrutamiento de vehculos [Bar an03, Homberger05, Mester07]; el dise no de
ltros [Franzen98, Herrero03]; entre otros.
10
1.3 Inteligencia de enjambres
Inicializar el contador de generaciones g = 0
Inicializar la poblacion paterna P
(0)
p
=
_
a
1
, a
2
, . . . , a

_
aleatoriamente
REPITA
PARA l = 1 HASTA HACER
Seleccionar Familia E P
(g)
p
de tamano aleatoriamente
SI = 1
Recombinar los parametros endogenos s
l
Recombinar los parametros objetivo y
l
Mutar los parametros endogenos
Mutar los parametros objetivo
Calcular el desempeno F
l
b
l
= (y
l
, s
l
, F
l
)
SINO
Realizar una copia del padre (b
l
= a
rand
)
FIN SI
FIN PARA
P
(g)
o
= (b
1
, b
2
, . . . , b

)
CASO seleccion
( +): P
(g+1)
p
son individuos seleccionados de P
(g)
o
(, ): P
(g+1)
p
son individuos seleccionados de P
(g)
p
y P
(g)
o
FIN CASO
Incrementar el contador de generaciones
HASTA cumplir la condicion de terminacion
Tabla 1.1: Algoritmo de la Estrategia Evolutiva (/+, )
1.3. Inteligencia de enjambres
La selecci on natural tiende a eliminar a las especies con estrategias de b usqueda de alimento
poco evolucionadas y favorece la propagaci on de aquellas que han sido exitosas en esta
tarea, puesto que es m as probable que disfruten del exito reproductivo. Este principio evolutivo
ha llevado a los cientcos en el campo de la Teora de Foraging a formular una hip otesis
acerca del modelo apropiado para la b usqueda de alimento como un proceso de optimizaci on:
Un animal buscando alimento toma las medidas necesarias para maximizar la energa
obtenida por unidad de tiempo dedicada a su b usqueda, teniendo en cuenta restricciones
presentadas por su propia sonoma y ambiente. El balance de estas limitaciones permite
obtener una poltica de b usqueda de alimento optima, la cual tambi en es v alida para la
b usqueda social donde grupos de animales se comunican para buscar alimento [Liu02].
Existen diversas ventajas de utilizar un mecanismo de comunicaci on para realizar una
b usqueda cooperativa como lo son [Passino02]:
Un incremento en la probabilidad de que se encuentren nutrientes. Cuando un individuo
encuentra alimento puede informar al grupo su ubicaci on, dando origen a un centro de
informaci on que ayuda a la supervivencia del colectivo.
Hay un incremento en la capacidad de atacar a una presa mayor.
Permite protegerse de los depredadores.
11
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


Al pensar que un grupo de individuos o enjambre se comporta como una sola criatura viviente
la cual exhibe una Inteligencia Colectiva producto del agrupamiento y la comunicaci on,
resultando en una estrategia m as exitosa para todos los individuos del grupo, se pueden
crear modelos de enjambres para ser utilizados como estrategias de optimizaci on los cuales
se conocen como Inteligencia de Enjambres. Este t ermino fue por primera vez utilizado en
[Beni88] para referirse a sistemas rob oticos celulares en los cuales un grupo de agentes en
un ambiente, interact uan de acuerdo a una serie de reglas simples.
En esta secci on se describir an los conceptos b asicos de estas t ecnicas, donde las m as
representativas son la Optimizaci on por Enjambres de Partculas (PSO) y la Optimizaci on
por Colonia de Hormigas (ACO). Otras t ecnicas consideradas de inteligencia de enjambres
son la Optimizaci on por Enjambre de Bacterias (BSFO), la B usqueda por Difusi on Estoc astica
(SDS) y la Colonia Articial de Abejas (ABC).
1.3.1. Optimizaci on por Enjambre de Partculas
La Optimizaci on por Enjambre de Partculas (PSO), desarrollada por J. Kennedy y R.
Eberhart [Kennedy95], es un m etodo de optimizaci on para funciones no lineales en espacios
continuos y discretos [Kennedy97], basado en la simulaci on de un modelo social simple del
desplazamiento de card umenes y bandadas. En un sistema PSO, la b usqueda se realiza
utilizando una poblaci on de partculas que corresponden a los individuos, cada uno de los
cuales representa una soluci on candidata al problema. Las partculas cambian su estado al
volar a trav es del espacio de b usqueda hasta que se ha encontrado un estado relativamente
estable. Un sistema PSO combina un modelo unicamente social, el cual sugiere que los
individuos ignoran su propia experiencia y ajustan su conocimiento de acuerdo a las creencias
exitosas de los individuos en la vecindad; y un modelo unicamente cognitivo, el cual trata
a los individuos como seres aislados. Una partcula cambia de posici on utilizando estos dos
modelos [Ozcan99].
Dentro de PSO, la i esima partcula es tratada como un punto dentro de un espacio
Ndimensional representada por X
i
= (x
i1
, x
i2
, . . . , x
iN
). La mejor posici on encontrada por la
partcula anteriormente, o sea aquella donde se obtuvo el mejor valor en la funci on de costo,
es representada como p
i
= (p
i1
, p
i2
, . . . , p
iN
). La mejor posici on encontrada por el total de la
poblaci on es representada por el smbolo g. La rata de cambio de posici on (velocidad) para
una partcula i es representada como v
i
= (v
i1
, v
i2
, . . . , v
iN
). Las partculas son manipuladas
de acuerdo a las ecuaciones:
v
in
(t +1) = w v
in
(t) +c
1
R
1
(p
in
x
in
(t)) +c
2
R
2
(p
gn
x
in
(t)) (1.3)
12
1.3 Inteligencia de enjambres
Inicializar la poblacion ubicandola aleatoriamente
MIENTRAS no se cumpla el criterio de terminacion
PARA i = 1 HASTA n HACER
Calcular el costo de la partcula J
i
SI J
i
< p
id
p
id
= J
i
FIN SI
SI J
i
< p
gd
p
gd
= J
i
FIN SI
Calcular la nueva velocidad de i con la ecuacion 1.3
Calcular la nueva posicion de i con la ecuacion 1.4
FIN PARA
FIN MIENTRAS
Tabla 1.2: Optimizaci on por Enjambre de Partculas
x
in
(t +1) = x
in
(t) +v
in
(t +1) (1.4)
donde c
1
y c
2
son dos constantes positivas, R
1
y R
2
son dos n umeros aleatorios en el rango
de [0 1], y w es el peso inercial. La ecuaci on 1.3 es utilizada para calcular la nueva velocidad
de la partcula de acuerdo a su velocidad anterior y las distancias de su posici on actual
a su mejor posici on y la mejor posici on dentro del grupo. Luego la partcula se desplaza
hacia una nueva posici on de acuerdo a la ecuaci on 1.4. El peso inercial w, incluido a partir
de [Shi98], es utilizado para controlar el impacto de las velocidades previas en la velocidad
actual, inuenciando el cambio entre las habilidades de exploraci on global (rango amplio)
o local (rango corto) de las partculas. Un peso inercial mayor facilita la exploraci on global
para buscar nuevas areas mientras que un peso inercial menor tiende a facilitar exploraci on
local para sintonizar namente el area de b usqueda actual. Una correcta selecci on del peso
inercial puede proveer un balance entre las habilidades de b usqueda local y global, por lo
tanto requiriendo menores iteraciones para encontrar el punto optimo. En general el algoritmo
realiza las operaciones mostradas en la tabla 1.2.
Conceptualmente el algoritmo de PSO es bastante simple. Sin embargo, existe inter es en
encontrar maneras de mejorar el desempe no del algoritmo por medio de varias t ecnicas.
La primera modicaci on se presenta en [Eberhart95] donde se explora el uso de vecindad,
al seleccionar en lugar de la mejor posici on global p
g
, la mejor posici on de las m
partculas m as cercanas p
l
. En [Clerc99], se hace uso de un factor de constricci on K
que ayuda a la convergencia del algoritmo PSO al evitar que las partculas detengan
su movimiento. En [Lvbjerg01, Lvbjerg02], se combinan los conceptos de PSO con
la reproducci on encontrada en Algoritmos Gen eticos, subpoblaciones y autoorganizaci on
critica (SelfOrganized Criticality - SOC), como m etodos para agregar diversidad a la
poblaci on. En [Zhang03], se incluye un operador de evoluci on diferencial, el cual provee una
mutaci on de tipo gausiana sobre p
i
, dando origen a la variaci on DEPSO. En [Monson04],
se dene el KSwarm, en el cual se utiliza un ltro Kalman para actualizar las posiciones
13
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


de las partculas. En [Poli05], se explora la posibilidad de evolucionar la fuerza optima
generando ecuaciones para controlar las partculas por medio de programaci on gen etica.
En [Grosan05], se presenta la variaci on con vecindades independientes (INPSO), donde se
establecen subenjambres independientes a diferencia de la denici on anterior de vecindad.
En [Tillett05], se introducen conceptos de selecci on natural en la variaci on DPSO, donde
se hace uso de subenjambres independientes, los cuales son reproducidos o eliminados
dependiendo de su desempe no global. En [Liu05], se presentan las variaciones con
turbulencia (TPSO) y con turbulencia adaptada difusamente (FATPSO), donde la turbulencia
evita la r apida convergencia al penalizar la reducci on dr astica de la velocidad de las partculas.
En [Leontitsis06], se incluye el concepto de repelencia del peor punto. En [Yisu07], se
presenta las variaciones con vector de distribuci on (DVPSO), con habilidad de cruza (COPSO)
y adaptable al entorno (LAPSO).
Una modicaci on de inter es particular es el EPSO [Miranda02b, Miranda02a], el cual utiliza
una distribuci on gaussiana sobre los par ametros de inercia (w), individual (c
1
) y social (c
2
),
considerando cada partcula individualmente. Este algoritmo no considera como par ametro
los lmites de la velocidad, por lo tanto, no realiza operaciones sobre este par ametro.
Otros campos de investigaci on sobre el algoritmo PSO corresponden al an alisis matem atico
o estadstico para conocer mejor el comportamiento del sistema [Ozcan99, Clerc02,
Bartz-Beielstein04]. Tambi en se buscan nuevas aplicaciones del algoritmo donde se busca
obtener mejores resultados que con otros m etodos de optimizaci on. Algunos ejemplos son
el entrenamiento de redes neuronales reemplazando el algoritmo de entrenamiento por
retropropagaci on (backpropagation) en redes tipo perceptron multicapa (Multilayer Perceptron
MLP) [Salerno97, El-Gallad01] y de Producto por Unidad (Product Unit Neural Network
PUNN) [Ismail99]; la sintonizaci on de controladores PID [Easter Selvan03], robustos con
ley H
2
/H

[Krohling02], neuronales [v.E.Conradie02] y predictivos [Yuan06]; la optimizaci on


de funciones de pertenencia en un conjunto difuso [Esmin02]; la identicaci on de modelos
din amicos [Voss02]; la identicaci on de grupos o clustering para la clasicaci on de im agenes
[Omran05] y otros problemas de optimizaci on como el control de la Potencia Reactiva y Voltaje
[Yoshida01].
1.3.2. Optimizaci on por Colonia de Hormigas
La Optimizaci on por Colonia de Hormigas (ACO) es una familia de algoritmos derivados
del trabajo realizado por M. Dorigo [Dorigo91a], basada en el comportamiento social de
las hormigas, las cuales usan una forma de comunicaci on basada en sustancias qumicas
denominadas feromonas. Estas sustancias, depositadas por la hormiga al avanzar por un
camino, ejercen una acci on sobre la decisi on de las hormigas precedentes, las cuales
escogen el camino que posea una mayor concentraci on de sustancia, permitiendo que las
14
1.3 Inteligencia de enjambres
hormigas encuentren la ubicaci on de las fuentes de alimento as como su nido. Se ha
demostrado que los rastros de feromona permiten lentamente la optimizaci on distribuida en
la cual cada agente sencillo realiza una peque na contribuci on en la b usqueda de la mejor
soluci on.
En los algoritmos ACO cada agente construye una soluci on o parte de esta, comenzando
de un estado inicial y desplaz andose a trav es de una secuencia nita de estados vecinos,
cuyo criterio de vecindad es dependiente del problema, haciendo uso de dos fuentes de
informaci on: la visibilidad y los rastros de feromona . La probabilidad de que la k esima
hormiga se desplace del nodo i al nodo j esta dado por la ecuaci on 1.5.
p
k
i j
(t) =
_
_
_
[
i j
(t)]

[
i j ]

lJ
k
i
[
il
(t)]

[
il
]

, si j J
k
i
0 si j / J
k
i
(1.5)
siendo los nodos J
k
i
los estados v alidos. A su vez, los rastros son modicados para cambiar
la representaci on del problema, que utilizar an las otras hormigas para tomar sus decisiones
por medio de la ecuaci on 1.6.
(t +1) = (t) +(1) (t, t +1) (1.6)
donde es el coeciente de evaporaci on de la feromona, usado para evitar la r apida
convergencia de las hormigas hacia una regi on del espacio de b usqueda. Entonces la
feromona se convierte en una memoria local compartida de largo t ermino que inuencia
las decisiones subsecuentes de las hormigas. Las hormigas pueden actuar concurrente e
independientemente, mostrando un comportamiento cooperativo que usa la estigmergia
1
como medio de comunicaci on. Aunque cada una de las hormigas es capaz de encontrar
una soluci on, probablemente inadecuada, las mejores soluciones son encontradas como
el resultado de la cooperaci on global entre todos los agentes de la colonia, como una
caracterstica inesperada de la interacci on cooperativa de los agentes.
Otras caractersticas usualmente incluidas dentro de un sistema ACO son el balance entre
las caractersticas aleatorias y la severidad en la toma de decisiones (exploraci on/explotaci on
del conocimiento); y estrategias de conocimiento global denominadas daemon actions. Las
caractersticas de un algoritmo ACO pueden necesitar alguna clase de sincronizaci on,
usualmente obtenida por una programaci on secuencial, donde el conocimiento global es
f acilmente accesible en cualquier instante. En general, un algoritmo de optimizaci on por
colonia de hormigas, realiza las operaciones mostradas en la tabla 1.3.
1
Forma de comunicaci on indirecta por medio de la modicaci on del ambiente
15
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


PARA cada arco (i, j)
Inicializar la feromona
i j
(0) =
0
FIN PARA
PARA k = 1 HASTA m HACER
Ubicar la k- esima hormiga en un nodo aleatorio
FIN PARA
Obtener una solucion inicial S
min
con costo C
min
PARA t = 1 HASTA t
max
HACER
PARA k = 1 HASTA m HACER
PARA j = 1 HASTA n1 HACER
/*Construccion de la solucion S
k
(t) Recorrido*/
Aplicar la regla de construccion/modificacion en funcion de y
FIN PARA
Calcular el costo C
k
(t) de la solucion S
k
(t)
SI C
k
(t) <C
min
C
min
=C
k
(t) y S
min
= S
k
(t)
FIN SI
FIN PARA
PARA cada arco (i, j)
Actualizar los rastros de feromona de acuerdo a la regla de actualizacion
FIN PARA
FIN PARA
Tabla 1.3: Optimizaci on por Colonia de Hormigas
Las caractersticas de este grupo de algoritmos hacen que sean utiles en problemas
estoc asticos distribuidos donde la presencia de fuentes ex ogenas produce din amicas en la
representaci on del problema. Por ejemplo, muchos problemas relacionados con redes de
comunicaci on y transporte son intrnsecamente distribuidos y din amicos, y a menudo es
imposible obtener un modelo exacto de la variabilidad subyacente. Por el contrario, el uso
de la estigmergia como unico m etodo de comunicaci on entre las hormigas, los algoritmos
ACO pueden presentar dicultades en problemas donde cada estado tiene un gran tama no
de vecindad, debido a sus caractersticas locales. De hecho, una hormiga que visita un estado
con un gran tama no de vecindad tiene un enorme n umero de posibles movimientos entre los
cuales elegir, siendo la probabilidad de selecci on de cada estado muy peque na, haciendo
poco probable que varias hormigas visiten el mismo estado. Esta situaci on hace que la
diferencia entre usar o no el rastro de feromona, en estos casos, sea muy peque na o ninguna.
Los algoritmos ACO tienen una naturaleza discreta, lo cual los hace utiles para la soluci on de
problemas de optimizaci on combinatoria. De hecho, el primer algoritmo b asico de hormigas
desarrollado, el Ant System (AS) [Dorigo91a, Dorigo91b, Colorni91, Colorni92], tuvo su
primera aplicaci on en la soluci on del problema del viajero (Traveling Salesman Problem
TSP). En estos primeros trabajos ya se proponen variaciones al concepto de feromona,
deriv andose tres algoritmos del AS, el Ant Quantity, el Ant Density y el Ant Cycle. Otros
problemas solucionados por medio del AS son la versi on asim etrica del TSP, el Quadratic
Assigment Problem (QAP) y el Jobshop Scheduling Problem (JSP) [Dorigo96b]. Otros
algoritmos ACO son el ANTQ [Gambardella95, Dorigo96a] basado en aprendizaje por
refuerzo; el Ant Colony System (ACS) [Dorigo97] el cual diere del AS al proveer una
regla de transici on de estados que balancea la exploraci on/explotaci on del conocimiento, la
16
1.3 Inteligencia de enjambres
actualizaci on global es realizada sobre el mejor recorrido y la actualizaci on local es realizada
durante la exploraci on del espacio; el mnm ax Ant System (MMAS) [St utzle97] donde la
feromona esta delimitada en un rango para evitar el estancamiento; el Rank Based Ant
System (AS
rank
) [Bullnheimer97] donde la actualizaci on de la feromona es realizada por
las m mejores hormigas; el BestWorst Ant System (BWAS) [Cord on00] el cual considera
la actualizaci on positiva para la mejor hormiga y negativa para la peor, la reinicializaci on
de la b usqueda cuando ocurre estancamiento y la inclusi on de mutaciones a la matriz de
feromona para inducir variabilidad. Otras variaciones en el concepto de la actualizaci on de
la feromona se pueden encontrar en [Meuleau00] donde se usa una regla derivada del
descenso estoc astico del gradiente (Stochastic Gradient Descent SGD); en [Rubinstein01]
se utiliza el concepto de entropa cruzada, el cual es retomado en [Heegaard04] de una
manera distribuida.
Para su uso sobre espacios continuos se requiere un tratamiento diferente del problema
donde la vecindad no sea un impedimento. En [Bilchev95] se presenta una primera
aproximaci on donde se dene un nido del cual parten los agentes a explorar el espacio.
En [Yan-jun03] se presenta el Adaptive Ant Colony Algorithm (AACA), un algoritmo que utiliza
un arbol binario para mapear un espacio continuo, obteni endose una cadena binaria que
representa la soluci on de manera similar a un algoritmo gen etico. En [Tsutsui04] se presenta
el sistema de agregaci on de feromona (Aggregation Pheromone System APS) donde la
feromona es una funci on de densidad continua.
1.3.3. Optimizaci on por Enjambre de Bacterias
La Optimizaci on por Enjambre de Bacterias representa una aproximaci on diferente a
la b usqueda de valores optimos en funciones no lineales desarrollado por K. Passino
[Passino00], basado en el comportamiento quimiot actico de la E. Coli. Si bien utilizar la
quimiotaxis como modelo para optimizaci on se propuso por primera vez en [Bremermann74]
y se ha utilizando en trabajos como [Leivisk a06], el trabajo de Passino incluy o algunas
modicaciones como la reproducci on y la dispersi on de los agentes.
La E. Coli es tal vez el microorganismo m as comprendido, ya que su comportamiento y
estructura gen etica est an bien estudiados. Esta consta de una c apsula que incluye sus
organos, y agelos que utiliza para su locomoci on; posee capacidad de reproducirse por
divisi on y tambi en es capaz de intercambiar informaci on gen etica con sus cong eneres.
Adem as, es capaz de detectar alimento y evitar sustancias nocivas, efectuando un tipo de
b usqueda aleatoria, basado en dos estados de locomoci on, el desplazamiento y el giro. La
decisi on de permanecer en uno de estos dos estados se debe a la concentraci on de nutrientes
o sustancias nocivas en el medio. Este comportamiento se denomina quimiotaxis.
17
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


En este algoritmo, descrito en detalle en [Liu02, Passino02], se busca obtener el mnimo
de una funci on J (), R
n
, cuando se desconoce su gradiente. Suponiendo que es la
posici on de la bacteria y J () representa la ubicaci on de los nutrientes y sustancias nocivas,
as J < 0 representa un incremento en la concentraci on de nutrientes, J = 0 representa
un medio neutro y J > 0 representa un incremento en la presencia de sustancias nocivas.
Sea entonces:
P( j, k, l) =
i
( j, k, l)i = 1, 2, . . . S (1.7)
las posiciones de cada miembro en la poblaci on S de bacterias al j- esimo paso quimiot actico,
k- esimo paso reproductivo el l- esimo evento de eliminaci on dispersi on. Sea J(i, j, k, l) el
costo de la ubicaci on de la i- esima bacteria
i
( j, k, l) R
p
. Sea N
c
el tiempo de vida de una
bacteria medido en pasos quimiot acticos. Para representar un giro, se genera una unidad de
longitud en una direcci on aleatoria ( j), por lo tanto se tiene que:

i
( j +1, k, l) =
i
( j, k, l) +C(i) ( j) (1.8)
donde C(i) es el tama no del paso a tomar en la direcci on especicada por el giro. Si en

i
( j +1, k, l), el valor de J (i, j +1, k, l) es menor que el obtenido en
i
( j, k, l), entonces un
nuevo paso quimiot actico es tomado hasta un n umero m aximo Ns.
Adicionalmente, las bacterias mantienen comunicaci on haciendo uso de se nales qumicas
que afectan el comportamiento quimiot actico del enjambre, creando un ambiente
cooperativo. A estas se nales, denominadas atrayentes repelentes, se las representa por
J
cci
(,
i
( j, k, l)), para la i- esima bacteria. Sea d
at
y w
at
la profundidad y el ancho del
atrayente, h
re
y w
re
la altitud y el ancho del repelente. La profundidad y el ancho de los
atrayentes es relativamente peque no a la concentraci on de nutrientes representados. Cada
efecto atrayente y repelente es adicionado en la funci on de costo total de la bacteria como la
suma de todos los efectos de una bacteria con todos los agentes de la poblaci on. Entonces:
J
cc
(, P(i, j, k)) =
S

i=1
J
cci
(,
i
( j, k, l)) (1.9)
= h
re

i=1
e
w
re
p
m=1
(
m

i
m
)
2
d
at

i=1
e
w
at
p
m=1
(
m

i
m
)
2
De acuerdo a la distribuci on de los agentes, se puede decir que entre m as lejos se encuentre
entre si, el efecto de las se nales ser a menor y por lo tanto no intentar an agruparse. Lo
18
1.3 Inteligencia de enjambres
Inicializar la poblacion aleatoriamente
Definir para cada individuo un C(i)
PARA l = 1 HASTA N
ed
HACER
PARA k = 1 HASTA N
re
HACER
PARA j = 1 HASTA N
c
HACER
PARA i = 1 HASTA S HACER
Calcular el J (i, j, k, l) incluyendo J
cc
J
last
= J ()
Calcular ( j)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j +1, k, l)
m = 0
MIENTRAS m < N
s
m = m+1
SI J (i, j +1, k, l) < J
last
J
last
= J (i, j +1, k, l)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j +1, k, l)
SINO
m = N
s
FIN SI
FIN MIENTRAS
FIN PARA
FIN PARA
Calcular la salud de cada bacteria
Copiar las S
r
bacterias mas saludables
Eliminar las bacterias inadecuadas
FIN PARA
Dispersar/Eliminar con una probabilidad p
ed
FIN PARA
Tabla 1.4: Optimizaci on por Enjambre de Bacterias
contrario ocurre cuando se encuentran muy cerca y por lo tanto, los agentes se atraen
para formar grupos cooperativos. Debido al movimiento de todas las bacterias, la funci on
J
cc
(, p( j, k, l)) es variante en el tiempo. Las bacterias, en efecto, no solo intentar an buscar
zonas con buenos nutrientes, evitando sustancias nocivas, sino que adem as intentar an
moverse hacia otras bacterias, sin acercarse tanto entre si. Por lo tanto la funci on J
cc
(, P)
deforma din amicamente la supercie de b usqueda a medida que las bacterias se mueven.
Despu es de N
c
pasos quimiot acticos se realiza un paso reproductivo, siendo N
re
el n umero de
pasos reproductivos. Durante la reproducci on, las bacterias m as saludables (las que poseen
un menor costo acumulado en su vida) se dividen y se eliminan el mismo n umero de bacterias
no saludables, as obteniendo una poblaci on de tama no constante. Luego se realiza un
eventos de dispersi on eliminaci on N
ed
, en el cual cada bacteria en la poblaci on es sujeta a la
reubicaci on en una nueva posici on aleatoria con una probabilidad p
ed
. En general el algoritmo
realiza las operaciones mostradas en la tabla 1.4.
Este algoritmo se ha aplicado con exito en la sintonizaci on de controladores adaptativos
[Passino02], la sintonizaci on de controladores PID [Kim05] y la regulaci on de temperatura en
supercies [Alfonso07a]. Otros trabajos relacionados son el estudio de estabilidad realizados
en [Gazi03, Gazi04] y la hibridizaci on con algoritmos gen eticos [Kim07] para mejorar su
19
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


desempe no. Otro algoritmo que utiliza el comportamiento quimiot actico de las bacterias se
presenta en [M uller02].
1.3.4. B usqueda por Difusi on Estoc astica
La b usqueda por difusi on estoc astica es otro m etodo de b usqueda gen erico basado en
poblaciones creado por M. Bishop en 1989 [Bishop89a, Bishop89b], inspirado por el
m etodo de transformaci on Hinton [Hinton81, Rumelhart86, Bishop92], como una t ecnica de
reconocimiento de patrones capaz de resolver el problema de equivalencia de estimulo:
la habilidad de reconocer un patr on independiente de sus potenciales distorsiones o
transformaciones en el espacio de b usqueda. En SDS, los agentes realizan evaluaciones
parciales de una hip otesis las cuales comparten a trav es de una comunicaci on directa uno a
uno.
SDS esta basada en el denominado Juego del Restaurante [De Meyer03], donde un grupo
de personas asisten a una conferencia en una ciudad desconocida y cada noche deben
encontrar un lugar para comer. Puesto que hay una gran variedad de restaurantes y cada uno
ofrece una variedad de platos, el grupo se encuentra ante la dicultad de encontrar el mejor
restaurante, o sea aquel donde el mayor n umero de personas est en satisfechas comiendo.
Puesto que una b usqueda paralela exhaustiva tomara demasiado tiempo para obtener
informaci on v alida, se instituye una poltica diferente. Cada individuo propone una hip otesis
correspondiente al mejor restaurante en la ciudad. Cada noche los individuos prueban su
hip otesis al comer en el sitio un plato al azar. A la ma nana siguiente cada individuo que no
obtuvo una buena experiencia le pregunta a un colega al azar cual fue su experiencia. Si la
informaci on recibida es satisfactoria el individuo selecciona al restaurante como su favorito.
De otra manera, selecciona un restaurante al azar. Usando esta estrategia, se ha encontrado
que r apidamente un n umero signicativo de individuos se congregan alrededor de la mejor
soluci on. En t erminos generales, el algoritmo se muestra en la tabla 1.5.
Por medio de la iteraci on de fases de prueba y difusi on, los agentes estoc asticamente
exploran todo el espacio de b usqueda. Sin embargo, puesto que las pruebas se realizan
con mayor frecuencia sobre buenas soluciones que en regiones con informaci on irrelevante,
un agente tender a a gastar una mayor cantidad de tiempo en regiones adecuadas y al mismo
tiempo recluta mas agentes, los cuales reclutan aun m as. Las soluciones candidatas de alta
calidad pueden ser identicadas por la concentraci on de agentes con la misma hip otesis.
La ventaja principal que presenta SDS es su capacidad de salir de mnimos locales. Esto se
logra mediante la salida probabilstica de la evaluaci on parcial de hip otesis en combinaci on
con la reubicaci on de recursos (en este caso los agentes) por medio de mecanismos de
reclutamiento estoc astico. La evaluaci on parcial de la hip otesis permite al agente formarse
20
1.3 Inteligencia de enjambres
Inicializar la poblacion generando una hipotesis
aleatoria
REPITA
Evaluar la evidencia de la hipotesis /*Etapa de prueba*/
SI hipotesis comprobada
Activar el agente
SINO
Desactivar el agente
FIN SI
SI agente inactivo /*Etapa de difusion*/
Seleccionar un agente al azar
SI el agente seleccionado es activo
Recibir hipotesis apropiada
SINO
Generar una hipotesis aleatoria
FIN SI
FIN SI
HASTA cumplir el criterio de terminacion
Tabla 1.5: B usqueda por Difusi on Estoc astica
r apidamente su opini on acerca de la calidad de la soluci on puesta a prueba sin una b usqueda
exhaustiva (e.g. probando todos los platos disponibles en un restaurante).
A diferencia de muchas t ecnicas de b usqueda inspiradas en la naturaleza, existe un trabajo
matem atico muy profundo acerca del comportamiento y las propiedades b asicas de SDS, de
tal manera que es un algoritmo muy bien comprendido. Entre las caractersticas estudiadas
est an la convergencia a la soluci on global optima [Bishop92, Nasuto98], convergencia en
el tiempo incrementado linealmente con el tama no del espacio de b usqueda [Nasuto99b],
din amicas de asignaci on de recursos [Bishop99] y robustez [Myatt04]. En el contexto de
clasicaci on de patrones, el algoritmo es robusto a distorsi on por ruido y a m ultiples instancias
del objetivo [Nasuto99a].
La t ecnica ha sido utilizada en una variedad de problemas de la vida real. La Red Hbrida
de Difusi on Estoc astica (Hybrid Stochastic Diffusion Network HSDN), una combinaci on de
SDS con una red neuronal, fue usada para localizar caractersticas oculares en im agenes
faciales humanas [Bishop92] y para el seguimiento de labios en vdeos [Grech-Cini95]. En
[Beattie98] SDS fue utilizado como m etodo de autolocalizaci on de una silla de ruedas
aut onomas, extendiendo el algoritmo original para proveer soluciones m as r apidas en
espacios de b usqueda mayores por medio de la Red Enfocada de Difusi on Estoc astica
(Focused Stochastic Diffusion Network FSDN). Otros usos son la b usqueda de texto
[Bishop89a] y la selecci on de sitios para redes inal ambricas [Whitaker02].
21
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


1.3.5. Colonias de Abejas
A diferencia de otras t ecnicas de inteligencia de enjambres, donde se propuso una
metaheurstica y una serie de algoritmos se acogieron a ella, los algoritmos basados en
abejas no cuentan con el mismo nivel de agrupamiento. Prueba de ello es la variedad de
algoritmos que han surgido en los ultimos a nos, desde la Colonia Articial de Abejas (Articial
Bee Colony ABC) [Karaboga05], pasando por la Optimizaci on por Colonia de Abejas
(Bee Colony Optimization BCO) [Teodorovic05] y el Algoritmo Bees [Pham06a], hasta la
Optimizaci on por B usqueda de N ectar por Abejas (Bee Nectar Search Optimization BNSO)
[Alfonso07b] y el Algoritmo de Colmena de Abejas Articiales (Articial Bee Hive Algorithm
ABHA) [Mu noz08]. Por ahora, el uso de estos algoritmos no es extensivo y la bibliografa es
limitada.
Una primera metaheurstica propuesta dentro de los algoritmos de abejas corresponde a
BCO. Sus autores proponen un marco de referencia, donde las abejas articiales realizan
movimientos de construcci on y selecci on de soluciones. En el proceso de decisi on, se asume
que cada abeja puede obtener informaci on acerca de la calidad de las soluciones generadas
por la poblaci on. De esta manera, las abejas intercambian informaci on acerca de la calidad de
las soluciones parciales creadas. Bas andose en la calidad, cada abeja decide si abandonar
o no su soluci on parcial y convertirse en un seguidor no comprometido, si continuar con la
expansi on de su soluci on parcial sin reclutar a otras compa neras, o si danza y recluta a
otras compa neras antes de regresar a su soluci on parcial. Dependiendo de la cualidad de las
soluciones parciales generadas, cada abeja posee un nivel de lealtad hacia la soluci on parcial
descubierta. El proceso iterativo, permite que las soluciones parciales se complementen hasta
obtener una soluci on completa factible.
Como ejemplo de los algoritmos de abejas se presenta el algoritmo ABHA. Este algoritmo
permite realizar b usquedas sobre espacios continuos, basados en el modelo orientado
al individuo desarrollado en [deVries98], donde se denen una serie de reglas de
comportamiento para cada agente que determinan las acciones a realizarse, incluyendo
algunas adaptaciones no consideradas en el modelo biol ogico para incrementar el
desempe no en la b usqueda de mejores soluciones. En t erminos generales, el algoritmo se
muestra en la tabla 1.6.
Pese a ser relativamente recientes, los algoritmos de abejas ya presentan alguna variedad de
aplicaciones, principalmente propuestas por sus creadores. Algunas de estas son la soluci on
del problema del viajante [Lucic03], el entrenamiento de redes neuronales [Pham06b], la
sintonizaci on de controladores difusos [Pham07b], la optimizaci on de m aquinas de soporte
vectorial [Pham07d], el dise no de celdas de manufactura [Pham07a], el dise no de uniones
por soldadura [Pham07c] y la regulaci on de temperatura sobre una supercie [Alfonso07a].
22
1.4 Conclusiones
Inicialice la poblacion
PARA i = 1 HASTA I HACER
Calcule las probabilidades
SI es experimentada Y su informacion es valida
Incremente la tendencia de abandono
Deje el nido
FIN
SI no hay danzas disponibles
SI puede iniciar una busqueda aleatoria
Ubique las abejas en posiciones aleatorias
Deje el nido
FIN
SI abandono la fuente
Olvide la fuente
Mantengase en el nido
FIN
SI NO
Calcule la duracion de la danza
Si sigue una danza
Seleccione una danza por ruleta
Agregue ruido a la informacion
Deje el nido
SI NO
Incremente la tendencia de abandono
FIN
SI puede iniciar una busqueda aleatoria
Ubique las abejas en posiciones aleatorias
Deje el nido
FIN
FIN
Calcule el costo actual
SI puede seguir buscando
SI la direccion es valida
Incremente la posicion
SINO
Cambie de direccion
Incremente la posicion
FIN
SINO
Determine si la fuente es valida
FIN
Actualice el umbral
Actualice la memoria
END
Tabla 1.6: Algoritmo de Colmena de Abejas Articiales
1.4. Conclusiones
La SI comprende una amplia variedad de t ecnicas auto organizadas y distribuidas que
comparten caractersticas comunes como la existencia de una poblaci on de agentes
computacionales simples capaces de percibir y modicar su ambiente de manera local, lo que
hace posible la interacci on entre los individuos; la inexistencia de una estructura centralizada
de control que dictamina como los agentes deben comportarse o de un modelo explcito del
ambiente. El comportamiento global, por tanto, es producto de las interacciones locales entre
23
1. COMPUTACI

ON EVOLUTIVA: SOCIEDADES PARA SOLUCIONAR PROBLEMAS


los agentes al contrario de un conocimiento global.
Es notoria la diferencia entre la SI y la otra rama dentro de la EC, los EA, siendo las m as
importantes la naturaleza centralizada de los EA frente al comportamiento distribuido en SI;
la interacci on con la funci on objetivo, donde en los EA corresponde al nivel de desempe no y
en la SI por lo general corresponde al ambiente a ser explorado; y la capacidad de modicar
su ambiente de los algoritmos de SI.
Las aplicaciones de SI en la actualidad son muy diversas, desde las redes de comunicaci on,
los sistemas de control autom atico, la soluci on de problemas combinatorios, el enrutamiento
de vehculos, entre otros. En cada momento se encuentran nuevas aplicaciones y se
desarrollan variaciones que mejoran el desempe no de los algoritmos como la hibridizaci on
con los EA. Al mismo tiempo se hace necesario el estudio profundo de las cualidades
de estabilidad y convergencia de estos m etodos. Adem as, el estudio detallado de algunos
bi ologos permite encontrar nuevos modelos que pueden llevar a proponer nuevos algoritmos
de SI. En este ultimo caso, el desarrollo de las t ecnicas de SI implica el trabajo conjunto de
disciplinas tan diversas como las ciencias biol ogicas, sociales, computacionales, la ingeniera,
la losofa, entre otras; siendo un paradigma bastante rico para su exploraci on por su mezcla
de naturaleza y computaci on [Nunez de Castro07]. Existen a un muchas sociedades naturales
que pueden ser simuladas o emuladas en computadores y los frutos de estas exploraciones
se convierten en nuevas soluciones tecnol ogicas a problemas cl asicos o recientes, y su
completo potencial a un esta por alcanzarse.
Con el desarrollo de sistemas de c omputo de mayor poder, la aparici on de nuevos problemas
complejos y la colaboraci on entre cientcos de diversas areas, el futuro de las t ecnicas de
inteligencia articial es bastante prometedor.
24
CAP

ITULO 2
Evoluci on de enjambres
En el captulo anterior se examin o la variedad de t ecnicas que constituyen la SI y las
caractersticas generales que permiten agruparlas en esta familia. Sin embargo, existen
diferencias que hacen diferente su aplicabilidad, en particular el espacio de b usqueda en el
cual se desempe nan. Debido al enfoque requerido para este trabajo de desarrollar algoritmos
para la sintonizaci on de sistemas de control, se requiere de t ecnicas que realicen b usquedas
en espacios continuos, ya que los par ametros en un sistema de control son n umeros reales.
Por esta raz on, para este trabajo se seleccionaron los algoritmos de Optimizaci on por
Enjambre de Bacterias y de Optimizaci on por Enjambre de Partculas.
En este captulo se presentan los algoritmos de Optimizaci on por Enjambre Evolutivo de
Bacterias (Evolutive Bacteria Swarm Foraging Optimization EvBSFO) y Optimizaci on
por Enjambre Evolutivo de Partculas (Evolutive Particle Swarm Optimization EvPSO),
resultantes de modicar los algoritmos BSFO y PSO con una Estrategia Evolutiva (1, )
encargada de sintonizar sus par ametros. En la secci on 2.1 se describen los conceptos de
evoluci on de enjambres y los algoritmos EvBSFO y EvPSO. A continuaci on, en la secci on 2.2
se realiza un an alisis de desempe no de los algoritmos evolutivos frente a otros algoritmos de
SI. Finalmente en la secci on 2.3 se presentan algunas conclusiones del captulo.
25
2. EVOLUCI

ON DE ENJAMBRES
2.1. Implementaci on de Enjambres Evolutivos
Al escoger un algoritmo heurstico para solucionar un problema de optimizaci on, la selecci on
de los par ametros del algoritmo corresponde a ubicar un punto dentro del espacio N
dimensional de par ametros, cuyo valor en la funci on de desempe no del algoritmo G sea el
mejor posible. Esta selecci on es una tarea compleja ya que se desconoce de una manera
determinstica la relaci on directa entre el desempe no del algoritmo, los valores de los
par ametros y la funci on objetivo J. De hecho, este problema puede ser tan o m as complejo
que la soluci on del problema de optimizaci on en s, siendo necesario recurrir a formas m as
simples, donde algunas de las m as comunes son la prueba sistem atica de par ametros o por
ensayo y error, las cuales presentan, entre otras, las siguientes limitaciones [Eiben99]:
Los par ametros no son independientes y probar todas las posibles combinaciones
sistem aticamente es pr acticamente imposible.
El proceso de sintonizaci on requiere tiempo, inclusive si los par ametros son
optimizados uno a uno, sin importar sus interacciones.
Para un problema determinado los par ametros seleccionados no son necesariamente
optimos, inclusive si el esfuerzo por sintonizarlos fue signicativo.
Existen varios intentos de generar par ametros que se comporten de manera adecuada de
forma general, o sea que los valores recomendados pueden ser aplicados a una gran
variedad de problemas de optimizaci on. En la actualidad se reconoce que cada problema
requiere un grupo especco de par ametros para su correcto desempe no, por lo tanto, la
batalla por encontrar par ametros generales optimos se considera perdida a priori [Eiben99],
puesto que no considera la naturaleza din amica del proceso de b usqueda. En general, se
ha aceptado la necesidad de que los par ametros cambien en funci on del tiempo teniendo
en cuenta el desempe no general del algoritmo, donde este mecanismo se conoce como
control de par ametros, que considera la modicaci on de los par ametros del sistema durante
la soluci on del problema principal, ya sea por reglas determinsticas sin realimentaci on
o por m etodos adaptativos o evolutivos (autoadaptativos) que poseen realimentaci on. La
implementaci on de este ultimo tipo de m etodo requiere conocer de manera directa la funci on
de desempe no G o tener una funci on que pueda llevar a cabo la medici on del desempe no y
realizar una b usqueda sobre esta funci on en el espacio de par ametros, convirti endose en un
segundo problema de optimizaci on, afectado por los resultados del primer problema.
Para implementar un enjambre autoadaptativo, se utilizar a como base los conceptos de
control de par ametros existentes en ES, para lo cual se requiere realizar algunas deniciones.
Como primer paso se establece que el sistema de enjambre corresponde a un conjunto de
26
2.1 Implementaci on de Enjambres Evolutivos
poblaciones cada una compuesta por individuos. Todos los individuos de una poblaci on
codican el mismo conjunto de par ametros del algoritmo que se esta evolucionando, donde
la diferencia entre los individuos de la poblaci on corresponde a la posici on inicial la cual se
escoge de manera aleatoria. Cada poblaci on es sometida a la modicaci on de sus par ametros
por medio de operadores evolutivos como la cruza y la mutaci on, para obtener poblaciones
hijas, las cuales buscan una nueva soluci on al problema principal de optimizaci on, al modicar
los valores de por medio de las reglas denidas por enjambre. Para denir el desempe no de
las poblaciones se dene una funci on G para la l esima poblaci on en el i esimo instante
como el promedio del desempe no del k esimo individuo seg un la ecuaci on 2.1. Luego de
solucionar tanto el primer como segundo problema de optimizaci on, se seleccionan las
poblaciones con mejor desempe no entre las poblaciones hijas que conformaran la pr oxima
generaci on.
G(l, i) =

k=1
J (l, k, i, )

(2.1)
Al igual que ES, es necesario modicar los par ametros que dominan la mutaci on de los
individuos. Para este proceso se hace uso de la regla de 1/5 [Rechenberg73], la cual propone
que si el desempe no general de la generaci on actual ha sido mejor que el desempe no general
anterior, la poblaci on se ha desplazado a una mejor posici on en el espacio de b usqueda, por lo
tanto, se puede disminuir la fuerza de las mutaciones (la desviaci on est andar de la distribuci on
normal de la mutaci on) por un factor de 0,82, de lo contrario, el algoritmo se ha desplazado
a una regi on menos favorable, por lo tanto, se incrementa la fuerza de las mutaciones por un
factor de 1,22.
Estas reglas permiten generar diferentes arquitecturas, dependiendo de los valores de , ,
, y el uso de selecci on elitista o no elitista. Para simplicar la descripci on de un enjambre
autoadaptativo (SelfAdaptive Swarm SAS), se propone la notaci on ( /, +)SAS
basada en la notaci on de ES. Con esta notaci on se puede describir la arquitectura de
cualquier algoritmo SAS, incluyendo el presentado en [Miranda02a] el cual puede ser descrito
como (1 /, )SAS.
Basado en esta notaci on, se dene un algoritmo ( 1, )SAS, cuya estructura general
se presenta en la tabla 2.1. Este algoritmo, basado en una (1, )ES, posee individuos, 1
poblaci on padre, poblaciones descendientes, con selecci on elitista y sin recombinaci on, o
sea que las poblaciones descendientes se obtienen unicamente por mutaci on. Para adaptar
un algoritmo de enjambres a este marco de referencia se requiere denir los mecanismos de
c alculo de y los par ametros a evolucionar.
27
2. EVOLUCI

ON DE ENJAMBRES
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
G
ant
= G
FIN PARA
Tabla 2.1: Algoritmo de Enjambres Evolutivo
2.1.1. Evoluci on de Enjambre de Bacterias
El algoritmo BSFO posee una variedad de par ametros que controlan el funcionamiento de
algunas caractersticas adicionales a la b usqueda basada en quimiotaxis, como lo son la
reproducci on, la eliminaci ondispersi on y el uso de atrayentesrepelentes. Si bien estas
caractersticas est an dise nadas para mejorar el desempe no del algoritmo, el uso de ciclos
del tipo FOR las hacen poco ecientes, en particular en lenguajes orientados a vectores
como lo es MATLAB. Adicionalmente, para determinar la inuencia de los par ametros en el
resultado, se realizaron pruebas preliminares, cuyos resultados mostraron que los par ametros
de mayor inuencia en el algoritmo corresponden al tama no del paso C, el n umero de
pasos quimiot acticos, la profundidad y el ancho de los atrayentesrepelentes. Teniendo estas
consideraciones en cuenta, como paso inicial para el desarrollo del algoritmo evolutivo, se
considera la supresi on de las caractersticas de reproducci on y de eliminaci ondispersi on,
dando lugar a un algoritmo basado unicamente en quimiotaxis y comunicaci on entre
individuos.
Entonces, para el algoritmo de bacterias en una iteraci on i para el k esimo individuo con
el grupo de par ametros l se dene un valor de seg un la ecuaci on 2.2 y una funci on de
costo de acuerdo a la ecuaci on 2.3, donde J
n
corresponde al costo por nutrientes, m
ar
es
la magnitud de los atrayentesrepelentes igualadas para que en la posici on de la bacteria el
costo se deba unicamente a los nutrientes, w
r
es el ancho de los repelentes y w
a
el ancho de
los atrayentes, con w
r
> w
a
debido a que su tama no es inversamente proporcional.

k
(i +1) =
k
(i) +C
l
(i)
k
(i) (2.2)
28
2.1 Implementaci on de Enjambres Evolutivos
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
PARA i = 1 HASTA epochs HACER
Calcular J (i)
PARA l = 1 HASTA HACER
Calcular J
cc
de acuerdo a los valores de la poblacion
SI J
last
+J
cc
J +J
cc
ENTONCES
Generar una nueva direccion para la bacteria
FIN SI
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccione la poblacion con mejor desempeno
Actualice el mejor valor obtenido
SI i > 1
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
FIN SI
Actualice G
ant
FIN PARA
Tabla 2.2: Optimizaci on por Enjambre de Bacterias Evolutivo
J (
k
, i) = J
n
(
k
) +m
lar
(i)
_
e
w
lr
(i)
p
m=1
(
k

m
)
2
e
w
la
(i)
p
m=1
(
k

m
)
2
_
(2.3)
Para construir el algoritmo evolutivo, se hace uso de las ecuaciones 2.1, 2.2 y 2.3,
y del algoritmo gen erico mostrado en la tabla 2.1 el cual se modica para incluir los
aspectos especcos de comportamiento del enjambre de bacterias. Los cambios se ubican
fundamentalmente en el c alculo y evaluaci on de costo de la nueva posici on, dando como
resultado el algoritmo evolutivo de bacterias mostrado en la tabla 2.2.
2.1.2. Evoluci on de Enjambre de Partculas
El algoritmo PSO, a diferencia de BSFO, es mucho m as sencillo ya que en su denici on
primaria no se consideran ciclos, siendo el proceso de b usqueda m as continuo. Adem as,
la funci on de costo no se ve alterada por la comunicaci on entre agentes. Debido a que
representa una forma m as adecuada de realizar la exploraci on, se utiliza el modelo con
peso inercial descrito en [Shi98]. Los par ametros de este algoritmo son el peso inercial w,
las constantes de los modelos individual c
1
y social c
2
, y la velocidad m axima mv. Para este
algoritmo, denimos que = v, por tanto, la nueva posici on para la k esima partcula con
el conjunto de par ametros l esta dada por las ecuaciones 2.4 y 2.5.
29
2. EVOLUCI

ON DE ENJAMBRES
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
Calcular el costo de la partcula J
k
SI J
k
(
kn
) < J (p
d
) ENTONCES
p
id
=
kn
FIN SI
SI J
k
(
kn
) < J
_
p
gd
_
ENTONCES
p
gd
=
kn
FIN SI
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
G
ant
= G
FIN PARA
Tabla 2.3: Optimizaci on por Enjambre de Partculas Evolutivo

kn
(i +1) = w
l
(i)
kn
(i) +R
1
c
1l
(i)(p
kn

kn
(i)) +R
2
c
2l
(i)(p
gn

kn
(i)) (2.4)

kn
(i +1) =
kn
(i) +
kn
(i +1) (2.5)
Al igual que con BSFO, para construir el algoritmo evolutivo, se hace uso de las ecuaciones
2.1, 2.4 y 2.5, y del algoritmo gen erico mostrado en la tabla 2.1 el cual se modica para incluir
los aspectos especcos de comportamiento del enjambre de partculas. Los cambios se
producen en la actualizaci on de la informaci on individual y social del individuo representados
por p
id
y p
gd
, y el c alculo de la nueva posici on, obteni endose el algoritmo evolutivo de
partculas mostrado en la tabla 2.3.
2.2. Evaluaci on de desempe no
Para probar el desempe no de los algoritmos propuestos, se realiza un estudio por simulaci on
usando un grupo de diez funciones y siete algoritmos de inteligencia de enjambres para
30
2.2 Evaluaci on de desempe no
No. Nombre Par ametros
1 BSFO p
ed
= 0,10 p
re
= 0,20 C
i
= 0,05d N
s
= 10
2 PSO mv = 0,01d c
1
= c
2
= 2,000
3 IWPSO mv = 0,01d w = 0,600 c
1
= c
2
= 2,000
4 T1PSO mv = 0,01d w = 0,600 c
1
= c
2
= 1,700
5 T2PSO mv = 0,01d w = 0,729 c
1
= c
2
= 1,494
6 CFPSO mv = 0,01d = 0,7298 c
1
= 2,8000 c
2
= 1,3000
7 ABHA p
rs
= 0,5 p
e
= 0,8 = 0,2 =C = 0,1 SR = 0,95
8 EvBSFO = 50 = 5 C
i
= 0,05d N
s
= 10
9 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c
1
= c
2
= 1,700
Tabla 2.4: Par ametros de los algoritmos para la prueba con funciones
No. Nombre D Rango J
min
1 SCB 2 [2, 2; 1, 1] 1,0316
2 PFUNC 2 [0, 30]
2
3,9867
3 Peaks 2 [3, 3]
2
6,5511
4 DeJong F1 30 [100, 100]
n
0,0000
5 Grienwank 30 [100, 600]
n
0,0000
6 Rastrigin 30 [5,12, 5,12]
n
0,0000
7 Ackley 30 [32, 32]
n
0,0000
8 DeJong F2 2 [100, 100]
2
0,0000
9 Schaffer F6 2 [100, 100]
2
0,0000
10 Schewefel 30 [500, 500]
n
12569,5
Tabla 2.5: Par ametros de las funciones de prueba
optimizaci on continua: La Optimizaci on por Enjambre de Partculas (PSO), la Optimizaci on
por Enjambre de Partculas con Peso Inercial (the Inertia Weight Particle Swarm Optimization)
[Shi98] con los par ametros comunes (IWPSO) y con los dos grupos de par ametros sugeridos
por Trelea (T1PSO y T2PSO) [Trelea03], la Optimizaci on por Enjambre de Partculas con
Factor de Constricci on (Constriction Factor Particle Swarm Optimization CFPSO) [Clerc99],
la Optimizaci on por Enjambre de Bacterias (BSFO) y el Algoritmo de Colmena de Abejas
Articiales (Articial Bee Hive Algorithm ABHA) [Mu noz08]. Los par ametros usados para
cada algoritmo son mostrados en la tabla 2.4, donde d es la diagonal del espacio de
b usqueda. El experimento fue realizado durante 100 iteraciones de 1000 ciclos cada uno
con una poblaci on igual para todos los algoritmos de 50 agentes. Todas las funciones de
prueba son no lineales y com unmente utilizadas en pruebas de algoritmos de optimizaci on.
Estas son las funciones SCB, PFUNC, MATLAB Peaks, DeJong F1, Grienwank, Rastrigin,
Ackley, DeJong F2, Schaffer y Schewefel. El n umero de dimensiones, rango de las variables
y valor mnimo de cada una de las funciones son mostrados en la tabla 2.5, las ecuaciones
de cada funci on se muestran en la tabla 2.6.
Estas funciones son seleccionadas debido a su correlaci on con problemas del mundo real,
donde hay funciones de costo unimodales y multimodales, con variables correlacionadas y no
correlacionadas. La funci on de DeJong F1 no contiene mnimos locales y provee un gradiente
suave hacia un optimo global. La funci on de Grienwank introduce interdependencia entre las
31
2. EVOLUCI

ON DE ENJAMBRES
No. Ecuaci on
1 J =
_
42,1
2
1
+
1
3

4
1
_

2
1
+
1

2
+
_
4+4
2
2
_

2
2
2 J =
10
i=1
A
i
e

i((
1
X
i
)
2
+(
2
Y
i
)
2
)
A = [5 2 3 2 2 4 2 2 2 2]
= [0,1 0,08 0,08 0,1 0,5 0,1 0,5 0,5 0,5 0,5]
X = [15 20 25 10 5 15 8 21 25 5]
Y = [20 15 10 10 10 5 25 25 16 14]
3 J = 3(1
1
)
2
e
(
2
+1)
2

2
1

1
3
e
(
1
+1)
2

2
2
10
_

1
5

3
1

5
2
_
e

2
1

2
2
4 J =
n
i=1
x
2
i
5 J =
1
4000

n
i=1
x
2
i

n
i=1
cos
_
x
i

i
_
+1
6 J =
n
i=1
x
2
i
10cos(2x
i
) +10
7 J =20e
0,2

1
30

n
i=1
x
2
i
e
1
30

n
i=1
cos(2x
i
)
+20+e
8 J = 100
_
x
2
y
_
2
+(1x)
2
9 J = 0,5
_
sin

x
2
+y
2
_
2
0,5
(1+0,001(x
2
+y
2
))
2
10 J =
n
i=1
x
i
sin
_
|x
i
|
Tabla 2.6: Ecuaciones de las funciones de prueba
variables. La funci on de Rastrigin tiene soluciones semi optimas localizadas en forma de
grilla alrededor del optimo global, y no hay correlaci on entre las variables. La funci on de
Ackley es multimodal a baja resoluci on. El espacio denido por la funci on de DeJong F2 es
unimodal y existe correlaci on entre las variables de dise no. La funci on de Schewefel tiene una
soluci on semioptima muy alejada del optimo global donde muchos algoritmos de b usqueda
resultan atrapados. Adem as, el optimo global existe cerca de los lmites del espacio y no
existe correlaci on entre las variables [Yisu07].
Para comparar los diferentes algoritmos, se encontraron los valores mnimo, promedio y
la desviaci on est andar de cada experimento. Para tener una mejor visualizaci on de los
resultados obtenidos, se utiliza una gr aca box and whisker para cada funci on. Las lneas
de la caja se ubican en el cuartil inferior (), superior (+) y en el promedio de los datos y
representan los datos dentro del 50% de la distribuci on. Las lneas de extensi on muestran los
datos dentro del 99.3% de la distribuci on (2). Los puntos por fuera de estos representan
los datos en el ultimo 0.7% y son considerados estadsticamente por fuera del rango.
La gr aca 2.1 muestra los resultados para la funci on SCB. Se puede observar que todos
los algoritmos son capaces de obtener el valor mnimo dentro del rango de la funci on.
Sin embargo, es notorio un mejor desempe no de los algoritmos PSO con par ametros
preestablecidos. Esto se ve representado por una menor desviaci on est andar. Se podra
considerar que para este problema el efecto de la b usqueda de par ametros no incrementa el
desempe no del algoritmo.
32
2.2 Evaluaci on de desempe no
La gr aca 2.2 muestra los resultados para la funci on PFUNC. Al igual que con la funci on SCB,
todos los algoritmos fueron capaces de obtener valores mnimos durante el experimento. Se
puede notar que los algoritmos basados en PSO tienen una mayor dispersi on de los datos,
que no se solventa por la evoluci on de los par ametros, ya que el algoritmo EvPSO posee
una desviaci on est andar similar a la de los otros algoritmos. Comparativamente, el algoritmo
EvBSFO se desempe na mejor que su contraparte est atica, al presentar una desviaci on
est andar menor.
La gr aca 2.3 muestra los resultados para la funci on Peaks. En este caso se puede observar
que todos los algoritmos encuentran el mnimo global de la funci on. Para el caso del algoritmo
BSFO frente al algoritmo evolutivo, existe una disminuci on de la media y de la desviaci on
est andar, obteni endose un mejor desempe no con la autoadaptaci on de par ametros. Con
respecto al algoritmo EvPSO presenta mejora frente al algoritmo PSO cl asico, sin embargo,
no existe una mejora sustancial frente a los algoritmos est aticos que contengan peso inercial.
La gr aca 2.4 muestra los resultados para la funci on DeJong F1. Esta funci on, a pesar de
ser conceptualmente sencilla, presenta una fuerte dicultad debido a la gran cantidad de
dimensiones y a poseer un espacio de b usqueda amplio. El experimento realizado muestra
que existe una notoria diferencia entre el resultado obtenido entre el algoritmo de bacterias
est atico y evolutivo, siendo este ultimo capaz de llegar muy cerca del valor optimo. En el
caso del algoritmo EvPSO, este presenta el menor valor mnimo encontrado durante el
experimento, aunque presenta un promedio y desviaci on mayor que la obtenida por los
algoritmos est aticos.
La gr aca 2.5 muestra los resultados para la funci on Grienwank. En esta funci on, a parte de
la interdependencia de variables, se suma la amplitud del espacio de b usqueda. Al igual que
en la funci on anterior se puede observar una mejora sustancial del desempe no del algoritmo
evolutivo de bacterias frente al algoritmo est atico, aunque presenta una desviaci on entandar
alta, el 99% de los datos obtenidos en el experimento son mejores que la media del algoritmo
est atico. Con respecto al algoritmo EvPSO, este obtiene nuevamente el menor valor en el
experimento y su media es similar a los algoritmos est aticos con peso inercial o con factor de
constricci on, sin embargo, su desviaci on est andar es mayor.
La gr aca 2.6 muestra los resultados para la funci on Rastrigin. En esta funci on multimodal,
existe una alta probabilidad que los algoritmos basados en descenso de gradiente como
BSFO y ABHA se desempe nen pobremente. Al ejecutar el experimento, nuevamente la
autoadaptaci on de par ametros del algoritmo EvBSFO evita que la poblaci on se estanque
en un mnimo local, logrando obtener un valor menor en el experimento que el algoritmo
est atico, aunque a costa de una mayor desviaci on est andar. En el caso del algoritmo EvPSO,
se obtiene el menor valor dentro del experimento, aunque presenta una desviaci on est andar
mayor.
33
2. EVOLUCI

ON DE ENJAMBRES
J
min
J
avg

BSFO -1.0316E+00 -1.0316E+00 5.3141E-05
PSO -1.0316E+00 -1.0316E+00 7.0027E-10
IWPSO -1.0316E+00 -1.0316E+00 1.0000E-15
T1PSO -1.0316E+00 -1.0316E+00 1.0000E-15
T2PSO -1.0316E+00 -1.0316E+00 1.0000E-15
CFPSO -1.0316E+00 -1.0316E+00 1.0000E-15
ABHA -1.0316E+00 -1.0316E+00 3.9047E-07
EvBSFO -1.0316E+00 -1.0316E+00 1.0341E-04
EvPSO -1.0316E+00 -1.0305E+00 4.0878E-03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
1.03
1.025
1.02
1.015
1.01
1.005
1
V
a
l
u
e
s
Box plots for SCB function
Figura 2.1: Resultados para la funci on SCB
J
min
J
avg

BSFO -3.9867E+00 -3.9861E+00 4.8005E-04
PSO -3.9867E+00 -3.9052E+00 4.0109E-01
IWPSO -3.9867E+00 -3.9460E+00 2.8655E-01
T1PSO -3.9867E+00 -3.9063E+00 3.9614E-01
T2PSO -3.9867E+00 -3.9037E+00 4.0868E-01
CFPSO -3.9867E+00 -3.9668E+00 1.9897E-01
ABHA -3.9867E+00 -3.9867E+00 2.8082E-05
EvBSFO -3.9867E+00 -3.9866E+00 5.4876E-04
EvPSO -3.9867E+00 -3.8700E+00 4.4832E-01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
4
3.5
3
2.5
2
V
a
l
u
e
s
Box plots for PFUNC function
Figura 2.2: Resultados para la funci on PFUNC
J
min
J
avg

BSFO -6.5511E+00 -6.5505E+00 5.3651E-04
PSO -6.5511E+00 -6.4811E+00 4.9265E-01
IWPSO -6.5511E+00 -6.5511E+00 5.0000E-15
T1PSO -6.5511E+00 -6.5511E+00 5.0000E-15
T2PSO -6.5511E+00 -6.5511E+00 5.0000E-15
CFPSO -6.5511E+00 -6.5511E+00 5.0000E-15
ABHA -6.5511E+00 -6.5511E+00 1.9647E-05
EvBSFO -6.5511E+00 -6.5510E+00 4.1183E-04
EvPSO -6.5511E+00 -6.5272E+00 1.3451E-01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
6.5
6
5.5
5
4.5
4
3.5
3
V
a
l
u
e
s
Box plots for Peaks function
Figura 2.3: Resultados para la funci on Peaks
34
2.2 Evaluaci on de desempe no
J
min
J
avg

BSFO 2.7376E+04 3.8423E+04 3.4068E+03
PSO 1.7871E+00 5.1879E+00 1.6449E+00
IWPSO 2.7236E+01 9.5985E+01 4.5321E+01
T1PSO 1.3445E+02 4.5751E+02 1.6265E+02
T2PSO 5.7028E+01 2.6585E+02 1.2221E+02
CFPSO 8.8210E+01 3.3091E+02 1.3658E+02
ABHA 2.6191E+04 4.4591E+04 6.1249E+03
EvBSFO 1.9865E-02 7.9654E+03 8.8747E+03
EvPSO 0.0000E+00 3.9452E+02 1.3956E+03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
x 10
4
V
a
l
u
e
s
Box plots for DeJong F1 function
Figura 2.4: Resultados para la funci on DeJong F1
J
min
J
avg

BSFO 2.6347E+02 3.4474E+02 2.8947E+01
PSO 8.3443E-01 1.0142E+00 5.1948E-02
IWPSO 1.1832E+00 1.9974E+00 5.2106E-01
T1PSO 2.2677E+00 5.1134E+00 1.7203E+00
T2PSO 1.6577E+00 3.5269E+00 1.2240E+00
CFPSO 1.8521E+00 3.7374E+00 1.3370E+00
ABHA 2.5163E+02 4.0451E+02 4.8475E+01
EvBSFO 4.3430E-03 8.8692E+01 9.1459E+01
EvPSO 0.0000E+00 3.1518E+00 7.4893E+00
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
50
100
150
200
250
300
350
400
V
a
l
u
e
s
Box plots for Grienwank function
Figura 2.5: Resultados para la funci on Grienwank
J
min
J
avg

BSFO 2.7886E+02 3.2842E+02 1.3823E+01
PSO 1.8193E+01 3.5582E+01 1.0206E+01
IWPSO 2.7702E+01 5.1408E+01 1.1751E+01
T1PSO 3.8947E+01 6.8728E+01 1.4188E+01
T2PSO 2.9150E+01 6.2691E+01 1.4595E+01
CFPSO 2.9397E+01 5.5311E+01 1.2794E+01
ABHA 2.8891E+02 3.4178E+02 1.8322E+01
EvBSFO 1.1864E+02 3.0367E+02 6.6134E+01
EvPSO 1.2934E+01 1.2133E+02 8.7309E+01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
50
100
150
200
250
300
350
400
V
a
l
u
e
s
Box plots for Rastrigin function
Figura 2.6: Resultados para la funci on Rastrigin
35
2. EVOLUCI

ON DE ENJAMBRES
La gr aca 2.7 muestra los resultados para la funci on Ackley. La funci on presenta una dicultad
alta para los algoritmos de bacterias, ya que tanto el esquema est atico como el evolutivo es
incapaz de evitar el estancamiento en un mnimo local aunque el algoritmo evolutivo es capaz
de obtener algunos resultados mejores que el est atico, estos se encuentran por fuera del
99% de los intentos, por lo cual, es poco probable que la evoluci on de par ametros para este
problema represente una mejora. Una situaci on diferente se observa con el algoritmo EvPSO,
el cual es capaz de obtener el menor valor objetivo en el experimento, con una media muy
similar a los algoritmos est aticos. Al igual que en las pruebas anteriores, la capacidad de
obtener valores menores se ve disminuida por una mayor desviaci on est andar.
La gr aca 2.8 muestra los resultados para la funci on DeJong F2. Esta funci on de dos
dimensiones reeja un comportamiento de los algoritmos similar a las funciones SCB, PFUNC
y Peaks, donde todos los algoritmos obtienen valores muy cercanos al mnimo global. Con
respecto a los algoritmos de bacterias, el algoritmo evolutivo tiene un valor mnimo menor que
el est atico, pero se presenta un aumento en la media y la desviaci on est andar. En cuanto al
algoritmo EvPSO presenta mejora frente al algoritmo PSO cl asico al obtener un valor mnimo
similar a los algoritmos con peso inercial. En esta prueba, la diferencia entre la media y la
desviaci on es mayor frente a los algoritmos est aticos.
La gr aca 2.9 muestra los resultados para la funci on Schaffer F6. Al igual que la funci on
DeJong F2, todos los algoritmos obtienen valores muy cercanos al mnimo global. En este
caso, existe una mejora en la media y la desviaci on est andar obtenidas por el algoritmo
EvBSFO frente al algoritmo est atico, proporcionando una mayor repetibilidad. En el caso del
algoritmo EvPSO, si bien consigue un valor mnimo adecuado, su repetibilidad es inferior a la
de los algoritmos est aticos.
La gr aca 2.10 muestra los resultados para la funci on Schewefel. En esta funci on, cuyo valor
mnimo es un n umero muy negativo, el unico algoritmo que logra obtener el valor global es el
EvPSO, seguido por EvBSFO, cuyo comportamiento es similar al obtenido por los algoritmos
de partculas est aticos. Si bien, estos resultados nuevamente se logran a costa de una menor
repetibilidad de los algoritmos de enjambres evolutivos, existe una buena probabilidad dentro
de un grupo de experimentos de lograr valores mejores con par ametros din amicos.
El siguiente paso en el an alisis de los resultados es una comparaci on directa entre los
algoritmos, para lo cual se utiliza el ttest con un intervalo de conanza del 95%. Este
test permite determinar si el resultado es estadsticamente v alido y al mismo tiempo si el
resultado obtenido por el algoritmo bajo prueba se puede considerar estadsticamente mejor
que el del algoritmo de control. El ttest calcula una diferencia entre los dos grupos y puede
considerarse una relaci on de se nal a ruido y es calculado por la ecuaci on 2.6, donde T
corresponde al grupo bajo prueba y C al grupo de control, x es la media del grupo,
la desviaci on est andar del grupo, n el n umero de muestras del grupo y t corresponde a
la probabilidad en una distribuci on del tipo tstudent. El valor t ser a positivo si la primera
36
2.2 Evaluaci on de desempe no
J
min
J
avg

BSFO 1.8895E+01 1.9655E+01 1.8369E-01
PSO 1.1173E+00 2.2053E+00 4.6178E-01
IWPSO 4.8288E+00 6.5895E+00 8.7499E-01
T1PSO 5.1802E+00 7.3854E+00 9.8673E-01
T2PSO 4.8326E+00 6.8779E+00 1.0465E+00
CFPSO 4.1354E+00 6.7249E+00 1.0942E+00
ABHA 1.8717E+01 2.0094E+01 2.6796E-01
EvBSFO 1.7754E+01 1.9897E+01 2.9651E-01
EvPSO 1.1270E-10 7.0343E+00 2.9397E+00
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
2
4
6
8
10
12
14
16
18
20
V
a
l
u
e
s
Box plots for Ackley function
Figura 2.7: Resultados para la funci on Ackley
J
min
J
avg

BSFO 3.1670E-03 6.4332E-01 6.5966E-01
PSO 2.3899E-08 2.3620E-05 3.6345E-05
IWPSO 0.0000E+00 0.0000E+00 0.0000E+00
T1PSO 0.0000E+00 0.0000E+00 0.0000E+00
T2PSO 0.0000E+00 0.0000E+00 0.0000E+00
CFPSO 0.0000E+00 0.0000E+00 0.0000E+00
ABHA 1.9746E-05 2.1157E-01 3.6734E-01
EvBSFO 2.0051E-05 3.8292E+00 9.9246E+00
EvPSO 0.0000E+00 3.1917E+01 1.9895E+02
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
200
400
600
800
1000
1200
1400
1600
1800
2000
V
a
l
u
e
s
Box plots for DeJong F2 function
Figura 2.8: Resultados para la funci on DeJong F2
J
min
J
avg

BSFO 2.4559E-03 7.3533E-03 6.8864E-03
PSO 2.4559E-03 2.4559E-03 1.5835E-09
IWPSO 2.4559E-03 2.4559E-03 0.0000E+00
T1PSO 2.4559E-03 2.4559E-03 0.0000E+00
T2PSO 2.4559E-03 2.4559E-03 0.0000E+00
CFPSO 2.4559E-03 2.4559E-03 0.0000E+00
ABHA 2.4986E-03 7.8167E-02 6.3309E-02
EvBSFO 2.4559E-03 3.5245E-03 3.9712E-03
EvPSO 2.4559E-03 2.0191E-02 5.2128E-02
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
V
a
l
u
e
s
Box plots for Schaffer F6 function
Figura 2.9: Resultados para la funci on Schaffer F6
37
2. EVOLUCI

ON DE ENJAMBRES
J
min
J
avg

BSFO -6.1375E+03 -4.9426E+03 3.3240E+02
PSO -8.1755E+03 -6.4861E+03 8.4756E+02
IWPSO -8.5951E+03 -6.3647E+03 8.8820E+02
T1PSO -8.4014E+03 -6.0020E+03 7.6415E+02
T2PSO -8.1958E+03 -6.0334E+03 7.9105E+02
CFPSO -8.4473E+03 -6.4722E+03 9.3734E+02
ABHA -6.2105E+03 -4.9768E+03 3.8509E+02
EvBSFO -9.4828E+03 -6.0171E+03 1.0979E+03
EvPSO -1.2569E+04 -5.3917E+03 2.6354E+03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
13000
12000
11000
10000
9000
8000
7000
6000
5000
4000
3000
V
a
l
u
e
s
Box plots for Schewefel function
Figura 2.10: Resultados para la funci on Schewefel
media es mayor que la segunda y negativo si es menor [Trochim06]. Teniendo en cuenta que
n = 100 para ambos grupos, el lmite del valor t para un intervalo de conanza del 95% es
1,66055. Por lo tanto, para que el resultado de la prueba sea estadsticamente signicativo
y adem as con un mejor desempe no del algoritmo bajo prueba t 1,66055, para que
sean estadsticamente iguales 1,66055 < t < 1,06605, y para que sea estadsticamente
de menor desempe no 1,66055 t.
t =
x
T
x
C
_

2
T
n
T
+

2
C
n
C
(2.6)
Los resultados del ttest se muestran en la tabla 2.7 para el algoritmo EvBSFO y en la tabla
2.8 para el algoritmo EvPSO, donde los valores en negrilla corresponden a un mejor o igual
desempe no del algoritmo bajo prueba. Los resultados muestran que la versi on evolutiva del
algoritmo de bacterias se desempe na mejor que su contraparte est atica en ocho de diez
pruebas, sin embargo no logra tan buenos resultados frente a los algoritmos de partculas.
En el caso de EvPSO se obtienen resultados satisfactorios en m as de la mitad de las pruebas
realizadas. Las pruebas que no muestran resultados satisfactorios fueron aquellas cuya
media estuvo por encima de la media obtenida por el algoritmo de control.
2.3. Conclusiones
En este captulo se presenta el desarrollo de un algoritmo de referencia para la
autoadaptaci on de algoritmos de enjambres por medio de una Estrategia Evolutiva (ES)
38
2.3 Conclusiones
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA
F1 -2.3453E+00 2.7741E+00 2.7742E+00 2.7742E+00 2.7742E+00 2.7742E+00 1.4092E+00
F2 -5.9848E+00 -2.0273E+00 -1.4164E+00 -2.0273E+00 -2.0277E+00 -9.9323E-01 -2.3908E+00
F3 -7.5561E+00 -1.4190E+00 2.8932E+00 2.8932E+00 2.8932E+00 2.8932E+00 -4.8163E+00
F4 -3.2040E+01 8.9695E+00 8.8671E+00 8.4584E+00 8.6750E+00 8.6015E+00 -2.1654E+01
F5 -2.6691E+01 9.5866E+00 9.4790E+00 9.1368E+00 9.3111E+00 9.2879E+00 -1.8476E+01
F6 -3.6627E+00 4.0063E+01 3.7556E+01 3.4735E+01 3.5582E+01 3.6870E+01 -4.7470E+00
F7 6.9485E+00 3.2238E+02 1.4404E+02 1.2143E+02 1.1970E+02 1.1619E+02 4.4015E+00
F8 3.2030E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.6540E+00
F9 -4.8165E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 -3.2023E+00
F10 -9.3677E+00 3.3809E+00 2.4608E+00 -1.1317E-01 1.2029E-01 3.1521E+00 -4.5197E+00
Tabla 2.7: Resultados del ttest para el Algoritmo EvBSFO
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA
F1 2.5303E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6331E+00
F2 2.5901E+00 5.8591E-01 1.4278E+00 6.0589E-01 5.5532E-01 1.9734E+00 2.5966E+00
F3 1.7315E+00 -9.0283E-01 1.7783E+00 1.7783E+00 1.7783E+00 1.7783E+00 1.7468E+00
F4 -1.0329E+02 2.7898E+00 2.1380E+00 -4.4837E-01 9.1848E-01 4.5362E-01 -6.5894E+01
F5 -1.1424E+02 2.8542E+00 1.5377E+00 -2.5527E+00 -4.9421E-01 -7.6968E-01 -8.1691E+01
F6 -2.3426E+01 9.7552E+00 7.9375E+00 5.9473E+00 6.6248E+00 7.4821E+00 -2.4225E+01
F7 -4.2847E+01 1.6228E+01 1.4503E+00 -1.1321E+00 5.0133E-01 9.8642E-01 -4.2867E+01
F8 1.5719E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.5941E+00
F9 2.4415E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 2.7605E+00
F10 -1.6910E+00 3.9531E+00 3.4985E+00 2.2241E+00 2.3321E+00 3.8627E+00 3.5780E-01
Tabla 2.8: Resultados del ttest para el Algoritmo EvPSO
(1, ), donde el enjambre se considera un individuo con caractersticas denidas por sus
par ametros. La ES permite el control de los par ametros al seleccionar de un grupo de
mutaciones aquella que en la iteraci on presente el mejor desempe no, representado por el
promedio de costo de sus integrantes.
Siguiendo este algoritmo de referencia, se modicaron dos algoritmos de enjambres
presentados previamente en el captulo 1: La optimizaci on por enjambre de bacterias (BSFO)
y por enjambre de partculas (PSO). Para evaluar su desempe no frente a otros algoritmos
de enjambres con par ametros est aticos se realiz o un experimento sobre 10 funciones de
prueba. Los resultados obtenidos de este estudio muestran que la autoadaptaci on genera
una mayor exploraci on del espacio de b usqueda, reejada en una mayor variabilidad en los
resultados nales y en general se comporta como una prueba sistem atica controlada de un
grupo de par ametros. La variabilidad permite que el algoritmo encuentre valores menores que
las versiones est aticas, pero tambi en que encuentre valores mayores. Este hecho se relaciona
al aumento de la desviaci on est andar del algoritmo, aunque su media se mantenga cercana
a las encontradas por los m etodos est aticos, un efecto que se puede atribuir a los par ametros
semilla del algoritmo que son iguales a los de los m etodos est aticos. La autoadaptaci on
representa una mejora que puede ser de utilidad en espacios de b usqueda donde la funci on
de costo tenga una variaci on constante en su forma, e.g. en la supercie de error de un
sistema de control adaptativo.
39
2. EVOLUCI

ON DE ENJAMBRES
40
CAP

ITULO 3
Sintonizaci on de un Control PID por medio de enjambres
evolutivos
En Ingeniera de Control se presentan problemas que involucran sistemas que presentan
caractersticas como m ultiples entradas y salidas, no linealidades, alto acoplamiento,
presencia de fuertes disturbios, o restricciones operativas, que impiden su r apida y eciente
soluci on por m etodos cl asicos o convencionales. Una forma de solventar las deciencias que
se pueden producir al utilizar m etodos cl asicos para resolver un problema complejo es el uso
de t ecnicas de Control Inteligente (Intelligent Control IC), las cuales utilizan m etodos de
Inteligencia Computacional (CI) en la soluci on de problemas de identicaci on, optimizaci on y
control.
Un problema de control puede ser visto como un problema de optimizaci on, donde se
sintoniza un controlador, buscando los mejores par ametros, para obtener el mnimo error
entre una se nal de referencia y una se nal de salida. Existen diversos m etodos para llevar
a cabo la sintonizaci on, y uno de ellos es aplicar un algoritmo de optimizaci on que pueda
obtener los par ametros, deniendo como funci on de costo el error del sistema.
En el captulo 2 se examin o la construcci on de dos algoritmos de optimizaci on
autoadaptables basados en enjambres, los cuales mostraron su capacidad para obtener
soluciones mejores que los algoritmos con par ametros jos. La principal ventaja que
presentan los algoritmos es su capacidad para adaptarse a un nuevo ambiente, que puede
41
3. SINTONIZACI

ON DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS


Figura 3.1: Sistema de dos masas con exibilidad y amortiguamiento
ser de gran utilidad en el control de sistemas.
En este captulo se muestra la aplicaci on de los algoritmos EvBSFO y EvPSO para la
sintonizaci on de un control de tipo PID para un sistema de dos masas con exibilidad
y amortiguamiento. Este problema presenta una soluci on lmite para el tiempo de
establecimiento y permite investigar si el algoritmo de optimizaci on encuentra valores
adecuados cuando se utiliza en un problema de control simple. En la secci on 3.1 se presenta
el sistema a controlar con la soluci on lmite propuesta [Reynolds99]. En la secci on 3.2 se
muestra la implementaci on del controlador con optimizaci on por enjambres evolutivos. En la
secci on 3.3 se presenta el experimento realizado y los resultados obtenidos en el ejercicio
por simulaci on. Finalmente en la secci on 3.4 se presentan las conclusiones de este captulo.
3.1. Sistema de dos masas con exibilidad y
amortiguamiento
En la actualidad existen varios m etodos para sintetizar, sintonizar o dise nar un controlador, por
lo tanto se hace necesario poseer un sistema del cual se conozca una soluci on sub optima
que permita comparar el desempe no de las diversas contribuciones. Con este objetivo en
mente se propuso una soluci on de forma cerrada para obtener un lmite para el tiempo de
movimiento y establecimiento de un sistema est andar de dos masas, mostrado en la gura
3.1 con un modo exible y un modo rgido [Reynolds99]. El amortiguamiento es incluido para
hacer los resultados lo m as generales posibles. El objetivo de este sistema es mover la masa
no controlada m
2
a una distancia x
F
en un tiempo mnimo sometido a una restricci on del
actuador de F
MAX
. Sea entonces la frecuencia natural del sistema dada por la ecuaci on 3.1 y
el radio de amortiguamiento por la ecuaci on 3.2, donde k y b son las constantes del resorte
y el amortiguador respectivamente, tenemos que el sistema en espacio de estado esta dado
por las ecuaciones 3.3 y 3.4 donde Y corresponde a la aceleraci on de m
2
.
42
3.1 Sistema de dos masas con exibilidad y amortiguamiento

n
=

k
m
1
_
1+
m
1
m
2
_
(3.1)
=
b
2

1+
m
1
m
2
km
1
(3.2)

X =
_
0 1

2
n
2
n
_
X+
_
0
1
_
U (3.3)
Y =
1
m
2
_

2
n
2
n

X (3.4)
Ahora, considerando que la soluci on es la aplicaci on de una entrada de amplitud F
MAX
durante un tiempo determinado, luego del cual la entrada es puesta a cero. Este esquema,
denominado de interruptor simple, produce una aceleraci on creciente hasta un pico a
p
,
a partir del cual decrece con una envolvente exponencial. Para obtener el tiempo de
establecimiento, es necesario obtener un valor analtico para a
p
, el cual se obtiene de
manipular tediosamente la respuesta general del sistema y se muestra en la ecuaci on
3.5, donde = 64
8
+80
6
16
4
, =
_
1
2
, = 32
7
+40
5
8
3
+1,
= tan
1

y = F (s
1
), siendo F (s
1
) la transformada de Laplace de la entrada dada
por la ecuaci on 3.6, con T
s
calculado por la ecuaci on 3.7.
a
p
=
1
2m
2

n
_
1+
2
e

n
Ts
|F (s
1
)|

2
_

2
+
2
cos
_
+2
n
T
s
_
1
2
+2
_
+4
(3.5)
F (s
1
) =
F
MAX
2F
MAX
e
T
s
/2
cos(
d
T
s
/2) +F
MAX
e
T
s
cos(
d
T
s
)

n
+ j
d
+ j
2F
MAX
e
T
s
/2
sin(
d
T
s
/2) F
MAX
e
T
s
sin(
d
T
s
)

n
+ j
d
(3.6)
T
s
=

4(m
1
+m
2
)x
F
F
MAX
(3.7)
43
3. SINTONIZACI

ON DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS


No. Variable Valor
1 x
F
10.000
2 m
1
2.0000
3 m
2
2.0000
4 k 1.5000
5 b 0.8000
6 T
s
16.000
7
n
1.2247
8 0.3266
9
d
0.8247
10 F
MAX
10.000
11 F (s
1
) -5427.8287-2712.358j
12 a
p
4.7822
13 a

0.1000
14 t
set
31.4376
Tabla 3.1: Par ametros del sistema de dos masas
Con el c alculo de la aceleraci on pico, se dene un lmite para la aceleraci on donde se presume
el sistema es estable al cual se denomina a

y es denido por el usuario. Con estos valores


se obtiene una ecuaci on para el tiempo de movimiento y establecimiento para el sistema el
cual es mostrado en la ecuaci on 3.8.
t
set
=
n
_
T
s

ln(a

/a
p
)

n
_
(3.8)
Si una estrategia de control en particular tiene un tiempo t
set
mayor que la forma simple, es
altamente probable que el tiempo y esfuerzo extra empleado es desperdiciado. Esta estrategia
representa valores adecuados para sistemas con moderado ( > 0,1) o fuerte ( > 0,6)
amortiguamiento.
Para hacer uso de esta prueba, es necesario parametrizar el sistema, de tal manera que
presente un amortiguamiento moderado o fuerte, caso en el cual el dise no de interruptor
simple es adecuado. Los par ametros seleccionados muestran en la tabla 3.1.
Con estos valores, obtenemos un sistema cuyas ecuaciones de estado corresponden a las
ecuaciones 3.9 y 3.10.

X =
_
0 1
1,50 0,80
_
X+
_
0
1
_
U (3.9)
Y =
_
0,75 0,40

X (3.10)
44
3.2 Sintonizaci on de controladores PID
3.2. Sintonizaci on de controladores PID
La ley de control ProporcionalIntegralDerivada (PID), representa uno de los controladores
m as ampliamente utilizados en los esquemas de compensaci on particularmente cuando se
posee un modelo lineal del sistema, siendo su uso cercano al del 95% de los lazos de control
en los entornos industriales [Herrero02]. La principal raz on por la cual el control PID es tan
popular es debido a la facilidad con que estos componentes pueden analizarse, visualizarse
y dise narse en los dominios del tiempo y de la frecuencia [Kuo96]. Adem as, el controlador
PID mejora el amortiguamiento y reduce el sobrepaso, el tiempo de levantamiento y el tiempo
de asentamiento. Sin embargo, la selecci on de las ganancias de cada componente debe
realizarse de manera muy cuidadosa, ya que valores inadecuados pueden producir efectos no
deseados e inclusive desastrosos. Con esto en mente, se han desarrollado diversos m etodos
para sintonizar este tipo de controladores, entre los cuales se pueden mencionar:
M etodos empricos como el de ZieglerNichols.
M etodos analticos como los basados en el lugar geom etrico de las races.
M etodos basados en optimizaci on.
Dentro de esta ultima categora, se hace uso de una funci on de costo que representa el
objetivo de dise no del sistema, como por ejemplo reducir el error durante la respuesta al
escal on, reducir el tiempo de establecimiento o el sobrepaso m aximo; como objetivo del
m etodo de optimizaci on. En varios trabajos se hace uso de los Algoritmos Gen eticos para
sintonizar controladores en sistemas no lineales [Herrero02, Grifn03].
Para obtener una soluci on al problema descrito en la secci on 3.1, se utilizar an los algoritmos
EvBSFO y EvPSO, con par ametros iniciales descritos en la tabla 3.2, para sintonizar las
ganancias de un controlador PID con la estructura descrita en la ecuaci on 3.11 el cual controla
la posici on nal x
F
de la masa no controlada m
2
. Teniendo en cuenta que la salida descrita
por el modelo en espacio de estado est a dada como la aceleraci on de m
2
, se debe integrar
doblemente la salida para obtener la posici on, suponiendo condiciones iniciales iguales a
cero.
u(t) = K
P
e(t) +K
I
_
e(t)dt +K
D
de(t)
dt
(3.11)
45
3. SINTONIZACI

ON DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS


No. Nombre Par ametros
3 EvBSFO = 50 = 5 C
i
= 0,05d N
s
= 10 epoch = 1000
4 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c
1
= c
2
= 1,700 epoch = 1000
Tabla 3.2: Par ametros de los algoritmos para la sintonizaci on del control PID
Algoritmo K
P
K
D
K
I
t
set
a
p
x
p
EvBSFO 0.5976 46.821 -0.0031 31.40 -5.095 17.84
EvPSO 0.4307 48.448 -0.0022 24.60 -2.911 14.89
Tabla 3.3: Par ametros del Controlador PID obtenidos por Enjambres Evolutivos
3.3. Procedimiento y Resultados
Para el desarrollo de este problema, se elabor o una metodologa a partir del conocimiento
extrado del comportamiento de los algoritmos en el captulo 2. Los resultados en este capitulo
mostraron que los algoritmos evolutivos tienen una probabilidad de encontrar igual o mejor
respuesta en cerca del 50% de las ocasiones comparado con un algoritmo de enjambres
no evolutivo. Con esto en mente, se realizan dos experimentos para la sintonizaci on fuera de
lnea. El primero de ellos toma el espacio de b usqueda denido por los lmites 10 K
P
10,
10 K
I
10 y 100 K
D
100 para encontrar una zona del espacio m as prometedora.
Como funci on de costo en este experimento se hace uso del error cuadrado medio sobre
una referencia constante igual a x
F
, con el objetivo de reducir el error de magnitud mayor a
uno. Luego, se selecciona el espacio de b usqueda alrededor del punto obtenido para realizar
una sintonizaci on na al ubicar una mayor cantidad de agentes en este nuevo rango. En este
experimento, se utiliza como funci on de costo el error absoluto medio sobre una referencia
constante igual a x
F
, con el objetivo de reducir el error de magnitud menor a uno. Con el
primer experimento se determina que las ganancias adecuadas se encuentran en el rango
0 K
P
1, 0,05 K
I
0,05 y 40 K
D
50. Con el segundo experimento se obtienen
los resultados nales que se muestran en la tabla 3.3, teniendo en cuenta que el tiempo de
establecimiento t
set
se dene como el tiempo en el cual la aceleraci on de m
2
no sobrepasa el
valor de a

utilizado.
La tabla muestra que se obtiene un valor de t
set
de una magnitud similar al obtenido por medio
del interruptor simple, al aplicar el algoritmo EvBSFOsobre el controlador PID, pero se obtiene
un valor inferior al aplicar el algoritmo EvPSO. A continuaci on, se realizaron dos pruebas para
determinar el comportamiento del controlador frente a una referencia constante y frente a
cambios de referencia. Los resultados se muestran en las guras 3.2 y 3.3. Las gr acas
superiores muestran la referencia y la posici on de m
2
, las intermedias muestran la aceleraci on
y los lmites denidos por a

y las inferiores muestran la acci on de control efectuada.


La gura 3.2 muestra el resultado obtenido al utilizar el PID sintonizado por EvBSFO.
46
3.3 Procedimiento y Resultados
0 5 10 15 20 25 30 35 40
0
10
20
P
o
s
i
t
i
o
n
Experiment Results
0 5 10 15 20 25 30 35 40
10
5
0
5
A
c
c
e
l
e
r
a
t
i
o
n
0 5 10 15 20 25 30 35 40
10
0
10
C
o
n
t
r
o
l
Time
0 50 100 150 200 250 300 350 400
50
0
50
100
P
o
s
i
t
i
o
n
Experiment Results
0 50 100 150 200 250 300 350 400
10
0
10
A
c
c
e
l
e
r
a
t
i
o
n
0 50 100 150 200 250 300 350 400
10
0
10
C
o
n
t
r
o
l
Time
Figura 3.2: Resultados obtenidos con el PID sintonizado por EvBSFO: (Izquierda) Referencia Constante (Derecha) Referencia Variable
0 5 10 15 20 25 30 35 40
0
10
20
P
o
s
i
t
i
o
n
Experiment Results
0 5 10 15 20 25 30 35 40
5
0
5
A
c
c
e
l
e
r
a
t
i
o
n
0 5 10 15 20 25 30 35 40
5
0
5
10
C
o
n
t
r
o
l
Time
0 50 100 150 200 250 300 350 400
50
0
50
100
P
o
s
i
t
i
o
n
Experiment Results
0 50 100 150 200 250 300 350 400
10
0
10
A
c
c
e
l
e
r
a
t
i
o
n
0 50 100 150 200 250 300 350 400
10
0
10
C
o
n
t
r
o
l
Time
Figura 3.3: Resultados obtenidos con el PID sintonizado por EvPSO: (Izquierda) Referencia Constante (Derecha) Referencia Variable
Con el experimento con referencia ja, se puede observar que el controlador genera una
se nal con un valor inicial igual a F
MAX
, que inmediatamente decae a un valor de 5.97.
La salida del sistema produce un sobrepaso en la posici on de 17.84 y una aceleraci on
pico de -5.095. La gura 3.3 muestra el resultado obtenido al utilizar el PID sintonizado
por EvPSO. Con el experimento con referencia ja, se puede observar que el controlador
genera una se nal con un valor inicial igual a F
MAX
, que inmediatamente decae a un valor
de 4.303, sucientemente inferior a la producida por el controlador sintonizado por EvBSFO.
La salida del sistema produce un sobrepaso en la posici on de 14.89 y una aceleraci on pico
de -2.911, lo que implica un menor tiempo de establecimiento. El incremento de la ganancia
K
D
mejora sustancialmente el amortiguamiento. Los resultados obtenidos en el experimento
de referencia variable son resumidos en la tabla 3.4, donde se observa nuevamente que los
controladores sintonizados poseen un valor de t
set
similar o inferior en la mayora de los casos
frente a la respuesta obtenida con el interruptor simple (IS).
47
3. SINTONIZACI

ON DE UN CONTROL PID POR MEDIO DE ENJAMBRES EVOLUTIVOS


Escal on 1 2 3 4 5 6 7 8 9
x
F
10.95 8.598 31.59 12.79 27.55 6.79 15.58 39.82 0.95
IS 32.75 29.13 74.46 37.14 66.18 25.68 42.81 89.83 10.88
EvBSFO 31.70 28.70 27.80 31.90 32.00 25.80 34.60 31.40 11.10
EvPSO 24.90 21.60 26.10 25.10 25.90 17.10 25.30 26.70 7.70
Tabla 3.4: Tiempos de establecimiento obtenidos con el experimento de referencia variable
3.4. Conclusiones
En este captulo se present o la aplicaci on de los algoritmos EvBSFO y EvPSO para la
sintonizaci on de un control de tipo PID para un sistema de dos masas con exibilidad y
amortiguamiento. El experimento mostr o que el algoritmo es capaz de obtener soluciones
adecuadas a un problema de control autom atico, y que las soluciones se desempe nan en la
mayora de los casos mejor que una soluci on analtica lmite. Si bien el sistema es lineal de
una entrada y una salida, el ejercicio es de gran ayuda para entender el comportamiento
del sistema de enjambres evolutivos y desarrollar una metodologa para la sintonizaci on
de controladores fuera de lnea, al explorar inicialmente una area amplia del espacio de
b usqueda y luego examinar con mayor detenimiento el area alrededor del mejor punto
localizado.
Sin embargo, este problema no representa un sistema complejo como lo fue denido
anteriormente. Para examinar el potencial que poseen los algoritmos de enjambres evolutivos
es necesario hacer uso de un sistema cuyo modelo matem atico se desconoce y cuyo an alisis
determnistico sea de una mayor dicultad. Con esto en mente, se realiza el dise no de un
controlador para la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP).
48
CAP

ITULO 4
Regulaci on de Temperatura en la Plataforma de
Experimentaci on de Temperatura Multizona
En los anteriores captulos examinamos el comportamiento de los algoritmos de enjambres
evolutivos sobre problemas de optimizaci on con un solo objetivo, representado por una
unica funci on de costo. En la pr actica, es muy com un encontrar problemas que requieren
la optimizaci on simult anea de m as de una funci on de costo, que inclusive pueden representar
objetivos contrarios, como por ejemplo en la construcci on de un puente donde se requiere
baja masa y alta rigidez. En estos casos es muy probable que los diferentes objetivos no
puedan ser optimizados por las mismas selecciones de par ametros. Por lo tanto se hace
necesario un criterio que permita obtener un dise no satisfactorio al balancear los diferentes
objetivos [Das97].
En este captulo se presenta la implementaci on de un control indirecto adaptativo por modelos
para la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP), sintonizado por
medio de algoritmos de enjambres con y sin evoluci on. El control de esta plataforma requiere
la estimaci on de varios modelos, por lo cual el problema se puede considerar multiobjetivo.
En la secci on 4.1 se presenta la plataforma de experimentaci on. A continuaci on, en la
secci on 4.2 se presenta el esquema de control adaptativo por modelos implementado para
la plataforma de experimentaci on. En la secci on 4.3 se presenta los resultados obtenidos
de la implementaci on del control adaptativo. Finalmente en la secci on 4.4 se presentan las
conclusiones de este captulo.
49
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
Figura 4.1: Aquitectura de la planta en la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP)
4.1. Plataforma de Experimentaci on de Temperatura
Multizona
La Plataforma de Experimentaci on de Temperatura Multizona (Multizone Temperature
Experimentation Platform MuTEP), presentada en [Mu noz05a, Mu noz05b], es una
estructura compuesta por sensores y actuadores de temperatura organizada en forma
de matriz. La plataforma intenta simular en peque na escala los sistemas utilizados en
la fabricaci on de semiconductores, tanto en la creaci on de los cristales como en la
elaboraci on de las capas foto resistivas, donde es necesario es mantener una temperatura
constante sobre una supercie [Schaper99, El-Awady03, Quijano02]. Estos sistemas tienen
la particularidad de exhibir algunos efectos como interacci on entre las zonas y sensibilidad a
las perturbaciones del medio.
MuTEP esta compuesta de la planta y un sistema de adquisici on de datos. La planta,
cuya arquitectura se muestra en la gura 4.1, esta compuesta por veinticinco sensores
integrados de temperatura y diecis eis bombillos incandescentes, organizados en diecis eis
zonas compuestas por un actuador y sus cuatro sensores adyacentes. Debido a esta
disposici on, un sensor puede estar afectado directamente por la acci on desde uno hasta
cuatro actuadores, acoplando las salidas a varias entradas. El sistema de adquisici on de
datos esta compuesto por cuatro m odulos basados en un microcontrolador de bajo costo.
Cada modulo se encarga de la administraci on de un cuadrante del proceso, compuesto por
cuatro zonas adyacentes, al transferir los datos sensados y las acciones de control entre el
proceso y un computador personal. La arquitectura general de la plataforma se muestra en la
gura 4.2.
La plataforma MuTEP se ha utilizado con anterioridad en pruebas de algoritmos de enjambres
para la asignaci on din amica de recursos [Mu noz05a] y regulaci on de temperatura usando
la exploraci on directa de la supercie [Alfonso07a]. El desafo que presenta MuTEP como
50
4.2 Control Indirecto Adaptativo
Figura 4.2: Arquitectura general de la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP)
plataforma de experimentaci on es obtener temperaturas uniformes en todos los sensores.
En los anteriores trabajos se encontr o que la temperatura en los bordes de la estructura
se mantienen a menor temperatura que aquellos en el interior, haciendo necesario realizar
acciones de control de mayor amplitud en los actuadores cercanos a los bordes. Esta
acci on afecta a los sensores internos haciendo necesario escoger una acci on de control que
al mismo tiempo eleve la temperatura externa sin afectar sustancialmente la temperatura
interna.
4.2. Control Indirecto Adaptativo
La mayora de las t ecnicas para dise nar sistemas de control est an basadas en un buen
entendimiento de la planta bajo estudio y su entorno. Sin embargo, en algunas ocasiones,
la planta a controlar es muy compleja y sus procesos b asicos no son completamente
entendidos. En este caso, las t ecnicas de control pueden ser complementadas con t ecnicas
de identicaci on realizadas de manera recursiva, para obtener progresivamente un mejor
entendimiento de la planta a controlar por medio de un modelo que es actualizado
peri odicamente en base a los ultimos datos. Esta t ecnica, denominada control adaptativo,
permite utilizar el modelo identicado para dise nar un controlador [Sastry89].
Existen diversas estructuras de control adaptativo. Una de ellas, los reguladores
autoajustados o control adaptativo indirecto (Indirect Adaptive Control IAC), utiliza un
controlador cuyos par ametros son obtenidos de una estimaci on de los par ametros de la
planta, considerando que el modelo es el a la planta en ese periodo de tiempo. A este
principio se le conoce como de certeza de equivalencia. El esquema de un IAC se muestra
en la gura 4.3, donde hay una separaci on explicita entre la etapa de identicaci on y control.
El IAC es muy exible con respecto a la metodologa de dise no del controlador y el esquema
de identicaci on.
51
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
Figura 4.3: Esquema de un Controlador Indirecto Adaptativo
Para la implementaci on de un IAC para la Plataforma MuTEP se utiliza como esquema
de identicaci on un algoritmo de enjambres con y sin evoluci on, de tal manera que pueda
realizarse una comparaci on entre los dos m etodos. Adicionalmente, se hacen las siguientes
consideraciones extradas del conocimiento pr actico del funcionamiento de la planta, para
disminuir el n umero de par ametros a calcular por el algoritmo: Primero, una zona, compuesta
por cuatro sensores y un actuador, es un sistema independiente y se ve unicamente afectada
por la acci on de control de su actuador. Segundo todos los sensores de una zona se ven
afectados de igual manera por la acci on de control, por lo tanto y
i
(k) se puede tomar como
el promedio de las salidas de los sensores. Finalmente, debido a la arquitectura sim etrica del
sistema, las zonas ubicadas en las esquinas, los bordes y el centro son id enticas entre s, por
lo tanto pueden ser representadas por el mismo modelo, a lo que se denomina acoplamiento.
Con estas consideraciones podemos elaborar un modelo para la i esima zona de primer
(Ecuaci on 4.1) y de segundo (Ecuacion 4.2) orden, donde
i
,

i
,
i
y

i
son los par ametros
estimados del modelo, y
i
(k) es la salida actual del sistema y u
i
(k n) y y
i
(k n) son la
acci on de control y la salida del sistema en el n esimo instante anterior.
y
i
(k) =
i
y
i
(k 1) +

i
u
i
(k 1) (4.1)
y
i
(k) =
i
y
i
(k 1) +
i
y
i
(k 2) +

i
u
i
(k 1) +

i
u
i
(k 2) (4.2)
Haciendo uso del criterio de certeza de equivalencia, se puede extraer una ley de control al
desplazar temporalmente el modelo un periodo de tiempo hacia adelante. En este instante,
la salida deseada r
i
(k) reemplaza la salida del sistema. Al despejar la salida de control u
i
(k)
52
4.2 Control Indirecto Adaptativo
obtenemos un controlador inverso de primer (Ecuaci on 4.3) y segundo (Ecuaci on 4.4) orden.
u
i
(k) =
1

i
(r
i
(k)
i
y
i
(k)) (4.3)
u
i
(k) =
1

i
_
r
i
(k)
i
y
i
(k)
i
y
i
(k 1)

i
u
i
(k 1)
_
(4.4)
El siguiente paso en el dise no del controlador adaptativo es formular la funci on de costo para
el algoritmo de enjambres. Teniendo en cuenta el objetivo de obtener un modelo param etrico
de la zona se considera la suma del error absoluto de identicaci on en las ultimas n muestras
como la funci on objetivo (Ecuaci on 4.5) para la zona, donde y(k n) y y(k n) es la salida
real y estimada de la planta respectivamente en el instante k n.
J
i
=
m

n=0
|y
i
(k n) y
i
(k n)| (4.5)
El sistema requiere la minimizaci on de diecis eis funciones objetivo independientes J
i
. Puesto
que los algoritmos consideran unicamente una funci on objetivo, es necesario realizar algunas
adaptaciones para que los par ametros seleccionados sean los adecuados. Teniendo en
cuenta que el error deseado en todas las zonas debe ser cero, la funci on objetivo que motiva
la exploraci on del algoritmo corresponde al valor m aximo entre las diecis eis funciones de
costo J =m axJ
i
, garantizando que el mejor individuo sera aquel que posea el menor m aximo
error entre todas las funciones. Los par ametros
i
,

i
,
i
y

i
del controlador no son tomados
del mejor individuo sino de toda la poblaci on identicando los individuos cuyo valor de J
i
sea
el menor en la poblaci on.
Finalmente, se denen tres arquitecturas para el IAC: Controlador de primer orden con
acoplamiento (IAC1), Controlador de segundo orden con acoplamiento (IAC2), Controlador
de primer orden sin acoplamiento (IAC3). Se requiere la identicaci on de 3 modelos de primer
orden para IAC1 con un total de 6 par ametros, 3 modelos de segundo orden para IAC2 con
un total de 12 par ametros IAC2, y 16 modelos de primer orden para IAC3 con un total de 32
par ametros, cuyos rangos son [0 1,10] para
i
y
i
, y [1 20] para

i
y

i
. Para los controladores
acoplados, se utiliza el promedio de los valores de J
i
de las zonas acopladas para obtener
el mejor individuo. Los algoritmos de optimizaci on seleccionados para el experimento son
BSFO, IWPSO, EvBSFO y EvPSO, con los par ametros mostrados en la tabla 4.1, donde d
es la diagonal del espacio de b usqueda y epoch es el n umero de iteraciones del algoritmo
por instante, que para EvBSFO es menor debido a su mayor tiempo de computo. La acci on
de control entregada por el estimador es ltrada al promediarla con la ultima acci on utilizada,
53
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
No. Nombre Par ametros
1 BSFO p
ed
= 0,10 p
re
= 0,20 C
i
= 0,05d N
s
= 10 epoch = 50
2 IWPSO mv = 0,01d w = 0,600 c
1
= c
2
= 2,000 epoch = 50
3 EvBSFO = 50 = 5 C
i
= 0,05d N
s
= 10 epoch = 10
4 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c
1
= c
2
= 1,700 epoch = 50
Tabla 4.1: Par ametros de los algoritmos para el control adaptativo
con el objetivo de evitar cambios excesivos que producen mediciones ruidosas, seg un lo
encontrado en [Alfonso07a].
4.3. Procedimiento y Resultados
Para evaluar el desempe no del controlador, se realiz o un experimento con referencia
constante (35

C, 40

C y 45

C) durante 5 minutos, con diez repeticiones cada uno en


vol umenes de control innito (estructura expuesta al ambiente) y aislado (estructura cubierta
por un recipiente de icopor) para todas las arquitecturas y algoritmos de identicaci on (720
experimentos). Adicionalmente se efectu o un experimento con referencia variable (40

C
35

C 45

C) durante 15 minutos, con cinco repeticiones cada uno en vol umenes de control
innito y aislado para los algoritmos evolutivos (60 experimentos), con el objetivo de asegurar
que el sistema no presenta estancamiento.
En las guras 4.4 y 4.5, se observan resultados tpicos del control con identicaci on por
enjambre de bacterias y de partculas no evolutivos, donde se presentan fallas generalizadas
de los controladores debido a la incapacidad del identicador de obtener un modelo adecuado
del sistema. Para el caso del algoritmo BSFO con volumen innito (Figura 4.4), el sistema
genera una acci on de control fuertemente oscilatoria sin convergencia sobre todos los
actuadores. El resultado es una p erdida total de la referencia de 35

C en el area central
de la matriz de sensores, alcanzando temperaturas cercanas a los 50

C. Para el caso del


algoritmo IWPSO con volumen aislado (Figura 4.5) se produce un fen omeno diferente, donde
la falla aparece al presentarse un estancamiento del controlador en una acci on de control
m axima sobre varios actuadores. Esto conlleva una p erdida total de la referencia de 45

C
sobre la mayora de la matriz de sensores, e inclusive elevando la temperatura a cerca de
80

C.
Estos resultados muestran la necesidad de realizar modicaciones sobre el esquema
de identicaci on para encontrar un conjunto de par ametros adecuado para mejorar el
desempe no del algoritmo, puesto que aquellos sugeridos como generales en el captulo 2,
no son utiles en este problema. Por lo tanto, se prosigue con la aplicaci on de los enjambres
evolutivos al problema de control.
54
4.3 Procedimiento y Resultados
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
Temperature Signals
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
Time (s)
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.4: Resultados obtenidos con el IAC1 con identicaci on por BSFO con referencia constante de 35

C y volumen innito: (Izquierda)


Se nales de temperatura (Derecha) Acciones de control
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
Temperature Signals
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
Time (s)
0 100200
40
60
80
0 100200
40
60
80
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.5: Resultados obtenidos con el IAC3 con identicaci on por IWPSO con referencia constante de 40

C y volumen aislado: (Izquierda)


Se nales de temperatura (Derecha) Acciones de control
En las guras 4.6, 4.7 y 4.8, se observan resultados tpicos del control con identicaci on
por enjambre de bacterias evolutivo, donde se presentan algunas mejoras con respecto a lo
obtenido con el algoritmo BSFO (Figura 4.4), en particular la generaci on de una acci on de
control m as suave. Para el caso del controlador IAC1 con volumen aislado (Figura 4.6), se
produce una acci on de control fuerte en los instantes iniciales del experimento que decrece
r apidamente a valores cercanos o iguales a cero en todos los actuadores, aunque se observa
una tendencia a evitar tomar acciones sobre los actuadores centrales. Para el caso del
controlador IAC2 con volumen innito (Figura 4.7), la exposici on a la temperatura ambiente
hace necesario producir una acci on de control mayor, en particular sobre los bordes de
la matriz, nuevamente evitando producir acciones fuertes sobre los actuadores centrales,
aunque se producen algunos picos alrededor del segundo 200 del experimento, los cuales
producen una leve incremento que es r apidamente corregido. Para el caso del controlador
55
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
Temperature Signals
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
Time (s)
0 200
30
40
50
0 200
30
40
50
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
Figura 4.6: Resultados obtenidos con el IAC1 con identicaci on por EvBSFO con referencia constante de 35

C y volumen aislado:
(Izquierda) Se nales de temperatura (Derecha) Acciones de control
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Temperature Signals
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.7: Resultados obtenidos con el IAC2 con identicaci on por EvBSFO con referencia variable y volumen innito: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Temperature Signals
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Time (s)
0 500
30
40
50
0 500
30
40
50
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
Figura 4.8: Resultados obtenidos con el IAC3 con identicaci on por EvBSFO con referencia variable y volumen innito: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
56
4.3 Procedimiento y Resultados
No. Nombre Ecuaci on
1 Temperatura nal promedio y
f
=
1
25

25
i=1
y
i
2 Error relativo porcentual ER =
ry
f
r
100%
3 Desviaci on de la supercie =
_
1
25

25
j=1
_
y
i
y
f
_
2
4 Error medio cuadrado MSE =
1
2560

25
i=1

t
f
k=t
f 60
(r y
i
(k))
2
5 Error medio absoluto MAE =
1
2560

25
i=1

t
f
k=t
f 60
|r y
i
(k)|
6 Error medio cuadrado por el tiempo MTSE =
1
2560

25
i=1

t
f
k=t
f 60
k (r y
i
(k))
2
7 Error medio absoluto por el tiempo MTAE =
1
2560

25
i=1

t
f
k=t
f 60
k |r y
i
(k)|
8 Suavidad de la acci on de control CAS =
1
16t
f
1

16
i=1

t
f
k=1
u
i
(k) u
i
(k 1)
9 Acci on de control promedio CAA =
1
16t
f

16
i=1

t
f
t=0
u
i
(k)
Tabla 4.2: Indices de desempe no para la comparaci on de los controladores
IAC3 con volumen innito y referencia variable (Figura 4.8) el controlador genera una acci on
que permite el seguimiento de la referencia de manera adecuada en mayor parte de la
estructura, entre ella la generaci on de una acci on de control mnima durante el paso de
40

C 35

C. La acci on de control es consecuente con lo observado en el IAC2.


En las guras 4.9, 4.10 y 4.11, se observan resultados tpicos del control con identicaci on por
enjambre de partculas evolutivo, donde se presenta un desempe no adecuado del controlador
debido a las mejoras en el esquema de identicaci on proporcionadas por la evoluci on de los
par ametros. A diferencia de los resultados obtenidos con el algoritmo IWPSO (Figura 4.5), el
sistema genera acciones de control inicialmente altas, pero que decrecen r apidamente. Para
el caso del controlador IAC1 con volumen innito (Figura 4.9), el sistema no produce acci on
de control sobre el area central de la matriz de sensores evitando la p erdida de la referencia.
Sin embargo existen sensores que no alcanzan la temperatura objetivo, como por ejemplo
el sensor (1,4) el cual alcanza una temperatura estable muy inferior. La observaci on de los
sensores vecinos muestra que este resultado es producto de aproximar la salida de la zona
al promedio de sus sensores constituyentes. Para el caso del controlador IAC2 con volumen
aislado (Figura 4.10), el identicador cambia su comportamiento al reducir sustancialmente
su acci on de control, para obtener una temperatura superior. Finalmente, para el caso del
controlador IAC3 con volumen aislado y referencia variable (Figura 4.11), el sistema sigue la
referencia de manera adecuada, inclusive realizado una acci on de control mnima durante
el paso de 40

C 35

C. La acci on de control es consecuente con lo observado en el


IAC2, donde una menor acci on de control genera un mayor incremento de temperatura en
el volumen aislado.
Para evaluar el comportamiento del IAC con identicaci on por enjambres con y sin evoluci on
de tal manera que se pueda realizar una comparaci on objetiva entre los algoritmos, se hace
uso de los ndices de desempe no mostrados en la tabla 4.2, donde y
i
es el promedio de la
temperatura del i esimo sensor de las ultimas 60 muestras, r es el valor de referencia del
experimento, y
i
(k) corresponde a la temperatura del i esimo sensor en el instante k, u
i
(k)
57
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Temperature Signals
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.9: Resultados obtenidos con el IAC1 con identicaci on por EvPSO con referencia constante de 40

C y volumen innito: (Izquierda)


Se nales de temperatura (Derecha) Acciones de control
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Temperature Signals
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.10: Resultados obtenidos con el IAC2 con identicaci on por EvPSO con referencia constante de 45

C y volumen aislado:
(Izquierda) Se nales de temperatura (Derecha) Acciones de control
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Temperature Signals
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
T
e
m
p
e
r
a
t
u
r
e

(

C
)
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Time (s)
0 500
30
40
50
0 500
30
40
50
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
Figura 4.11: Resultados obtenidos con el IAC3 con identicaci on por EvPSO con referencia variable y volumen aislado: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
58
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
3
Figura 4.12: Temperatura nal promedio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
1
Error Relativo (%)
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
1
Error Relativo (%)
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
3
Figura 4.13: Error relativo con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
corresponde a la acci on de control del i esimo actuador en el instante k, y t
f
corresponde al
instante nal del experimento equivalente a 300 segundos.
Los valores obtenidos de los ndices para el experimento con volumen innito y aislado
y referencia constante se muestran en las guras 4.124.20, donde se observan algunas
ventajas de los controladores con identicadores evolutivos sobre los no evolutivos, en
particular la capacidad del identicador de adaptarse a nuevas condiciones de funcionamiento
de la planta, debidas a un cambio en su din amica.
En la gura 4.12 se muestra el resultado para t
f
. Tanto para el experimento con volumen
innito como aislado, el mejor desempe no obtenido por los identicadores no evolutivos esta
representado por el IAC2, que es ligeramente inferior al desempe no de los identicadores
evolutivos. Sin embargo, para IAC1 e IAC2 los resultados obtenidos con identicaci on
59
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
1
Dispersin (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
1
Dispersin (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
Figura 4.14: Dispersi on de la supercie con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
1
Error Cuadrado Medio
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
100
200
300
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
200
400
600
800
I
A
C
1
Error Cuadrado Medio
BSFO EvBSFO IWPSO EvPSO
0
50
100
150
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
500
1000
1500
I
A
C
3
Figura 4.15: Error cuadrado medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
evolutiva son claramente superiores, en particular en el experimento con volumen aislado.
En todas las pruebas el mejor desempe no obtenido en t erminos de t
f
fue presentado por
IAC2EvPSO.
En la gura 4.13 se muestra el resultado para ER. La gura corrobora lo encontrado en t
f
donde el mejor desempe no de los controladores se obtiene en IAC2. Se observa con mayor
claridad la desventaja signicativa de los identicadores no evolutivos en IAC1 e IAC3. Para
los algoritmos de bacterias se encuentra que el error es mayor a bajas temperaturas, mientras
que no se percibe una tendencia para los algoritmos de partculas. Se observa errores de tipo
catastr oco en el desempe no de IAC3IWPSO para ambos experimentos.
En la gura 4.14 se muestra el resultado para . El experimento con volumen innito muestra
que los algoritmos evolutivos poseen una supercie m as uniforme, al ser en la mayora
60
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
2
4
6
8
I
A
C
1
Error Absoluto Medio
BSFO EvBSFO IWPSO EvPSO
0
2
4
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
1
Error Absoluto Medio
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
3
Figura 4.16: Error absoluto medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
1
2
3
x 10
4
I
A
C
1
Error Cuadrado por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
5000
10000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
x 10
4
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
1
2
x 10
5
I
A
C
1
Error Cuadrado por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
2
4
x 10
4
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
2
4
x 10
5
I
A
C
3
Figura 4.17: Error cuadrado por el tiempo medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
de los casos menores que sus contrapartes no evolutivos, a excepci on del IAC2 entre
IWPSO y EvPSO. Para el experimento con volumen aislado muestra errores catastr ocos
en los controladores IAC1 e IAC3 para los identicadores no evolutivos. En el caso de
los identicadores evolutivos presentan una supercie con baja distorsi on en todos los
controladores.
En las guras 4.15 y 4.16 se muestran los resultados para MSE y MAE. En el caso de
los errores promedio se observa una tendencia a producirse errores mayores que uno,
al presentarse valores altos de error cuadrado. Se puede pensar que esta tendencia se
corregira, si en lugar de utilizar el error absoluto de identicaci on (ecuaci on 4.5) se usa el
error cuadrado. Sin embargo, durante la etapa de dise no se encontr o que el error cuadrado
de identicaci on produca un desempe no inferior al error absoluto. Los resultados muestran
que el menor error cuadrado se obtiene con IAC2 en todos los casos. Los identicadores
61
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
I
A
C
1
Error Absoluto por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
500
1000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
3000
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
2000
4000
6000
8000
I
A
C
1
Error Absoluto por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
3000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
2000
4000
6000
8000
I
A
C
3
Figura 4.18: Error absoluto por el tiempo medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
1
Suavidad de la Accin de Control
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
1
Suavidad de la Accin de Control
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
3
Figura 4.19: Suavidad de la acci on de control con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
evolutivos presentan ndices de error cuadrado y absoluto de valores similares en todos los
controladores. Caso contrario ocurre con los identicadores no evolutivos donde su mejor
desempe no se presenta en IAC2. El error absoluto tiene valores similares a los obtenidos con
la dispersi on mostrando la existencia de una relaci on entre estos dos valores.
En las guras 4.17 y 4.18 se muestran el resultado para MTSE y MTAE, que permiten
establecer una tendencia del error. Los resultados obtenidos permiten concluir que para los
identicadores no evolutivos, a medida que incrementa la temperatura, el error es menor,
debido a que los errores catastr ocos resultan en temperaturas elevadas relativamente
cercanas a la referencia. En cuanto al error en los identicadores evolutivos, se observa
un incremento cercano al proporcional, que indica que el error se mantiene en un rango
constante a pesar de incrementar el tiempo. Nuevamente el controlador IAC2 tiene los
menores ndices con todos los identicadores. IWPSO es altamente inefectivo y presenta
62
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
1
Accin de Control Promedio
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
1
Accin de Control Promedio
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
3
Figura 4.20: Acci on de control promedio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
una tendencia de temperatura creciente, lo que implica que durante el experimento, no solo
el error fue alto, sino que la temperatura continua creciendo.
En las guras 4.19 y 4.20 se muestran los resultados para CAS y CAA. El an alisis de estos
ndices permiten concluir que los identicadores por partculas presentan una acci on de
control m as uniforme al presentar un menor CAS, mientras que los identicadores evolutivos
poseen un CAA bajo. Los altos valores de CAA presentados por los identicadores no
evolutivos indican una acci on de control errada producida por el sistema de identicaci on,
generando una p erdida de la se nal de referencia por sobrepaso. En el caso del controlador
por BSFO, los valores de CAS indican una acci on de control oscilante, que produce el efecto
observado en la gura 4.4.
Los valores obtenidos de los ndices para el experimento con volumen innito y aislado y
referencia variable se muestran en las guras 4.214.29, donde se comprueban los resultados
obtenidos por los identicadores evolutivos, y adem as se demuestra que el algoritmo no se
estanca sobre una referencia en particular.
En la gura 4.21 se muestra el resultado para t
f
. El resultado muestra que el controlador se
ajusta a la nueva referencia exitosamente. Al igual que los experimentos con referencia ja,
el controlador IAC2 tiene el desempe no m as adecuado. Adem as se observa que el sistema
tiene un mejor desempe no a partir de la referencia de 35

C. Este comportamiento indica que


a mayor tiempo de operaci on, el identicador evolutivo obtiene mayor informaci on sobre la
din amica del sistema, haciendo una estimaci on m as precisa. Este efecto es notorio en ambos
experimentos y es corroborado en la gura 4.22, donde se muestra el resultado para ER. Los
casos donde el efecto es m as notorio es IAC1-EvBSFO con volumen innito e IAC2-EvBSFO
con volumen aislado. El resultado obtenido por IAC3-EvPSO con volumen aislado representa
el peor de los casos entre los experimentos realizados y se observa un desempe no inferior
63
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
EvBSFO EvPSO
0
20
40
60
I
A
C
2
EvBSFO EvPSO
0
20
40
60
I
A
C
3
EvBSFO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
EvBSFO EvPSO
0
20
40
60
I
A
C
2
EvBSFO EvPSO
0
20
40
60
I
A
C
3
Figura 4.21: Temperatura nal promedio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
10
20
I
A
C
1
Error Relativo (%)
EvBSFO EvPSO
0
10
20
I
A
C
2
EvBSFO EvPSO
0
10
20
I
A
C
3
EvBSFO EvPSO
0
10
20
I
A
C
1
Error Relativo (%)
EvBSFO EvPSO
0
10
20
I
A
C
2
EvBSFO EvPSO
0
10
20
I
A
C
3
Figura 4.22: Error relativo con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
en la referencia de 35

C, instante en el cual, los actuadores deberan ser apagados. El fallo


en la referencia indica que el controlador no efectu o un apagado completo de los actuadores
con el objetivo de descender la temperatura.
En la gura 4.23 se muestra el resultado para . Los valores obtenidos indican un incremento
en la dispersi on de la supercie al incrementar la temperatura, un efecto tambi en observado
en los experimentos de referencia ja. En algunas situaciones tambi en se observa que la
dispersi on a 40

C es mayor que la dispersi on a 45

C, corroborando la tendencia a disminuir,


no solo el error, sino tambi en la dispersi on de la supercie a medida que pasa el tiempo del
experimento.
En las guras 4.24 y 4.25 se muestran el resultado para MSE y MAE respectivamente. Los
resultados obtenidos en estos ndices muestran dos aspectos para considerarse. El primero
64
4.3 Procedimiento y Resultados
EvBSFO EvPSO
0
2
4
I
A
C
1
Dispersin (
o
C)
EvBSFO EvPSO
0
2
4
I
A
C
2
EvBSFO EvPSO
0
2
4
I
A
C
3
EvBSFO EvPSO
0
2
4
I
A
C
1
Dispersin (
o
C)
EvBSFO EvPSO
0
2
4
I
A
C
2
EvBSFO EvPSO
0
2
4
I
A
C
3
Figura 4.23: Dispersi on de la supercie con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
10
20
30
I
A
C
1
Error Cuadrado Medio
EvBSFO EvPSO
0
5
10
15
I
A
C
2
EvBSFO EvPSO
0
5
10
15
I
A
C
3
EvBSFO EvPSO
0
2
4
6
I
A
C
1
Error Cuadrado Medio
EvBSFO EvPSO
0
10
20
30
I
A
C
2
EvBSFO EvPSO
0
20
40
60
I
A
C
3
Figura 4.24: Error cuadrado medio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
es la diferencia sustancial de desempe no entre el IAC3EvBSFO e IAC2-EvPSO con respecto
a los dem as controladores en el experimento con volumen aislado. Esto se debe a que
ambos controladores poseen errores menores a uno, indicando que el identicador en ambos
experimentos presenta el mejor caso para cada uno de los algoritmos. Los resultados en el
experimento con volumen innito son similares para ambos algoritmos. Tambi en se observa
un mayor error sobre la referencia de 40

C, acorde con lo discutido anteriormente. Los valores


de error absoluto tambi en presentan similitud con los obtenidos por el ndice de dispersi on,
conrmando lo observado en el experimento de referencia ja.
En las guras 4.26 y 4.27 se muestran el resultado para MTSE y MTAE respectivamente. El
an alisis de estos ndices permite establecer que el algoritmo EvBSFO tiende a reducir su error
con el tiempo, debido a que las diferencias entre los valores para las referencias no sufren
de incrementos tan pronunciados como los observados en EvPSO. Para EvBSFO, el mejor
65
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
2
4
I
A
C
1
Error Absoluto Medio
EvBSFO EvPSO
0
1
2
3
I
A
C
2
EvBSFO EvPSO
0
1
2
3
I
A
C
3
EvBSFO EvPSO
0
1
2
I
A
C
1
Error Absoluto Medio
EvBSFO EvPSO
0
2
4
I
A
C
2
EvBSFO EvPSO
0
2
4
I
A
C
3
Figura 4.25: Error absoluto medio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
5000
10000
I
A
C
1
Error Cuadrado por el Tiempo Medio
EvBSFO EvPSO
0
5000
10000
15000
I
A
C
2
EvBSFO EvPSO
0
5000
10000
I
A
C
3
EvBSFO EvPSO
0
2000
4000
I
A
C
1
Error Cuadrado por el Tiempo Medio
EvBSFO EvPSO
0
2000
4000
6000
8000
I
A
C
2
EvBSFO EvPSO
0
5
x 10
4
I
A
C
3
Figura 4.26: Error cuadrado por el tiempo medio: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
desempe no lo provee el controlador IAC3. Este resultado se explica en el comportamiento del
algoritmo. EvBSFO y su algoritmo padre, BSFO son b usquedas que utilizan la direcci on del
gradiente. El dise no del controlador IAC3 permite separar el desempe no de cada identicador
de manera individual, por lo cual, este se ve beneciado por el comportamiento de EvBSFO.
Para el algoritmo EvPSO el error tiene una tendencia a mantenerse relativamente constante
en el tiempo, al igual que lo observado en el experimento de referencia ja.
En las guras 4.28 y 4.29 se muestra el resultado para CAS y CAA. El an alisis de CAS indica
que el mayor esfuerzo de control se produce en los instantes iniciales del control, donde se
pasa de la temperatura ambiente a la temperatura de referencia de 40

C, en particular para
los controladores acoplados con EvBSFO. Esto tambi en indica que a media que transcurre
el tiempo, la acci on de control es m as uniforme, efecto que inuye en el error del sistema.
Igualmente se puede concluir, que el identicador obtiene, a medida que pasa el tiempo una
66
4.4 Conclusiones
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
1
Error Absoluto por el Tiempo Medio
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
2
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
3
EvBSFO EvPSO
0
500
1000
1500
I
A
C
1
Error Absoluto por el Tiempo Medio
EvBSFO EvPSO
0
500
1000
1500
I
A
C
2
EvBSFO EvPSO
0
2000
4000
I
A
C
3
Figura 4.27: Error absoluto por el tiempo medio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
0.02
0.04
I
A
C
1
Suavidad de la Accin de Control
EvBSFO EvPSO
0
0.02
0.04
I
A
C
2
EvBSFO EvPSO
0
0.02
0.04
I
A
C
3
EvBSFO EvPSO
0
0.02
0.04
I
A
C
1
Suavidad de la Accin de Control
EvBSFO EvPSO
0
0.02
0.04
I
A
C
2
EvBSFO EvPSO
0
0.02
0.04
I
A
C
3
Figura 4.28: Suavidad de la acci on de control con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
mejor aproximaci on del sistema. En cuanto al CAA, la acci on de control efectuada sobre la
referencia de 35

C es cercana a cero. Esto se debe a que el sistema, luego de mantenerse


en una referencia superior, debe apagar los actuadores para decrecer la temperatura del
sistema. Los resultados indican que en efecto, el controlador efect ua esta acci on.
4.4. Conclusiones
En este captulo se present o el dise no y la implementaci on de tres arquitecturas de control
indirecto adaptativo para la regulaci on de temperatura en la Plataforma de Experimentaci on
de Temperatura Multizona (MuTEP), las cuales hacen uso de un algoritmo de enjambres como
67
4. REGULACI

ON DE TEMPERATURA EN LA PLATAFORMA DE EXPERIMENTACI

ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
0.2
0.4
I
A
C
1
Accin de Control Promedio
EvBSFO EvPSO
0
0.2
0.4
I
A
C
2
EvBSFO EvPSO
0
0.2
0.4
I
A
C
3
EvBSFO EvPSO
0
0.2
0.4
I
A
C
1
Accin de Control Promedio
EvBSFO EvPSO
0
0.2
0.4
I
A
C
2
EvBSFO EvPSO
0
0.2
0.4
I
A
C
3
Figura 4.29: Acci on de control promedio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
estrategia de identicaci on. El primer paso para la soluci on de este problema fue establecer
pautas para que el algoritmo de optimizaci on, dise nado originalmente para una unica funci on
de costo, sea capaz de optimizar varias funciones de costo independientes, lo cual fue posible
al denir una funci on de costo motivadora del enjambre y seleccionar los par ametros de cada
modelo utilizando al mejor individuo por funci on de costo.
Los resultados obtenidos en los experimentos permitieron demostrar que la evoluci on de los
enjambres permite obtener mejores resultados en el problema de control, que los obtenidos
al utilizar enjambres con par ametros generalizados, alcanzando menores ndices de error
y de dispersi on, con acciones de control menores y m as suaves. Adicionalmente, se pudo
conrmar la validez de las simplicaci on realizada por medio del acoplamiento de los modelos,
ya que en la mayora de los casos, el controlador de segundo orden presenta un mejor
desempe no que el controlador desacoplado de primer orden.
El siguiente paso en el desarrollo de un controlador para MuTEP consiste en el dise no de
un controlador que considere el efecto de todos los actuadores sobre cada sensor. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de par ametros, para lo cual se debe considerar el uso de sistemas de c omputo m as veloces
o en paralelo.
68
CAP

ITULO 5
Conclusiones y Trabajos Futuros
A trav es de este documento se ha presentado el dise no, implementaci on, aplicaci on y prueba
de una metodologa para la autoadaptaci on de algoritmos de enjambres por medio de los
conceptos de Estrategias Evolutivas. En los captulos iniciales se presentaron los conceptos
te oricos necesarios para entender el concepto de evoluci on de enjambres y su aplicaci on
sobre los algoritmos BSFO y PSO, luego se utilizaron dos problemas de control, uno sobre
un sistema sencillo de una entrada una salida y otro sobre la Plataforma de Experimentaci on
de Temperatura Multizona (MuTEP), para examinar el comportamiento de los algoritmos en
un problema pr actico.
En este captulo, se presenta la discusi on nal de los resultados obtenidos durante el
desarrollo de este trabajo, como una evaluaci on de los objetivos propuestos y los posibles
caminos que puede tener a futuro esta investigaci on. Inicialmente, en la secci on 5.1 se
presentan los resultados en t erminos de los objetivos planteados al inicio de este documento.
Despu es, en la secci on 5.2 se presentan las publicaciones derivadas de este trabajo.
Finalmente en la secci on 5.3 se presentan los trabajos futuros sugeridos para la continuaci on
de esta investigaci on.
69
5. CONCLUSIONES Y TRABAJOS FUTUROS
5.1. Discusi on nal
La SI es en la actualidad, un area de la investigaci on en IA en r apido crecimiento, con una gran
diversidad de m etodos basados en diferentes sociedades naturales y aplicaciones diferentes
en varios campos de la ingeniera. Al mismo tiempo, se ha encontrado que continuamente
se producen nuevas modicaciones a los conceptos b asicos con el objetivo de mejorar el
desempe no de los algoritmos, en particular el hibridizar su funcionamiento con el de los EA.
Aunque se han dado algunos pasos encaminados a la autoadaptaci on de los sistemas, los
trabajos en esta area son a un limitados, por lo que existe a un muchos conceptos por explorar.
Los algoritmos de SI, como m etodos de optimizaci on a su vez resultan de utilidad en los
sistemas de control al ser sustitutos de otras t ecnicas ampliamente utilizadas, como lo son
mnimos cuadrados, algoritmos gen eticos, programaci on lineal, entre otras. En este trabajo se
mostr o la utilidad de estos algoritmos en la sintonizaci on de controladores fuera de lnea como
lo son los PID y controladores en lnea como es el IAC. En particular, el IAC result o altamente
beneciado con los algoritmos de enjambres evolutivos al ser comparado con aquellos que no
poseen autoadaptaci on. La combinaci on de enjambres evolutivos e IAC permiti o obtener un
controlador que se desempe na de manera muy satisfactoria frente a un problema complejo
como lo es MuTEP.
La selecci on de algoritmos de SI dise nados para espacios continuos, como lo son BSFO
y PSO, facilit o las operaciones de mutaci on y selecci on de poblaciones, al contener la
informaci on de b usqueda en los agentes y no en el espacio, como es el caso de los algoritmos
de hormigas. Al mismo tiempo, los par ametros obtenidos por el sistema son n umeros reales,
que no requieren de modicaci on para ser empleados dentro de controladores.
A su vez, los algoritmos seleccionados permitieron establecer de manera directa los
par ametros m as adecuados a evolucionar debido a su inuencia en el resultado nal. En
ambos casos las caractersticas que dominan la comunicaci on entre agentes y el tama no de
paso tienen la mayor inuencia sobre el resultado, siendo estos par ametros los seleccionados
para su evoluci on. Los resultados obtenidos durante el ttest mostraron que en efecto
la autoadaptaci on estadisticamente logra mejores resultados que las versiones est aticas,
permitiendo concluir que en efecto la poblaci on tiende a una posici on optima dentro del
espacio de par ametros de la estrategia.
5.2. Publicaciones resultantes de la investigaci on
A continuaci on se presentan los res umenes de las publicaciones resultantes de esta
investigaci on. Los trabajos descritos contienen resultados preliminares, que ayudaron a
70
5.2 Publicaciones resultantes de la investigaci on
determinar los algoritmos y sus par ametros a evolucionar, y resultados nales descritos en
cada uno de los captulos anteriores de este documento.
5.2.1. Artculos en Revistas
M.A. Mu noz, J.A. L opez & E.F. Caicedo. An Articial Bee Hive for Continuous
Optimization. International Journal of Intelligent Systems. Aceptado.
Resumen: In this paper, we present an Articial BeeHive Algorithm for optimization
in continuous search spaces based on a model aimed at individual bee behavior.
The algorithm denes a series of behavioral rules for each agent to determine what
actions must be carried out. Additionally, our algorithm includes some adaptations
not considered in the biological model to increase the performance in the search for
better solutions. To compare the performance of the algorithm to other swarm-based
algorithms, we conducted statistical analyses by using the so-called t-test. This
comparison is done by using several benchmark functions.
5.2.2. Trabajos en Conferencias
M.A. Mu noz, J.A. L opez & E.F. Caicedo. Control Inteligente usando optimizaci on
por colonia de hormigas. En Congreso Internacional de Inteligencia Computacional
CIIC2007. Bogot a, 57 Septiembre de 2007.
Resumen: En este artculo se presenta la manera como los algoritmos basados
en colonia de hormigas pueden ser aplicados para resolver problemas en el campo
del control autom atico. Los algoritmos basados en colonia de hormigas son una
metodologa perteneciente a la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de estos algoritmos en el campo del
control de procesos: primero se presenta el control adaptativo indirecto del nivel de un
tanque y, posteriormente, se presenta la asignaci on de recursos sobre una grilla de
temperatura. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva y,
especcamente, los algoritmos basados en colonia de hormigas son una herramienta
prometedora para el desarrollo de controladores inteligentes.
M.A. Mu noz, J.A. L opez & E.F. Caicedo. Optimizaci on y Control usando Colonias de
Hormigas. En VII Congreso de la Asociaci on Colombiana de Automatica ACA2007.
Santiago de Cali, 2124 de Marzo de 2007.
Resumen: En este artculo se presenta la manera como un algoritmo de optimizaci on
en espacios continuos basado en colonia de hormigas puede ser aplicado para resolver
71
5. CONCLUSIONES Y TRABAJOS FUTUROS
problemas en el campo del control autom atico. Los algoritmos basados en colonia
de hormigas hacen parte de la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de este algoritmo en el campo del
control de procesos: primero se presenta la sintonizaci on de un controlador PID para
un reactor de agitaci on continua, luego el control adaptativo indirecto del nivel de
un tanque. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva,
y especcamente, los algoritmos basados en colonia de hormigas constituyen una
herramienta prometedora para el desarrollo de controladores inteligentes.
M.A. Mu noz, E.F. Caicedo. & J.A. L opez Estudio Comparativo de Esquemas de
Control Inteligente Aplicado a un Tanque con Agitaci on Continua. En VII Congreso de la
Asociaci on Colombiana de Automatica ACA2007. Santiago de Cali, 2124 de Marzo
de 2007.
Resumen: En este trabajo se estudia la simulaci on de controladores neuronales,
difusos y PID sintonizado evolutivamente para un tanque de calentamiento de
agitaci on continua; y se presenta un an alisis comparativo del desempe no de los
mismos. Los resultados demostraron la factibilidad y el funcionamiento adecuado de
ciertos controles para esta planta y las dicultades que se podran presentar en
la implementaci on de uno u otro para este caso. El trabajo pretende demostrar la
utilidad de estos m etodos gracias a su exibilidad y a la posibilidad de implementar
controladores a plantas cuyo modelo matem atico exacto se desconoce.
5.3. Trabajos Futuros
Los resultados obtenidos en este trabajo permiten formular algunas hip otesis cuyo desarrollo
puede ser evaluado en trabajos posteriores. Si bien el estudio de la metodologa de
autoadaptaci on se realiz o en tres escenarios diferentes, proporcionando una cantidad
suciente de datos para sustentar las armaciones, es necesario realizar un estudio de
estabilidad y convergencia de los algoritmos, en particular sobre los par ametros de la
estrategia. El trabajo realizado hasta el momento pudo determinar que la tendencia del
algoritmo es a reducir sus par ametros mientras se encuentre en un descenso de gradiente.
De lo contrario el algoritmo incrementar a sus par ametros.
El siguiente trabajo de importancia es el estudio de las variaciones en la estrategia evolutiva.
Se propone la experimentaci on con un tipo de selecci on que incluya a la poblaci on padre,
siendo esta una estrategia (1+). Se considera, de acuerdo a conocimiento obtenido, que
esta estrategia puede representar cambios menos dr asticos de los par ametros.
Las pruebas preliminares de este trabajo permitieron establecer la necesidad de utilizar el
72
5.3 Trabajos Futuros
desempe no global como costo para la autoadaptaci on. Sin embargo, se sugiere continuar la
exploraci on de poblaciones de menor tama no, incluyendo poblaciones de un solo individuo,
similar al encontrado en [Miranda02b]. Este trabajo permitira el uso de la cruza de par ametros
entre poblaciones. Sin embargo, cuando se consideran poblaciones de m as de un individuo,
se hace necesario el desarrollo de un algebra de poblaciones.
Junto con estos trabajos, se hace indispensable el estudio de las caractersticas de
cooperaci on y competici on a nivel de agentes. Este estudio requiere el an alisis por medio
de teora de juegos y el estudio de las caractersticas de equilibrio de Nash del sistema.
De manera similar, se hace interesante la posibilidad de incluir otros esquemas de
comportamiento, que inuyan en desempe no de los agentes tanto individual como
colectivamente. Algunos comportamientos propuestos son la predicci on, el aprendizaje por
refuerzo y la curiosidad articial. La adici on de este tipo de comportamientos encamina la
investigaci on hacia el campo de la vida articial.
Finalmente, en el dise no de un controlador para MuTEP, los resultados obtenidos, aunque
satisfactorios, a un no producen una respuesta completa para el problema, puesto que el
uso del promedio de las salidas no considera aspectos como la distancia de los actuadores
a cada uno de los sensores y los acoplamientos existentes entre zonas no adyacentes. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de par ametros, para lo cual se debe considerar el uso de sistemas de computo m as veloces
o en paralelo.
73
5. CONCLUSIONES Y TRABAJOS FUTUROS
74
AP

ENDICE A
Tablas de resultados
En este ap endice se presentan las tablas de resultados complementarias a las gr acas de
los experimentos realizados en el captulo 4. La tabla A.1 presenta los valores de los ndices
de desempe no para el experimento con volumen de control innito y referencia ja. La tabla
A.2 presenta los valores de los ndices de desempe no para el experimento con volumen de
control aislado y referencia ja. La tabla A.3 presenta los valores de los ndices de desempe no
para el experimento con volumen de control innito y referencia variable. Finalmente, la tabla
A.4 presenta los valores de los ndices de desempe no para el experimento con volumen de
control aislado y referencia variable.
75
A. TABLAS DE RESULTADOS
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
35 42.6349 21.8140 5.0554 88.3989 7.7815 23779.5631 2093.1382 0.0655 0.3418
1 40 46.4264 16.0660 5.5428 76.6472 7.0010 20681.5154 1886.4695 0.0680 0.3882
45 48.3837 7.5192 6.0979 52.6365 5.8916 14164.7997 1585.3563 0.0650 0.4962
35 38.9906 11.4017 3.9536 34.1394 4.6895 9166.3970 1260.3132 0.0502 0.2319
BSFO 2 40 42.7992 6.9981 4.4694 30.5459 4.5240 8218.1093 1217.0833 0.0585 0.2899
45 44.6298 0.8228 5.4405 32.3648 4.8945 8709.7649 1316.8368 0.0664 0.4183
35 43.8688 25.3394 5.2166 107.0651 8.8847 28819.0537 2390.5096 0.0665 0.3433
3 40 46.8624 17.1560 5.6855 80.6223 7.2033 21716.7534 1939.0724 0.0663 0.4143
45 48.6526 8.1168 6.3192 53.8310 5.9602 14469.1345 1602.8443 0.0632 0.5128
35 37.4940 7.1258 2.7508 22.9505 3.4484 6151.6346 925.9584 0.0334 0.2071
1 40 43.1026 7.7566 3.3025 42.0890 4.4382 11330.4484 1193.3282 0.0293 0.2757
45 46.0857 2.4127 3.0615 18.9334 3.2253 5098.0606 868.7391 0.0304 0.3502
35 37.3850 6.8143 2.5638 32.8173 3.4321 8791.7774 920.8207 0.0304 0.1880
EvBSFO 2 40 41.1302 2.8255 2.4889 11.2319 2.6158 3057.9898 706.4792 0.0281 0.2226
45 46.4262 3.1694 3.6260 21.7321 3.6594 5842.9724 984.1693 0.0474 0.3628
35 36.3069 3.7340 2.0602 7.2487 2.0950 1944.6933 562.5189 0.0063 0.1565
3 40 40.7916 1.9790 2.3369 6.9490 2.1321 1866.3596 573.3319 0.0054 0.2246
45 45.7095 1.5768 3.5213 13.5981 3.0709 3659.0578 826.0885 0.0055 0.4447
35 39.7784 13.6524 3.1011 77.1585 5.8469 20762.2272 1572.6040 0.0201 0.2360
1 40 43.4195 8.5488 3.9777 103.5183 5.8138 27870.7442 1563.4648 0.0246 0.3407
45 45.6053 1.3451 4.1782 26.9595 4.0537 7246.8493 1089.6129 0.0285 0.4207
35 34.1307 2.4836 1.8922 5.9428 1.9316 1591.4907 518.7483 0.0053 0.0724
PSO 2 40 38.6066 3.4836 3.1607 18.9821 3.5503 5083.7212 953.6123 0.0160 0.1787
45 42.9425 4.5723 4.0468 31.9400 4.6519 8607.1788 1252.2032 0.0218 0.2831
35 39.8500 13.8572 3.3534 87.1762 5.9229 23475.1076 1593.9445 0.0114 0.2269
3 40 52.9758 32.4396 6.4423 281.8739 13.3404 75896.6281 3590.3421 0.0102 0.5684
45 52.9911 17.7581 6.1435 119.9442 8.6318 32275.3664 2322.3358 0.0153 0.5551
35 35.4525 1.2929 1.9590 4.7143 1.8147 1268.5319 488.1646 0.0021 0.1089
1 40 40.3124 0.7811 3.0278 10.5973 2.7062 2850.3629 727.9133 0.0028 0.2171
45 45.1493 0.3318 3.7939 15.1306 3.4206 4069.5456 920.0982 0.0027 0.3415
35 35.0928 0.2651 2.0740 5.6297 1.9550 1515.6711 526.1025 0.0014 0.0672
EvPSO 2 40 39.9010 0.2476 3.3010 12.7091 3.0044 3415.5400 807.7816 0.0030 0.1761
45 45.7898 1.7552 4.3531 25.9450 4.1986 6980.5856 1129.5172 0.0081 0.3163
35 35.5580 1.5943 2.3945 6.8378 2.1344 1840.3977 574.3833 0.0007 0.0974
3 40 40.4192 1.0481 3.2261 11.2680 2.8622 3030.6384 769.7740 0.0015 0.2110
45 45.4362 0.9693 3.7878 15.2429 3.3930 4098.1674 912.5126 0.0030 0.3348
Tabla A.1: Desempe no del Controlador Indirecto Adaptativo con volumen de control innito y referencia ja
76
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
35 63.8131 82.3232 5.8314 873.6135 28.8131 235856.3260 7765.5773 0.0691 0.3054
1 40 63.4411 58.6027 5.7613 591.9713 23.4411 160044.1594 6322.3337 0.0691 0.3187
45 67.3120 49.5823 5.8833 543.2126 22.3120 146971.0715 6020.2266 0.0702 0.3364
35 46.5505 33.0015 3.2703 148.1396 11.5505 39942.3935 3111.1076 0.0381 0.1537
BSFO 2 40 49.8753 24.6882 3.6344 114.1759 9.8758 30711.5545 2656.4360 0.0455 0.1956
45 54.6233 21.3851 3.8191 110.6809 9.6239 29838.4839 2592.1437 0.0498 0.2236
35 65.1516 86.1474 5.9188 946.5831 30.1516 255449.0736 8124.1720 0.0690 0.2995
3 40 65.7945 64.4863 5.8401 701.7307 25.7945 189595.2470 6954.4560 0.0698 0.3193
45 67.7837 50.6304 5.9735 557.1639 22.7837 150492.4226 6141.7472 0.0692 0.3427
35 36.2000 3.4285 1.5125 7.6930 1.9776 2018.7465 526.6787 0.0134 0.1018
1 40 40.3593 0.8983 1.6736 4.0563 1.5682 1075.6032 419.9585 0.0140 0.1261
45 45.0574 0.1276 1.6363 3.5183 1.5065 944.4754 404.7785 0.0147 0.1602
35 36.1922 3.4063 1.4206 7.7192 1.8425 2034.7935 491.2548 0.0132 0.0804
EvBSFO 2 40 41.1583 2.8959 1.8714 8.9738 2.0759 2343.2153 553.2136 0.0195 0.1273
45 46.0983 2.4407 2.0877 8.7881 2.2030 2371.4019 593.7378 0.0243 0.1629
35 36.8666 5.3332 1.6912 7.3182 2.2062 1964.8677 592.7785 0.0050 0.0966
3 40 42.0658 5.1644 1.9887 9.9000 2.5007 2658.9222 672.1197 0.0071 0.1274
45 46.4995 3.3322 2.2228 8.2893 2.3056 2221.6818 618.9019 0.0048 0.1759
35 51.1876 46.2504 3.5105 582.7037 16.3783 156991.6105 4404.9778 0.0121 0.2172
1 40 55.6080 39.0199 3.9369 654.5076 16.1064 176550.7267 4338.3031 0.0112 0.2645
45 51.8425 15.2055 3.0082 131.8685 7.8231 35530.5898 2103.7521 0.0219 0.2072
35 34.5927 1.1636 1.0583 1.8170 1.0644 488.9826 286.2992 0.0025 0.0320
PSO 2 40 41.2682 3.1704 1.7983 14.4518 2.9052 3855.0730 778.8036 0.0127 0.0890
45 45.5158 1.1462 2.2189 13.0837 2.8558 3478.5976 764.9258 0.0137 0.1114
35 45.8786 31.0818 3.4841 271.3102 11.3229 73306.6380 3052.8004 0.0153 0.2136
3 40 72.0052 80.0130 7.6603 1517.3603 32.1528 409246.2475 8657.3808 0.0135 0.4486
45 69.4577 54.3504 9.2763 850.1966 24.4578 228916.4779 6578.9176 0.0190 0.3442
35 35.3946 1.1273 1.2031 2.0674 1.1525 556.3310 310.0311 0.0007 0.0481
1 40 40.4794 1.1986 1.3637 2.9592 1.3644 795.4142 366.9701 0.0015 0.0688
45 45.4656 1.0347 1.9340 5.4808 1.8569 1475.0595 499.5555 0.0029 0.1156
35 35.2864 0.8183 1.2201 2.0630 1.1133 554.9062 299.4500 0.0006 0.0261
EvPSO 2 40 40.4629 1.1573 2.0188 5.4775 1.8101 1474.1150 487.0451 0.0018 0.0672
45 45.6300 1.4001 1.8165 6.1407 1.9449 1652.2107 523.0997 0.0024 0.0742
35 38.5257 10.0733 1.6861 63.3891 4.1993 17056.7953 1129.5986 0.0006 0.0562
3 40 41.1093 2.7733 1.9764 6.8943 2.0658 1853.4859 555.5903 0.0012 0.0772
45 46.1912 2.6472 1.9010 7.0609 2.1086 1898.6443 567.1072 0.0032 0.1106
Tabla A.2: Desempe no del Controlador Indirecto Adaptativo con volumen de control aislado y referencia ja
77
A. TABLAS DE RESULTADOS
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
40 42.1277 5.3193 3.0482 29.6753 3.6764 7862.8482 981.0327 0.0317 0.2783
1 35 35.9216 2.6333 1.8001 11.3565 2.1596 6506.0179 1232.3622 0.0084 0.0859
45 45.1334 0.2964 2.7983 8.5826 2.4817 7455.7276 2156.1232 0.0115 0.3177
40 40.7862 1.9655 2.6041 13.1836 2.6769 3510.5703 718.1567 0.0313 0.2412
EvBSFO 2 35 35.2180 0.6229 1.6173 3.5737 1.5824 2033.8690 900.5134 0.0049 0.0790
45 44.6495 0.7789 2.9116 10.2864 2.7368 8933.1107 2377.5602 0.0185 0.3211
40 40.6953 1.7383 2.6076 8.0607 2.3407 2168.3182 629.7395 0.0068 0.2770
3 35 36.1185 3.1958 1.9987 6.5810 2.0252 3745.3751 1152.6037 0.0019 0.1186
45 45.2061 0.4579 2.9932 9.5270 2.5867 8281.9808 2247.8926 0.0041 0.3669
40 40.1810 0.4526 2.9631 9.9783 2.6267 2682.0956 706.2758 0.0055 0.2600
1 35 35.5750 1.6428 2.2129 6.4811 2.0380 3688.5700 1159.6215 0.0011 0.0812
45 45.0742 0.1648 3.6627 14.4187 3.1708 12531.5196 2755.6159 0.0051 0.3567
40 40.5332 1.3330 3.1406 11.6750 2.7826 3140.8311 748.7274 0.0040 0.1897
EvPSO 2 35 36.2527 3.5792 2.4217 9.5697 2.4543 5444.3794 1396.2091 0.0009 0.0805
45 44.9534 0.1035 3.8291 16.1546 3.3818 14039.5530 2938.7842 0.0055 0.2747
40 40.2732 0.6830 2.7663 9.2529 2.5043 2490.0931 673.7733 0.0052 0.1860
3 35 36.0127 2.8936 1.9969 6.3135 2.0056 3590.9647 1140.8787 0.0014 0.0633
45 44.8633 0.3037 3.5286 13.7149 3.1434 11918.5595 2731.5087 0.0053 0.2834
Tabla A.3: Desempe no del Controlador Indirecto Adaptativo con volumen de control innito y referencia variable
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
40 40.3703 0.9257 1.6204 3.6544 1.5071 987.4776 405.9413 0.0160 0.1103
1 35 35.1321 0.3774 1.0467 1.6920 1.0129 963.8133 576.6660 0.0012 0.0170
45 45.0028 0.0061 1.6519 3.4717 1.4935 3016.6175 1297.7280 0.0034 0.1131
40 43.2128 8.0321 2.3902 27.8099 3.7784 7461.5703 1012.4391 0.0266 0.1430
EvBSFO 2 35 36.1591 3.3116 1.2970 10.1893 1.8764 5849.5577 1073.0727 0.0026 0.0207
45 45.0664 0.1476 1.7386 4.0429 1.6025 3512.6855 1392.5642 0.0079 0.1171
40 41.4779 3.6947 1.9703 8.4672 2.1755 2289.4383 586.9789 0.0065 0.1370
3 35 36.3849 3.9569 1.5413 5.4175 1.8013 3077.2437 1023.7550 0.0008 0.0376
45 45.6569 1.4597 2.0418 5.5890 1.8553 4854.9966 1611.9464 0.0034 0.1404
40 40.3449 0.8623 1.8365 4.5815 1.6902 1232.7005 454.6812 0.0020 0.0794
1 35 35.6083 1.7380 1.4503 3.3202 1.4282 1890.0506 812.8767 0.0002 0.0179
45 45.3656 0.8125 2.2206 6.2399 1.9761 5422.7156 1717.3900 0.0020 0.1103
40 40.2132 0.5330 1.8670 4.9423 1.7453 1329.0434 469.3108 0.0014 0.0577
EvPSO 2 35 35.5928 1.6936 1.5074 3.8079 1.5304 2167.5760 870.8726 0.0002 0.0205
45 45.4316 0.9592 2.2954 6.8309 2.0476 5936.6443 1779.4198 0.0025 0.0955
40 43.4816 8.7039 2.4348 53.3746 4.5057 14361.7487 1212.1676 0.0007 0.0960
3 35 38.5614 10.1755 2.0416 46.9223 4.1952 26697.8224 2386.9984 0.0001 0.0308
45 48.5807 7.9572 2.8900 64.3898 4.9990 55963.5090 4344.2765 0.0013 0.1351
Tabla A.4: Desempe no del Controlador Indirecto Adaptativo con volumen de control aislado y referencia variable
78
Bibliografa
[Abbass01] H. A. Abbass & J. Teo. A True Annealing Approach to the Marriage
in Honey-Bees Optimization Algorithm. En The Inaugural workshop on
Articial Life (AL01). 2001. 1.1
[Alfonso07a] W. Alfonso. Regulaci on de Temperatura en la plataforma UVPTM01
basada en agentes cooperativos para la asignaci on din amica de
recursos. Inf. t ec., Universidad del Valle, 2007. 1.3.3, 1.3.5, 4.1, 4.2
[Alfonso07b] W. Alfonso, M. Mu noz, J. L opez & E. Caicedo. Optimizaci on de
Funciones Inspirada en el Comportamiento de B usqueda de N ectar
en Abejas. En Congreso Internacional de Inteligenicia Computacional
(CIIC2007). 2007. 1.3.5
[Bar an03] B. Bar an & A. Hermosilla. Comparaci on de un Sistema de Colonias
de Hormigas y una Estrategia Evolutiva para el Problema del Ruteo de
Vehculos con Ventanas de Tiempo en un Contexto Multiobjetivo. En IX
Jornadas Iberoamericanbas de Inform atica. 2003. 1.2
[Bartz-Beielstein04] T. Bartz-Beielstein, K. Parsopoulos & M. Vrahatis. Analysis
of Particle Swarm Optimization Using Computational Statistics.
En International Conference of Numerical Analysis and Applied
Mathematics (ICNAAM), p ags. 3437. 2004. 1.3.1
[Beattie98] P. Beattie & J. Bishop. Self-Localisation in the Senario Autonomous
Wheelchair. Journal of Intelligent and Robotic Systems, 22:255267,
1998. 1.3.4
79
BIBLIOGRAF

IA
[Beni88] G. Beni. The concept of cellular robotic systems. En 3rd IEEE
International Symposium on Intelligent Control, p ags. 5762. 1988. 1.3
[Beyer02] H. G. Beyer & H. P. Schwefel. Evolution strategies: A comprehensive
introduction. Natural Computing, 1(1):352, 2002. 1.2
[Bilchev95] G. Bilchev & I. Parmee. The ant colony metaphor for searching
continuous design spaces. En T. Fogarty, ed., Evolutionary Computing,
Selected Papers AISB Workshop, tomo 993 de Lecture Notes in
Computer Science, p ags. 2539. Springer, 1995. 1.3.2
[Bishop89a] J. Bishop. Anarchic Techniques for Pattern Classication. Tesis
Doctoral, University of Reading, 1989. 1.3.4, 1.3.4
[Bishop89b] J. Bishop. Stochastic Searching Networks. En First IEE Conference
on Artical Neural Networks, p ags. 329331. 1989. 1.3.4
[Bishop92] J. Bishop & P. Torr. The Stochastic Search Network. En R. Linggard,
D. Myers & C.

Nightingale, eds., Neural Networks for Images, Speech


and Natural Language, p ags. 370387. Chapman & Hall, 1992. 1.3.4,
1.3.4
[Bishop99] J. Bishop & S. Nasuto. Communicating Neurons an Alternative
Connectionism. En Weightless Neural Networks Workshop. 1999. 1.3.4
[Bremermann74] H. Bremermann. Chemotaxis and optimization. Journal of the Franklin
Institute, 297(5):397404, 1974. 1.3.3
[Bullnheimer97] B. Bullnheimer, R. F. Hartl & C. Strauss. A new rank-based version of
the ant system: a computational study. Inf. T ec. POM-03/97, Institute of
Management Science, University of Vienna, 1997. 1.3.2
[Clerc99] M. Clerc. The swarm and the queen: towards a deterministic
and adaptiveparticle swarm optimization. En 1999 Congress on
Evolutionary Computation (CEC 99). 1999. 1.3.1, 2.2
[Clerc02] M. Clerc & J. Kennedy. The Particle SwarmExplosion, Stability, and
Convergence in a Multidimensional Complex Space. IEEE Transactions
on Evolutionary Computation, 6(1):5873, 2002. 1.3.1
[Colorni91] A. Colorni, M. Dorigo & V. Maniezzo. Distributed Optimization by
Ant Colonies. En Proceedings of ECAL91 - European Conference on
Articial Life, p ags. 134142. Elsevier Publishing, 1991. 1.3.2
80
BIBLIOGRAF

IA
[Colorni92] A. Colorni, M. Dorigo & V. Maniezzo. An investigation of some
properties of an Ant algorithm. En Proceedings of the Parallel Problem
Solving from Nature Conference, p ags. 509520. Elsevier Publishing,
1992. 1.3.2
[Cord on97] O. Cord on & F. Herrera. A Three-Stage Evolutionary Process
for Learning Descriptive and Approximate Fuzzy-Logic-Controller
Knowledge Bases From Examples. International Journal of
Approximate Reasoning, 17:369407, 1997. 1.2
[Cord on00] O. Cord on, I. F. de Viana, F. Herrera & L. Moreno. A New ACO
Model Integrating Evolutionary Computation Concepts: The Best-Worst
Ant System. En Proceedings of ANTS 2000 - From Ant Colonies to
Articial Ants: Third International Workshop on Ant Algorithms, p ags.
2229. 2000. 1.3.2
[Das97] I. Das. Multi-Objective Optimization, 1997. URL
http://www-fp.mcs.anl.gov/otc/Guide/OptWeb/multiobj/. 4
[De Meyer03] K. De Meyer, J. Bishop & S. Nasuto. Stochastic Difussion: Using
Recruitment for Search. En Symposium on Evolvability & Interaction.
2003. 1.3.4
[deVries98] H. de Vries & J. C. Biesmeijer. Modelling collective foraging by means
of individual behaviour rules in honey-bees. Behav Ecol Sociobiol,
44:109124, 1998. 1.3.5
[Dorigo91a] M. Dorigo, V. Maniezzo & A. Colorni. Ant System: An Autocatalytic
Optimizing Process. Inf. T ec. 91-016, Politecnico di Milano, Italy, 1991.
1.3.2, 1.3.2
[Dorigo91b] M. Dorigo, V. Maniezzo & A. Colorni. Positive feedback as a search
strategy. Inf. T ec. 91-016, Politecnico di Milano, Italy, 1991. 1.3.2
[Dorigo96a] M. Dorigo & L. M. Gambardella. A study of some properties of ANT-Q.
En H. M. Voigt, W. Ebeling, I. Rechenberg & H. S. Schwefel, eds.,
Proceedings of Fourth International Conference on Parallel Problem
Solving From Nature, p ags. 656665. Springer Verlag, Berlin, Germany,
1996. 1.3.2
[Dorigo96b] M. Dorigo, V. Maniezzo & A. Colorni. The Ant System: Optimization by
a colony of cooperating agents. IEEE Transactions on Systems, Man,
and Cybernetics-Part B, 26(1):113, 1996. 1.3.2
81
BIBLIOGRAF

IA
[Dorigo97] M. Dorigo & L. M. Gambardella. Ant Colony System: A Cooperative
Learning Approach to the Traveling Salesman Problem. IEEE
Transactions on Evolutionary Computation, 1(1):5366, 1997. 1.3.2
[Easter Selvan03] S. Easter Selvan, S. Subramanian & S. Theban Solomon. Novel
Technique for PID Tuning by Particle Swarm Optimization. En Seventh
Annual Swarm Users/Researchers Conference (SwarmFest 2003).
2003. 1.3.1
[Eberhart95] R. Eberhart & J. Kennedy. A New Optimizer Using Particle Swarm
Theory. En Sixth International Symposium on Micro Machine and
Human Science, p ags. 3943. 1995. 1.3.1
[Eiben99] E. Eiben, R. Hinterding & Z. Michalewicz. Parameter Control
in Evolutionary Algorithms. IEEE Transactions on Evolutionary
Computation, 3(2):124141, 1999. 2.1
[El-Awady03] K. El-Awady, C. D. Schaper & T. Kailath. Temperature cycling and
control system for photosensitive materials processing. Journal of
Vacuum Science & Technology B: Microelectronics and Nanometer
Structures, 21(4):14591465, 2003. 4.1
[El-Gallad01] A. I. El-Gallad, M. El-Hawary, A. A. Sallam & A. Kalas.
Swarm-Intelligently Trained Neural Network for Power Transformer
Protection. En Canadian Conference on Electrical and Computer
Engineering, p ags. 265269. 2001. 1.3.1
[Esmin02] A. A. A. Esmin, A. R. Aoki & G. Lambert-Torres. Particle Swarm
Optimization For Fuzzy Membership Functions Optimization. En
Proceedings of the IEEE International Conference on Systems, Man
and Cybernetics, p ags. 108113. 2002. 1.3.1
[Franzen98] O. Franzen, H. Blume & H. Schr oder. FIR-lter design with spatial
and frequency design constraints using evolution strategies. Signal
Processing, 68(3):295306, 1998. 1.2
[Gambardella95] L. M. Gambardella & M. Dorigo. Ant-Q: A Reinforcement Learning
approach to the traveling salesman problem. En Proceedings of Twelfth
International Conference on Machine Learning, p ags. 252260. Morgan
Kaufmann, 1995. 1.3.2
[Gazi03] V. Gazi & K. M. Passino. Stability Analysis of Swarms. IEEE
Transactions on Automatic Control, 48(4):692697, 2003. 1.3.3
82
BIBLIOGRAF

IA
[Gazi04] V. Gazi & K. M. Passino. Stability Analysis of Social Foraging
Swarms. IEEE Transactions of Systems, Man and Cybernetics - Part
B, 34(1):539557, 2004. 1.3.3
[Grech-Cini95] H. Grech-Cini. Locating Facial Features. Tesis Doctoral, University of
Reading, 1995. 1.3.4
[Grifn03] I. Grifn. On-line PID Controller Tuning using Genetic Algorithms.
Proyecto Fin de Carrera, Dublin City University, 2003. 3.2
[Grosan05] C. Grosan, A. Abraham, S. Y. Han & A. Gelbukh. Hybrid Particle
Swarm Evolutionary Algorithm for Search and Optimization. En 4th
Mexican International Conference on Articial Intelligence (MICAI05),
Lecture Notes in Computer Science, p ags. 623632. 2005. 1.3.1
[Heegaard04] P. E. Heegaard, O. Wittner, V. F. Incola & B. Helvik. Distributed
Asynchronous Algorithm for Cross-Entropy-Based Combinatorial
Optimization. En International Workshop on Rare Event Simulation &
Combinatorial Optimization (RESIM 2004). 2004. 1.3.2
[Herrero02] J. M. Herrero, X. Blasco, M. Martnez & J. V. Salcedo. Optimal PID
Tuning With Genetic Algorithms for Non Linear Process Models. En
IFAC 15th Triennial World Congress. 2002. 3.2
[Herrero03] J. G. Herrero, J. A. B. Portas, A. B. de Jes us, J. M. M.
L opez, G. de Miguel Vela & J. R. C. Corredera. Application of
Evolution Strategies to the Design of Tracking Filters with a Large
Number of Specications. Journal on Applied Signal Processing,
2003(8):766779, 2003. 1.2
[Hertz00] A. Hertz & D. Kobler. A framework for the description of evolutionary
algorithms. European Journal of Operational Research, 126(1):112,
2000. 1.1
[Hinton81] G. Hinton. A Parallel Computation that Assigns Canonical
ObjectBased Frames of Reference. En 7th International Joint
Conference on Articial Intelligence. 1981. 1.3.4
[Hoffmann00] F. Hoffmann. Soft computing techniques for the design of mobile robot
behaviors. Information Sciences, 122(24):241258, 2000. 1.2
[Homberger05] J. Homberger & H. Gehring. A two-phase hybrid metaheuristic for
the vehicle routing problem with time windows. European Journal of
Operational Research, 162(1):220238, 2005. 1.2
83
BIBLIOGRAF

IA
[Ismail99] A. Ismail & A. P. Engelbrecht. Training Product Units in Feedforward
Neural Networks Using Particle Swarm Optimization. En Proceedings
of the International Conference on Articial Intelligence, p ags. 3640.
1999. 1.3.1
[Jin99] Y. Jin & W. von Seelen. Evaluating exible fuzzy controllers via
evolution strategies. Fuzzy Sets and Systems, 108:243252, 1999. 1.2
[Karaboga05] D. Karaboga. An idea based on Honey Bee Swarm for Numerical
Optimization. Inf. T ec. TR06, Erciyes University, 2005. 1.3.5
[Kennedy95] J. Kennedy & R. Eberhart. Particle Swarm Optimization. En
Proceedings of IEEE International Conference on Neural Networks,
p ags. 19421498. 1995. 1.3.1
[Kennedy97] J. Kennedy & R. Eberhart. A Discrete Binary Version of the Particle
Swarm Algorithm. En Proceedings of the World Multiconference on
Systemics,Cybernetics and Informatics, p ags. 41044109. 1997. 1.3.1
[Kim05] D. H. Kim & J. H. Cho. Adaptive Tuning of PID Controller for
Multivariable System Using Bacterial Foraging Based Optimization. En
Advances in Web Intelligence, tomo 3528 de Lecture Notes in Computer
Science, p ags. 231235. Springer, 2005. 1.3.3
[Kim06] M. Y. Kim & C. Lee. An experimental study on the optimization of
controller gains for an electro-hydraulic servo system using evolution
strategies. Control Engineering Practice, 14:137147, 2006. 1.2
[Kim07] D. H. Kim, A. Abraham & J. H. Cho. A hybrid genetic algorithm
and bacterial foraging approach for global optimization. Information
Sciences, 177:39183937, 2007. 1.3.3
[Krohling02] R. A. Krohling, L. d.S. Coelho & Y. Shi. Cooperative Particle Swarm
Optimization for Robust Control System Design. En Proceedings
of the 7th Online World Conference on Soft Computing in Industrial
Applications. 2002. 1.3.1
[Kuo96] B. Kuo. Sistemas de Control Autom atico. Prentince Hall
Iberoamericana, 1996. 3.2
[Leivisk a06] K. Leivisk a & I. Joensuu. Chemotaxis for Controller Tuning. En 2nd
Annual Symposium of the Nature-inspired Smart Information Systems
(NiSIS 2006). 2006. 1.3.3
84
BIBLIOGRAF

IA
[Leontitsis06] A. Leontitsis, D. Kontogiorgos & J. Pagge. Repel the swarm to the
optimum! Applied Mathematics and Computation, 173:265272, 2006.
1.3.1
[Liu02] Y. Liu & K. M. Passino. Biomimicry of Social Foraging Bacteria for
Distributed Optimization: Models, Principles and Emergent Behaviors.
Journal of Optimization Theory and Applications, 115(3):603628,
2002. 1.3, 1.3.3
[Liu05] H. Liu & A. Abraham. Fuzzy Adaptive Turbulent Particle Swarm
Optimization. En Fifth International Conference on Hybrid Intelligent
Systems, p ags. 69. 2005. 1.3.1
[Lucic03] P. Lucic & D. Teodorovic. Computing with Bees: Attacking Complex
Transportation Engineering Problems. International Journal on Articial
Intelligence Tools, 12(3):375394, 2003. 1.3.5
[Lvbjerg01] M. Lvbjerg & T. Kink. Hybrid Particle Swarm Optimiser with Breeding
and Subpopulations. En Genetic and Evolutionary Computation
Conference (GECCO). 2001. 1.3.1
[Lvbjerg02] M. Lvbjerg & T. Kink. Extending Particle Swarm Optimizers with
Self-Organized Criticality. En Proceedings of the IEEE Congress on
Evolutionary Computation (CEC 2002). 2002. 1.3.1
[Mester07] D. Mester, O. Br aysy & W. Dullaert. A multi-parametric evolution
strategies algorithm for vehicle routing problems. Expert Systems with
Applications, 32(2):508517, 2007. 1.2
[Meuleau00] N. Meuleau & M. Dorigo. Ant Colony Optimization and Stochastic
Gradient Descent. Inf. T ec. TR/IRIDIA/2000-36, IRIDIA, Universite
Libre de Bruxelles, Belgium, 2000. 1.3.2
[Miranda02a] V. Miranda & N. Fonseca. EPSO evolutionary particle swarm
optimization, a new algorithm with applications in power systems. En
Asia Pacic Transmission and Distribution Conference and Exhibition,
tomo 2, p ags. 745750. 2002. 1.3.1, 2.1
[Miranda02b] V. Miranda & N. Fonseca. EPSO - best-of-two-worlds meta-heuristic
applied to power system problems. En 2002 Congress on Evolutionary
Computation CEC 02., tomo 2, p ags. 10801085. 2002. 1.3.1, 5.3
[M uller02] S. D. M uller, J. Marchetto, S. Airaghi & P. Koumoutsakos.
Optimization Based on Bacterial Chemotaxis. IEEE Transactions on
Evolutionary Computation, 6(1):1629, 2002. 1.3.3
85
BIBLIOGRAF

IA
[Monson04] C. K. Monson & K. D. Seppi. The Kalman Swarm: A New Approach to
Particle Motion in Swarm Optimization. En Proceedings of the Genetic
and Evolutionary Computation Conference 2004 - GECCO 2004, p ags.
140150. 2004. 1.3.1
[Mu noz05a] M. A. Mu noz. Asignaci on din amica de recursos con t ecnicas bio
inspiradas para un sistema de control de temperatura MIMO. Inf. t ec.,
Universidad del Valle, 2005. 4.1, 4.1
[Mu noz05b] M. A. Mu noz, J. A. L opez & E. F. Caicedo. Implementation
of a Distributed Control Experimentation Platform. En IEEE
2005 Conference on Industrial Electronics and Control Applications
(ICIECA2005). 2005. ISBN 0780394194. 4.1
[Mu noz08] M. Mu noz, J. L opez & E. Caicedo. An Articial Bee Hive for Continuous
Optimization, 2008. Aceptado en International Journal of Intelligent
Systems. 1.3.5, 2.2
[Myatt04] D. Myatt, J. Bishop & S. Nasuto. Minimum Stable Convergence
Criteria for Stochastic Diffusion Search. Electronics Letters,
40(2):112113, 2004. 1.3.4
[Nasuto98] S. Nasuto, J. Bishop & S. Lauria. Time Complexity of Stochastic
Diffusion Search. En Neural Computation 98. 1998. 1.3.4
[Nasuto99a] S. Nasuto. Resource Allocation Analysis of the Stochastic Diffusion
Search. Tesis Doctoral, University of Reading, 1999. 1.3.4
[Nasuto99b] S. Nasuto & J. Bishop. Convergence Analysis of Stochastic Diffusion
Search. Journal of Parallel Algorithms and Applications, 14(2):89107,
1999. 1.3.4
[Nunez de Castro07] L. Nunez de Castro. Fundamentals of natural computing: an overview.
Physics of Life Reviews, 4:136, 2007. 1.4
[Omran05] M. G. H. Omran, A. P. Engelbrecht & A. Salman. Dynamic Clustering
using Particle Swarm Optimization with Application in Unsupervised
Image Classication. Transactions on Engineering, Computing and
Technology, 9:199204, 2005. 1.3.1
[Ozcan99] E. Ozcan & C. K. Mohan. Particle Swarm Optimization: Surng
the Waves. En Proceedings of the IEEE Congress on Evolutionary
Computation - CEC 1999. 1999. 1.3.1, 1.3.1
86
BIBLIOGRAF

IA
[Passino00] K. M. Passino. Distributed Optimization and Control Using Only a Germ
of Intelligence. En 2000 IEEE International Symposium on Intelligent
Control, p ags. 513. 2000. 1.3.3
[Passino02] K. M. Passino. Biomimicry of Bacterial Foraging for distributed
optimization and control. IEEE Control Systems Magazine,
22(3):5267, 2002. 1.3, 1.3.3, 1.3.3
[Pham06a] D. Pham, A. Ghanbarzadeh, E. Koc , S. Otri, S. Rahim & M. Zaidi.
The Bees Algorithm A Novel Tool for Complex Optimisation Problems.
En Innovative Production Machines and Systems Virtual Conference.
2006. 1.3.5
[Pham06b] D. Pham, E. Koc , A. Ghanbarzadeh & S. Otri. Optimisation of the
Weights of MultiLayered Perceptrons Using the Bees Algorithm. En 5th
International Symposium on Intelligent Manufacturing Systems. 2006.
1.3.5
[Pham07a] D. Pham, A. Afy & E. Koc . Manufacturing cell formation using the
Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5
[Pham07b] D. Pham, A. H. Darwish, E. Eldukhr & S. Otri. Using the Bees
Algorithm to tune a fuzzy logic controller for a robot gymnast. En
Innovative Production Machines and Systems Virtual Conference. 2007.
1.3.5
[Pham07c] D. Pham & A. Ghanbarzadeha. MultiObjective Optimisation using
the Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5
[Pham07d] D. Pham, Z. Muhamad, M. Mahmuddin, A. Ghanbarzadeh, E. Koc &
S. Otri. Using the Bees Algorithmto Optimise a Support Vector Machine
for Wood Defect Classication. En Innovative Production Machines and
Systems Virtual Conference. 2007. 1.3.5
[Pohlheim99] H. Pohlheim & A. Heiner. Optimal Control of Greenhouse Climate
using Real-World Weather Data and Evolutionary Algorithms. En
Proceedings of the Genetic and Evolutionary Computation Conference
- GECCO 1999, p ags. 16721677. 1999. 1.2
[Poli05] R. Poli, W. B. Langdon & O. Holland. Extending Particle Swarm
Optimization via Genetic Programming. En 8th European Conference
on Genetic Programming, p ags. 291300. 2005. 1.3.1
87
BIBLIOGRAF

IA
[Quijano02] N. Quijano. Experiments and technologies for decentralized
temperature control. Proyecto Fin de Carrera, The Ohio State University,
2002. 4.1
[Rechenberg73] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme
nach Prinzipien der biologischen Evolution. FrommannHolzboog,
1973. 2.1
[Rechenberg08] I. Rechenberg. Evolution Strategies, 2008. URL
http://www.bionik.tu-berlin.de/intseit2/xs2evost.html. 1.2
[Reynolds99] M. Reynolds & P. Meckl. Benchmarking Optimal Control Strategies
for Flexible Systems. En IEEE International Conference on Control
Applications, p ags. 707712. 1999. 3, 3.1
[Rubinstein01] R. Rubinstein. Combinatorial Optimization, Cross-Entropy, Ants
and Rare Events. En S. Uryasev & P. M. Pardalos, eds.,
Stochastic Optimization: Algorithms and Applications. Kluwer Academic
Publishers, 2001. 1.3.2
[Rumelhart86] D. Rumelhart & J. McClelland. Parallel Distributed Processing Vol. 1,
p ags. 113118. MIT Press, 1986. 1.3.4
[Russell96] S. Russell & P. Norvig. Inteligencia Articial: Un enfoque moderno.
Prentince Hall, 1996. 1
[Salerno97] J. Salerno. Using the Particle Swarm Optimization Technique to train
a Recurrent Neural Model. En IEEE International Conference on Tools
with Articial Intelligence, p ags. 4549. 1997. 1.3.1
[Salomon97] R. Salomon. The evolution of different neuronal control structures for
autonomous agents. Robotics and Autonomous Systems, 22:199213,
1997. 1.2
[Sastry89] S. Sastry & M. Bodson. Adaptive Control: Stability, Convergence and
Robustness. Prentice-Hall, 1989. 4.2
[Schaper99] C. D. Schaper, K. A. El-Awady & A. E. Tay. Spatially programmable
temperature control and measurement for chemically amplied
photoresist processing. En A. J. Toprac & K. Dang, eds., Procedures
SPIE Process, Equipment and Materials Control in Integrated Circuit
Manufacturing V, tomo 3882, p ags. 7479. 1999. 4.1
88
BIBLIOGRAF

IA
[Shi98] Y. Shi & R. C. Eberhart. Parameter Selection in Particle Swarm
Optimization. En Evolutionary Programming VII: Proceedings of
the Seventh Annual Conference on Evolutionary Programming, p ags.
591600. 1998. 1.3.1, 2.1.2, 2.2
[St utzle97] T. St utzle & H. Hoos. The MAXMIN ant system and local search for
the traveling salesman problem. En T. Baeck, Z. Michalewicz & X. Yao,
eds., IEEE International Conference on Evolutionary Computation and
Evolutionary Programming Conference (IEEEICECEPS97), p ags.
309314. IEEE Press, 1997. 1.3.2
[Teodorovic05] D. Teodorovic & M. DellOrco. Bee Colony Optimization A
Cooperative Learning Approach to Complex Transportation Problems.
En 10th EWGT Meeting and 16th Mini-EURO Conference. 2005. 1.3.5
[Tillett05] J. Tillett, T. M. Rao, F. Sahin & R. Rao. Darwinian Particle Swarm
Optimization. En 2nd Indian International Conference on Articial
Intelligence, p ags. 14741487. 2005. 1.3.1
[Trelea03] I. Trelea. The particle swarm optimization algorithm: convergence
analysis and parameter selection. Information Processing Letters,
85:317325, 2003. 2.2
[Trochim06] W. Trochim. The T-Test, 2006. URL
http://www.socialresearchmethods.net/kb/stat t.php. 2.2
[Tsutsui04] S. Tsutsui. Ant Colony Optimisation for Continuous Domains with
Aggregation Pheromones Metaphor. En 5th International Conference
on Recent Advances in Soft Computing, p ags. 207212. 2004. 1.3.2
[v.E.Conradie02] A. v.E. Conradie, R. Miikkulainen & C. Aldrich. Adaptive Control
utilising Neural Swarming. En Proceedings of the Genetic and
Evolutionary Computation Conference 2002 - GECCO 2002. 2002.
1.3.1
[Voss02] M. S. Voss & X. Feng. ARMA Model Selection Using Particle Swarm
Optimization and AIC Criteria. En IFAC 15th Triennial World Congress.
2002. 1.3.1
[Whitaker02] R. Whitaker & S. Hurley. An agent based approach to site selection for
wireless networks. En ACM Symposium on Applied Computing, p ags.
574577. 2002. 1.3.4
89
BIBLIOGRAF

IA
[White06] T. White. What is Swarm Intelligence?, 2006. URL
http://www.sce.carleton.ca/netmanage/tony/swarm-presentation/tsld003.htm.
1.1
[Wikipedia08a] Wikipedia. Category: Optimization Algorithms, 2008. URL
http://en.wikipedia.org/wiki/Category:Optimization algorithms. 1.1
[Wikipedia08b] Wikipedia. Computational intelligence, 2008. URL
http://en.wikipedia.org/wiki/Computational Intelligence. 1
[Wikipedia08c] Wikipedia. Evolutionary algorithm, 2008. URL
http://en.wikipedia.org/wiki/Evolutionary algorithms. 1.1
[Wikipedia08d] Wikipedia. Inteligencia Articial, 2008. URL
http://es.wikipedia.org/wiki/Inteligencia articial. 1
[Wikipedia08e] Wikipedia. Swarm Intelligence, 2008. URL
http://en.wikipedia.org/wiki/Swarm intelligence. 1.1
[Wong03] T. Wong, P. Bigras & P. C ot e. Structured Controller Design with
Evolutionary Optimization. En Articial Intelligence and Applications
2003, p ags. 163168. 2003. 1.2
[Yan-jun03] L. Yan-jun & W. Tie-jun. An Adaptative Ant Colony System Algorithm
for Continuous-Space Optimization Problems. Journal of Zhejiang
University SCIENCE, 4(1):4046, 2003. 1.3.2
[Yisu07] J. Yisu, J. Knowles, L. Hongmei, L. Yizeng & D. B. Kell. The
landscape adaptive particle swarm optimizer. Applied Soft Computing,
8(1):295304, 2007. 1.3.1, 2.2
[Yoshida01] H. Yoshida, K. Kawata, Y. Fukuyama, S. Takayama & Y. Nakanishi.
A Particle Swarm Optimization for Reactive Power and Voltage Control
Considering Voltage Security Assessment. IEEE Transactions on Power
Systems, 15(4):12321239, 2001. 1.3.1
[Yuan06] R. Yuan, C. Guang-yi & Z. Xin-jian. Particle SwarmOptimization based
predictive control of Proton Exchange Membrane Fuel Cell (PEMFC).
Journal of Zhejiang University SCIENCE A, 7(3):458462, 2006. 1.3.1
[Zhang03] W. Zhang & X. Xie. DEPSO: Hybrid Particle Swarm with Differential
Evolution Operator. En IEEE International Conference on Systems, Man
and Cybernetics (SMCC), p ags. 38163821. 2003. 1.3.1
90

S-ar putea să vă placă și