Documente Academic
Documente Profesional
Documente Cultură
Indice general
Introducci on 1
Denici on del Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Contenidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1. Computaci on Evolutiva: Sociedades para solucionar problemas 5
1.1. Computaci on Evolutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Las Estrategias Evolutivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Inteligencia de enjambres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Optimizaci on por Enjambre de Partculas . . . . . . . . . . . . . . . . 12
1.3.2. Optimizaci on por Colonia de Hormigas . . . . . . . . . . . . . . . . . . 14
1.3.3. Optimizaci on por Enjambre de Bacterias . . . . . . . . . . . . . . . . . 17
VII
INDICE GENERAL
1.3.4. B usqueda por Difusi on Estoc astica . . . . . . . . . . . . . . . . . . . 20
1.3.5. Colonias de Abejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Evoluci on de enjambres 25
2.1. Implementaci on de Enjambres Evolutivos . . . . . . . . . . . . . . . . . . . . 26
2.1.1. Evoluci on de Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . 28
2.1.2. Evoluci on de Enjambre de Partculas . . . . . . . . . . . . . . . . . . 29
2.2. Evaluaci on de desempe no . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3. Sintonizaci on de un Control PID por medio de enjambres evolutivos 41
3.1. Sistema de dos masas con exibilidad y amortiguamiento . . . . . . . . . . . 42
3.2. Sintonizaci on de controladores PID . . . . . . . . . . . . . . . . . . . . . . . 45
3.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4. Regulaci on de Temperatura en la Plataforma de Experimentaci on de Temperatura
Multizona 49
4.1. Plataforma de Experimentaci on de Temperatura Multizona . . . . . . . . . . . 50
4.2. Control Indirecto Adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3. Procedimiento y Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5. Conclusiones y Trabajos Futuros 69
5.1. Discusi on nal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
VIII
INDICE GENERAL
5.2. Publicaciones resultantes de la investigaci on . . . . . . . . . . . . . . . . . . 70
5.2.1. Artculos en Revistas . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2. Trabajos en Conferencias . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3. Trabajos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
A. Tablas de resultados 75
IX
INDICE GENERAL
X
Indice de guras
2.1. Resultados para la funci on SCB . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2. Resultados para la funci on PFUNC . . . . . . . . . . . . . . . . . . . . . . . 34
2.3. Resultados para la funci on Peaks . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4. Resultados para la funci on DeJong F1 . . . . . . . . . . . . . . . . . . . . . . 35
2.5. Resultados para la funci on Grienwank . . . . . . . . . . . . . . . . . . . . . . 35
2.6. Resultados para la funci on Rastrigin . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Resultados para la funci on Ackley . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Resultados para la funci on DeJong F2 . . . . . . . . . . . . . . . . . . . . . . 37
2.9. Resultados para la funci on Schaffer F6 . . . . . . . . . . . . . . . . . . . . . 37
2.10.Resultados para la funci on Schewefel . . . . . . . . . . . . . . . . . . . . . . 38
3.1. Sistema de dos masas con exibilidad y amortiguamiento . . . . . . . . . . . 42
3.2. Resultados obtenidos con el PID sintonizado por EvBSFO . . . . . . . . . . . 47
3.3. Resultados obtenidos con el PID sintonizado por EvPSO . . . . . . . . . . . . 47
XI
INDICE DE FIGURAS
4.1. Aquitectura de la planta en la Plataforma de Experimentaci on de Temperatura
Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2. Arquitectura general de la Plataforma de Experimentaci on de Temperatura
Multizona (MuTEP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3. Esquema de un Controlador Indirecto Adaptativo . . . . . . . . . . . . . . . . 52
4.4. Resultados obtenidos con el IAC1 con identicaci on por BSFO con referencia
constante de 35
C y volumen innito . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Resultados obtenidos con el IAC3 con identicaci on por IWPSO con referencia
constante de 45
C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 55
4.6. Resultados obtenidos con el IAC1 con identicaci on por EvBSFO con
referencia constante de 35
C y volumen aislado . . . . . . . . . . . . . . . . 56
4.7. Resultados obtenidos con el IAC2 con identicaci on por EvBSFO con
referencia constante de 40
C y volumen innito . . . . . . . . . . . . . . . . . 56
4.8. Resultados obtenidos con el IAC3 con identicaci on por EvBSFO con
referencia variable y volumen innito . . . . . . . . . . . . . . . . . . . . . . . 56
4.9. Resultados obtenidos con el IAC1 con identicaci on por EvPSO con referencia
constante de 40
C y volumen innito . . . . . . . . . . . . . . . . . . . . . . 58
4.10.Resultados obtenidos con el IAC2 con identicaci on por EvPSO con referencia
constante de 45
C y volumen aislado . . . . . . . . . . . . . . . . . . . . . . 58
4.11.Resultados obtenidos con el IAC3 con identicaci on por EvPSO con referencia
variable y volumen aislado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.12.Temperatura nal promedio con referencia ja . . . . . . . . . . . . . . . . . . 59
4.13.Error relativo con referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.14.Dispersi on de la supercie con referencia ja . . . . . . . . . . . . . . . . . . 60
4.15.Error cuadrado medio con referencia ja . . . . . . . . . . . . . . . . . . . . . 60
4.16.Error absoluto medio con referencia ja . . . . . . . . . . . . . . . . . . . . . 61
4.17.Error cuadrado por el tiempo medio con referencia ja . . . . . . . . . . . . . 61
4.18.Error absoluto por el tiempo medio con referencia ja . . . . . . . . . . . . . . 62
XII
INDICE DE FIGURAS
4.19.Suavidad de la acci on de control con referencia ja . . . . . . . . . . . . . . . 62
4.20.Acci on de control promedio con referencia ja . . . . . . . . . . . . . . . . . . 63
4.21.Temperatura nal promedio con referencia variable . . . . . . . . . . . . . . . 64
4.22.Error relativo con referencia variable . . . . . . . . . . . . . . . . . . . . . . . 64
4.23.Dispersi on de la supercie con referencia variable . . . . . . . . . . . . . . . 65
4.24.Error cuadrado medio con referencia variable . . . . . . . . . . . . . . . . . . 65
4.25.Error absoluto medio con referencia variable . . . . . . . . . . . . . . . . . . 66
4.26.Error cuadrado por el tiempo medio con referencia variable . . . . . . . . . . . 66
4.27.Error absoluto por el tiempo medio con referencia variable . . . . . . . . . . . 67
4.28.Suavidad de la acci on de control con referencia variable . . . . . . . . . . . . 67
4.29.Acci on de control promedio con referencia variable . . . . . . . . . . . . . . . 68
XIII
INDICE DE FIGURAS
XIV
Indice de tablas
1.1. Algoritmo de la Estrategia Evolutiva (/+, ) . . . . . . . . . . . . . . . . . 11
1.2. Optimizaci on por Enjambre de Partculas . . . . . . . . . . . . . . . . . . . . 13
1.3. Optimizaci on por Colonia de Hormigas . . . . . . . . . . . . . . . . . . . . . 16
1.4. Optimizaci on por Enjambre de Bacterias . . . . . . . . . . . . . . . . . . . . 19
1.5. B usqueda por Difusi on Estoc astica . . . . . . . . . . . . . . . . . . . . . . . 21
1.6. Algoritmo de Colmena de Abejas Articiales . . . . . . . . . . . . . . . . . . 23
2.1. Algoritmo de Enjambres Evolutivo . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2. Optimizaci on por Enjambre de Bacterias Evolutivo . . . . . . . . . . . . . . . 29
2.3. Optimizaci on por Enjambre de Partculas Evolutivo . . . . . . . . . . . . . . . 30
2.4. Par ametros de los algoritmos para la prueba con funciones . . . . . . . . . . . 31
2.5. Par ametros de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 31
2.6. Ecuaciones de las funciones de prueba . . . . . . . . . . . . . . . . . . . . . 32
2.7. Resultados del ttest para el Algoritmo EvBSFO . . . . . . . . . . . . . . . . 39
XV
INDICE DE TABLAS
2.8. Resultados del ttest para el Algoritmo EvPSO . . . . . . . . . . . . . . . . . 39
3.1. Par ametros del sistema de dos masas . . . . . . . . . . . . . . . . . . . . . . 44
3.2. Par ametros de los algoritmos para la sintonizaci on del control PID . . . . . . . 46
3.3. Par ametros del Controlador PID obtenidos por Enjambres Evolutivos . . . . . . 46
3.4. Tiempos de establecimiento obtenidos con el experimento de referencia variable 48
4.1. Par ametros de los algoritmos para el control adaptativo . . . . . . . . . . . . . 54
4.2. Indices de desempe no para la comparaci on de los controladores . . . . . . . . 57
A.1. Desempe no del Controlador Indirecto Adaptativo con volumen de control
innito y referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
A.2. Desempe no del Controlador Indirecto Adaptativo con volumen de control
aislado y referencia ja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
A.3. Desempe no del Controlador Indirecto Adaptativo con volumen de control
innito y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
A.4. Desempe no del Controlador Indirecto Adaptativo con volumen de control
aislado y referencia variable . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
XVI
Introducci on
Para obtener una soluci on a un problema, la primera decisi on a tomar es la selecci on de
un m etodo. Esta decisi on puede basarse en algunos aspectos subjetivos como preferencias
personales debidas al conocimiento pr actico y te orico del dise nador, o aspectos objetivos
como la complejidad del m etodo al ser aplicado al problema. Sin embargo la selecci on de la
herramienta adecuada puede determinar en gran manera el exito o no del proceso de dise no.
Las siguientes decisiones est an relacionadas con la adaptaci on del m etodo al problema
propuesto. Cuando se trabaja con sistemas inteligentes, esta es una parte crtica debido a
que estos sistemas poseen formas gen ericas que pueden ser utiles a una gran variedad de
problemas, pero es necesario seleccionar adecuadamente arquitecturas y par ametros para
su correcto desempe no. Por lo general la selecci on de par ametros se realiza por medio de
una b usqueda sistem atica hasta encontrar un conjunto de valores que resulten adecuados,
pero se desconoce si estos son los mejores disponibles. Para evitar este inconveniente, se
han establecido estrategias que modican los par ametros del sistema durante la soluci on
del problema principal, ya sea por reglas determinsticas sin realimentaci on o por m etodos
adaptativos o evolutivos (autoadaptativos) que poseen realimentaci on.
Este documento presenta el desarrollo y aplicaci on de una metodologa para la
autoadaptaci on de algoritmos de Inteligencia de Enjambres por medio de la aplicaci on de
los conceptos de Estrategias Evolutivas. La autoadaptaci on utiliza los resultados promedio
del enjambre para determinar si los par ametros del sistema de b usqueda son los adecuados.
De esta manera el sistema prueba de manera controlada varios puntos en el espacio de
par ametros con el objetivo de obtener mejores soluciones.
1
INTRODUCCI
ON
Denici on del Problema
En Ingeniera de Control se presentan diferentes tipos de problemas que involucran
el an alisis de sistemas, algunos de los cuales, poseen caractersticas que los hacen
susceptibles de ser solucionados por m etodos convencionales o cl asicos, como por ejemplo
por medio de la sintonizaci on de un controlador PID, debido a que existe un completo
modelo determinstico. Sin embargo, existen problemas cuyas caractersticas impiden que
sean r apida y ecientemente solucionados por m etodos cl asicos o convencionales. Estos
problemas involucran sistemas con m ultiples entradas y salidas, caractersticas no lineales,
alto acoplamiento y presencia de fuertes disturbios. Este tipo de problemas pueden ser
solucionados ecientemente con m etodos inspirados en la biologa, psicologa y otras
ciencias, dando nacimiento al Control Inteligente, el cual se encarga de utilizar t ecnicas de
inteligencia articial en la soluci on de problemas de identicaci on, optimizaci on y control.
Los algoritmos de inteligencia de enjambres, que hacen parte de la inteligencia articial,
constituyen un m etodo para solucionar problemas complejos por medio de la interacci on en
paralelo de m ultiples agentes computacionales que modelan el comportamiento de algunos
seres vivos que conforman grupos o enjambres tanto en la b usqueda de alimento como
en estados de migraci on y defensa. Estos algoritmos representan un m etodo adicional
para el dise no de sistemas de control que presenten buenos resultados sin el estudio
intensivo necesario en las t ecnicas convencionales. Sin embargo, estos algoritmos presentan
la desventaja de considerar una poblaci on de agentes cuyas caractersticas intrnsecas est an
determinadas por un conjunto de par ametros est aticos seleccionados de manera emprica o
sistem atica. El trabajo de selecci on puede llegar a ser tedioso y generar valores que no sean
los m as adecuados.
Determinar el conjunto de par ametros que permitan obtener la mejor respuesta a un
determinado problema requiere la incursi on de mecanismos que permitan decidir, durante la
ejecuci on, cuales son los m as adecuados de acuerdo a las circunstancias. Este mecanismo,
conocido como autoadaptaci on permiten a una poblaci on la b usqueda de su estado optimo,
d andole a los algoritmos la adaptabilidad necesaria, para encontrar soluciones que tiendan a
la optima.
Objetivos
El proyecto de investigaci on tiene como objetivo principal el desarrollar y aplicar un m etodo
basado en la autoadaptaci on de par ametros existente en los algoritmos de Estrategias
Evolutivas para el control de par ametros de un algoritmo de enjambres, de tal manera que
2
Contenidos
pueda ser util para dise nar controladores que tiendan a ser optimos aplicables a sistemas
complejos. Con base en este objetivo, se denieron los siguientes objetivos especcos:
Realizar un estudio del estado del arte para conocer las tendencias actuales en la
investigaci on de la inteligencia de enjambres, estrategias evolutivas y su aplicaci on a
sistemas de control.
Determinar la estrategia de control m as adecuada para ser utilizada con la optimizaci on
por inteligencia de enjambres.
Seleccionar los algoritmos de enjambres que posean las caractersticas necesarias
para desarrollar una estrategia del tipo seleccionado.
Determinar qu e par ametros dentro de la poblaci on del enjambre son susceptibles a ser
evolucionados.
Evaluar si la poblaci on del enjambre, al aplicar una estrategia evolutiva, tiende a ser
optima.
Validar el comportamiento del controlador sobre la plataforma de experimentaci on de
temperatura multizona (MuTEP).
Contenidos
El documento se ha dividido en los siguientes captulos:
El captulo 1 presenta una revisi on de los conceptos y una taxonoma de la
Computaci on Evolutiva, haciendo enfasis en las t ecnicas de Inteligencia de Enjambres
y Estrategias Evolutivas, para las cuales se presentan algunas aplicaciones relevantes.
El captulo 2 presenta la metodologa de autoadaptaci on de los algoritmos de
enjambres, su aplicaci on a dos algoritmos de b usqueda en espacios continuos
(Optimizaci on por Enjambres de Partculas y Optimizaci on por Enjambre de Bacterias)
y un an alisis estadstico de desempe no con respecto a las versiones est aticas de los
mismos algoritmos para establecer que tipo de mejoras induce la autoadaptaci on.
El captulo 3 presenta el problema de control optimo de tiempo mnimo para el sistema
de dos masas con exibilidad y amortiguamiento y la aplicaci on de los algoritmos de
enjambres evolutivos para la sintonizaci on de un controlador que permita obtener una
respuesta optimizada.
3
INTRODUCCI
ON
El captulo 4 presenta la construcci on de un controlador indirecto adatativo para la
Plataforma de Experimentaci on de Temperatura Multizona (Multizone Temperature
Experimentation Platform MuTEP) haciendo uso de los algoritmos de enjambres
evolutivos como esquema de identicaci on.
Finalmente el captulo 5 presentan las conclusiones y las publicaciones resultantes de
esta investigaci on, adem as de los trabajos futuros propuestos para la continuaci on de
la tem atica.
Agradecimientos
Un trabajo de investigaci on de maestra solo es posible con la colaboraci on de varias
personas que ofrecieron sus ideas, ayuda e inclusive crticas. Deseo agradecer en primera
instancia a los profesores Eduardo F. Caicedo, Ph.D. y Jes us A. L opez, Ph.D. cuya conanza,
asesora y amistad, ha propiciado la culminaci on este trabajo con exito. Al ingeniero Wilfredo
Alfonso, cuyo trabajo en MuTEP, sus aportes en inteligencia de enjambres y sobretodo
su amistad, permitieron el enriquecimiento de este trabajo. A los profesores Jos e Miguel
Ramrez, Ph.D. y Jorge Finke, Ph.D. por su evaluaci on de la propuesta de este proyecto,
sus comentarios, correcciones y crticas, que espero hayan incrementado la calidad de este
trabajo. A los ingenieros Hern an Bentez, Alexander Campo y Javier Castillo, por despejar
algunas dudas respecto a algunos temas puntuales durante la investigaci on. A la audiencia
durante las ponencias en los congresos CERMA 2006, ACA 2007 e IFSA 2007, donde se
produjeron algunas discusiones que fueron utiles para aclarar algunos conceptos.
Finalmente, a la Universidad del Valle, al Programa de Postgrado en Ingeniera El ectrica
y Electr onica, y al Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnologa
COLCIENCIAS, por la beca otorgada por medio del proyecto Plataforma de Procesamiento
Distribuido, con Acceso Remoto Multiusuario y Emulaci on de Sistemas Din amicos, para la
Investigaci on y Educaci on en Ingeniera, contrato No. 1106-11-17707. Sin su nanciaci on
este trabajo no podra haberse realizado.
4
CAP
ITULO 1
Computaci on Evolutiva: Sociedades para solucionar
problemas
El ser humano se ha dado a si mismo el nombre cientco de homo sapiens como una
valoraci on de la trascendencia de sus habilidades mentales tanto para su vida cotidiana
como en su propio sentido de identidad, y por lo tanto, la comprensi on de estas habilidades
ha permitido el nacimiento de ramas cientcas que se encargan, por diferentes m etodos,
de analizar, entender y, en un caso particular, emular la inteligencia. A esta rama en
particular se le conoce como Inteligencia Articial o IA, la cual se enfoca en lograr no solo
la comprensi on de las entidades inteligentes sino su construcci on. La importancia de la IA no
radica unicamente en un esfuerzo de dotar de capacidades mentales a objetos inanimados
sino tambi en aprender m as acerca de la humanidad misma.
La IA es una disciplina relativamente nueva y sus orgenes se remontan formalmente a
1956, cuando el t ermino fue acu nado [Russell96], sin embargo, el estudio de la inteligencia
puede remontarse a la antig uedad, cuando los l osofos se esforzaban por comprender como
se ve, aprende, recuerda y razona, e inclusive como deberan ser realizadas estas tareas.
Existen en la actualidad dos escuelas de pensamiento dentro de la IA de como deberan
construirse y razonar las entidades inteligentes: La Inteligencia Articial Convencional (Good
Old Fashioned Articial Intelligence GOFAI), la cual dene que las soluciones deben
ser elegantes, claras y probablemente correctas, e involucra m etodos formales y l ogicos;
y la Inteligencia Computacional (Computational Intelligence CI), la cual considera que la
5
1. COMPUTACI
_
aleatoriamente
REPITA
PARA l = 1 HASTA HACER
Seleccionar Familia E P
(g)
p
de tamano aleatoriamente
SI = 1
Recombinar los parametros endogenos s
l
Recombinar los parametros objetivo y
l
Mutar los parametros endogenos
Mutar los parametros objetivo
Calcular el desempeno F
l
b
l
= (y
l
, s
l
, F
l
)
SINO
Realizar una copia del padre (b
l
= a
rand
)
FIN SI
FIN PARA
P
(g)
o
= (b
1
, b
2
, . . . , b
)
CASO seleccion
( +): P
(g+1)
p
son individuos seleccionados de P
(g)
o
(, ): P
(g+1)
p
son individuos seleccionados de P
(g)
p
y P
(g)
o
FIN CASO
Incrementar el contador de generaciones
HASTA cumplir la condicion de terminacion
Tabla 1.1: Algoritmo de la Estrategia Evolutiva (/+, )
1.3. Inteligencia de enjambres
La selecci on natural tiende a eliminar a las especies con estrategias de b usqueda de alimento
poco evolucionadas y favorece la propagaci on de aquellas que han sido exitosas en esta
tarea, puesto que es m as probable que disfruten del exito reproductivo. Este principio evolutivo
ha llevado a los cientcos en el campo de la Teora de Foraging a formular una hip otesis
acerca del modelo apropiado para la b usqueda de alimento como un proceso de optimizaci on:
Un animal buscando alimento toma las medidas necesarias para maximizar la energa
obtenida por unidad de tiempo dedicada a su b usqueda, teniendo en cuenta restricciones
presentadas por su propia sonoma y ambiente. El balance de estas limitaciones permite
obtener una poltica de b usqueda de alimento optima, la cual tambi en es v alida para la
b usqueda social donde grupos de animales se comunican para buscar alimento [Liu02].
Existen diversas ventajas de utilizar un mecanismo de comunicaci on para realizar una
b usqueda cooperativa como lo son [Passino02]:
Un incremento en la probabilidad de que se encuentren nutrientes. Cuando un individuo
encuentra alimento puede informar al grupo su ubicaci on, dando origen a un centro de
informaci on que ayuda a la supervivencia del colectivo.
Hay un incremento en la capacidad de atacar a una presa mayor.
Permite protegerse de los depredadores.
11
1. COMPUTACI
[
i j ]
lJ
k
i
[
il
(t)]
[
il
]
, si j J
k
i
0 si j / J
k
i
(1.5)
siendo los nodos J
k
i
los estados v alidos. A su vez, los rastros son modicados para cambiar
la representaci on del problema, que utilizar an las otras hormigas para tomar sus decisiones
por medio de la ecuaci on 1.6.
(t +1) = (t) +(1) (t, t +1) (1.6)
donde es el coeciente de evaporaci on de la feromona, usado para evitar la r apida
convergencia de las hormigas hacia una regi on del espacio de b usqueda. Entonces la
feromona se convierte en una memoria local compartida de largo t ermino que inuencia
las decisiones subsecuentes de las hormigas. Las hormigas pueden actuar concurrente e
independientemente, mostrando un comportamiento cooperativo que usa la estigmergia
1
como medio de comunicaci on. Aunque cada una de las hormigas es capaz de encontrar
una soluci on, probablemente inadecuada, las mejores soluciones son encontradas como
el resultado de la cooperaci on global entre todos los agentes de la colonia, como una
caracterstica inesperada de la interacci on cooperativa de los agentes.
Otras caractersticas usualmente incluidas dentro de un sistema ACO son el balance entre
las caractersticas aleatorias y la severidad en la toma de decisiones (exploraci on/explotaci on
del conocimiento); y estrategias de conocimiento global denominadas daemon actions. Las
caractersticas de un algoritmo ACO pueden necesitar alguna clase de sincronizaci on,
usualmente obtenida por una programaci on secuencial, donde el conocimiento global es
f acilmente accesible en cualquier instante. En general, un algoritmo de optimizaci on por
colonia de hormigas, realiza las operaciones mostradas en la tabla 1.3.
1
Forma de comunicaci on indirecta por medio de la modicaci on del ambiente
15
1. COMPUTACI
i
( j +1, k, l) =
i
( j, k, l) +C(i) ( j) (1.8)
donde C(i) es el tama no del paso a tomar en la direcci on especicada por el giro. Si en
i
( j +1, k, l), el valor de J (i, j +1, k, l) es menor que el obtenido en
i
( j, k, l), entonces un
nuevo paso quimiot actico es tomado hasta un n umero m aximo Ns.
Adicionalmente, las bacterias mantienen comunicaci on haciendo uso de se nales qumicas
que afectan el comportamiento quimiot actico del enjambre, creando un ambiente
cooperativo. A estas se nales, denominadas atrayentes repelentes, se las representa por
J
cci
(,
i
( j, k, l)), para la i- esima bacteria. Sea d
at
y w
at
la profundidad y el ancho del
atrayente, h
re
y w
re
la altitud y el ancho del repelente. La profundidad y el ancho de los
atrayentes es relativamente peque no a la concentraci on de nutrientes representados. Cada
efecto atrayente y repelente es adicionado en la funci on de costo total de la bacteria como la
suma de todos los efectos de una bacteria con todos los agentes de la poblaci on. Entonces:
J
cc
(, P(i, j, k)) =
S
i=1
J
cci
(,
i
( j, k, l)) (1.9)
= h
re
i=1
e
w
re
p
m=1
(
m
i
m
)
2
d
at
i=1
e
w
at
p
m=1
(
m
i
m
)
2
De acuerdo a la distribuci on de los agentes, se puede decir que entre m as lejos se encuentre
entre si, el efecto de las se nales ser a menor y por lo tanto no intentar an agruparse. Lo
18
1.3 Inteligencia de enjambres
Inicializar la poblacion aleatoriamente
Definir para cada individuo un C(i)
PARA l = 1 HASTA N
ed
HACER
PARA k = 1 HASTA N
re
HACER
PARA j = 1 HASTA N
c
HACER
PARA i = 1 HASTA S HACER
Calcular el J (i, j, k, l) incluyendo J
cc
J
last
= J ()
Calcular ( j)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j +1, k, l)
m = 0
MIENTRAS m < N
s
m = m+1
SI J (i, j +1, k, l) < J
last
J
last
= J (i, j +1, k, l)
Realizar el desplazamiento (ecuacion 1.7)
Calcular el nuevo costo J (i, j +1, k, l)
SINO
m = N
s
FIN SI
FIN MIENTRAS
FIN PARA
FIN PARA
Calcular la salud de cada bacteria
Copiar las S
r
bacterias mas saludables
Eliminar las bacterias inadecuadas
FIN PARA
Dispersar/Eliminar con una probabilidad p
ed
FIN PARA
Tabla 1.4: Optimizaci on por Enjambre de Bacterias
contrario ocurre cuando se encuentran muy cerca y por lo tanto, los agentes se atraen
para formar grupos cooperativos. Debido al movimiento de todas las bacterias, la funci on
J
cc
(, p( j, k, l)) es variante en el tiempo. Las bacterias, en efecto, no solo intentar an buscar
zonas con buenos nutrientes, evitando sustancias nocivas, sino que adem as intentar an
moverse hacia otras bacterias, sin acercarse tanto entre si. Por lo tanto la funci on J
cc
(, P)
deforma din amicamente la supercie de b usqueda a medida que las bacterias se mueven.
Despu es de N
c
pasos quimiot acticos se realiza un paso reproductivo, siendo N
re
el n umero de
pasos reproductivos. Durante la reproducci on, las bacterias m as saludables (las que poseen
un menor costo acumulado en su vida) se dividen y se eliminan el mismo n umero de bacterias
no saludables, as obteniendo una poblaci on de tama no constante. Luego se realiza un
eventos de dispersi on eliminaci on N
ed
, en el cual cada bacteria en la poblaci on es sujeta a la
reubicaci on en una nueva posici on aleatoria con una probabilidad p
ed
. En general el algoritmo
realiza las operaciones mostradas en la tabla 1.4.
Este algoritmo se ha aplicado con exito en la sintonizaci on de controladores adaptativos
[Passino02], la sintonizaci on de controladores PID [Kim05] y la regulaci on de temperatura en
supercies [Alfonso07a]. Otros trabajos relacionados son el estudio de estabilidad realizados
en [Gazi03, Gazi04] y la hibridizaci on con algoritmos gen eticos [Kim07] para mejorar su
19
1. COMPUTACI
ITULO 2
Evoluci on de enjambres
En el captulo anterior se examin o la variedad de t ecnicas que constituyen la SI y las
caractersticas generales que permiten agruparlas en esta familia. Sin embargo, existen
diferencias que hacen diferente su aplicabilidad, en particular el espacio de b usqueda en el
cual se desempe nan. Debido al enfoque requerido para este trabajo de desarrollar algoritmos
para la sintonizaci on de sistemas de control, se requiere de t ecnicas que realicen b usquedas
en espacios continuos, ya que los par ametros en un sistema de control son n umeros reales.
Por esta raz on, para este trabajo se seleccionaron los algoritmos de Optimizaci on por
Enjambre de Bacterias y de Optimizaci on por Enjambre de Partculas.
En este captulo se presentan los algoritmos de Optimizaci on por Enjambre Evolutivo de
Bacterias (Evolutive Bacteria Swarm Foraging Optimization EvBSFO) y Optimizaci on
por Enjambre Evolutivo de Partculas (Evolutive Particle Swarm Optimization EvPSO),
resultantes de modicar los algoritmos BSFO y PSO con una Estrategia Evolutiva (1, )
encargada de sintonizar sus par ametros. En la secci on 2.1 se describen los conceptos de
evoluci on de enjambres y los algoritmos EvBSFO y EvPSO. A continuaci on, en la secci on 2.2
se realiza un an alisis de desempe no de los algoritmos evolutivos frente a otros algoritmos de
SI. Finalmente en la secci on 2.3 se presentan algunas conclusiones del captulo.
25
2. EVOLUCI
ON DE ENJAMBRES
2.1. Implementaci on de Enjambres Evolutivos
Al escoger un algoritmo heurstico para solucionar un problema de optimizaci on, la selecci on
de los par ametros del algoritmo corresponde a ubicar un punto dentro del espacio N
dimensional de par ametros, cuyo valor en la funci on de desempe no del algoritmo G sea el
mejor posible. Esta selecci on es una tarea compleja ya que se desconoce de una manera
determinstica la relaci on directa entre el desempe no del algoritmo, los valores de los
par ametros y la funci on objetivo J. De hecho, este problema puede ser tan o m as complejo
que la soluci on del problema de optimizaci on en s, siendo necesario recurrir a formas m as
simples, donde algunas de las m as comunes son la prueba sistem atica de par ametros o por
ensayo y error, las cuales presentan, entre otras, las siguientes limitaciones [Eiben99]:
Los par ametros no son independientes y probar todas las posibles combinaciones
sistem aticamente es pr acticamente imposible.
El proceso de sintonizaci on requiere tiempo, inclusive si los par ametros son
optimizados uno a uno, sin importar sus interacciones.
Para un problema determinado los par ametros seleccionados no son necesariamente
optimos, inclusive si el esfuerzo por sintonizarlos fue signicativo.
Existen varios intentos de generar par ametros que se comporten de manera adecuada de
forma general, o sea que los valores recomendados pueden ser aplicados a una gran
variedad de problemas de optimizaci on. En la actualidad se reconoce que cada problema
requiere un grupo especco de par ametros para su correcto desempe no, por lo tanto, la
batalla por encontrar par ametros generales optimos se considera perdida a priori [Eiben99],
puesto que no considera la naturaleza din amica del proceso de b usqueda. En general, se
ha aceptado la necesidad de que los par ametros cambien en funci on del tiempo teniendo
en cuenta el desempe no general del algoritmo, donde este mecanismo se conoce como
control de par ametros, que considera la modicaci on de los par ametros del sistema durante
la soluci on del problema principal, ya sea por reglas determinsticas sin realimentaci on
o por m etodos adaptativos o evolutivos (autoadaptativos) que poseen realimentaci on. La
implementaci on de este ultimo tipo de m etodo requiere conocer de manera directa la funci on
de desempe no G o tener una funci on que pueda llevar a cabo la medici on del desempe no y
realizar una b usqueda sobre esta funci on en el espacio de par ametros, convirti endose en un
segundo problema de optimizaci on, afectado por los resultados del primer problema.
Para implementar un enjambre autoadaptativo, se utilizar a como base los conceptos de
control de par ametros existentes en ES, para lo cual se requiere realizar algunas deniciones.
Como primer paso se establece que el sistema de enjambre corresponde a un conjunto de
26
2.1 Implementaci on de Enjambres Evolutivos
poblaciones cada una compuesta por individuos. Todos los individuos de una poblaci on
codican el mismo conjunto de par ametros del algoritmo que se esta evolucionando, donde
la diferencia entre los individuos de la poblaci on corresponde a la posici on inicial la cual se
escoge de manera aleatoria. Cada poblaci on es sometida a la modicaci on de sus par ametros
por medio de operadores evolutivos como la cruza y la mutaci on, para obtener poblaciones
hijas, las cuales buscan una nueva soluci on al problema principal de optimizaci on, al modicar
los valores de por medio de las reglas denidas por enjambre. Para denir el desempe no de
las poblaciones se dene una funci on G para la l esima poblaci on en el i esimo instante
como el promedio del desempe no del k esimo individuo seg un la ecuaci on 2.1. Luego de
solucionar tanto el primer como segundo problema de optimizaci on, se seleccionan las
poblaciones con mejor desempe no entre las poblaciones hijas que conformaran la pr oxima
generaci on.
G(l, i) =
k=1
J (l, k, i, )
(2.1)
Al igual que ES, es necesario modicar los par ametros que dominan la mutaci on de los
individuos. Para este proceso se hace uso de la regla de 1/5 [Rechenberg73], la cual propone
que si el desempe no general de la generaci on actual ha sido mejor que el desempe no general
anterior, la poblaci on se ha desplazado a una mejor posici on en el espacio de b usqueda, por lo
tanto, se puede disminuir la fuerza de las mutaciones (la desviaci on est andar de la distribuci on
normal de la mutaci on) por un factor de 0,82, de lo contrario, el algoritmo se ha desplazado
a una regi on menos favorable, por lo tanto, se incrementa la fuerza de las mutaciones por un
factor de 1,22.
Estas reglas permiten generar diferentes arquitecturas, dependiendo de los valores de , ,
, y el uso de selecci on elitista o no elitista. Para simplicar la descripci on de un enjambre
autoadaptativo (SelfAdaptive Swarm SAS), se propone la notaci on ( /, +)SAS
basada en la notaci on de ES. Con esta notaci on se puede describir la arquitectura de
cualquier algoritmo SAS, incluyendo el presentado en [Miranda02a] el cual puede ser descrito
como (1 /, )SAS.
Basado en esta notaci on, se dene un algoritmo ( 1, )SAS, cuya estructura general
se presenta en la tabla 2.1. Este algoritmo, basado en una (1, )ES, posee individuos, 1
poblaci on padre, poblaciones descendientes, con selecci on elitista y sin recombinaci on, o
sea que las poblaciones descendientes se obtienen unicamente por mutaci on. Para adaptar
un algoritmo de enjambres a este marco de referencia se requiere denir los mecanismos de
c alculo de y los par ametros a evolucionar.
27
2. EVOLUCI
ON DE ENJAMBRES
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
G
ant
= G
FIN PARA
Tabla 2.1: Algoritmo de Enjambres Evolutivo
2.1.1. Evoluci on de Enjambre de Bacterias
El algoritmo BSFO posee una variedad de par ametros que controlan el funcionamiento de
algunas caractersticas adicionales a la b usqueda basada en quimiotaxis, como lo son la
reproducci on, la eliminaci ondispersi on y el uso de atrayentesrepelentes. Si bien estas
caractersticas est an dise nadas para mejorar el desempe no del algoritmo, el uso de ciclos
del tipo FOR las hacen poco ecientes, en particular en lenguajes orientados a vectores
como lo es MATLAB. Adicionalmente, para determinar la inuencia de los par ametros en el
resultado, se realizaron pruebas preliminares, cuyos resultados mostraron que los par ametros
de mayor inuencia en el algoritmo corresponden al tama no del paso C, el n umero de
pasos quimiot acticos, la profundidad y el ancho de los atrayentesrepelentes. Teniendo estas
consideraciones en cuenta, como paso inicial para el desarrollo del algoritmo evolutivo, se
considera la supresi on de las caractersticas de reproducci on y de eliminaci ondispersi on,
dando lugar a un algoritmo basado unicamente en quimiotaxis y comunicaci on entre
individuos.
Entonces, para el algoritmo de bacterias en una iteraci on i para el k esimo individuo con
el grupo de par ametros l se dene un valor de seg un la ecuaci on 2.2 y una funci on de
costo de acuerdo a la ecuaci on 2.3, donde J
n
corresponde al costo por nutrientes, m
ar
es
la magnitud de los atrayentesrepelentes igualadas para que en la posici on de la bacteria el
costo se deba unicamente a los nutrientes, w
r
es el ancho de los repelentes y w
a
el ancho de
los atrayentes, con w
r
> w
a
debido a que su tama no es inversamente proporcional.
k
(i +1) =
k
(i) +C
l
(i)
k
(i) (2.2)
28
2.1 Implementaci on de Enjambres Evolutivos
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
PARA i = 1 HASTA epochs HACER
Calcular J (i)
PARA l = 1 HASTA HACER
Calcular J
cc
de acuerdo a los valores de la poblacion
SI J
last
+J
cc
J +J
cc
ENTONCES
Generar una nueva direccion para la bacteria
FIN SI
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccione la poblacion con mejor desempeno
Actualice el mejor valor obtenido
SI i > 1
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
FIN SI
Actualice G
ant
FIN PARA
Tabla 2.2: Optimizaci on por Enjambre de Bacterias Evolutivo
J (
k
, i) = J
n
(
k
) +m
lar
(i)
_
e
w
lr
(i)
p
m=1
(
k
m
)
2
e
w
la
(i)
p
m=1
(
k
m
)
2
_
(2.3)
Para construir el algoritmo evolutivo, se hace uso de las ecuaciones 2.1, 2.2 y 2.3,
y del algoritmo gen erico mostrado en la tabla 2.1 el cual se modica para incluir los
aspectos especcos de comportamiento del enjambre de bacterias. Los cambios se ubican
fundamentalmente en el c alculo y evaluaci on de costo de la nueva posici on, dando como
resultado el algoritmo evolutivo de bacterias mostrado en la tabla 2.2.
2.1.2. Evoluci on de Enjambre de Partculas
El algoritmo PSO, a diferencia de BSFO, es mucho m as sencillo ya que en su denici on
primaria no se consideran ciclos, siendo el proceso de b usqueda m as continuo. Adem as,
la funci on de costo no se ve alterada por la comunicaci on entre agentes. Debido a que
representa una forma m as adecuada de realizar la exploraci on, se utiliza el modelo con
peso inercial descrito en [Shi98]. Los par ametros de este algoritmo son el peso inercial w,
las constantes de los modelos individual c
1
y social c
2
, y la velocidad m axima mv. Para este
algoritmo, denimos que = v, por tanto, la nueva posici on para la k esima partcula con
el conjunto de par ametros l esta dada por las ecuaciones 2.4 y 2.5.
29
2. EVOLUCI
ON DE ENJAMBRES
Seleccionar los parametros iniciales del algoritmo
Mutar los parametros para obtener conjuntos de parametros
Inicializar de la poblacion padre aleatoriamente
Calcular un costo inicial de la poblacion
PARA i = 1 HASTA epochs HAGA
Calcular el costo de la partcula J
k
SI J
k
(
kn
) < J (p
d
) ENTONCES
p
id
=
kn
FIN SI
SI J
k
(
kn
) < J
_
p
gd
_
ENTONCES
p
gd
=
kn
FIN SI
PARA l = 1 HASTA HAGA
Calcular con los parametros del conjunto l
Calcular el costo J () de cada individuo
Calcular el costo G(l) de cada poblacion
FIN PARA
Seleccionar la poblacion con el menor valor G
Mutar los parametros para obtener conjuntos de parametros
SI G
ant
> G ENTONCES
Decremente la fuerza de la mutacion en 0,82
SI NO
Incremente la fuerza de la mutacion en 1,22
FIN SI
G
ant
= G
FIN PARA
Tabla 2.3: Optimizaci on por Enjambre de Partculas Evolutivo
kn
(i +1) = w
l
(i)
kn
(i) +R
1
c
1l
(i)(p
kn
kn
(i)) +R
2
c
2l
(i)(p
gn
kn
(i)) (2.4)
kn
(i +1) =
kn
(i) +
kn
(i +1) (2.5)
Al igual que con BSFO, para construir el algoritmo evolutivo, se hace uso de las ecuaciones
2.1, 2.4 y 2.5, y del algoritmo gen erico mostrado en la tabla 2.1 el cual se modica para incluir
los aspectos especcos de comportamiento del enjambre de partculas. Los cambios se
producen en la actualizaci on de la informaci on individual y social del individuo representados
por p
id
y p
gd
, y el c alculo de la nueva posici on, obteni endose el algoritmo evolutivo de
partculas mostrado en la tabla 2.3.
2.2. Evaluaci on de desempe no
Para probar el desempe no de los algoritmos propuestos, se realiza un estudio por simulaci on
usando un grupo de diez funciones y siete algoritmos de inteligencia de enjambres para
30
2.2 Evaluaci on de desempe no
No. Nombre Par ametros
1 BSFO p
ed
= 0,10 p
re
= 0,20 C
i
= 0,05d N
s
= 10
2 PSO mv = 0,01d c
1
= c
2
= 2,000
3 IWPSO mv = 0,01d w = 0,600 c
1
= c
2
= 2,000
4 T1PSO mv = 0,01d w = 0,600 c
1
= c
2
= 1,700
5 T2PSO mv = 0,01d w = 0,729 c
1
= c
2
= 1,494
6 CFPSO mv = 0,01d = 0,7298 c
1
= 2,8000 c
2
= 1,3000
7 ABHA p
rs
= 0,5 p
e
= 0,8 = 0,2 =C = 0,1 SR = 0,95
8 EvBSFO = 50 = 5 C
i
= 0,05d N
s
= 10
9 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c
1
= c
2
= 1,700
Tabla 2.4: Par ametros de los algoritmos para la prueba con funciones
No. Nombre D Rango J
min
1 SCB 2 [2, 2; 1, 1] 1,0316
2 PFUNC 2 [0, 30]
2
3,9867
3 Peaks 2 [3, 3]
2
6,5511
4 DeJong F1 30 [100, 100]
n
0,0000
5 Grienwank 30 [100, 600]
n
0,0000
6 Rastrigin 30 [5,12, 5,12]
n
0,0000
7 Ackley 30 [32, 32]
n
0,0000
8 DeJong F2 2 [100, 100]
2
0,0000
9 Schaffer F6 2 [100, 100]
2
0,0000
10 Schewefel 30 [500, 500]
n
12569,5
Tabla 2.5: Par ametros de las funciones de prueba
optimizaci on continua: La Optimizaci on por Enjambre de Partculas (PSO), la Optimizaci on
por Enjambre de Partculas con Peso Inercial (the Inertia Weight Particle Swarm Optimization)
[Shi98] con los par ametros comunes (IWPSO) y con los dos grupos de par ametros sugeridos
por Trelea (T1PSO y T2PSO) [Trelea03], la Optimizaci on por Enjambre de Partculas con
Factor de Constricci on (Constriction Factor Particle Swarm Optimization CFPSO) [Clerc99],
la Optimizaci on por Enjambre de Bacterias (BSFO) y el Algoritmo de Colmena de Abejas
Articiales (Articial Bee Hive Algorithm ABHA) [Mu noz08]. Los par ametros usados para
cada algoritmo son mostrados en la tabla 2.4, donde d es la diagonal del espacio de
b usqueda. El experimento fue realizado durante 100 iteraciones de 1000 ciclos cada uno
con una poblaci on igual para todos los algoritmos de 50 agentes. Todas las funciones de
prueba son no lineales y com unmente utilizadas en pruebas de algoritmos de optimizaci on.
Estas son las funciones SCB, PFUNC, MATLAB Peaks, DeJong F1, Grienwank, Rastrigin,
Ackley, DeJong F2, Schaffer y Schewefel. El n umero de dimensiones, rango de las variables
y valor mnimo de cada una de las funciones son mostrados en la tabla 2.5, las ecuaciones
de cada funci on se muestran en la tabla 2.6.
Estas funciones son seleccionadas debido a su correlaci on con problemas del mundo real,
donde hay funciones de costo unimodales y multimodales, con variables correlacionadas y no
correlacionadas. La funci on de DeJong F1 no contiene mnimos locales y provee un gradiente
suave hacia un optimo global. La funci on de Grienwank introduce interdependencia entre las
31
2. EVOLUCI
ON DE ENJAMBRES
No. Ecuaci on
1 J =
_
42,1
2
1
+
1
3
4
1
_
2
1
+
1
2
+
_
4+4
2
2
_
2
2
2 J =
10
i=1
A
i
e
i((
1
X
i
)
2
+(
2
Y
i
)
2
)
A = [5 2 3 2 2 4 2 2 2 2]
= [0,1 0,08 0,08 0,1 0,5 0,1 0,5 0,5 0,5 0,5]
X = [15 20 25 10 5 15 8 21 25 5]
Y = [20 15 10 10 10 5 25 25 16 14]
3 J = 3(1
1
)
2
e
(
2
+1)
2
2
1
1
3
e
(
1
+1)
2
2
2
10
_
1
5
3
1
5
2
_
e
2
1
2
2
4 J =
n
i=1
x
2
i
5 J =
1
4000
n
i=1
x
2
i
n
i=1
cos
_
x
i
i
_
+1
6 J =
n
i=1
x
2
i
10cos(2x
i
) +10
7 J =20e
0,2
1
30
n
i=1
x
2
i
e
1
30
n
i=1
cos(2x
i
)
+20+e
8 J = 100
_
x
2
y
_
2
+(1x)
2
9 J = 0,5
_
sin
x
2
+y
2
_
2
0,5
(1+0,001(x
2
+y
2
))
2
10 J =
n
i=1
x
i
sin
_
|x
i
|
Tabla 2.6: Ecuaciones de las funciones de prueba
variables. La funci on de Rastrigin tiene soluciones semi optimas localizadas en forma de
grilla alrededor del optimo global, y no hay correlaci on entre las variables. La funci on de
Ackley es multimodal a baja resoluci on. El espacio denido por la funci on de DeJong F2 es
unimodal y existe correlaci on entre las variables de dise no. La funci on de Schewefel tiene una
soluci on semioptima muy alejada del optimo global donde muchos algoritmos de b usqueda
resultan atrapados. Adem as, el optimo global existe cerca de los lmites del espacio y no
existe correlaci on entre las variables [Yisu07].
Para comparar los diferentes algoritmos, se encontraron los valores mnimo, promedio y
la desviaci on est andar de cada experimento. Para tener una mejor visualizaci on de los
resultados obtenidos, se utiliza una gr aca box and whisker para cada funci on. Las lneas
de la caja se ubican en el cuartil inferior (), superior (+) y en el promedio de los datos y
representan los datos dentro del 50% de la distribuci on. Las lneas de extensi on muestran los
datos dentro del 99.3% de la distribuci on (2). Los puntos por fuera de estos representan
los datos en el ultimo 0.7% y son considerados estadsticamente por fuera del rango.
La gr aca 2.1 muestra los resultados para la funci on SCB. Se puede observar que todos
los algoritmos son capaces de obtener el valor mnimo dentro del rango de la funci on.
Sin embargo, es notorio un mejor desempe no de los algoritmos PSO con par ametros
preestablecidos. Esto se ve representado por una menor desviaci on est andar. Se podra
considerar que para este problema el efecto de la b usqueda de par ametros no incrementa el
desempe no del algoritmo.
32
2.2 Evaluaci on de desempe no
La gr aca 2.2 muestra los resultados para la funci on PFUNC. Al igual que con la funci on SCB,
todos los algoritmos fueron capaces de obtener valores mnimos durante el experimento. Se
puede notar que los algoritmos basados en PSO tienen una mayor dispersi on de los datos,
que no se solventa por la evoluci on de los par ametros, ya que el algoritmo EvPSO posee
una desviaci on est andar similar a la de los otros algoritmos. Comparativamente, el algoritmo
EvBSFO se desempe na mejor que su contraparte est atica, al presentar una desviaci on
est andar menor.
La gr aca 2.3 muestra los resultados para la funci on Peaks. En este caso se puede observar
que todos los algoritmos encuentran el mnimo global de la funci on. Para el caso del algoritmo
BSFO frente al algoritmo evolutivo, existe una disminuci on de la media y de la desviaci on
est andar, obteni endose un mejor desempe no con la autoadaptaci on de par ametros. Con
respecto al algoritmo EvPSO presenta mejora frente al algoritmo PSO cl asico, sin embargo,
no existe una mejora sustancial frente a los algoritmos est aticos que contengan peso inercial.
La gr aca 2.4 muestra los resultados para la funci on DeJong F1. Esta funci on, a pesar de
ser conceptualmente sencilla, presenta una fuerte dicultad debido a la gran cantidad de
dimensiones y a poseer un espacio de b usqueda amplio. El experimento realizado muestra
que existe una notoria diferencia entre el resultado obtenido entre el algoritmo de bacterias
est atico y evolutivo, siendo este ultimo capaz de llegar muy cerca del valor optimo. En el
caso del algoritmo EvPSO, este presenta el menor valor mnimo encontrado durante el
experimento, aunque presenta un promedio y desviaci on mayor que la obtenida por los
algoritmos est aticos.
La gr aca 2.5 muestra los resultados para la funci on Grienwank. En esta funci on, a parte de
la interdependencia de variables, se suma la amplitud del espacio de b usqueda. Al igual que
en la funci on anterior se puede observar una mejora sustancial del desempe no del algoritmo
evolutivo de bacterias frente al algoritmo est atico, aunque presenta una desviaci on entandar
alta, el 99% de los datos obtenidos en el experimento son mejores que la media del algoritmo
est atico. Con respecto al algoritmo EvPSO, este obtiene nuevamente el menor valor en el
experimento y su media es similar a los algoritmos est aticos con peso inercial o con factor de
constricci on, sin embargo, su desviaci on est andar es mayor.
La gr aca 2.6 muestra los resultados para la funci on Rastrigin. En esta funci on multimodal,
existe una alta probabilidad que los algoritmos basados en descenso de gradiente como
BSFO y ABHA se desempe nen pobremente. Al ejecutar el experimento, nuevamente la
autoadaptaci on de par ametros del algoritmo EvBSFO evita que la poblaci on se estanque
en un mnimo local, logrando obtener un valor menor en el experimento que el algoritmo
est atico, aunque a costa de una mayor desviaci on est andar. En el caso del algoritmo EvPSO,
se obtiene el menor valor dentro del experimento, aunque presenta una desviaci on est andar
mayor.
33
2. EVOLUCI
ON DE ENJAMBRES
J
min
J
avg
BSFO -1.0316E+00 -1.0316E+00 5.3141E-05
PSO -1.0316E+00 -1.0316E+00 7.0027E-10
IWPSO -1.0316E+00 -1.0316E+00 1.0000E-15
T1PSO -1.0316E+00 -1.0316E+00 1.0000E-15
T2PSO -1.0316E+00 -1.0316E+00 1.0000E-15
CFPSO -1.0316E+00 -1.0316E+00 1.0000E-15
ABHA -1.0316E+00 -1.0316E+00 3.9047E-07
EvBSFO -1.0316E+00 -1.0316E+00 1.0341E-04
EvPSO -1.0316E+00 -1.0305E+00 4.0878E-03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
1.03
1.025
1.02
1.015
1.01
1.005
1
V
a
l
u
e
s
Box plots for SCB function
Figura 2.1: Resultados para la funci on SCB
J
min
J
avg
BSFO -3.9867E+00 -3.9861E+00 4.8005E-04
PSO -3.9867E+00 -3.9052E+00 4.0109E-01
IWPSO -3.9867E+00 -3.9460E+00 2.8655E-01
T1PSO -3.9867E+00 -3.9063E+00 3.9614E-01
T2PSO -3.9867E+00 -3.9037E+00 4.0868E-01
CFPSO -3.9867E+00 -3.9668E+00 1.9897E-01
ABHA -3.9867E+00 -3.9867E+00 2.8082E-05
EvBSFO -3.9867E+00 -3.9866E+00 5.4876E-04
EvPSO -3.9867E+00 -3.8700E+00 4.4832E-01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
4
3.5
3
2.5
2
V
a
l
u
e
s
Box plots for PFUNC function
Figura 2.2: Resultados para la funci on PFUNC
J
min
J
avg
BSFO -6.5511E+00 -6.5505E+00 5.3651E-04
PSO -6.5511E+00 -6.4811E+00 4.9265E-01
IWPSO -6.5511E+00 -6.5511E+00 5.0000E-15
T1PSO -6.5511E+00 -6.5511E+00 5.0000E-15
T2PSO -6.5511E+00 -6.5511E+00 5.0000E-15
CFPSO -6.5511E+00 -6.5511E+00 5.0000E-15
ABHA -6.5511E+00 -6.5511E+00 1.9647E-05
EvBSFO -6.5511E+00 -6.5510E+00 4.1183E-04
EvPSO -6.5511E+00 -6.5272E+00 1.3451E-01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
6.5
6
5.5
5
4.5
4
3.5
3
V
a
l
u
e
s
Box plots for Peaks function
Figura 2.3: Resultados para la funci on Peaks
34
2.2 Evaluaci on de desempe no
J
min
J
avg
BSFO 2.7376E+04 3.8423E+04 3.4068E+03
PSO 1.7871E+00 5.1879E+00 1.6449E+00
IWPSO 2.7236E+01 9.5985E+01 4.5321E+01
T1PSO 1.3445E+02 4.5751E+02 1.6265E+02
T2PSO 5.7028E+01 2.6585E+02 1.2221E+02
CFPSO 8.8210E+01 3.3091E+02 1.3658E+02
ABHA 2.6191E+04 4.4591E+04 6.1249E+03
EvBSFO 1.9865E-02 7.9654E+03 8.8747E+03
EvPSO 0.0000E+00 3.9452E+02 1.3956E+03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
x 10
4
V
a
l
u
e
s
Box plots for DeJong F1 function
Figura 2.4: Resultados para la funci on DeJong F1
J
min
J
avg
BSFO 2.6347E+02 3.4474E+02 2.8947E+01
PSO 8.3443E-01 1.0142E+00 5.1948E-02
IWPSO 1.1832E+00 1.9974E+00 5.2106E-01
T1PSO 2.2677E+00 5.1134E+00 1.7203E+00
T2PSO 1.6577E+00 3.5269E+00 1.2240E+00
CFPSO 1.8521E+00 3.7374E+00 1.3370E+00
ABHA 2.5163E+02 4.0451E+02 4.8475E+01
EvBSFO 4.3430E-03 8.8692E+01 9.1459E+01
EvPSO 0.0000E+00 3.1518E+00 7.4893E+00
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
50
100
150
200
250
300
350
400
V
a
l
u
e
s
Box plots for Grienwank function
Figura 2.5: Resultados para la funci on Grienwank
J
min
J
avg
BSFO 2.7886E+02 3.2842E+02 1.3823E+01
PSO 1.8193E+01 3.5582E+01 1.0206E+01
IWPSO 2.7702E+01 5.1408E+01 1.1751E+01
T1PSO 3.8947E+01 6.8728E+01 1.4188E+01
T2PSO 2.9150E+01 6.2691E+01 1.4595E+01
CFPSO 2.9397E+01 5.5311E+01 1.2794E+01
ABHA 2.8891E+02 3.4178E+02 1.8322E+01
EvBSFO 1.1864E+02 3.0367E+02 6.6134E+01
EvPSO 1.2934E+01 1.2133E+02 8.7309E+01
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
50
100
150
200
250
300
350
400
V
a
l
u
e
s
Box plots for Rastrigin function
Figura 2.6: Resultados para la funci on Rastrigin
35
2. EVOLUCI
ON DE ENJAMBRES
La gr aca 2.7 muestra los resultados para la funci on Ackley. La funci on presenta una dicultad
alta para los algoritmos de bacterias, ya que tanto el esquema est atico como el evolutivo es
incapaz de evitar el estancamiento en un mnimo local aunque el algoritmo evolutivo es capaz
de obtener algunos resultados mejores que el est atico, estos se encuentran por fuera del
99% de los intentos, por lo cual, es poco probable que la evoluci on de par ametros para este
problema represente una mejora. Una situaci on diferente se observa con el algoritmo EvPSO,
el cual es capaz de obtener el menor valor objetivo en el experimento, con una media muy
similar a los algoritmos est aticos. Al igual que en las pruebas anteriores, la capacidad de
obtener valores menores se ve disminuida por una mayor desviaci on est andar.
La gr aca 2.8 muestra los resultados para la funci on DeJong F2. Esta funci on de dos
dimensiones reeja un comportamiento de los algoritmos similar a las funciones SCB, PFUNC
y Peaks, donde todos los algoritmos obtienen valores muy cercanos al mnimo global. Con
respecto a los algoritmos de bacterias, el algoritmo evolutivo tiene un valor mnimo menor que
el est atico, pero se presenta un aumento en la media y la desviaci on est andar. En cuanto al
algoritmo EvPSO presenta mejora frente al algoritmo PSO cl asico al obtener un valor mnimo
similar a los algoritmos con peso inercial. En esta prueba, la diferencia entre la media y la
desviaci on es mayor frente a los algoritmos est aticos.
La gr aca 2.9 muestra los resultados para la funci on Schaffer F6. Al igual que la funci on
DeJong F2, todos los algoritmos obtienen valores muy cercanos al mnimo global. En este
caso, existe una mejora en la media y la desviaci on est andar obtenidas por el algoritmo
EvBSFO frente al algoritmo est atico, proporcionando una mayor repetibilidad. En el caso del
algoritmo EvPSO, si bien consigue un valor mnimo adecuado, su repetibilidad es inferior a la
de los algoritmos est aticos.
La gr aca 2.10 muestra los resultados para la funci on Schewefel. En esta funci on, cuyo valor
mnimo es un n umero muy negativo, el unico algoritmo que logra obtener el valor global es el
EvPSO, seguido por EvBSFO, cuyo comportamiento es similar al obtenido por los algoritmos
de partculas est aticos. Si bien, estos resultados nuevamente se logran a costa de una menor
repetibilidad de los algoritmos de enjambres evolutivos, existe una buena probabilidad dentro
de un grupo de experimentos de lograr valores mejores con par ametros din amicos.
El siguiente paso en el an alisis de los resultados es una comparaci on directa entre los
algoritmos, para lo cual se utiliza el ttest con un intervalo de conanza del 95%. Este
test permite determinar si el resultado es estadsticamente v alido y al mismo tiempo si el
resultado obtenido por el algoritmo bajo prueba se puede considerar estadsticamente mejor
que el del algoritmo de control. El ttest calcula una diferencia entre los dos grupos y puede
considerarse una relaci on de se nal a ruido y es calculado por la ecuaci on 2.6, donde T
corresponde al grupo bajo prueba y C al grupo de control, x es la media del grupo,
la desviaci on est andar del grupo, n el n umero de muestras del grupo y t corresponde a
la probabilidad en una distribuci on del tipo tstudent. El valor t ser a positivo si la primera
36
2.2 Evaluaci on de desempe no
J
min
J
avg
BSFO 1.8895E+01 1.9655E+01 1.8369E-01
PSO 1.1173E+00 2.2053E+00 4.6178E-01
IWPSO 4.8288E+00 6.5895E+00 8.7499E-01
T1PSO 5.1802E+00 7.3854E+00 9.8673E-01
T2PSO 4.8326E+00 6.8779E+00 1.0465E+00
CFPSO 4.1354E+00 6.7249E+00 1.0942E+00
ABHA 1.8717E+01 2.0094E+01 2.6796E-01
EvBSFO 1.7754E+01 1.9897E+01 2.9651E-01
EvPSO 1.1270E-10 7.0343E+00 2.9397E+00
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
2
4
6
8
10
12
14
16
18
20
V
a
l
u
e
s
Box plots for Ackley function
Figura 2.7: Resultados para la funci on Ackley
J
min
J
avg
BSFO 3.1670E-03 6.4332E-01 6.5966E-01
PSO 2.3899E-08 2.3620E-05 3.6345E-05
IWPSO 0.0000E+00 0.0000E+00 0.0000E+00
T1PSO 0.0000E+00 0.0000E+00 0.0000E+00
T2PSO 0.0000E+00 0.0000E+00 0.0000E+00
CFPSO 0.0000E+00 0.0000E+00 0.0000E+00
ABHA 1.9746E-05 2.1157E-01 3.6734E-01
EvBSFO 2.0051E-05 3.8292E+00 9.9246E+00
EvPSO 0.0000E+00 3.1917E+01 1.9895E+02
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
200
400
600
800
1000
1200
1400
1600
1800
2000
V
a
l
u
e
s
Box plots for DeJong F2 function
Figura 2.8: Resultados para la funci on DeJong F2
J
min
J
avg
BSFO 2.4559E-03 7.3533E-03 6.8864E-03
PSO 2.4559E-03 2.4559E-03 1.5835E-09
IWPSO 2.4559E-03 2.4559E-03 0.0000E+00
T1PSO 2.4559E-03 2.4559E-03 0.0000E+00
T2PSO 2.4559E-03 2.4559E-03 0.0000E+00
CFPSO 2.4559E-03 2.4559E-03 0.0000E+00
ABHA 2.4986E-03 7.8167E-02 6.3309E-02
EvBSFO 2.4559E-03 3.5245E-03 3.9712E-03
EvPSO 2.4559E-03 2.0191E-02 5.2128E-02
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
V
a
l
u
e
s
Box plots for Schaffer F6 function
Figura 2.9: Resultados para la funci on Schaffer F6
37
2. EVOLUCI
ON DE ENJAMBRES
J
min
J
avg
BSFO -6.1375E+03 -4.9426E+03 3.3240E+02
PSO -8.1755E+03 -6.4861E+03 8.4756E+02
IWPSO -8.5951E+03 -6.3647E+03 8.8820E+02
T1PSO -8.4014E+03 -6.0020E+03 7.6415E+02
T2PSO -8.1958E+03 -6.0334E+03 7.9105E+02
CFPSO -8.4473E+03 -6.4722E+03 9.3734E+02
ABHA -6.2105E+03 -4.9768E+03 3.8509E+02
EvBSFO -9.4828E+03 -6.0171E+03 1.0979E+03
EvPSO -1.2569E+04 -5.3917E+03 2.6354E+03
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA EvBSFOEvPSO
13000
12000
11000
10000
9000
8000
7000
6000
5000
4000
3000
V
a
l
u
e
s
Box plots for Schewefel function
Figura 2.10: Resultados para la funci on Schewefel
media es mayor que la segunda y negativo si es menor [Trochim06]. Teniendo en cuenta que
n = 100 para ambos grupos, el lmite del valor t para un intervalo de conanza del 95% es
1,66055. Por lo tanto, para que el resultado de la prueba sea estadsticamente signicativo
y adem as con un mejor desempe no del algoritmo bajo prueba t 1,66055, para que
sean estadsticamente iguales 1,66055 < t < 1,06605, y para que sea estadsticamente
de menor desempe no 1,66055 t.
t =
x
T
x
C
_
2
T
n
T
+
2
C
n
C
(2.6)
Los resultados del ttest se muestran en la tabla 2.7 para el algoritmo EvBSFO y en la tabla
2.8 para el algoritmo EvPSO, donde los valores en negrilla corresponden a un mejor o igual
desempe no del algoritmo bajo prueba. Los resultados muestran que la versi on evolutiva del
algoritmo de bacterias se desempe na mejor que su contraparte est atica en ocho de diez
pruebas, sin embargo no logra tan buenos resultados frente a los algoritmos de partculas.
En el caso de EvPSO se obtienen resultados satisfactorios en m as de la mitad de las pruebas
realizadas. Las pruebas que no muestran resultados satisfactorios fueron aquellas cuya
media estuvo por encima de la media obtenida por el algoritmo de control.
2.3. Conclusiones
En este captulo se presenta el desarrollo de un algoritmo de referencia para la
autoadaptaci on de algoritmos de enjambres por medio de una Estrategia Evolutiva (ES)
38
2.3 Conclusiones
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA
F1 -2.3453E+00 2.7741E+00 2.7742E+00 2.7742E+00 2.7742E+00 2.7742E+00 1.4092E+00
F2 -5.9848E+00 -2.0273E+00 -1.4164E+00 -2.0273E+00 -2.0277E+00 -9.9323E-01 -2.3908E+00
F3 -7.5561E+00 -1.4190E+00 2.8932E+00 2.8932E+00 2.8932E+00 2.8932E+00 -4.8163E+00
F4 -3.2040E+01 8.9695E+00 8.8671E+00 8.4584E+00 8.6750E+00 8.6015E+00 -2.1654E+01
F5 -2.6691E+01 9.5866E+00 9.4790E+00 9.1368E+00 9.3111E+00 9.2879E+00 -1.8476E+01
F6 -3.6627E+00 4.0063E+01 3.7556E+01 3.4735E+01 3.5582E+01 3.6870E+01 -4.7470E+00
F7 6.9485E+00 3.2238E+02 1.4404E+02 1.2143E+02 1.1970E+02 1.1619E+02 4.4015E+00
F8 3.2030E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.8583E+00 3.6540E+00
F9 -4.8165E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 2.6909E+00 -3.2023E+00
F10 -9.3677E+00 3.3809E+00 2.4608E+00 -1.1317E-01 1.2029E-01 3.1521E+00 -4.5197E+00
Tabla 2.7: Resultados del ttest para el Algoritmo EvBSFO
BSFO PSO IWPSO T1PSO T2PSO CFPSO ABHA
F1 2.5303E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6674E+00 2.6331E+00
F2 2.5901E+00 5.8591E-01 1.4278E+00 6.0589E-01 5.5532E-01 1.9734E+00 2.5966E+00
F3 1.7315E+00 -9.0283E-01 1.7783E+00 1.7783E+00 1.7783E+00 1.7783E+00 1.7468E+00
F4 -1.0329E+02 2.7898E+00 2.1380E+00 -4.4837E-01 9.1848E-01 4.5362E-01 -6.5894E+01
F5 -1.1424E+02 2.8542E+00 1.5377E+00 -2.5527E+00 -4.9421E-01 -7.6968E-01 -8.1691E+01
F6 -2.3426E+01 9.7552E+00 7.9375E+00 5.9473E+00 6.6248E+00 7.4821E+00 -2.4225E+01
F7 -4.2847E+01 1.6228E+01 1.4503E+00 -1.1321E+00 5.0133E-01 9.8642E-01 -4.2867E+01
F8 1.5719E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.6043E+00 1.5941E+00
F9 2.4415E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 3.4022E+00 2.7605E+00
F10 -1.6910E+00 3.9531E+00 3.4985E+00 2.2241E+00 2.3321E+00 3.8627E+00 3.5780E-01
Tabla 2.8: Resultados del ttest para el Algoritmo EvPSO
(1, ), donde el enjambre se considera un individuo con caractersticas denidas por sus
par ametros. La ES permite el control de los par ametros al seleccionar de un grupo de
mutaciones aquella que en la iteraci on presente el mejor desempe no, representado por el
promedio de costo de sus integrantes.
Siguiendo este algoritmo de referencia, se modicaron dos algoritmos de enjambres
presentados previamente en el captulo 1: La optimizaci on por enjambre de bacterias (BSFO)
y por enjambre de partculas (PSO). Para evaluar su desempe no frente a otros algoritmos
de enjambres con par ametros est aticos se realiz o un experimento sobre 10 funciones de
prueba. Los resultados obtenidos de este estudio muestran que la autoadaptaci on genera
una mayor exploraci on del espacio de b usqueda, reejada en una mayor variabilidad en los
resultados nales y en general se comporta como una prueba sistem atica controlada de un
grupo de par ametros. La variabilidad permite que el algoritmo encuentre valores menores que
las versiones est aticas, pero tambi en que encuentre valores mayores. Este hecho se relaciona
al aumento de la desviaci on est andar del algoritmo, aunque su media se mantenga cercana
a las encontradas por los m etodos est aticos, un efecto que se puede atribuir a los par ametros
semilla del algoritmo que son iguales a los de los m etodos est aticos. La autoadaptaci on
representa una mejora que puede ser de utilidad en espacios de b usqueda donde la funci on
de costo tenga una variaci on constante en su forma, e.g. en la supercie de error de un
sistema de control adaptativo.
39
2. EVOLUCI
ON DE ENJAMBRES
40
CAP
ITULO 3
Sintonizaci on de un Control PID por medio de enjambres
evolutivos
En Ingeniera de Control se presentan problemas que involucran sistemas que presentan
caractersticas como m ultiples entradas y salidas, no linealidades, alto acoplamiento,
presencia de fuertes disturbios, o restricciones operativas, que impiden su r apida y eciente
soluci on por m etodos cl asicos o convencionales. Una forma de solventar las deciencias que
se pueden producir al utilizar m etodos cl asicos para resolver un problema complejo es el uso
de t ecnicas de Control Inteligente (Intelligent Control IC), las cuales utilizan m etodos de
Inteligencia Computacional (CI) en la soluci on de problemas de identicaci on, optimizaci on y
control.
Un problema de control puede ser visto como un problema de optimizaci on, donde se
sintoniza un controlador, buscando los mejores par ametros, para obtener el mnimo error
entre una se nal de referencia y una se nal de salida. Existen diversos m etodos para llevar
a cabo la sintonizaci on, y uno de ellos es aplicar un algoritmo de optimizaci on que pueda
obtener los par ametros, deniendo como funci on de costo el error del sistema.
En el captulo 2 se examin o la construcci on de dos algoritmos de optimizaci on
autoadaptables basados en enjambres, los cuales mostraron su capacidad para obtener
soluciones mejores que los algoritmos con par ametros jos. La principal ventaja que
presentan los algoritmos es su capacidad para adaptarse a un nuevo ambiente, que puede
41
3. SINTONIZACI
n
=
k
m
1
_
1+
m
1
m
2
_
(3.1)
=
b
2
1+
m
1
m
2
km
1
(3.2)
X =
_
0 1
2
n
2
n
_
X+
_
0
1
_
U (3.3)
Y =
1
m
2
_
2
n
2
n
X (3.4)
Ahora, considerando que la soluci on es la aplicaci on de una entrada de amplitud F
MAX
durante un tiempo determinado, luego del cual la entrada es puesta a cero. Este esquema,
denominado de interruptor simple, produce una aceleraci on creciente hasta un pico a
p
,
a partir del cual decrece con una envolvente exponencial. Para obtener el tiempo de
establecimiento, es necesario obtener un valor analtico para a
p
, el cual se obtiene de
manipular tediosamente la respuesta general del sistema y se muestra en la ecuaci on
3.5, donde = 64
8
+80
6
16
4
, =
_
1
2
, = 32
7
+40
5
8
3
+1,
= tan
1
y = F (s
1
), siendo F (s
1
) la transformada de Laplace de la entrada dada
por la ecuaci on 3.6, con T
s
calculado por la ecuaci on 3.7.
a
p
=
1
2m
2
n
_
1+
2
e
n
Ts
|F (s
1
)|
2
_
2
+
2
cos
_
+2
n
T
s
_
1
2
+2
_
+4
(3.5)
F (s
1
) =
F
MAX
2F
MAX
e
T
s
/2
cos(
d
T
s
/2) +F
MAX
e
T
s
cos(
d
T
s
)
n
+ j
d
+ j
2F
MAX
e
T
s
/2
sin(
d
T
s
/2) F
MAX
e
T
s
sin(
d
T
s
)
n
+ j
d
(3.6)
T
s
=
4(m
1
+m
2
)x
F
F
MAX
(3.7)
43
3. SINTONIZACI
0.1000
14 t
set
31.4376
Tabla 3.1: Par ametros del sistema de dos masas
Con el c alculo de la aceleraci on pico, se dene un lmite para la aceleraci on donde se presume
el sistema es estable al cual se denomina a
ln(a
/a
p
)
n
_
(3.8)
Si una estrategia de control en particular tiene un tiempo t
set
mayor que la forma simple, es
altamente probable que el tiempo y esfuerzo extra empleado es desperdiciado. Esta estrategia
representa valores adecuados para sistemas con moderado ( > 0,1) o fuerte ( > 0,6)
amortiguamiento.
Para hacer uso de esta prueba, es necesario parametrizar el sistema, de tal manera que
presente un amortiguamiento moderado o fuerte, caso en el cual el dise no de interruptor
simple es adecuado. Los par ametros seleccionados muestran en la tabla 3.1.
Con estos valores, obtenemos un sistema cuyas ecuaciones de estado corresponden a las
ecuaciones 3.9 y 3.10.
X =
_
0 1
1,50 0,80
_
X+
_
0
1
_
U (3.9)
Y =
_
0,75 0,40
X (3.10)
44
3.2 Sintonizaci on de controladores PID
3.2. Sintonizaci on de controladores PID
La ley de control ProporcionalIntegralDerivada (PID), representa uno de los controladores
m as ampliamente utilizados en los esquemas de compensaci on particularmente cuando se
posee un modelo lineal del sistema, siendo su uso cercano al del 95% de los lazos de control
en los entornos industriales [Herrero02]. La principal raz on por la cual el control PID es tan
popular es debido a la facilidad con que estos componentes pueden analizarse, visualizarse
y dise narse en los dominios del tiempo y de la frecuencia [Kuo96]. Adem as, el controlador
PID mejora el amortiguamiento y reduce el sobrepaso, el tiempo de levantamiento y el tiempo
de asentamiento. Sin embargo, la selecci on de las ganancias de cada componente debe
realizarse de manera muy cuidadosa, ya que valores inadecuados pueden producir efectos no
deseados e inclusive desastrosos. Con esto en mente, se han desarrollado diversos m etodos
para sintonizar este tipo de controladores, entre los cuales se pueden mencionar:
M etodos empricos como el de ZieglerNichols.
M etodos analticos como los basados en el lugar geom etrico de las races.
M etodos basados en optimizaci on.
Dentro de esta ultima categora, se hace uso de una funci on de costo que representa el
objetivo de dise no del sistema, como por ejemplo reducir el error durante la respuesta al
escal on, reducir el tiempo de establecimiento o el sobrepaso m aximo; como objetivo del
m etodo de optimizaci on. En varios trabajos se hace uso de los Algoritmos Gen eticos para
sintonizar controladores en sistemas no lineales [Herrero02, Grifn03].
Para obtener una soluci on al problema descrito en la secci on 3.1, se utilizar an los algoritmos
EvBSFO y EvPSO, con par ametros iniciales descritos en la tabla 3.2, para sintonizar las
ganancias de un controlador PID con la estructura descrita en la ecuaci on 3.11 el cual controla
la posici on nal x
F
de la masa no controlada m
2
. Teniendo en cuenta que la salida descrita
por el modelo en espacio de estado est a dada como la aceleraci on de m
2
, se debe integrar
doblemente la salida para obtener la posici on, suponiendo condiciones iniciales iguales a
cero.
u(t) = K
P
e(t) +K
I
_
e(t)dt +K
D
de(t)
dt
(3.11)
45
3. SINTONIZACI
utilizado.
La tabla muestra que se obtiene un valor de t
set
de una magnitud similar al obtenido por medio
del interruptor simple, al aplicar el algoritmo EvBSFOsobre el controlador PID, pero se obtiene
un valor inferior al aplicar el algoritmo EvPSO. A continuaci on, se realizaron dos pruebas para
determinar el comportamiento del controlador frente a una referencia constante y frente a
cambios de referencia. Los resultados se muestran en las guras 3.2 y 3.3. Las gr acas
superiores muestran la referencia y la posici on de m
2
, las intermedias muestran la aceleraci on
y los lmites denidos por a
ITULO 4
Regulaci on de Temperatura en la Plataforma de
Experimentaci on de Temperatura Multizona
En los anteriores captulos examinamos el comportamiento de los algoritmos de enjambres
evolutivos sobre problemas de optimizaci on con un solo objetivo, representado por una
unica funci on de costo. En la pr actica, es muy com un encontrar problemas que requieren
la optimizaci on simult anea de m as de una funci on de costo, que inclusive pueden representar
objetivos contrarios, como por ejemplo en la construcci on de un puente donde se requiere
baja masa y alta rigidez. En estos casos es muy probable que los diferentes objetivos no
puedan ser optimizados por las mismas selecciones de par ametros. Por lo tanto se hace
necesario un criterio que permita obtener un dise no satisfactorio al balancear los diferentes
objetivos [Das97].
En este captulo se presenta la implementaci on de un control indirecto adaptativo por modelos
para la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP), sintonizado por
medio de algoritmos de enjambres con y sin evoluci on. El control de esta plataforma requiere
la estimaci on de varios modelos, por lo cual el problema se puede considerar multiobjetivo.
En la secci on 4.1 se presenta la plataforma de experimentaci on. A continuaci on, en la
secci on 4.2 se presenta el esquema de control adaptativo por modelos implementado para
la plataforma de experimentaci on. En la secci on 4.3 se presenta los resultados obtenidos
de la implementaci on del control adaptativo. Finalmente en la secci on 4.4 se presentan las
conclusiones de este captulo.
49
4. REGULACI
ON DE
TEMPERATURA MULTIZONA
Figura 4.1: Aquitectura de la planta en la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP)
4.1. Plataforma de Experimentaci on de Temperatura
Multizona
La Plataforma de Experimentaci on de Temperatura Multizona (Multizone Temperature
Experimentation Platform MuTEP), presentada en [Mu noz05a, Mu noz05b], es una
estructura compuesta por sensores y actuadores de temperatura organizada en forma
de matriz. La plataforma intenta simular en peque na escala los sistemas utilizados en
la fabricaci on de semiconductores, tanto en la creaci on de los cristales como en la
elaboraci on de las capas foto resistivas, donde es necesario es mantener una temperatura
constante sobre una supercie [Schaper99, El-Awady03, Quijano02]. Estos sistemas tienen
la particularidad de exhibir algunos efectos como interacci on entre las zonas y sensibilidad a
las perturbaciones del medio.
MuTEP esta compuesta de la planta y un sistema de adquisici on de datos. La planta,
cuya arquitectura se muestra en la gura 4.1, esta compuesta por veinticinco sensores
integrados de temperatura y diecis eis bombillos incandescentes, organizados en diecis eis
zonas compuestas por un actuador y sus cuatro sensores adyacentes. Debido a esta
disposici on, un sensor puede estar afectado directamente por la acci on desde uno hasta
cuatro actuadores, acoplando las salidas a varias entradas. El sistema de adquisici on de
datos esta compuesto por cuatro m odulos basados en un microcontrolador de bajo costo.
Cada modulo se encarga de la administraci on de un cuadrante del proceso, compuesto por
cuatro zonas adyacentes, al transferir los datos sensados y las acciones de control entre el
proceso y un computador personal. La arquitectura general de la plataforma se muestra en la
gura 4.2.
La plataforma MuTEP se ha utilizado con anterioridad en pruebas de algoritmos de enjambres
para la asignaci on din amica de recursos [Mu noz05a] y regulaci on de temperatura usando
la exploraci on directa de la supercie [Alfonso07a]. El desafo que presenta MuTEP como
50
4.2 Control Indirecto Adaptativo
Figura 4.2: Arquitectura general de la Plataforma de Experimentaci on de Temperatura Multizona (MuTEP)
plataforma de experimentaci on es obtener temperaturas uniformes en todos los sensores.
En los anteriores trabajos se encontr o que la temperatura en los bordes de la estructura
se mantienen a menor temperatura que aquellos en el interior, haciendo necesario realizar
acciones de control de mayor amplitud en los actuadores cercanos a los bordes. Esta
acci on afecta a los sensores internos haciendo necesario escoger una acci on de control que
al mismo tiempo eleve la temperatura externa sin afectar sustancialmente la temperatura
interna.
4.2. Control Indirecto Adaptativo
La mayora de las t ecnicas para dise nar sistemas de control est an basadas en un buen
entendimiento de la planta bajo estudio y su entorno. Sin embargo, en algunas ocasiones,
la planta a controlar es muy compleja y sus procesos b asicos no son completamente
entendidos. En este caso, las t ecnicas de control pueden ser complementadas con t ecnicas
de identicaci on realizadas de manera recursiva, para obtener progresivamente un mejor
entendimiento de la planta a controlar por medio de un modelo que es actualizado
peri odicamente en base a los ultimos datos. Esta t ecnica, denominada control adaptativo,
permite utilizar el modelo identicado para dise nar un controlador [Sastry89].
Existen diversas estructuras de control adaptativo. Una de ellas, los reguladores
autoajustados o control adaptativo indirecto (Indirect Adaptive Control IAC), utiliza un
controlador cuyos par ametros son obtenidos de una estimaci on de los par ametros de la
planta, considerando que el modelo es el a la planta en ese periodo de tiempo. A este
principio se le conoce como de certeza de equivalencia. El esquema de un IAC se muestra
en la gura 4.3, donde hay una separaci on explicita entre la etapa de identicaci on y control.
El IAC es muy exible con respecto a la metodologa de dise no del controlador y el esquema
de identicaci on.
51
4. REGULACI
ON DE
TEMPERATURA MULTIZONA
Figura 4.3: Esquema de un Controlador Indirecto Adaptativo
Para la implementaci on de un IAC para la Plataforma MuTEP se utiliza como esquema
de identicaci on un algoritmo de enjambres con y sin evoluci on, de tal manera que pueda
realizarse una comparaci on entre los dos m etodos. Adicionalmente, se hacen las siguientes
consideraciones extradas del conocimiento pr actico del funcionamiento de la planta, para
disminuir el n umero de par ametros a calcular por el algoritmo: Primero, una zona, compuesta
por cuatro sensores y un actuador, es un sistema independiente y se ve unicamente afectada
por la acci on de control de su actuador. Segundo todos los sensores de una zona se ven
afectados de igual manera por la acci on de control, por lo tanto y
i
(k) se puede tomar como
el promedio de las salidas de los sensores. Finalmente, debido a la arquitectura sim etrica del
sistema, las zonas ubicadas en las esquinas, los bordes y el centro son id enticas entre s, por
lo tanto pueden ser representadas por el mismo modelo, a lo que se denomina acoplamiento.
Con estas consideraciones podemos elaborar un modelo para la i esima zona de primer
(Ecuaci on 4.1) y de segundo (Ecuacion 4.2) orden, donde
i
,
i
,
i
y
i
son los par ametros
estimados del modelo, y
i
(k) es la salida actual del sistema y u
i
(k n) y y
i
(k n) son la
acci on de control y la salida del sistema en el n esimo instante anterior.
y
i
(k) =
i
y
i
(k 1) +
i
u
i
(k 1) (4.1)
y
i
(k) =
i
y
i
(k 1) +
i
y
i
(k 2) +
i
u
i
(k 1) +
i
u
i
(k 2) (4.2)
Haciendo uso del criterio de certeza de equivalencia, se puede extraer una ley de control al
desplazar temporalmente el modelo un periodo de tiempo hacia adelante. En este instante,
la salida deseada r
i
(k) reemplaza la salida del sistema. Al despejar la salida de control u
i
(k)
52
4.2 Control Indirecto Adaptativo
obtenemos un controlador inverso de primer (Ecuaci on 4.3) y segundo (Ecuaci on 4.4) orden.
u
i
(k) =
1
i
(r
i
(k)
i
y
i
(k)) (4.3)
u
i
(k) =
1
i
_
r
i
(k)
i
y
i
(k)
i
y
i
(k 1)
i
u
i
(k 1)
_
(4.4)
El siguiente paso en el dise no del controlador adaptativo es formular la funci on de costo para
el algoritmo de enjambres. Teniendo en cuenta el objetivo de obtener un modelo param etrico
de la zona se considera la suma del error absoluto de identicaci on en las ultimas n muestras
como la funci on objetivo (Ecuaci on 4.5) para la zona, donde y(k n) y y(k n) es la salida
real y estimada de la planta respectivamente en el instante k n.
J
i
=
m
n=0
|y
i
(k n) y
i
(k n)| (4.5)
El sistema requiere la minimizaci on de diecis eis funciones objetivo independientes J
i
. Puesto
que los algoritmos consideran unicamente una funci on objetivo, es necesario realizar algunas
adaptaciones para que los par ametros seleccionados sean los adecuados. Teniendo en
cuenta que el error deseado en todas las zonas debe ser cero, la funci on objetivo que motiva
la exploraci on del algoritmo corresponde al valor m aximo entre las diecis eis funciones de
costo J =m axJ
i
, garantizando que el mejor individuo sera aquel que posea el menor m aximo
error entre todas las funciones. Los par ametros
i
,
i
,
i
y
i
del controlador no son tomados
del mejor individuo sino de toda la poblaci on identicando los individuos cuyo valor de J
i
sea
el menor en la poblaci on.
Finalmente, se denen tres arquitecturas para el IAC: Controlador de primer orden con
acoplamiento (IAC1), Controlador de segundo orden con acoplamiento (IAC2), Controlador
de primer orden sin acoplamiento (IAC3). Se requiere la identicaci on de 3 modelos de primer
orden para IAC1 con un total de 6 par ametros, 3 modelos de segundo orden para IAC2 con
un total de 12 par ametros IAC2, y 16 modelos de primer orden para IAC3 con un total de 32
par ametros, cuyos rangos son [0 1,10] para
i
y
i
, y [1 20] para
i
y
i
. Para los controladores
acoplados, se utiliza el promedio de los valores de J
i
de las zonas acopladas para obtener
el mejor individuo. Los algoritmos de optimizaci on seleccionados para el experimento son
BSFO, IWPSO, EvBSFO y EvPSO, con los par ametros mostrados en la tabla 4.1, donde d
es la diagonal del espacio de b usqueda y epoch es el n umero de iteraciones del algoritmo
por instante, que para EvBSFO es menor debido a su mayor tiempo de computo. La acci on
de control entregada por el estimador es ltrada al promediarla con la ultima acci on utilizada,
53
4. REGULACI
ON DE
TEMPERATURA MULTIZONA
No. Nombre Par ametros
1 BSFO p
ed
= 0,10 p
re
= 0,20 C
i
= 0,05d N
s
= 10 epoch = 50
2 IWPSO mv = 0,01d w = 0,600 c
1
= c
2
= 2,000 epoch = 50
3 EvBSFO = 50 = 5 C
i
= 0,05d N
s
= 10 epoch = 10
4 EvPSO = 50 = 5 mv = 0,01d w = 0,600 c
1
= c
2
= 1,700 epoch = 50
Tabla 4.1: Par ametros de los algoritmos para el control adaptativo
con el objetivo de evitar cambios excesivos que producen mediciones ruidosas, seg un lo
encontrado en [Alfonso07a].
4.3. Procedimiento y Resultados
Para evaluar el desempe no del controlador, se realiz o un experimento con referencia
constante (35
C, 40
C y 45
C
35
C 45
C) durante 15 minutos, con cinco repeticiones cada uno en vol umenes de control
innito y aislado para los algoritmos evolutivos (60 experimentos), con el objetivo de asegurar
que el sistema no presenta estancamiento.
En las guras 4.4 y 4.5, se observan resultados tpicos del control con identicaci on por
enjambre de bacterias y de partculas no evolutivos, donde se presentan fallas generalizadas
de los controladores debido a la incapacidad del identicador de obtener un modelo adecuado
del sistema. Para el caso del algoritmo BSFO con volumen innito (Figura 4.4), el sistema
genera una acci on de control fuertemente oscilatoria sin convergencia sobre todos los
actuadores. El resultado es una p erdida total de la referencia de 35
C en el area central
de la matriz de sensores, alcanzando temperaturas cercanas a los 50
C
sobre la mayora de la matriz de sensores, e inclusive elevando la temperatura a cerca de
80
C.
Estos resultados muestran la necesidad de realizar modicaciones sobre el esquema
de identicaci on para encontrar un conjunto de par ametros adecuado para mejorar el
desempe no del algoritmo, puesto que aquellos sugeridos como generales en el captulo 2,
no son utiles en este problema. Por lo tanto, se prosigue con la aplicaci on de los enjambres
evolutivos al problema de control.
54
4.3 Procedimiento y Resultados
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
Temperature Signals
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100200
30
40
50
60
Time (s)
0 100200
30
40
50
60
0 100200
30
40
50
60
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.4: Resultados obtenidos con el IAC1 con identicaci on por BSFO con referencia constante de 35
C
)
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
0 100200
40
60
80
Time (s)
0 100200
40
60
80
0 100200
40
60
80
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.5: Resultados obtenidos con el IAC3 con identicaci on por IWPSO con referencia constante de 40
ON DE
TEMPERATURA MULTIZONA
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
Temperature Signals
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
0 200
30
40
50
Time (s)
0 200
30
40
50
0 200
30
40
50
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
0 200
0
0.5
1
Figura 4.6: Resultados obtenidos con el IAC1 con identicaci on por EvBSFO con referencia constante de 35
C y volumen aislado:
(Izquierda) Se nales de temperatura (Derecha) Acciones de control
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Temperature Signals
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.7: Resultados obtenidos con el IAC2 con identicaci on por EvBSFO con referencia variable y volumen innito: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Temperature Signals
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Time (s)
0 500
30
40
50
0 500
30
40
50
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
Figura 4.8: Resultados obtenidos con el IAC3 con identicaci on por EvBSFO con referencia variable y volumen innito: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
56
4.3 Procedimiento y Resultados
No. Nombre Ecuaci on
1 Temperatura nal promedio y
f
=
1
25
25
i=1
y
i
2 Error relativo porcentual ER =
ry
f
r
100%
3 Desviaci on de la supercie =
_
1
25
25
j=1
_
y
i
y
f
_
2
4 Error medio cuadrado MSE =
1
2560
25
i=1
t
f
k=t
f 60
(r y
i
(k))
2
5 Error medio absoluto MAE =
1
2560
25
i=1
t
f
k=t
f 60
|r y
i
(k)|
6 Error medio cuadrado por el tiempo MTSE =
1
2560
25
i=1
t
f
k=t
f 60
k (r y
i
(k))
2
7 Error medio absoluto por el tiempo MTAE =
1
2560
25
i=1
t
f
k=t
f 60
k |r y
i
(k)|
8 Suavidad de la acci on de control CAS =
1
16t
f
1
16
i=1
t
f
k=1
u
i
(k) u
i
(k 1)
9 Acci on de control promedio CAA =
1
16t
f
16
i=1
t
f
t=0
u
i
(k)
Tabla 4.2: Indices de desempe no para la comparaci on de los controladores
IAC3 con volumen innito y referencia variable (Figura 4.8) el controlador genera una acci on
que permite el seguimiento de la referencia de manera adecuada en mayor parte de la
estructura, entre ella la generaci on de una acci on de control mnima durante el paso de
40
C 35
C 35
ON DE
TEMPERATURA MULTIZONA
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Temperature Signals
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.9: Resultados obtenidos con el IAC1 con identicaci on por EvPSO con referencia constante de 40
C
)
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
0 100200
30
40
50
Time (s)
0 100200
30
40
50
0 100200
30
40
50
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
0 100 200
0
0.5
1
Figura 4.10: Resultados obtenidos con el IAC2 con identicaci on por EvPSO con referencia constante de 45
C y volumen aislado:
(Izquierda) Se nales de temperatura (Derecha) Acciones de control
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Temperature Signals
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
T
e
m
p
e
r
a
t
u
r
e
(
C
)
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
0 500
30
40
50
Time (s)
0 500
30
40
50
0 500
30
40
50
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
0 500
0
0.5
1
Figura 4.11: Resultados obtenidos con el IAC3 con identicaci on por EvPSO con referencia variable y volumen aislado: (Izquierda) Se nales
de temperatura (Derecha) Acciones de control
58
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
60
I
A
C
3
Figura 4.12: Temperatura nal promedio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
1
Error Relativo (%)
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
20
40
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
1
Error Relativo (%)
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
3
Figura 4.13: Error relativo con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
corresponde a la acci on de control del i esimo actuador en el instante k, y t
f
corresponde al
instante nal del experimento equivalente a 300 segundos.
Los valores obtenidos de los ndices para el experimento con volumen innito y aislado
y referencia constante se muestran en las guras 4.124.20, donde se observan algunas
ventajas de los controladores con identicadores evolutivos sobre los no evolutivos, en
particular la capacidad del identicador de adaptarse a nuevas condiciones de funcionamiento
de la planta, debidas a un cambio en su din amica.
En la gura 4.12 se muestra el resultado para t
f
. Tanto para el experimento con volumen
innito como aislado, el mejor desempe no obtenido por los identicadores no evolutivos esta
representado por el IAC2, que es ligeramente inferior al desempe no de los identicadores
evolutivos. Sin embargo, para IAC1 e IAC2 los resultados obtenidos con identicaci on
59
4. REGULACI
ON DE
TEMPERATURA MULTIZONA
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
1
Dispersin (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
1
Dispersin (
o
C)
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
Figura 4.14: Dispersi on de la supercie con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
50
100
I
A
C
1
Error Cuadrado Medio
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
100
200
300
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
200
400
600
800
I
A
C
1
Error Cuadrado Medio
BSFO EvBSFO IWPSO EvPSO
0
50
100
150
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
500
1000
1500
I
A
C
3
Figura 4.15: Error cuadrado medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
evolutiva son claramente superiores, en particular en el experimento con volumen aislado.
En todas las pruebas el mejor desempe no obtenido en t erminos de t
f
fue presentado por
IAC2EvPSO.
En la gura 4.13 se muestra el resultado para ER. La gura corrobora lo encontrado en t
f
donde el mejor desempe no de los controladores se obtiene en IAC2. Se observa con mayor
claridad la desventaja signicativa de los identicadores no evolutivos en IAC1 e IAC3. Para
los algoritmos de bacterias se encuentra que el error es mayor a bajas temperaturas, mientras
que no se percibe una tendencia para los algoritmos de partculas. Se observa errores de tipo
catastr oco en el desempe no de IAC3IWPSO para ambos experimentos.
En la gura 4.14 se muestra el resultado para . El experimento con volumen innito muestra
que los algoritmos evolutivos poseen una supercie m as uniforme, al ser en la mayora
60
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
2
4
6
8
I
A
C
1
Error Absoluto Medio
BSFO EvBSFO IWPSO EvPSO
0
2
4
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
1
Error Absoluto Medio
BSFO EvBSFO IWPSO EvPSO
0
5
10
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
10
20
30
I
A
C
3
Figura 4.16: Error absoluto medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
1
2
3
x 10
4
I
A
C
1
Error Cuadrado por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
5000
10000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
5
x 10
4
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
1
2
x 10
5
I
A
C
1
Error Cuadrado por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
2
4
x 10
4
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
2
4
x 10
5
I
A
C
3
Figura 4.17: Error cuadrado por el tiempo medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
de los casos menores que sus contrapartes no evolutivos, a excepci on del IAC2 entre
IWPSO y EvPSO. Para el experimento con volumen aislado muestra errores catastr ocos
en los controladores IAC1 e IAC3 para los identicadores no evolutivos. En el caso de
los identicadores evolutivos presentan una supercie con baja distorsi on en todos los
controladores.
En las guras 4.15 y 4.16 se muestran los resultados para MSE y MAE. En el caso de
los errores promedio se observa una tendencia a producirse errores mayores que uno,
al presentarse valores altos de error cuadrado. Se puede pensar que esta tendencia se
corregira, si en lugar de utilizar el error absoluto de identicaci on (ecuaci on 4.5) se usa el
error cuadrado. Sin embargo, durante la etapa de dise no se encontr o que el error cuadrado
de identicaci on produca un desempe no inferior al error absoluto. Los resultados muestran
que el menor error cuadrado se obtiene con IAC2 en todos los casos. Los identicadores
61
4. REGULACI
ON DE
TEMPERATURA MULTIZONA
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
I
A
C
1
Error Absoluto por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
500
1000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
3000
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
2000
4000
6000
8000
I
A
C
1
Error Absoluto por el Tiempo Medio
BSFO EvBSFO IWPSO EvPSO
0
1000
2000
3000
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
2000
4000
6000
8000
I
A
C
3
Figura 4.18: Error absoluto por el tiempo medio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
1
Suavidad de la Accin de Control
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
1
Suavidad de la Accin de Control
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.05
0.1
I
A
C
3
Figura 4.19: Suavidad de la acci on de control con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
evolutivos presentan ndices de error cuadrado y absoluto de valores similares en todos los
controladores. Caso contrario ocurre con los identicadores no evolutivos donde su mejor
desempe no se presenta en IAC2. El error absoluto tiene valores similares a los obtenidos con
la dispersi on mostrando la existencia de una relaci on entre estos dos valores.
En las guras 4.17 y 4.18 se muestran el resultado para MTSE y MTAE, que permiten
establecer una tendencia del error. Los resultados obtenidos permiten concluir que para los
identicadores no evolutivos, a medida que incrementa la temperatura, el error es menor,
debido a que los errores catastr ocos resultan en temperaturas elevadas relativamente
cercanas a la referencia. En cuanto al error en los identicadores evolutivos, se observa
un incremento cercano al proporcional, que indica que el error se mantiene en un rango
constante a pesar de incrementar el tiempo. Nuevamente el controlador IAC2 tiene los
menores ndices con todos los identicadores. IWPSO es altamente inefectivo y presenta
62
4.3 Procedimiento y Resultados
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
1
Accin de Control Promedio
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
3
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
1
Accin de Control Promedio
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
2
BSFO EvBSFO IWPSO EvPSO
0
0.5
1
I
A
C
3
Figura 4.20: Acci on de control promedio con referencia ja: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
una tendencia de temperatura creciente, lo que implica que durante el experimento, no solo
el error fue alto, sino que la temperatura continua creciendo.
En las guras 4.19 y 4.20 se muestran los resultados para CAS y CAA. El an alisis de estos
ndices permiten concluir que los identicadores por partculas presentan una acci on de
control m as uniforme al presentar un menor CAS, mientras que los identicadores evolutivos
poseen un CAA bajo. Los altos valores de CAA presentados por los identicadores no
evolutivos indican una acci on de control errada producida por el sistema de identicaci on,
generando una p erdida de la se nal de referencia por sobrepaso. En el caso del controlador
por BSFO, los valores de CAS indican una acci on de control oscilante, que produce el efecto
observado en la gura 4.4.
Los valores obtenidos de los ndices para el experimento con volumen innito y aislado y
referencia variable se muestran en las guras 4.214.29, donde se comprueban los resultados
obtenidos por los identicadores evolutivos, y adem as se demuestra que el algoritmo no se
estanca sobre una referencia en particular.
En la gura 4.21 se muestra el resultado para t
f
. El resultado muestra que el controlador se
ajusta a la nueva referencia exitosamente. Al igual que los experimentos con referencia ja,
el controlador IAC2 tiene el desempe no m as adecuado. Adem as se observa que el sistema
tiene un mejor desempe no a partir de la referencia de 35
ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
EvBSFO EvPSO
0
20
40
60
I
A
C
2
EvBSFO EvPSO
0
20
40
60
I
A
C
3
EvBSFO EvPSO
0
20
40
60
I
A
C
1
Temperatura Final Promedio (
o
C)
EvBSFO EvPSO
0
20
40
60
I
A
C
2
EvBSFO EvPSO
0
20
40
60
I
A
C
3
Figura 4.21: Temperatura nal promedio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
10
20
I
A
C
1
Error Relativo (%)
EvBSFO EvPSO
0
10
20
I
A
C
2
EvBSFO EvPSO
0
10
20
I
A
C
3
EvBSFO EvPSO
0
10
20
I
A
C
1
Error Relativo (%)
EvBSFO EvPSO
0
10
20
I
A
C
2
EvBSFO EvPSO
0
10
20
I
A
C
3
Figura 4.22: Error relativo con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
en la referencia de 35
ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
2
4
I
A
C
1
Error Absoluto Medio
EvBSFO EvPSO
0
1
2
3
I
A
C
2
EvBSFO EvPSO
0
1
2
3
I
A
C
3
EvBSFO EvPSO
0
1
2
I
A
C
1
Error Absoluto Medio
EvBSFO EvPSO
0
2
4
I
A
C
2
EvBSFO EvPSO
0
2
4
I
A
C
3
Figura 4.25: Error absoluto medio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
5000
10000
I
A
C
1
Error Cuadrado por el Tiempo Medio
EvBSFO EvPSO
0
5000
10000
15000
I
A
C
2
EvBSFO EvPSO
0
5000
10000
I
A
C
3
EvBSFO EvPSO
0
2000
4000
I
A
C
1
Error Cuadrado por el Tiempo Medio
EvBSFO EvPSO
0
2000
4000
6000
8000
I
A
C
2
EvBSFO EvPSO
0
5
x 10
4
I
A
C
3
Figura 4.26: Error cuadrado por el tiempo medio: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
desempe no lo provee el controlador IAC3. Este resultado se explica en el comportamiento del
algoritmo. EvBSFO y su algoritmo padre, BSFO son b usquedas que utilizan la direcci on del
gradiente. El dise no del controlador IAC3 permite separar el desempe no de cada identicador
de manera individual, por lo cual, este se ve beneciado por el comportamiento de EvBSFO.
Para el algoritmo EvPSO el error tiene una tendencia a mantenerse relativamente constante
en el tiempo, al igual que lo observado en el experimento de referencia ja.
En las guras 4.28 y 4.29 se muestra el resultado para CAS y CAA. El an alisis de CAS indica
que el mayor esfuerzo de control se produce en los instantes iniciales del control, donde se
pasa de la temperatura ambiente a la temperatura de referencia de 40
C, en particular para
los controladores acoplados con EvBSFO. Esto tambi en indica que a media que transcurre
el tiempo, la acci on de control es m as uniforme, efecto que inuye en el error del sistema.
Igualmente se puede concluir, que el identicador obtiene, a medida que pasa el tiempo una
66
4.4 Conclusiones
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
1
Error Absoluto por el Tiempo Medio
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
2
EvBSFO EvPSO
0
1000
2000
3000
I
A
C
3
EvBSFO EvPSO
0
500
1000
1500
I
A
C
1
Error Absoluto por el Tiempo Medio
EvBSFO EvPSO
0
500
1000
1500
I
A
C
2
EvBSFO EvPSO
0
2000
4000
I
A
C
3
Figura 4.27: Error absoluto por el tiempo medio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
EvBSFO EvPSO
0
0.02
0.04
I
A
C
1
Suavidad de la Accin de Control
EvBSFO EvPSO
0
0.02
0.04
I
A
C
2
EvBSFO EvPSO
0
0.02
0.04
I
A
C
3
EvBSFO EvPSO
0
0.02
0.04
I
A
C
1
Suavidad de la Accin de Control
EvBSFO EvPSO
0
0.02
0.04
I
A
C
2
EvBSFO EvPSO
0
0.02
0.04
I
A
C
3
Figura 4.28: Suavidad de la acci on de control con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
mejor aproximaci on del sistema. En cuanto al CAA, la acci on de control efectuada sobre la
referencia de 35
ON DE
TEMPERATURA MULTIZONA
EvBSFO EvPSO
0
0.2
0.4
I
A
C
1
Accin de Control Promedio
EvBSFO EvPSO
0
0.2
0.4
I
A
C
2
EvBSFO EvPSO
0
0.2
0.4
I
A
C
3
EvBSFO EvPSO
0
0.2
0.4
I
A
C
1
Accin de Control Promedio
EvBSFO EvPSO
0
0.2
0.4
I
A
C
2
EvBSFO EvPSO
0
0.2
0.4
I
A
C
3
Figura 4.29: Acci on de control promedio con referencia variable: (Izquierda) Sobre volumen innito (Derecha) Sobre volumen aislado
estrategia de identicaci on. El primer paso para la soluci on de este problema fue establecer
pautas para que el algoritmo de optimizaci on, dise nado originalmente para una unica funci on
de costo, sea capaz de optimizar varias funciones de costo independientes, lo cual fue posible
al denir una funci on de costo motivadora del enjambre y seleccionar los par ametros de cada
modelo utilizando al mejor individuo por funci on de costo.
Los resultados obtenidos en los experimentos permitieron demostrar que la evoluci on de los
enjambres permite obtener mejores resultados en el problema de control, que los obtenidos
al utilizar enjambres con par ametros generalizados, alcanzando menores ndices de error
y de dispersi on, con acciones de control menores y m as suaves. Adicionalmente, se pudo
conrmar la validez de las simplicaci on realizada por medio del acoplamiento de los modelos,
ya que en la mayora de los casos, el controlador de segundo orden presenta un mejor
desempe no que el controlador desacoplado de primer orden.
El siguiente paso en el desarrollo de un controlador para MuTEP consiste en el dise no de
un controlador que considere el efecto de todos los actuadores sobre cada sensor. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de par ametros, para lo cual se debe considerar el uso de sistemas de c omputo m as veloces
o en paralelo.
68
CAP
ITULO 5
Conclusiones y Trabajos Futuros
A trav es de este documento se ha presentado el dise no, implementaci on, aplicaci on y prueba
de una metodologa para la autoadaptaci on de algoritmos de enjambres por medio de los
conceptos de Estrategias Evolutivas. En los captulos iniciales se presentaron los conceptos
te oricos necesarios para entender el concepto de evoluci on de enjambres y su aplicaci on
sobre los algoritmos BSFO y PSO, luego se utilizaron dos problemas de control, uno sobre
un sistema sencillo de una entrada una salida y otro sobre la Plataforma de Experimentaci on
de Temperatura Multizona (MuTEP), para examinar el comportamiento de los algoritmos en
un problema pr actico.
En este captulo, se presenta la discusi on nal de los resultados obtenidos durante el
desarrollo de este trabajo, como una evaluaci on de los objetivos propuestos y los posibles
caminos que puede tener a futuro esta investigaci on. Inicialmente, en la secci on 5.1 se
presentan los resultados en t erminos de los objetivos planteados al inicio de este documento.
Despu es, en la secci on 5.2 se presentan las publicaciones derivadas de este trabajo.
Finalmente en la secci on 5.3 se presentan los trabajos futuros sugeridos para la continuaci on
de esta investigaci on.
69
5. CONCLUSIONES Y TRABAJOS FUTUROS
5.1. Discusi on nal
La SI es en la actualidad, un area de la investigaci on en IA en r apido crecimiento, con una gran
diversidad de m etodos basados en diferentes sociedades naturales y aplicaciones diferentes
en varios campos de la ingeniera. Al mismo tiempo, se ha encontrado que continuamente
se producen nuevas modicaciones a los conceptos b asicos con el objetivo de mejorar el
desempe no de los algoritmos, en particular el hibridizar su funcionamiento con el de los EA.
Aunque se han dado algunos pasos encaminados a la autoadaptaci on de los sistemas, los
trabajos en esta area son a un limitados, por lo que existe a un muchos conceptos por explorar.
Los algoritmos de SI, como m etodos de optimizaci on a su vez resultan de utilidad en los
sistemas de control al ser sustitutos de otras t ecnicas ampliamente utilizadas, como lo son
mnimos cuadrados, algoritmos gen eticos, programaci on lineal, entre otras. En este trabajo se
mostr o la utilidad de estos algoritmos en la sintonizaci on de controladores fuera de lnea como
lo son los PID y controladores en lnea como es el IAC. En particular, el IAC result o altamente
beneciado con los algoritmos de enjambres evolutivos al ser comparado con aquellos que no
poseen autoadaptaci on. La combinaci on de enjambres evolutivos e IAC permiti o obtener un
controlador que se desempe na de manera muy satisfactoria frente a un problema complejo
como lo es MuTEP.
La selecci on de algoritmos de SI dise nados para espacios continuos, como lo son BSFO
y PSO, facilit o las operaciones de mutaci on y selecci on de poblaciones, al contener la
informaci on de b usqueda en los agentes y no en el espacio, como es el caso de los algoritmos
de hormigas. Al mismo tiempo, los par ametros obtenidos por el sistema son n umeros reales,
que no requieren de modicaci on para ser empleados dentro de controladores.
A su vez, los algoritmos seleccionados permitieron establecer de manera directa los
par ametros m as adecuados a evolucionar debido a su inuencia en el resultado nal. En
ambos casos las caractersticas que dominan la comunicaci on entre agentes y el tama no de
paso tienen la mayor inuencia sobre el resultado, siendo estos par ametros los seleccionados
para su evoluci on. Los resultados obtenidos durante el ttest mostraron que en efecto
la autoadaptaci on estadisticamente logra mejores resultados que las versiones est aticas,
permitiendo concluir que en efecto la poblaci on tiende a una posici on optima dentro del
espacio de par ametros de la estrategia.
5.2. Publicaciones resultantes de la investigaci on
A continuaci on se presentan los res umenes de las publicaciones resultantes de esta
investigaci on. Los trabajos descritos contienen resultados preliminares, que ayudaron a
70
5.2 Publicaciones resultantes de la investigaci on
determinar los algoritmos y sus par ametros a evolucionar, y resultados nales descritos en
cada uno de los captulos anteriores de este documento.
5.2.1. Artculos en Revistas
M.A. Mu noz, J.A. L opez & E.F. Caicedo. An Articial Bee Hive for Continuous
Optimization. International Journal of Intelligent Systems. Aceptado.
Resumen: In this paper, we present an Articial BeeHive Algorithm for optimization
in continuous search spaces based on a model aimed at individual bee behavior.
The algorithm denes a series of behavioral rules for each agent to determine what
actions must be carried out. Additionally, our algorithm includes some adaptations
not considered in the biological model to increase the performance in the search for
better solutions. To compare the performance of the algorithm to other swarm-based
algorithms, we conducted statistical analyses by using the so-called t-test. This
comparison is done by using several benchmark functions.
5.2.2. Trabajos en Conferencias
M.A. Mu noz, J.A. L opez & E.F. Caicedo. Control Inteligente usando optimizaci on
por colonia de hormigas. En Congreso Internacional de Inteligencia Computacional
CIIC2007. Bogot a, 57 Septiembre de 2007.
Resumen: En este artculo se presenta la manera como los algoritmos basados
en colonia de hormigas pueden ser aplicados para resolver problemas en el campo
del control autom atico. Los algoritmos basados en colonia de hormigas son una
metodologa perteneciente a la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de estos algoritmos en el campo del
control de procesos: primero se presenta el control adaptativo indirecto del nivel de un
tanque y, posteriormente, se presenta la asignaci on de recursos sobre una grilla de
temperatura. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva y,
especcamente, los algoritmos basados en colonia de hormigas son una herramienta
prometedora para el desarrollo de controladores inteligentes.
M.A. Mu noz, J.A. L opez & E.F. Caicedo. Optimizaci on y Control usando Colonias de
Hormigas. En VII Congreso de la Asociaci on Colombiana de Automatica ACA2007.
Santiago de Cali, 2124 de Marzo de 2007.
Resumen: En este artculo se presenta la manera como un algoritmo de optimizaci on
en espacios continuos basado en colonia de hormigas puede ser aplicado para resolver
71
5. CONCLUSIONES Y TRABAJOS FUTUROS
problemas en el campo del control autom atico. Los algoritmos basados en colonia
de hormigas hacen parte de la denominada Inteligencia de Enjambres o Colectiva.
En este trabajo se presentan dos aplicaciones de este algoritmo en el campo del
control de procesos: primero se presenta la sintonizaci on de un controlador PID para
un reactor de agitaci on continua, luego el control adaptativo indirecto del nivel de
un tanque. Los resultados obtenidos permiten mostrar que la Inteligencia Colectiva,
y especcamente, los algoritmos basados en colonia de hormigas constituyen una
herramienta prometedora para el desarrollo de controladores inteligentes.
M.A. Mu noz, E.F. Caicedo. & J.A. L opez Estudio Comparativo de Esquemas de
Control Inteligente Aplicado a un Tanque con Agitaci on Continua. En VII Congreso de la
Asociaci on Colombiana de Automatica ACA2007. Santiago de Cali, 2124 de Marzo
de 2007.
Resumen: En este trabajo se estudia la simulaci on de controladores neuronales,
difusos y PID sintonizado evolutivamente para un tanque de calentamiento de
agitaci on continua; y se presenta un an alisis comparativo del desempe no de los
mismos. Los resultados demostraron la factibilidad y el funcionamiento adecuado de
ciertos controles para esta planta y las dicultades que se podran presentar en
la implementaci on de uno u otro para este caso. El trabajo pretende demostrar la
utilidad de estos m etodos gracias a su exibilidad y a la posibilidad de implementar
controladores a plantas cuyo modelo matem atico exacto se desconoce.
5.3. Trabajos Futuros
Los resultados obtenidos en este trabajo permiten formular algunas hip otesis cuyo desarrollo
puede ser evaluado en trabajos posteriores. Si bien el estudio de la metodologa de
autoadaptaci on se realiz o en tres escenarios diferentes, proporcionando una cantidad
suciente de datos para sustentar las armaciones, es necesario realizar un estudio de
estabilidad y convergencia de los algoritmos, en particular sobre los par ametros de la
estrategia. El trabajo realizado hasta el momento pudo determinar que la tendencia del
algoritmo es a reducir sus par ametros mientras se encuentre en un descenso de gradiente.
De lo contrario el algoritmo incrementar a sus par ametros.
El siguiente trabajo de importancia es el estudio de las variaciones en la estrategia evolutiva.
Se propone la experimentaci on con un tipo de selecci on que incluya a la poblaci on padre,
siendo esta una estrategia (1+). Se considera, de acuerdo a conocimiento obtenido, que
esta estrategia puede representar cambios menos dr asticos de los par ametros.
Las pruebas preliminares de este trabajo permitieron establecer la necesidad de utilizar el
72
5.3 Trabajos Futuros
desempe no global como costo para la autoadaptaci on. Sin embargo, se sugiere continuar la
exploraci on de poblaciones de menor tama no, incluyendo poblaciones de un solo individuo,
similar al encontrado en [Miranda02b]. Este trabajo permitira el uso de la cruza de par ametros
entre poblaciones. Sin embargo, cuando se consideran poblaciones de m as de un individuo,
se hace necesario el desarrollo de un algebra de poblaciones.
Junto con estos trabajos, se hace indispensable el estudio de las caractersticas de
cooperaci on y competici on a nivel de agentes. Este estudio requiere el an alisis por medio
de teora de juegos y el estudio de las caractersticas de equilibrio de Nash del sistema.
De manera similar, se hace interesante la posibilidad de incluir otros esquemas de
comportamiento, que inuyan en desempe no de los agentes tanto individual como
colectivamente. Algunos comportamientos propuestos son la predicci on, el aprendizaje por
refuerzo y la curiosidad articial. La adici on de este tipo de comportamientos encamina la
investigaci on hacia el campo de la vida articial.
Finalmente, en el dise no de un controlador para MuTEP, los resultados obtenidos, aunque
satisfactorios, a un no producen una respuesta completa para el problema, puesto que el
uso del promedio de las salidas no considera aspectos como la distancia de los actuadores
a cada uno de los sensores y los acoplamientos existentes entre zonas no adyacentes. Las
limitaciones existentes en la actualidad se deben a la necesidad de calcular una gran cantidad
de par ametros, para lo cual se debe considerar el uso de sistemas de computo m as veloces
o en paralelo.
73
5. CONCLUSIONES Y TRABAJOS FUTUROS
74
AP
ENDICE A
Tablas de resultados
En este ap endice se presentan las tablas de resultados complementarias a las gr acas de
los experimentos realizados en el captulo 4. La tabla A.1 presenta los valores de los ndices
de desempe no para el experimento con volumen de control innito y referencia ja. La tabla
A.2 presenta los valores de los ndices de desempe no para el experimento con volumen de
control aislado y referencia ja. La tabla A.3 presenta los valores de los ndices de desempe no
para el experimento con volumen de control innito y referencia variable. Finalmente, la tabla
A.4 presenta los valores de los ndices de desempe no para el experimento con volumen de
control aislado y referencia variable.
75
A. TABLAS DE RESULTADOS
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
35 42.6349 21.8140 5.0554 88.3989 7.7815 23779.5631 2093.1382 0.0655 0.3418
1 40 46.4264 16.0660 5.5428 76.6472 7.0010 20681.5154 1886.4695 0.0680 0.3882
45 48.3837 7.5192 6.0979 52.6365 5.8916 14164.7997 1585.3563 0.0650 0.4962
35 38.9906 11.4017 3.9536 34.1394 4.6895 9166.3970 1260.3132 0.0502 0.2319
BSFO 2 40 42.7992 6.9981 4.4694 30.5459 4.5240 8218.1093 1217.0833 0.0585 0.2899
45 44.6298 0.8228 5.4405 32.3648 4.8945 8709.7649 1316.8368 0.0664 0.4183
35 43.8688 25.3394 5.2166 107.0651 8.8847 28819.0537 2390.5096 0.0665 0.3433
3 40 46.8624 17.1560 5.6855 80.6223 7.2033 21716.7534 1939.0724 0.0663 0.4143
45 48.6526 8.1168 6.3192 53.8310 5.9602 14469.1345 1602.8443 0.0632 0.5128
35 37.4940 7.1258 2.7508 22.9505 3.4484 6151.6346 925.9584 0.0334 0.2071
1 40 43.1026 7.7566 3.3025 42.0890 4.4382 11330.4484 1193.3282 0.0293 0.2757
45 46.0857 2.4127 3.0615 18.9334 3.2253 5098.0606 868.7391 0.0304 0.3502
35 37.3850 6.8143 2.5638 32.8173 3.4321 8791.7774 920.8207 0.0304 0.1880
EvBSFO 2 40 41.1302 2.8255 2.4889 11.2319 2.6158 3057.9898 706.4792 0.0281 0.2226
45 46.4262 3.1694 3.6260 21.7321 3.6594 5842.9724 984.1693 0.0474 0.3628
35 36.3069 3.7340 2.0602 7.2487 2.0950 1944.6933 562.5189 0.0063 0.1565
3 40 40.7916 1.9790 2.3369 6.9490 2.1321 1866.3596 573.3319 0.0054 0.2246
45 45.7095 1.5768 3.5213 13.5981 3.0709 3659.0578 826.0885 0.0055 0.4447
35 39.7784 13.6524 3.1011 77.1585 5.8469 20762.2272 1572.6040 0.0201 0.2360
1 40 43.4195 8.5488 3.9777 103.5183 5.8138 27870.7442 1563.4648 0.0246 0.3407
45 45.6053 1.3451 4.1782 26.9595 4.0537 7246.8493 1089.6129 0.0285 0.4207
35 34.1307 2.4836 1.8922 5.9428 1.9316 1591.4907 518.7483 0.0053 0.0724
PSO 2 40 38.6066 3.4836 3.1607 18.9821 3.5503 5083.7212 953.6123 0.0160 0.1787
45 42.9425 4.5723 4.0468 31.9400 4.6519 8607.1788 1252.2032 0.0218 0.2831
35 39.8500 13.8572 3.3534 87.1762 5.9229 23475.1076 1593.9445 0.0114 0.2269
3 40 52.9758 32.4396 6.4423 281.8739 13.3404 75896.6281 3590.3421 0.0102 0.5684
45 52.9911 17.7581 6.1435 119.9442 8.6318 32275.3664 2322.3358 0.0153 0.5551
35 35.4525 1.2929 1.9590 4.7143 1.8147 1268.5319 488.1646 0.0021 0.1089
1 40 40.3124 0.7811 3.0278 10.5973 2.7062 2850.3629 727.9133 0.0028 0.2171
45 45.1493 0.3318 3.7939 15.1306 3.4206 4069.5456 920.0982 0.0027 0.3415
35 35.0928 0.2651 2.0740 5.6297 1.9550 1515.6711 526.1025 0.0014 0.0672
EvPSO 2 40 39.9010 0.2476 3.3010 12.7091 3.0044 3415.5400 807.7816 0.0030 0.1761
45 45.7898 1.7552 4.3531 25.9450 4.1986 6980.5856 1129.5172 0.0081 0.3163
35 35.5580 1.5943 2.3945 6.8378 2.1344 1840.3977 574.3833 0.0007 0.0974
3 40 40.4192 1.0481 3.2261 11.2680 2.8622 3030.6384 769.7740 0.0015 0.2110
45 45.4362 0.9693 3.7878 15.2429 3.3930 4098.1674 912.5126 0.0030 0.3348
Tabla A.1: Desempe no del Controlador Indirecto Adaptativo con volumen de control innito y referencia ja
76
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
35 63.8131 82.3232 5.8314 873.6135 28.8131 235856.3260 7765.5773 0.0691 0.3054
1 40 63.4411 58.6027 5.7613 591.9713 23.4411 160044.1594 6322.3337 0.0691 0.3187
45 67.3120 49.5823 5.8833 543.2126 22.3120 146971.0715 6020.2266 0.0702 0.3364
35 46.5505 33.0015 3.2703 148.1396 11.5505 39942.3935 3111.1076 0.0381 0.1537
BSFO 2 40 49.8753 24.6882 3.6344 114.1759 9.8758 30711.5545 2656.4360 0.0455 0.1956
45 54.6233 21.3851 3.8191 110.6809 9.6239 29838.4839 2592.1437 0.0498 0.2236
35 65.1516 86.1474 5.9188 946.5831 30.1516 255449.0736 8124.1720 0.0690 0.2995
3 40 65.7945 64.4863 5.8401 701.7307 25.7945 189595.2470 6954.4560 0.0698 0.3193
45 67.7837 50.6304 5.9735 557.1639 22.7837 150492.4226 6141.7472 0.0692 0.3427
35 36.2000 3.4285 1.5125 7.6930 1.9776 2018.7465 526.6787 0.0134 0.1018
1 40 40.3593 0.8983 1.6736 4.0563 1.5682 1075.6032 419.9585 0.0140 0.1261
45 45.0574 0.1276 1.6363 3.5183 1.5065 944.4754 404.7785 0.0147 0.1602
35 36.1922 3.4063 1.4206 7.7192 1.8425 2034.7935 491.2548 0.0132 0.0804
EvBSFO 2 40 41.1583 2.8959 1.8714 8.9738 2.0759 2343.2153 553.2136 0.0195 0.1273
45 46.0983 2.4407 2.0877 8.7881 2.2030 2371.4019 593.7378 0.0243 0.1629
35 36.8666 5.3332 1.6912 7.3182 2.2062 1964.8677 592.7785 0.0050 0.0966
3 40 42.0658 5.1644 1.9887 9.9000 2.5007 2658.9222 672.1197 0.0071 0.1274
45 46.4995 3.3322 2.2228 8.2893 2.3056 2221.6818 618.9019 0.0048 0.1759
35 51.1876 46.2504 3.5105 582.7037 16.3783 156991.6105 4404.9778 0.0121 0.2172
1 40 55.6080 39.0199 3.9369 654.5076 16.1064 176550.7267 4338.3031 0.0112 0.2645
45 51.8425 15.2055 3.0082 131.8685 7.8231 35530.5898 2103.7521 0.0219 0.2072
35 34.5927 1.1636 1.0583 1.8170 1.0644 488.9826 286.2992 0.0025 0.0320
PSO 2 40 41.2682 3.1704 1.7983 14.4518 2.9052 3855.0730 778.8036 0.0127 0.0890
45 45.5158 1.1462 2.2189 13.0837 2.8558 3478.5976 764.9258 0.0137 0.1114
35 45.8786 31.0818 3.4841 271.3102 11.3229 73306.6380 3052.8004 0.0153 0.2136
3 40 72.0052 80.0130 7.6603 1517.3603 32.1528 409246.2475 8657.3808 0.0135 0.4486
45 69.4577 54.3504 9.2763 850.1966 24.4578 228916.4779 6578.9176 0.0190 0.3442
35 35.3946 1.1273 1.2031 2.0674 1.1525 556.3310 310.0311 0.0007 0.0481
1 40 40.4794 1.1986 1.3637 2.9592 1.3644 795.4142 366.9701 0.0015 0.0688
45 45.4656 1.0347 1.9340 5.4808 1.8569 1475.0595 499.5555 0.0029 0.1156
35 35.2864 0.8183 1.2201 2.0630 1.1133 554.9062 299.4500 0.0006 0.0261
EvPSO 2 40 40.4629 1.1573 2.0188 5.4775 1.8101 1474.1150 487.0451 0.0018 0.0672
45 45.6300 1.4001 1.8165 6.1407 1.9449 1652.2107 523.0997 0.0024 0.0742
35 38.5257 10.0733 1.6861 63.3891 4.1993 17056.7953 1129.5986 0.0006 0.0562
3 40 41.1093 2.7733 1.9764 6.8943 2.0658 1853.4859 555.5903 0.0012 0.0772
45 46.1912 2.6472 1.9010 7.0609 2.1086 1898.6443 567.1072 0.0032 0.1106
Tabla A.2: Desempe no del Controlador Indirecto Adaptativo con volumen de control aislado y referencia ja
77
A. TABLAS DE RESULTADOS
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
40 42.1277 5.3193 3.0482 29.6753 3.6764 7862.8482 981.0327 0.0317 0.2783
1 35 35.9216 2.6333 1.8001 11.3565 2.1596 6506.0179 1232.3622 0.0084 0.0859
45 45.1334 0.2964 2.7983 8.5826 2.4817 7455.7276 2156.1232 0.0115 0.3177
40 40.7862 1.9655 2.6041 13.1836 2.6769 3510.5703 718.1567 0.0313 0.2412
EvBSFO 2 35 35.2180 0.6229 1.6173 3.5737 1.5824 2033.8690 900.5134 0.0049 0.0790
45 44.6495 0.7789 2.9116 10.2864 2.7368 8933.1107 2377.5602 0.0185 0.3211
40 40.6953 1.7383 2.6076 8.0607 2.3407 2168.3182 629.7395 0.0068 0.2770
3 35 36.1185 3.1958 1.9987 6.5810 2.0252 3745.3751 1152.6037 0.0019 0.1186
45 45.2061 0.4579 2.9932 9.5270 2.5867 8281.9808 2247.8926 0.0041 0.3669
40 40.1810 0.4526 2.9631 9.9783 2.6267 2682.0956 706.2758 0.0055 0.2600
1 35 35.5750 1.6428 2.2129 6.4811 2.0380 3688.5700 1159.6215 0.0011 0.0812
45 45.0742 0.1648 3.6627 14.4187 3.1708 12531.5196 2755.6159 0.0051 0.3567
40 40.5332 1.3330 3.1406 11.6750 2.7826 3140.8311 748.7274 0.0040 0.1897
EvPSO 2 35 36.2527 3.5792 2.4217 9.5697 2.4543 5444.3794 1396.2091 0.0009 0.0805
45 44.9534 0.1035 3.8291 16.1546 3.3818 14039.5530 2938.7842 0.0055 0.2747
40 40.2732 0.6830 2.7663 9.2529 2.5043 2490.0931 673.7733 0.0052 0.1860
3 35 36.0127 2.8936 1.9969 6.3135 2.0056 3590.9647 1140.8787 0.0014 0.0633
45 44.8633 0.3037 3.5286 13.7149 3.1434 11918.5595 2731.5087 0.0053 0.2834
Tabla A.3: Desempe no del Controlador Indirecto Adaptativo con volumen de control innito y referencia variable
IAC r y
f
ER MSE MAE MTSE MTAE CAS CAA
40 40.3703 0.9257 1.6204 3.6544 1.5071 987.4776 405.9413 0.0160 0.1103
1 35 35.1321 0.3774 1.0467 1.6920 1.0129 963.8133 576.6660 0.0012 0.0170
45 45.0028 0.0061 1.6519 3.4717 1.4935 3016.6175 1297.7280 0.0034 0.1131
40 43.2128 8.0321 2.3902 27.8099 3.7784 7461.5703 1012.4391 0.0266 0.1430
EvBSFO 2 35 36.1591 3.3116 1.2970 10.1893 1.8764 5849.5577 1073.0727 0.0026 0.0207
45 45.0664 0.1476 1.7386 4.0429 1.6025 3512.6855 1392.5642 0.0079 0.1171
40 41.4779 3.6947 1.9703 8.4672 2.1755 2289.4383 586.9789 0.0065 0.1370
3 35 36.3849 3.9569 1.5413 5.4175 1.8013 3077.2437 1023.7550 0.0008 0.0376
45 45.6569 1.4597 2.0418 5.5890 1.8553 4854.9966 1611.9464 0.0034 0.1404
40 40.3449 0.8623 1.8365 4.5815 1.6902 1232.7005 454.6812 0.0020 0.0794
1 35 35.6083 1.7380 1.4503 3.3202 1.4282 1890.0506 812.8767 0.0002 0.0179
45 45.3656 0.8125 2.2206 6.2399 1.9761 5422.7156 1717.3900 0.0020 0.1103
40 40.2132 0.5330 1.8670 4.9423 1.7453 1329.0434 469.3108 0.0014 0.0577
EvPSO 2 35 35.5928 1.6936 1.5074 3.8079 1.5304 2167.5760 870.8726 0.0002 0.0205
45 45.4316 0.9592 2.2954 6.8309 2.0476 5936.6443 1779.4198 0.0025 0.0955
40 43.4816 8.7039 2.4348 53.3746 4.5057 14361.7487 1212.1676 0.0007 0.0960
3 35 38.5614 10.1755 2.0416 46.9223 4.1952 26697.8224 2386.9984 0.0001 0.0308
45 48.5807 7.9572 2.8900 64.3898 4.9990 55963.5090 4344.2765 0.0013 0.1351
Tabla A.4: Desempe no del Controlador Indirecto Adaptativo con volumen de control aislado y referencia variable
78
Bibliografa
[Abbass01] H. A. Abbass & J. Teo. A True Annealing Approach to the Marriage
in Honey-Bees Optimization Algorithm. En The Inaugural workshop on
Articial Life (AL01). 2001. 1.1
[Alfonso07a] W. Alfonso. Regulaci on de Temperatura en la plataforma UVPTM01
basada en agentes cooperativos para la asignaci on din amica de
recursos. Inf. t ec., Universidad del Valle, 2007. 1.3.3, 1.3.5, 4.1, 4.2
[Alfonso07b] W. Alfonso, M. Mu noz, J. L opez & E. Caicedo. Optimizaci on de
Funciones Inspirada en el Comportamiento de B usqueda de N ectar
en Abejas. En Congreso Internacional de Inteligenicia Computacional
(CIIC2007). 2007. 1.3.5
[Bar an03] B. Bar an & A. Hermosilla. Comparaci on de un Sistema de Colonias
de Hormigas y una Estrategia Evolutiva para el Problema del Ruteo de
Vehculos con Ventanas de Tiempo en un Contexto Multiobjetivo. En IX
Jornadas Iberoamericanbas de Inform atica. 2003. 1.2
[Bartz-Beielstein04] T. Bartz-Beielstein, K. Parsopoulos & M. Vrahatis. Analysis
of Particle Swarm Optimization Using Computational Statistics.
En International Conference of Numerical Analysis and Applied
Mathematics (ICNAAM), p ags. 3437. 2004. 1.3.1
[Beattie98] P. Beattie & J. Bishop. Self-Localisation in the Senario Autonomous
Wheelchair. Journal of Intelligent and Robotic Systems, 22:255267,
1998. 1.3.4
79
BIBLIOGRAF
IA
[Beni88] G. Beni. The concept of cellular robotic systems. En 3rd IEEE
International Symposium on Intelligent Control, p ags. 5762. 1988. 1.3
[Beyer02] H. G. Beyer & H. P. Schwefel. Evolution strategies: A comprehensive
introduction. Natural Computing, 1(1):352, 2002. 1.2
[Bilchev95] G. Bilchev & I. Parmee. The ant colony metaphor for searching
continuous design spaces. En T. Fogarty, ed., Evolutionary Computing,
Selected Papers AISB Workshop, tomo 993 de Lecture Notes in
Computer Science, p ags. 2539. Springer, 1995. 1.3.2
[Bishop89a] J. Bishop. Anarchic Techniques for Pattern Classication. Tesis
Doctoral, University of Reading, 1989. 1.3.4, 1.3.4
[Bishop89b] J. Bishop. Stochastic Searching Networks. En First IEE Conference
on Artical Neural Networks, p ags. 329331. 1989. 1.3.4
[Bishop92] J. Bishop & P. Torr. The Stochastic Search Network. En R. Linggard,
D. Myers & C.
IA
[Colorni92] A. Colorni, M. Dorigo & V. Maniezzo. An investigation of some
properties of an Ant algorithm. En Proceedings of the Parallel Problem
Solving from Nature Conference, p ags. 509520. Elsevier Publishing,
1992. 1.3.2
[Cord on97] O. Cord on & F. Herrera. A Three-Stage Evolutionary Process
for Learning Descriptive and Approximate Fuzzy-Logic-Controller
Knowledge Bases From Examples. International Journal of
Approximate Reasoning, 17:369407, 1997. 1.2
[Cord on00] O. Cord on, I. F. de Viana, F. Herrera & L. Moreno. A New ACO
Model Integrating Evolutionary Computation Concepts: The Best-Worst
Ant System. En Proceedings of ANTS 2000 - From Ant Colonies to
Articial Ants: Third International Workshop on Ant Algorithms, p ags.
2229. 2000. 1.3.2
[Das97] I. Das. Multi-Objective Optimization, 1997. URL
http://www-fp.mcs.anl.gov/otc/Guide/OptWeb/multiobj/. 4
[De Meyer03] K. De Meyer, J. Bishop & S. Nasuto. Stochastic Difussion: Using
Recruitment for Search. En Symposium on Evolvability & Interaction.
2003. 1.3.4
[deVries98] H. de Vries & J. C. Biesmeijer. Modelling collective foraging by means
of individual behaviour rules in honey-bees. Behav Ecol Sociobiol,
44:109124, 1998. 1.3.5
[Dorigo91a] M. Dorigo, V. Maniezzo & A. Colorni. Ant System: An Autocatalytic
Optimizing Process. Inf. T ec. 91-016, Politecnico di Milano, Italy, 1991.
1.3.2, 1.3.2
[Dorigo91b] M. Dorigo, V. Maniezzo & A. Colorni. Positive feedback as a search
strategy. Inf. T ec. 91-016, Politecnico di Milano, Italy, 1991. 1.3.2
[Dorigo96a] M. Dorigo & L. M. Gambardella. A study of some properties of ANT-Q.
En H. M. Voigt, W. Ebeling, I. Rechenberg & H. S. Schwefel, eds.,
Proceedings of Fourth International Conference on Parallel Problem
Solving From Nature, p ags. 656665. Springer Verlag, Berlin, Germany,
1996. 1.3.2
[Dorigo96b] M. Dorigo, V. Maniezzo & A. Colorni. The Ant System: Optimization by
a colony of cooperating agents. IEEE Transactions on Systems, Man,
and Cybernetics-Part B, 26(1):113, 1996. 1.3.2
81
BIBLIOGRAF
IA
[Dorigo97] M. Dorigo & L. M. Gambardella. Ant Colony System: A Cooperative
Learning Approach to the Traveling Salesman Problem. IEEE
Transactions on Evolutionary Computation, 1(1):5366, 1997. 1.3.2
[Easter Selvan03] S. Easter Selvan, S. Subramanian & S. Theban Solomon. Novel
Technique for PID Tuning by Particle Swarm Optimization. En Seventh
Annual Swarm Users/Researchers Conference (SwarmFest 2003).
2003. 1.3.1
[Eberhart95] R. Eberhart & J. Kennedy. A New Optimizer Using Particle Swarm
Theory. En Sixth International Symposium on Micro Machine and
Human Science, p ags. 3943. 1995. 1.3.1
[Eiben99] E. Eiben, R. Hinterding & Z. Michalewicz. Parameter Control
in Evolutionary Algorithms. IEEE Transactions on Evolutionary
Computation, 3(2):124141, 1999. 2.1
[El-Awady03] K. El-Awady, C. D. Schaper & T. Kailath. Temperature cycling and
control system for photosensitive materials processing. Journal of
Vacuum Science & Technology B: Microelectronics and Nanometer
Structures, 21(4):14591465, 2003. 4.1
[El-Gallad01] A. I. El-Gallad, M. El-Hawary, A. A. Sallam & A. Kalas.
Swarm-Intelligently Trained Neural Network for Power Transformer
Protection. En Canadian Conference on Electrical and Computer
Engineering, p ags. 265269. 2001. 1.3.1
[Esmin02] A. A. A. Esmin, A. R. Aoki & G. Lambert-Torres. Particle Swarm
Optimization For Fuzzy Membership Functions Optimization. En
Proceedings of the IEEE International Conference on Systems, Man
and Cybernetics, p ags. 108113. 2002. 1.3.1
[Franzen98] O. Franzen, H. Blume & H. Schr oder. FIR-lter design with spatial
and frequency design constraints using evolution strategies. Signal
Processing, 68(3):295306, 1998. 1.2
[Gambardella95] L. M. Gambardella & M. Dorigo. Ant-Q: A Reinforcement Learning
approach to the traveling salesman problem. En Proceedings of Twelfth
International Conference on Machine Learning, p ags. 252260. Morgan
Kaufmann, 1995. 1.3.2
[Gazi03] V. Gazi & K. M. Passino. Stability Analysis of Swarms. IEEE
Transactions on Automatic Control, 48(4):692697, 2003. 1.3.3
82
BIBLIOGRAF
IA
[Gazi04] V. Gazi & K. M. Passino. Stability Analysis of Social Foraging
Swarms. IEEE Transactions of Systems, Man and Cybernetics - Part
B, 34(1):539557, 2004. 1.3.3
[Grech-Cini95] H. Grech-Cini. Locating Facial Features. Tesis Doctoral, University of
Reading, 1995. 1.3.4
[Grifn03] I. Grifn. On-line PID Controller Tuning using Genetic Algorithms.
Proyecto Fin de Carrera, Dublin City University, 2003. 3.2
[Grosan05] C. Grosan, A. Abraham, S. Y. Han & A. Gelbukh. Hybrid Particle
Swarm Evolutionary Algorithm for Search and Optimization. En 4th
Mexican International Conference on Articial Intelligence (MICAI05),
Lecture Notes in Computer Science, p ags. 623632. 2005. 1.3.1
[Heegaard04] P. E. Heegaard, O. Wittner, V. F. Incola & B. Helvik. Distributed
Asynchronous Algorithm for Cross-Entropy-Based Combinatorial
Optimization. En International Workshop on Rare Event Simulation &
Combinatorial Optimization (RESIM 2004). 2004. 1.3.2
[Herrero02] J. M. Herrero, X. Blasco, M. Martnez & J. V. Salcedo. Optimal PID
Tuning With Genetic Algorithms for Non Linear Process Models. En
IFAC 15th Triennial World Congress. 2002. 3.2
[Herrero03] J. G. Herrero, J. A. B. Portas, A. B. de Jes us, J. M. M.
L opez, G. de Miguel Vela & J. R. C. Corredera. Application of
Evolution Strategies to the Design of Tracking Filters with a Large
Number of Specications. Journal on Applied Signal Processing,
2003(8):766779, 2003. 1.2
[Hertz00] A. Hertz & D. Kobler. A framework for the description of evolutionary
algorithms. European Journal of Operational Research, 126(1):112,
2000. 1.1
[Hinton81] G. Hinton. A Parallel Computation that Assigns Canonical
ObjectBased Frames of Reference. En 7th International Joint
Conference on Articial Intelligence. 1981. 1.3.4
[Hoffmann00] F. Hoffmann. Soft computing techniques for the design of mobile robot
behaviors. Information Sciences, 122(24):241258, 2000. 1.2
[Homberger05] J. Homberger & H. Gehring. A two-phase hybrid metaheuristic for
the vehicle routing problem with time windows. European Journal of
Operational Research, 162(1):220238, 2005. 1.2
83
BIBLIOGRAF
IA
[Ismail99] A. Ismail & A. P. Engelbrecht. Training Product Units in Feedforward
Neural Networks Using Particle Swarm Optimization. En Proceedings
of the International Conference on Articial Intelligence, p ags. 3640.
1999. 1.3.1
[Jin99] Y. Jin & W. von Seelen. Evaluating exible fuzzy controllers via
evolution strategies. Fuzzy Sets and Systems, 108:243252, 1999. 1.2
[Karaboga05] D. Karaboga. An idea based on Honey Bee Swarm for Numerical
Optimization. Inf. T ec. TR06, Erciyes University, 2005. 1.3.5
[Kennedy95] J. Kennedy & R. Eberhart. Particle Swarm Optimization. En
Proceedings of IEEE International Conference on Neural Networks,
p ags. 19421498. 1995. 1.3.1
[Kennedy97] J. Kennedy & R. Eberhart. A Discrete Binary Version of the Particle
Swarm Algorithm. En Proceedings of the World Multiconference on
Systemics,Cybernetics and Informatics, p ags. 41044109. 1997. 1.3.1
[Kim05] D. H. Kim & J. H. Cho. Adaptive Tuning of PID Controller for
Multivariable System Using Bacterial Foraging Based Optimization. En
Advances in Web Intelligence, tomo 3528 de Lecture Notes in Computer
Science, p ags. 231235. Springer, 2005. 1.3.3
[Kim06] M. Y. Kim & C. Lee. An experimental study on the optimization of
controller gains for an electro-hydraulic servo system using evolution
strategies. Control Engineering Practice, 14:137147, 2006. 1.2
[Kim07] D. H. Kim, A. Abraham & J. H. Cho. A hybrid genetic algorithm
and bacterial foraging approach for global optimization. Information
Sciences, 177:39183937, 2007. 1.3.3
[Krohling02] R. A. Krohling, L. d.S. Coelho & Y. Shi. Cooperative Particle Swarm
Optimization for Robust Control System Design. En Proceedings
of the 7th Online World Conference on Soft Computing in Industrial
Applications. 2002. 1.3.1
[Kuo96] B. Kuo. Sistemas de Control Autom atico. Prentince Hall
Iberoamericana, 1996. 3.2
[Leivisk a06] K. Leivisk a & I. Joensuu. Chemotaxis for Controller Tuning. En 2nd
Annual Symposium of the Nature-inspired Smart Information Systems
(NiSIS 2006). 2006. 1.3.3
84
BIBLIOGRAF
IA
[Leontitsis06] A. Leontitsis, D. Kontogiorgos & J. Pagge. Repel the swarm to the
optimum! Applied Mathematics and Computation, 173:265272, 2006.
1.3.1
[Liu02] Y. Liu & K. M. Passino. Biomimicry of Social Foraging Bacteria for
Distributed Optimization: Models, Principles and Emergent Behaviors.
Journal of Optimization Theory and Applications, 115(3):603628,
2002. 1.3, 1.3.3
[Liu05] H. Liu & A. Abraham. Fuzzy Adaptive Turbulent Particle Swarm
Optimization. En Fifth International Conference on Hybrid Intelligent
Systems, p ags. 69. 2005. 1.3.1
[Lucic03] P. Lucic & D. Teodorovic. Computing with Bees: Attacking Complex
Transportation Engineering Problems. International Journal on Articial
Intelligence Tools, 12(3):375394, 2003. 1.3.5
[Lvbjerg01] M. Lvbjerg & T. Kink. Hybrid Particle Swarm Optimiser with Breeding
and Subpopulations. En Genetic and Evolutionary Computation
Conference (GECCO). 2001. 1.3.1
[Lvbjerg02] M. Lvbjerg & T. Kink. Extending Particle Swarm Optimizers with
Self-Organized Criticality. En Proceedings of the IEEE Congress on
Evolutionary Computation (CEC 2002). 2002. 1.3.1
[Mester07] D. Mester, O. Br aysy & W. Dullaert. A multi-parametric evolution
strategies algorithm for vehicle routing problems. Expert Systems with
Applications, 32(2):508517, 2007. 1.2
[Meuleau00] N. Meuleau & M. Dorigo. Ant Colony Optimization and Stochastic
Gradient Descent. Inf. T ec. TR/IRIDIA/2000-36, IRIDIA, Universite
Libre de Bruxelles, Belgium, 2000. 1.3.2
[Miranda02a] V. Miranda & N. Fonseca. EPSO evolutionary particle swarm
optimization, a new algorithm with applications in power systems. En
Asia Pacic Transmission and Distribution Conference and Exhibition,
tomo 2, p ags. 745750. 2002. 1.3.1, 2.1
[Miranda02b] V. Miranda & N. Fonseca. EPSO - best-of-two-worlds meta-heuristic
applied to power system problems. En 2002 Congress on Evolutionary
Computation CEC 02., tomo 2, p ags. 10801085. 2002. 1.3.1, 5.3
[M uller02] S. D. M uller, J. Marchetto, S. Airaghi & P. Koumoutsakos.
Optimization Based on Bacterial Chemotaxis. IEEE Transactions on
Evolutionary Computation, 6(1):1629, 2002. 1.3.3
85
BIBLIOGRAF
IA
[Monson04] C. K. Monson & K. D. Seppi. The Kalman Swarm: A New Approach to
Particle Motion in Swarm Optimization. En Proceedings of the Genetic
and Evolutionary Computation Conference 2004 - GECCO 2004, p ags.
140150. 2004. 1.3.1
[Mu noz05a] M. A. Mu noz. Asignaci on din amica de recursos con t ecnicas bio
inspiradas para un sistema de control de temperatura MIMO. Inf. t ec.,
Universidad del Valle, 2005. 4.1, 4.1
[Mu noz05b] M. A. Mu noz, J. A. L opez & E. F. Caicedo. Implementation
of a Distributed Control Experimentation Platform. En IEEE
2005 Conference on Industrial Electronics and Control Applications
(ICIECA2005). 2005. ISBN 0780394194. 4.1
[Mu noz08] M. Mu noz, J. L opez & E. Caicedo. An Articial Bee Hive for Continuous
Optimization, 2008. Aceptado en International Journal of Intelligent
Systems. 1.3.5, 2.2
[Myatt04] D. Myatt, J. Bishop & S. Nasuto. Minimum Stable Convergence
Criteria for Stochastic Diffusion Search. Electronics Letters,
40(2):112113, 2004. 1.3.4
[Nasuto98] S. Nasuto, J. Bishop & S. Lauria. Time Complexity of Stochastic
Diffusion Search. En Neural Computation 98. 1998. 1.3.4
[Nasuto99a] S. Nasuto. Resource Allocation Analysis of the Stochastic Diffusion
Search. Tesis Doctoral, University of Reading, 1999. 1.3.4
[Nasuto99b] S. Nasuto & J. Bishop. Convergence Analysis of Stochastic Diffusion
Search. Journal of Parallel Algorithms and Applications, 14(2):89107,
1999. 1.3.4
[Nunez de Castro07] L. Nunez de Castro. Fundamentals of natural computing: an overview.
Physics of Life Reviews, 4:136, 2007. 1.4
[Omran05] M. G. H. Omran, A. P. Engelbrecht & A. Salman. Dynamic Clustering
using Particle Swarm Optimization with Application in Unsupervised
Image Classication. Transactions on Engineering, Computing and
Technology, 9:199204, 2005. 1.3.1
[Ozcan99] E. Ozcan & C. K. Mohan. Particle Swarm Optimization: Surng
the Waves. En Proceedings of the IEEE Congress on Evolutionary
Computation - CEC 1999. 1999. 1.3.1, 1.3.1
86
BIBLIOGRAF
IA
[Passino00] K. M. Passino. Distributed Optimization and Control Using Only a Germ
of Intelligence. En 2000 IEEE International Symposium on Intelligent
Control, p ags. 513. 2000. 1.3.3
[Passino02] K. M. Passino. Biomimicry of Bacterial Foraging for distributed
optimization and control. IEEE Control Systems Magazine,
22(3):5267, 2002. 1.3, 1.3.3, 1.3.3
[Pham06a] D. Pham, A. Ghanbarzadeh, E. Koc , S. Otri, S. Rahim & M. Zaidi.
The Bees Algorithm A Novel Tool for Complex Optimisation Problems.
En Innovative Production Machines and Systems Virtual Conference.
2006. 1.3.5
[Pham06b] D. Pham, E. Koc , A. Ghanbarzadeh & S. Otri. Optimisation of the
Weights of MultiLayered Perceptrons Using the Bees Algorithm. En 5th
International Symposium on Intelligent Manufacturing Systems. 2006.
1.3.5
[Pham07a] D. Pham, A. Afy & E. Koc . Manufacturing cell formation using the
Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5
[Pham07b] D. Pham, A. H. Darwish, E. Eldukhr & S. Otri. Using the Bees
Algorithm to tune a fuzzy logic controller for a robot gymnast. En
Innovative Production Machines and Systems Virtual Conference. 2007.
1.3.5
[Pham07c] D. Pham & A. Ghanbarzadeha. MultiObjective Optimisation using
the Bees Algorithm. En Innovative Production Machines and Systems
Virtual Conference. 2007. 1.3.5
[Pham07d] D. Pham, Z. Muhamad, M. Mahmuddin, A. Ghanbarzadeh, E. Koc &
S. Otri. Using the Bees Algorithmto Optimise a Support Vector Machine
for Wood Defect Classication. En Innovative Production Machines and
Systems Virtual Conference. 2007. 1.3.5
[Pohlheim99] H. Pohlheim & A. Heiner. Optimal Control of Greenhouse Climate
using Real-World Weather Data and Evolutionary Algorithms. En
Proceedings of the Genetic and Evolutionary Computation Conference
- GECCO 1999, p ags. 16721677. 1999. 1.2
[Poli05] R. Poli, W. B. Langdon & O. Holland. Extending Particle Swarm
Optimization via Genetic Programming. En 8th European Conference
on Genetic Programming, p ags. 291300. 2005. 1.3.1
87
BIBLIOGRAF
IA
[Quijano02] N. Quijano. Experiments and technologies for decentralized
temperature control. Proyecto Fin de Carrera, The Ohio State University,
2002. 4.1
[Rechenberg73] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme
nach Prinzipien der biologischen Evolution. FrommannHolzboog,
1973. 2.1
[Rechenberg08] I. Rechenberg. Evolution Strategies, 2008. URL
http://www.bionik.tu-berlin.de/intseit2/xs2evost.html. 1.2
[Reynolds99] M. Reynolds & P. Meckl. Benchmarking Optimal Control Strategies
for Flexible Systems. En IEEE International Conference on Control
Applications, p ags. 707712. 1999. 3, 3.1
[Rubinstein01] R. Rubinstein. Combinatorial Optimization, Cross-Entropy, Ants
and Rare Events. En S. Uryasev & P. M. Pardalos, eds.,
Stochastic Optimization: Algorithms and Applications. Kluwer Academic
Publishers, 2001. 1.3.2
[Rumelhart86] D. Rumelhart & J. McClelland. Parallel Distributed Processing Vol. 1,
p ags. 113118. MIT Press, 1986. 1.3.4
[Russell96] S. Russell & P. Norvig. Inteligencia Articial: Un enfoque moderno.
Prentince Hall, 1996. 1
[Salerno97] J. Salerno. Using the Particle Swarm Optimization Technique to train
a Recurrent Neural Model. En IEEE International Conference on Tools
with Articial Intelligence, p ags. 4549. 1997. 1.3.1
[Salomon97] R. Salomon. The evolution of different neuronal control structures for
autonomous agents. Robotics and Autonomous Systems, 22:199213,
1997. 1.2
[Sastry89] S. Sastry & M. Bodson. Adaptive Control: Stability, Convergence and
Robustness. Prentice-Hall, 1989. 4.2
[Schaper99] C. D. Schaper, K. A. El-Awady & A. E. Tay. Spatially programmable
temperature control and measurement for chemically amplied
photoresist processing. En A. J. Toprac & K. Dang, eds., Procedures
SPIE Process, Equipment and Materials Control in Integrated Circuit
Manufacturing V, tomo 3882, p ags. 7479. 1999. 4.1
88
BIBLIOGRAF
IA
[Shi98] Y. Shi & R. C. Eberhart. Parameter Selection in Particle Swarm
Optimization. En Evolutionary Programming VII: Proceedings of
the Seventh Annual Conference on Evolutionary Programming, p ags.
591600. 1998. 1.3.1, 2.1.2, 2.2
[St utzle97] T. St utzle & H. Hoos. The MAXMIN ant system and local search for
the traveling salesman problem. En T. Baeck, Z. Michalewicz & X. Yao,
eds., IEEE International Conference on Evolutionary Computation and
Evolutionary Programming Conference (IEEEICECEPS97), p ags.
309314. IEEE Press, 1997. 1.3.2
[Teodorovic05] D. Teodorovic & M. DellOrco. Bee Colony Optimization A
Cooperative Learning Approach to Complex Transportation Problems.
En 10th EWGT Meeting and 16th Mini-EURO Conference. 2005. 1.3.5
[Tillett05] J. Tillett, T. M. Rao, F. Sahin & R. Rao. Darwinian Particle Swarm
Optimization. En 2nd Indian International Conference on Articial
Intelligence, p ags. 14741487. 2005. 1.3.1
[Trelea03] I. Trelea. The particle swarm optimization algorithm: convergence
analysis and parameter selection. Information Processing Letters,
85:317325, 2003. 2.2
[Trochim06] W. Trochim. The T-Test, 2006. URL
http://www.socialresearchmethods.net/kb/stat t.php. 2.2
[Tsutsui04] S. Tsutsui. Ant Colony Optimisation for Continuous Domains with
Aggregation Pheromones Metaphor. En 5th International Conference
on Recent Advances in Soft Computing, p ags. 207212. 2004. 1.3.2
[v.E.Conradie02] A. v.E. Conradie, R. Miikkulainen & C. Aldrich. Adaptive Control
utilising Neural Swarming. En Proceedings of the Genetic and
Evolutionary Computation Conference 2002 - GECCO 2002. 2002.
1.3.1
[Voss02] M. S. Voss & X. Feng. ARMA Model Selection Using Particle Swarm
Optimization and AIC Criteria. En IFAC 15th Triennial World Congress.
2002. 1.3.1
[Whitaker02] R. Whitaker & S. Hurley. An agent based approach to site selection for
wireless networks. En ACM Symposium on Applied Computing, p ags.
574577. 2002. 1.3.4
89
BIBLIOGRAF
IA
[White06] T. White. What is Swarm Intelligence?, 2006. URL
http://www.sce.carleton.ca/netmanage/tony/swarm-presentation/tsld003.htm.
1.1
[Wikipedia08a] Wikipedia. Category: Optimization Algorithms, 2008. URL
http://en.wikipedia.org/wiki/Category:Optimization algorithms. 1.1
[Wikipedia08b] Wikipedia. Computational intelligence, 2008. URL
http://en.wikipedia.org/wiki/Computational Intelligence. 1
[Wikipedia08c] Wikipedia. Evolutionary algorithm, 2008. URL
http://en.wikipedia.org/wiki/Evolutionary algorithms. 1.1
[Wikipedia08d] Wikipedia. Inteligencia Articial, 2008. URL
http://es.wikipedia.org/wiki/Inteligencia articial. 1
[Wikipedia08e] Wikipedia. Swarm Intelligence, 2008. URL
http://en.wikipedia.org/wiki/Swarm intelligence. 1.1
[Wong03] T. Wong, P. Bigras & P. C ot e. Structured Controller Design with
Evolutionary Optimization. En Articial Intelligence and Applications
2003, p ags. 163168. 2003. 1.2
[Yan-jun03] L. Yan-jun & W. Tie-jun. An Adaptative Ant Colony System Algorithm
for Continuous-Space Optimization Problems. Journal of Zhejiang
University SCIENCE, 4(1):4046, 2003. 1.3.2
[Yisu07] J. Yisu, J. Knowles, L. Hongmei, L. Yizeng & D. B. Kell. The
landscape adaptive particle swarm optimizer. Applied Soft Computing,
8(1):295304, 2007. 1.3.1, 2.2
[Yoshida01] H. Yoshida, K. Kawata, Y. Fukuyama, S. Takayama & Y. Nakanishi.
A Particle Swarm Optimization for Reactive Power and Voltage Control
Considering Voltage Security Assessment. IEEE Transactions on Power
Systems, 15(4):12321239, 2001. 1.3.1
[Yuan06] R. Yuan, C. Guang-yi & Z. Xin-jian. Particle SwarmOptimization based
predictive control of Proton Exchange Membrane Fuel Cell (PEMFC).
Journal of Zhejiang University SCIENCE A, 7(3):458462, 2006. 1.3.1
[Zhang03] W. Zhang & X. Xie. DEPSO: Hybrid Particle Swarm with Differential
Evolution Operator. En IEEE International Conference on Systems, Man
and Cybernetics (SMCC), p ags. 38163821. 2003. 1.3.1
90