Documente Academic
Documente Profesional
Documente Cultură
REVISTA CONTROL,
CIBERNETICA Y Editada por:
Departamento de
(CCA)
ISSN: SOLICITADO
A inicios de los años 80, recién graduado de la especialidad de sistemas de control, las
posibilidades de continuar actualizándose en los avances de una ciencia en constante
desarrollo eran escasas. Los cursos de postgrado eran prácticamente inexistentes y las
publicaciones especializadas otro tanto. Estas si existían estaban concentradas en
algunas pocas bibliotecas y eran en lo fundamental procedentes de los ex países
socialistas. Una de las pocas opciones la constituía la revista “Control, Cibernética y
Automatización” (CCA) editada por el Centro Nacional de Información Científico-
Técnica del Ministerio de la Industria Básica y el Instituto de Matemática, Cibernética y
Computación (IMACC) de la Academia de Ciencias de Cuba.
Revista Trimestal, con un precio de tres pesos, a la luz de los años podemos decir que al
leerla era como “leer decenas de buenos libros: cada estudio (era) el fruto de
investigaciones cuidadosas, ordenados extractos y composición hábil de libros diversos”
(Martí, José; “Notable número del mensuario de Ciencia Popular”, La América, Nueva
York, abril de 1884, t. 13, p. 437).
Por otro lado, se ha diversificado la industria nacional apareciendo líneas nuevas como
la biotecnología, desarrollándose otras como el turismo y modernizándose otras como
las refinerías y la industria azucarera, caracterizadas todas ellas por un elevado nivel de
automatización. Se han potenciado los centros de investigación y desarrollo
tradicionales como los de las Universidades de La Habana, Las Villas, Santiago de
Cuba y la CUJAE y han aparecido otros nuevos asociados a nuevas Universidades como
las Universidades de las nuevas provincias y la Universidad de Ciencias Informáticas
(UCI).
Todo ese caudal científico en el país necesita “de receptor(es) y procesador(es) de las
ideas y métodos” para difundirlos y aplicarlos en la economía y la sociedad acorde con
la creación del nuevo modelo económico resultante de los Lineamientos del VI
Congreso del Partido. Sin embargo, las revistas nacionales en formato papel de
Cibernética son prácticamente inexistentes y las de formato electrónico son pocas y no
tienen la difusión necesaria. Nuestros investigadores en estas áreas se ven obligados
entonces a publicar en revistas extranjeras, las nacionales solo recientemente entraron
en el Cuarto nivel de publicaciones definidos por el CITMA, cuyos objetivos de
publicación en ocasiones no tienen ningún punto de coincidencia con las necesidades de
la industria nacional y en general del país.
Algo parecido sucede, en otra dimensión, en América Latina. Esta área experimenta un
proceso de industrialización y está necesitada de soluciones originales para ser
realmente competitiva, pero tiene que vencer la falta de cultura científica autóctona en
las esferas del control, la cibernética y la automatización. De ahí el renovado interés de
los gobiernos progresistas por impulsar la educación científico-técnica en todos los
niveles de enseñanza.
Por las necesidades planteadas, nos hemos dados a la tarea de rescatar con este número
la revista “Control, Cibernética y Automatización”, desaparecida en el año 1992 por el
Período especial. Con más amor que recursos, se unen cuatro generaciones, desde los
primeros editores, aún en activo, hasta los actuales, recién salidos de los centros de
educación superior, para publicar, en esta ocasión en formato digital, los trabajos de los
investigadores y especialistas nacionales y de la “América Nuestra” en bien de la Patria
Común.
EXPERIMENTO, TEORÍA Y PRÁCTICA EN LAS CIENCIAS DE LA
COMPUTACIÓN Y EL CONTROL AUTOMÁTICO.
Tomando como referencia los eventos científicos “Taller de Cibernética Aplicada” del
ICIMAF del 2012 e Informática, la proporción de trabajos teóricos es en Control
Automático del 25% (24% en Informática y 28% en Cibernética) contra un 75% de
trabajos aplicados o experimentales. En Ciencias de la computación la proporción es del
50% (45.3% de trabajos teóricos en Informática, 50% en Cibernética).
La experimentación.
1
por los costos, así como la imposibilidad de realizar los experimentos en plantas
industriales en funcionamiento, siempre queda el recurso de escalar las comprobaciones
experimentales inicialmente mediante la simulación y posteriormente realizar maquetas
de laboratorio. En el caso de las ciencias de la computación es factible acudir a la
validación de los algoritmos desarrollados apoyados en paquetes de programas, muchos
de ellos de libre acceso, tomando como datos los que se distribuyen en repositorios de
libre acceso.
La teoría.
Debe entonces realizarse un trabajo más coordinado y dinámico entre las editoriales, las
administraciones de la ciencia y los investigadores para estimular la publicación de
libros de textos científicos que incluya el pago del derecho de autor lo cual para los
libros científicos no está concebido a diferencia de las publicaciones en otras temáticas.
Por otro lado, los investigadores cubanos, al menos lo que reflejan las tesis de doctorado
de las que he sido oponente, no leen a los autores del país. Tal vez sea por lo difícil que
es adquirir los materiales impresos o por la ausencia de estos materiales en la red, de
hecho no existe un repositorio de artículos y libros de autores cubanos, o que se
considere que el consultar textos de científicos del patio es una pérdida de tiempo, a
pesar de que esta deficiencia es una deficiencia metodológica en la elaboración de las
tesis y una pérdida de oportunidades por el alto nivel que considero estas publicaciones
2
tienen por las soluciones originales que dan a losproblemas. Lo cual se corrobora por el
alto impacto que tienen muchas publicaciones en el extranjero.
Tal vez en el campo del control automático, como muestran los datos, sea necesario
incentivas las publicaciones teóricas.
La práctica.
3
para importarlos ya confeccionados desde Rusia. Los programas de lectura y análisis de
la información de los recopiladores de los parámetros de vuelo (cajas negras) que se
desarrollaron en Cuba para la aviación existente en aquellos años tuvieron que ser
adquiridos a las firmas SAGEM francesa y a la sociedad “Centro de Mecánica
Aplicada” de Rusia a un costo de 100000.00 dólares cada uno con el cambio a una
nueva técnica. Los recopiladores de parámetros para los aviones AN-24 (BUR-SL) que
se adquirieron a la firma rusa PRIVOR para cumplir con las reglamentaciones de la
OACI pudieron haberse adquirido a las FAR en Cuba que venía desarrollando y tenía en
explotación en los helicópteros y aviones cazas un recopilador con mejores
características (RUPAI).
En otros países, como Corea del Sur existen regulaciones que protejen a las
producciones nacionales y gravan con altos impuestos las tecnologías que se adquieren
en el extranjero.
Las situaciones anteriormente descritas pudiesen tener una solución más favorable para
la economía y la ciencia del país si cualquier inversión tecnológica de envergadura
fuese sometida a licitación con la participación tanto de firmas nacionales como
extranjeras.
Una solución es que dentro del contrato se prevea la estimulación directa a los
investigadores encargados de la introducción en la práctica de sus desarrollos. Otra
revisión necesaria sería variar el % que a knowhow se destina en la formación de los
4
precios que en la actualidad solo es de un 10 a un 20% del costo neto del desarrollo. Si
se piensa que esto es mucho dinero a pagar al investigador solo interésese cuánto cobra
un especialista extranjero por realizar esa misma actividad o cuanto se paga en el
extranjero a un especialista de similar categoría.
6
El zurdo
Adaptación del cuento “El Zurdo” del escritor ruso Nikolai Leskov (1831-1895)
- Bueno, Rabin, mañana iremos a visitar uno de los museos de armas que tienen
aquí. Hay en él, dicen, tales maravillas, que en cuanto las veas te convencerás de
que nosotros, los terrícolas, con nuestra importancia, no valemos ni para tacos de
escopeta.
II
Llegaron a un edificio alto como una montaña. El portal era una verdadera maravilla,
los corredores eran mas largo que un día sin pan, y las habitaciones a cual más bonita.
Por fin entraron en la sala principal y en el centro, bajo un baldaquín el Apolo de
“bebeleche” ( de la deformación intencional de Apolo de Belvedere),
El presidente le dice:
- ¿Cómo puedes ser tan insensible? ¿Acaso no te asombra nada de lo que ves
aquí?
Y Rabin responde:
- Lo único que me asombra es que mis bravos soldados combatieran sin nada de
eso en el espacio y pusieran en fuga a todos los invasores de Aldebarán.
- Tú estás mal de la cabeza amigo.
Rabin replica:
El presidente examinó sin gran entusiasmo el fusil de neutrinos, pues en la tierra tenían
varios como aquel.
- Esta pistola es de una maestría sin par, inimitable. Uno de nuestros almirantes se
la arrancó del cinto a un capitán pirata de Aldebarán.
- ¡Oh, oh, oh! ¡Qué maravilla…! ¡Cómo habrán podido hacer eso con tanta finura!
– y volviéndose a Rabin le dijo en inglés -: Mira. Si yo estuviese en la Tierra un
solo maestro armero como el que hizo esta pistola, me sentiría feliz y orgullosos,
y a ese maestro lo haría caballero de honor sin más ceremonias.
Al oír tales razones, Rabin hundió su mano derecha en sus anchurosas bombachas y
sacó de allí un destornillador.
Pero el buenazo del ayudante no les hizo caso y continuó hurga que te hurga. Dio una
vuelta, dio otra … y sacó el cerrojo. Rabin mostró este al presidente, que vio allí una
inscripción en inglés “Hecho en Japón”
- Para que los has puesto en ridículo, Me dan mucha pena. ¡Vámonos!
Tomaron asiento en su vehículo de dos plazas y se marcharon. Aquel mismo día el
soberano asistió a un baile, y Rabin; después de secar un vaso de Ron mayor que el de
la víspera, se acostó.
Estaba alegre por haber dejado en mal lugar a los andromidanos y en buen lugar a los
fabricantes de Japón. Pero al mismo tiempo sentía rabia: ¿Por qué el presidente se había
compadecido de tal forma de los andromidanos?
III
A la mañana siguiente, cuando Robín se presentó al presidente para darle los buenos
días Alejandro le dijo:
Robín se atrevió a insinuar que ya habían visto bastantes productos intergalácticos y que
sería mejor prepararse para volver a casa, la Tierra; pero el presidente le dijo:
- No deseo ver más cosas nuevas: me han alabado su azúcar de primera calidad.
Partieron.
Rabin dice:
Pero cuando llegaron a la última sala, encontraron en ella a unos hombres vestidos con
batas blancas que sostenían una bandeja que en la que no había nada.
Al presidente le extrañó sobremanera que le presentaran una bandeja vacía.
El estuche lo habían hecho de un diamante del tamaño de una nuez, con un hoyito en el
centro. No dieron al presidente el estuche porque, según ellos, pertenecía al tesoro, y allí
eran muy serios en cuanto a lo que pertenecía al tesoro, y aunque era para un presidente,
no se lo podían ofrecer.
Continuará…...
IDENTIFICACIÓN NO LINEAL
MEDIANTE EL SISTEMA ANFIS
NON LINEAL IDENTIFICATION THROUGH ANFIS
SYSTEM
RESUMEN /
Una red adaptativa utilizando un sistema de inferencia difuso neuronal es denominada (ANFIS) y es empleada
para identificar plantas no lineales.
El ANFIS apoyándose en mediciones de las señales de entrada y salida de la planta más el conocimiento humano
difuso que se tiene del proceso expresado mediante reglas if-then, aplica un procedimiento de aprendizaje híbrido
para lograr la identificación del objeto deseado. El modelo neuro-difuso obtenido representa la dinámica inversa
del objeto identificado y entonces puede también ser empleado como un controlador. En el presente trabajo dos
plantas no lineales son modeladas con el ANFIS. Las figuras presentadas muestran la ejecución del programa
elaborado para obtener los modelos.
Palabras Clave: Red adaptativa, sistema de inferencia difusa, aprendizaje híbrido, identificación de sistemas no
lineales.
ABSTRACT
An adaptive network using a neuro fuzzy inference system is denominated (ANFIS) and can be employed to identify
non lineal plants.
The ANFIS based in measurements of the input- output signals of the plant, more the fuzzy human knowledge that one
has of the process, expressed by means fuzzy if-then rules, applies a procedure of hybrid learning to achieve the
identification of the wanted object.
The obtained neuro-fuzzy model represents the inverse dynamics of the identified object and then can also be used as a
controller. In this paper, two non lineal plants are modeled with the ANFIS. Are presented the figures that show the
performance of the elaborated program to obtain the models.
Keywords: Adaptive network, fuzzy inference system, hybrid learning, non lineal system identification
Figura 2
identifique al proceso y mediante la subrutina showrule
podamos ver estas 20 reglas
Como la regla para una entrada y una salida para el modelo de
Sugeno es:
If x es Ai then fi = pi x + ri i = 1…….20
-0.0002053 10.960
0.0005504 8.118
-0.0001352 11.010
0.0001471 8.153
0.0003827 10.640
Figura 3 -0.0001734 8.421
Funciones de pertenencias finales del tipo gauss combinada 0.0007373 10.040
0.01901 - 20.110
Al comprobar que el error obtenido no satisfizo el criterio -0.002139 14.75
deseado se inició un nuevo proceso de cálculo donde se cambian 0.03231 -52.72
algunos parámetros como pueden ser el número y / o el tipo de 0.03723 -65.27
FP o se incrementa el número de iteraciones. En este caso se 0.07969 -176.10
incrementó el número de iteraciones a 400. Se pudo apreciar en 0.0914 -218.60
la figura 4, que representa la trayectoria del error, que en la 0.1185 -314.00
iteración 200 el error estaba por encima de 0.35 siendo el criterio 0.06601 -190.10
de error de 0.2, debido a esto se incrementaron las iteraciones 0.05563 -164.50
hasta 400, obteniéndose un valor por debajo de 0.2, esto es 0.15. 0.02287 -69.57
0.03319 -107.50
0.003218 -4.128
- 0.001453 16.78
Figura 5
Comparación de la salida de la identificación y del proceso
Figura 7
Relación de datos entrada salida
Figura 10
Trayectoria del error
Figura 8
Funciones de pertenencias iníciales del tipo gauss combinada En la figura 11 se muestra el resultado de la identificación
Note que las figuras 2 y 8 son iguales porque partimos de l as hecha con el ANFIS, se puede ver que, hay coincidencia entre
mismas condiciones iníciales y los problemas siguen totalmente la relación entrada salida del proceso (línea de rayas) y la
diferentes identificación realizada por el ANFIS, (línea de raya y punto).
Se ejecuta el entrenamiento inicialmente con 300 épocas
mediante la subrutina Anfis. Al comprobar que el error obtenido
no satisface el criterio deseado se inicia un nuevo proceso de
cálculo donde se cambian algunos parámetros. En este caso se
incrementó el número de iteraciones a 400 y se obtuvieron los
-0.0497 4.693
-0.6527 82.150
-0.6187 101.5
-0.2343 41.56
-0.5593 118.7
-0.1046 25.22
-0.503 135.8
-0.7854 231.9
-0.6406 204.2
-0.3695 127
-0.4746 177.5
-0.7087 283.1
-0.1085 46.72
-0.3756 165.9
-0.5357 251.7
-0.3809 191.9
Figura 11 De igual manera que en el ejemplo anterior se puede construir
Comparación de la salida de la identificación y del proceso la 20 reglas que definen la identificación mostrada en la figura
11
Las parámetros de la premisa de la regla que permiten la CONCLUSIONES
identificación son las siguientes: La ventaja de este método de identificación radica en que
solamente hace falta un juego de mediciones de la entrada
Ai 1 c1 2 c2 salida como dato inicial para identificar sistemas no lineales.
Armando Plasencia Salgueiro1, Ileana Suárez Blanco2, Elina Mylen Montero Puñales 3, Antonio Díaz
Zamora4 , Omar Ochoa Rodríguez5, Claudia Amelia Rodríguez Guerra 6
Resumen — En las organizaciones modernas cada vez se requiere gestionar más cantidades de datos
semi- o no estructurados, dígase textos, imágenes, páginas Web, etc., para que dentro de una concepción de
Inteligencia de negocios se puedan definir relaciones o patrones que caractericen los procesos y permitan a
los responsables tomar decisiones adecuadas. Una de las vías para darle solución a esta problemática es el
empleo de la tecnología de cluster de computadoras o Grid, una estrategia MapReduce y el empleo de
buscadores especializados y algoritmos de aprendizaje automático. Para validar esta concepción se realizó
un experimento con un cluster y clientes ligeros de computadoras. Como soporte de software se utilizó una
interrelación de herramientas de software libre distribuidas por Apache siendo evaluadas su
comportamiento con una suite de evaluación . Como ejemplo se muestran los resultados a obtener de un
algoritmo de agrupamiento.
Abstract: In the modern organizations is a crescent requirement the management of semi and non
structured data, texts, imagines, Web pages, etc. These, in the business intelligence conception, permits the
characterization of relationship and patterns of process and make possible the decision making. One way to
solution this problem is the use of clusters and Grid technology, a MapReduce strategy and the application
of machine learning algorithms and vertical searches. To validate this conception was making an
experiment which one cluster and two groups of independents PCs. The used software support was the
Apache tools, evaluates by an evaluation suite. Like example shown the possible results of one cluster
algorithm.
Keywords: GridIR, Information Retrieval, Business Intelligence, specialized searches engines, data mining
algorithms, Apache Tools.
I. INTRODUCCIÓN
Los Sistemas de gestión de bases de datos relacionales (RDBMS) han sido el fundamento de la
recuperación de información en la Intranet durante los últimos años y están consolidados, tanto en su
concepción teórica como en su aplicación, sin embargo, las organizaciones se ven más necesitadas del
manejo intensivo de datos semi o no estructurados que por su volumen y complejidad de análisis requieren
de grandes capacidades de cómputo. Datos que pueden estar disponibles en un sistema distribuido
(geográficamente o por hardware) y que no se adecuan satisfactoriamente en un modelo de datos relacional.
Para la solución de esta problemática los científicos e ingenieros han planteado una nueva concepción en
el diseño de software para enfrentar las demandas de las organizaciones. El término de “NoSQL” (“No
solamente SQL”) fue introducido para describir los motores de gestión de datos modernos que contienen
algunas de las cualidades de los RDBMS, pero van más allá de las fronteras que limitan comúnmente los
sistemas tradicionales de bases de datos basados en SQL.
Otra filosofía para la solución de los problemas antes planteados es la concepción de desarrollar el papel
3
de los almacenes de datos empresariales (extracción, limpieza, integración y distribución de los datos para
los decisores y por lo tanto incluye las funciones de extracción-transformación y carga (ETL) y de
inteligencia de negocios (BI)) [2]. Estos incluyen una integración extrema, fuentes de datos semi y no
estructurados, terabytes de almacenamiento de conductas e imágenes cuyos datos son accesados a través de
MapReduce/Hadoop así como bases de datos relacionales masivamente paralelas. Es posible entonces
estructurar el almacén de datos empresarial para permitir los métodos avanzados de análisis.
Surge entonces la pregunta si se podrá desarrollar un sistema en software libre que sea capaz de recuperar
y analizar la información residente en datos de formatos heterogéneos, definiendo entonces el objetivo de
validar la misma a través de la concepción de un sistema de gestión de información en una intranet.
Son tres los componentes principales de un sistema de recuperación de información. Estos son el Gestor
de la colección (CM), el indizador y el buscador (Fig. 1).
La última década ha sido testigo del diseño e implementación de varios motores de búsqueda. Hoy
existen motores de búsqueda que tienen indexadas más de 4 miles de millones de páginas Web y son
capaces de procesar millones de solicitudes por día en sus índices locales.
Un motor de búsqueda tradicional está compuesto generalmente por tres componentes enlazados: un
rastreador, un indizador y un procesador de solicitudes. El rastreador es responsable de la localización,
búsqueda y almacenamiento de del contenido residente en la Web. El contenido descargado es
frecuentemente seccionado por un indizador y transformado en índices invertidos, los cuales representan la
colección descargada en una forma compacta y solicitable eficientemente. El procesador de solicitudes es
el responsable del procesamiento de las solicitudes de los usuarios y el retorno a los usuarios de las páginas
relevantes a la solicitud realizada. Pese a los muchos esfuerzos de investigación realizados, la efectividad y
la eficiencia de los buscadores aún se mantienen como los dos principales retos a solucionar dentro de los
problemas de la búsqueda en la Web.
es más probable que las copias captadas de las páginas sean más frescas.
El problema de eficiencia del rastreo de la Web se debe al gran tamaño de la Web así como también la
naturaleza en constante desarrollo de la misma, lo que requiere que las páginas sean descargadas e
indizadas frecuentemente. De acuerdo con los resultados reportados por Google, este toma alrededor de un
mes para volver a rastrear la misma página como promedio. El problema en el procesamiento de las
solicitudes es resultado de la necesidad de evaluar rápidamente una solicitud partiendo de un indizado más
bien grande, en presencia de muchas solicitudes de usuarios que son realizadas al mismo tiempo. Los
motores de búsqueda actuales atacan este segundo problema utilizando algunos algoritmos de optimización
que pueden negociar efectividad a cambio de mejorar eficiencia (ejemplo la evaluación de corto circuito) o
mejorar la programación (por ejemplo tratar de mantener todo el indizado de la Web en una memoria
volátil). Pero por lo general, el principal método para hacer frente a ambos problemas es el empleo de
sistemas de computación paralelos/distribuidos los cuales ejecutan múltiples agentes rastreadores para
rastrear la Web y múltiples motores de búsqueda para evaluar las solicitudes por todas las copias de los
índices de la Web replicados/particionados incrementando ambos los por cientos de páginas descargadas y
la capacidad de procesamiento de las solicitudes.
El rastreo de la Web es el proceso de localizar, buscar y almacenar las páginas Web. Un rastreador típico
de la web, comenzando a partir de un conjunto de páginas preestablecidas, localiza nuevas páginas
mediante la partición de las páginas descargadas y la extracción de los hipervínculos dentro de ellas. Los
hipervínculos extraídos son almacenados en un a cola de búsquedas FIFO para la recuperación ulterior. El
rastreo continua hasta que la cola de búsquedas se vacía o un número satisfactorio de páginas son
descargadas. Usualmente, muchos buscadores enlazan las ejecuciones al unísono con el objetivo de solapar
las operaciones de la red con el procesamiento del CPU y así incrementar el rendimiento. A pesar de que
esto parece una tarea simple, están presentes muchos retos en el rastreo de la Web. Los dos problemas más
importantes son la cobertura y el refrescamiento. La cobertura se refiere al tamaño del conjunto de
páginas recuperadas dentro de un cierto período de tiempo. Un rastreador exitoso trata de maximizar su
cobertura con el objetivo de proporcionar una colección grande localizable a los usuarios. De forma similar,
el refrescamiento de la colección es importante con el objetivo de minimizar la diferencia entre las copias
captadas de la Web y sus originales y así mantener la información del servidor actualizada. Otra
problemática importante del rastreo de la Web es la necesidad de una gran cantidad de recursos
computacionales. Primero, se necesita una gran potencia de cómputo para particionar las páginas rastreadas,
extraer los hipervínculos y los índices del contenido de las páginas. Segundo, se necesita una gran cantidad
de memoria volátil para almacenar y administrar las estructuras de datos que crecen rápida y
continuadamente durante el rastreo. El último y más importante recurso necesario es un gran ancho de
5
banda. El ancho de banda de la red determina la proporción de páginas descargadas y afecta la cobertura de
los rastreadores así como el refrescamiento de las páginas. De ahí que se estime que todos estos
requerimientos computacionales hacen del rastreo de la Web un objetivo factible para la computación en
la grid (o en clusters de computadoras estándares) si nos atenemos a una política de ahorro de recursos
materiales y consideraciones ecológicas (por el uso óptimo de la energía) vs. La utilización de grandes
sistemas de hipercómputo. En términos generales la grid puede definirse como “un tipo de sistema de
cómputo paralelo y distribuido que posibilita compartir, seleccionar y agregar recursos autónomos
geográficamente distribuidos dinámicamente en tiempo de ejecución en dependencia de su disponibilidad,
capacidad, funcionamiento, costo y usuarios, requisitos todos para la calidad del servicio” .
La grid contiene nodos computacionales potentes, que tienen los recursos computacionales para correr
aplicaciones de rastreo de la Web. Además, en los casos donde la localización espacial de las páginas es
importante, la naturaleza de distribución geográfica de la grid puede ser utilizada para incrementar la
proporción de descargas.
GridIR es la aplicación de la RI en un medio de cómputo formado por una grid. La figura 2 muestra un
modelo de un sistema GridIR. Las fuentes de datos son las colecciones de documentos indizados
distribuidos en cualquier parte de la grid.
En la práctica, los IR rara vez dan respuesta a una pregunta, o a elementos de información específicos
6
(tales como una tabla de figuras, o una cita textual, o un pasaje en particular de un documento). Lo más
frecuente es que los sistemas de IR presenten un listado ordenado de citas de documentos en la cual se
espera que la información deseada sea hallada. Los sistemas de IR pueden definirse como aquellos sistemas
de cómputo que toman un número de documentos (quizás en diferentes formatos) como entrada (input) y
construyen estructuras de datos las cuales pueden ser rápidamente buscados para que coincidan con las
solicitudes. Estos sistemas de IR son capaces entonces de tomar solicitudes (quizás con un formato especial
o restricciones) como entrada y producir un listado de documentos en un orden establecido.
Ventajas de la GRID IR sobre los motores de búsqueda tradicionales (motores de búsqueda monolíticos).
1. Las solicitudes correrán contra colecciones de documentos con probabilidad de contener los
documentos relevantes, así se eliminan a priori aquellas colecciones con pocas probabilidades de
tener documentos de interés. Por ejemplo, alguien interesado en información acerca de las botas de
trabajo puede querer omitir las bases de datos acerca de botas de invierno.
2. Cada colección será personalizada por sus cualidades inherentes, de acuerdo con las intenciones del
proveedor de la colección. La personalización puede abarcar el diapasón completo del
procesamiento de la solicitud, el procesamiento de los documentos y las técnicas de IR, tales como
los pesos de los documentos y de los términos, los modelos de recuperación de IR (Booleano, vector
espacial, el Indizado Semántico Latente, etc.), la radicalización de términos, las listas de palabras
vacías, etc.
3. En lugar de buscar tiempos de respuestas por debajo del segundo con relación a millones de
millones de documentos como lo hacen los motores de búsqueda monolíticos, los sistemas de GRID
IR pueden realizar tales acciones en colecciones mucho más pequeñas. Ello posibilitará un
procesamiento de las solicitudes más complejo.
4. Las colecciones de las GRID IR, debido al pequeño tamaño y localización definida (por ejemplo el
servidor Web de una organización), pueden ser actualizadas más rápidamente, eliminando así la
demora de los motores de búsqueda entre corridas para llegar a una misma página (cosechas).
5. La computación en Grid ofrece un modelo de notificación en el cual los eventos (tales como la
disponibilidad de un nuevo contenido) pueden disparar otros eventos (tales como la evaluación de
una solicitud de acuerdo con el nuevo contenido). Este modelo abre las puertas a las solicitudes de
importancia, el filtrado de la información, y los métodos de empuje (más que extracción) para la
diseminación de la información.
La mayoría de los motores de búsqueda se basan en la búsqueda de palabras claves, donde la solicitud,
7
consistente en un número de palabras clave determinado es evaluado mediante un índice invertido, y los k
documentos de la cima son retornados al usuario en orden decreciente de su similitud con la solicitud. Sin
embargo, también existen métodos que emplean la clasificación de textos en la solicitud de colecciones de
documentos y/o la presentación de los resultados. La utilización de la clasificación textual en los motores
de búsqueda es principalmente en forma de pre-clasificación (ej. los motores a los que se les proporcionan
directorios de tópicos de forma manual creados por expertos humanos) o de post-clasificación (ej. los
motores a los que se les proporcionan clasificaciones automáticas de los resultados de las solicitudes. La
primera de estas formas incrementa la precisión y la última mejora la presentación de los resultados.
A partir del incremento de la cantidad e importancia de los datos semi o no estructurados (informes,
páginas Web, imágenes, etc.) en las organizaciones, conjugado con el desarrollo y abaratamiento de las
herramientas informáticas la concepción inicial de está a partir de datos estructurados ha evolucionado para
incluir los primeros. Lo anterior se evidencia en [2] al proponerse una modificación al modelo clásico de
Kimball al cual se agrega entre otros componentes como fuentes al sistema estructuras complejas, textos no
estructurados, imágenes, video, etc.
Otra concepción, bajo la denominación común de “Analizadores de grandes cantidades de datos (Big
Data Analytics)” es la de IBM con su plataforma Symphony [4], la de ParStream [5] o la de la suite de
acceso libre Stratophere [5]. Todas tienen en común el procesamiento paralelo de los datos, su orientación
a MapReduce (o versiones), las herramientas bajo licencia apache en general y su proyección es hacia una
nueva generación de Inteligencia de Negocios (NGBI) “la cual correlaciona los almacenes de datos con
texto y otras modalidades de servicios web de los suministradores de información, intranets corporativas e
Internet” [5]
Esta concepción no es para ser utilizada para Analizadores de datos de mediana o pequeñas dimensiones.
Algunos casos de uso para los Analizadores de grandes cantidades de datos son el ordenamiento de los
resultados de búsqueda de los motores de búsqueda, comprobación de la similitud del documento, análisis
del genoma, el estado técnico de los aviones en vuelo, el análisis de los resultados de los sensores
industriales, comparación de las imágenes de los satélites, en la ciencia (análisis del clima, telemetría
espacial, etc), caracterizados todos ellos por el tener que manejar muy grandes cantidades de datos [2].
Astrofísica, etc., y el hardware que soporta esta Grid. Así, para la gestión de recursos, eventos, políticas,
etc. proponemos la utilización de Hadoop con su implemntación de MapReduce, para la búsqueda y rastreo
en la Web proponemos la combinación de las herramientas Solr y Nutch, y para la realización de la
determinación de patrones y relaciones en la información, mediante el empleo de la minería de textos, la
bibliominería, etc., proponemos el empleo de Mahout con sus algoritmos de aprendizaje automático. Esta
idea se representa en la figura 3, para la validación de la cual pasaremos a explicar las características de
cada una de las herramientas señaladas.
Solr [7].
Solr es un servidor de búsqueda empresarial de código abierto. Este es un producto ya probado que
permite la búsqueda en sitios públicos como CNET, Zappos, y Netflix así como en un número considerable
de sitios de intranets corporativas y gubernamentales. Está escrito en Java y ese lenguaje es utilizado para
en lo sucesivo extender y modificar a Solr mediante interfaces de plugins simples. El servidor realiza la
comunicación utilizando los estándares HTPP, XML y JSON.
Adicionalmente a la habilidad estándar de retornar los resultados en una lista a una determinada solicitud,
Solr tiene otras numerosas características como la de resalte, clasificación facetada (al igual que la mayoría
de los sitios de e-comercio), la corrección de la escritura de las solicitudes, el finalizar las solicitudes no
completadas y la característica de “más parecido a” para encontrar documentos similares.
El motor de búsqueda subyacente de Solr es Lucene. Este es una biblioteca consistente en un motor de
búsqueda textual de altas prestaciones. Al ser una biblioteca de código, Lucene no es un servidor ni
tampoco un rastreador de la web. Incluso no tiene ficheros de configuración.
- Un indizado invertido para la recuperación eficiente de los documentos por los términos indizados. La
misma tecnología respalda a los datos numéricos al realizarse solicitudes de rango.
- Un rico conjunto de componentes de análisis de textos encadenables, tales como señalizadores
(tokenizers) y radicalizadores (stemmers) de lenguajes específicos que transforman una cadena textual en
una serie de términos.
- Una sintaxis de solicitud con un analizador sintáctico (parser) y una variedad de tipos de solicitud desde
la consulta de un término simple hasta un pareo tipo fuzzy.
- Un buen algoritmo de posicionamiento (scoring) basado en principios fundamentados en la
9
Recuperación de Información (IR) para generar primero el candidato más parecido, con significados
flexibles para afectar el posicionamiento.
- Mejoramiento de las características de búsqueda tales como:
La característica de resaltado para mostrar las palabras de solicitud encontradas en el contexto.
Un corrector ortográfico de las solicitudes basado en el contenido indizado o en el diccionario
suministrado.
La característica de “más parecido a este” para listar los documentos que son estadísticamente
similares al texto proporcionado.
Solr tiene características propias que van más allá del propio Lucene. Estas son:
Un servidor que se comunica con http por intermedio de los formatos de datos XML y JSON.
Ficheros de configuración, en particular por su esquema de índices, los cuales definen los campos y
la configuración de sus análisis de textos.
Varios caches para una respuesta más rápida del servidor.
1. Una interfase de administración en formato Web que incluye: Estadísticas del tiempo de corrida
de la búsqueda y de la cache.
2. Una herramienta de diagnóstico para la corrección de errores del análisis de texto.
Facetado (Faceting) de los resultados de la búsqueda.
Un analizador sintáctico de la solicitud llamado dismax que es más utilizable para el análisis de las
solicitudes del usuario final que el analizador sintáctico de solicitudes nativo de Lucene.
Búsqueda geoespacial para el filtrado y el ordenamiento por la distancia.
Una propiedad de búsqueda distribuida y de replicación del índice para la adaptación de Solr.
Solritas: un ejemplo de buscador web genérico que muestra muchas de las característica de búsqueda
de Solr.
También, hay dos módulos contrib que se acarrean con Solr que realmente son destacables:
El DataImportHandler (DIH): modulo con capacidad de rastreo e importación de datos de una base
de datos, e-mail, y fichero.
Solr Cell: Un adaptador al proyecto de código abierto Apache Tika, el cual puede extraer texto de
numerosos tipos de ficheros.
Una fuente de datos muy común a ser sometida a búsqueda es el contenido de las páginas web, ya sea de
Internet como dentro del corta fuegos. Una solución para el rastreo y la búsqueda de páginas web es Nutch,
inicialmente un subproyecto de Lucene. Nutch está enfocado a ejecutar el rastreo de la web a escala de
internet de forma similar a Google e incluye componentes tales como el rastreador de la web, una base de
datos gráfica de los hipervínculos y analizadores sintácticos para HTML y otros formatos comunes que se
encuentran en Internet. Nutch está diseñado para escalar horizontalmente sobre múltiples máquinas durante
el rastreo utilizando la plataforma Hadoop para gestionar su trabajo.
Anteriormente Nutch utilizaba su propio interfase de búsqueda por el usuario basado en Lucene, pero
10
actualmente hace uso de Solr para la búsqueda. Esto le permite a Nutch enfocarse en el rastreo de la web
mientras que Solr trabaja como una herramienta de búsqueda genérica con características tales como
corrector ortográfico de solicitudes y el facetado que anteriormente Nutch no podía realizar. El Nutch de
forma nativa comprende los conceptos de relevancia de la web tales como el valor de los hipervínculos para
calcular el ordenamiento por page rank, y como tener en cuenta en que <title/> tag de HTML es, cuando se
crea el modelo de ordenamiento para entregar los resultados.
El Nutch trabaja separado de la lista original de las URLs que son utilizadas como fuente de páginas web
a rastrear.
Hadoop [9].
Las bibliotecas de programas de Apache Hadoop constituyen un marco de trabajo que permite el
procesamiento distribuido de grandes conjuntos de datos a través de clusters de computadoras utilizando un
modelo simple de programación. Este está diseñado para escalar desde un solo servidor hasta miles de
máquinas, cada una ofreciendo cómputo y almacenamiento locales. En vez de depender del hardware para
garantizar alta disponibilidad, la biblioteca en sí está diseñada para detectar y manipular los fallos en la
capa de aplicación y así garantizar un servicio de alta disponibilidad sobre un cluster de computadoras, cada
uno de cuyos elementos pueden ser propensos a fallos.
- Robusto: debido a que está diseñado para correr en hardware disponible, el Hadoop está configurado
asumiendo fallas frecuentes del hardware. Este puede manipular satisfactoriamente la mayoría de tales
fallas.
- Escalable: Hadoop escala linealmente para manipular grandes cantidades de datos adicionandomás
nodos al cluster.
- Simple: Hadoop le permite a los usuarios escribir rápidamente código paralelo eficiente.
La figura 4 ilustra como interactuar con un cluster Hadoop. Como puede verse, el cluster de Hadoop es
una serie de máquinas conectadas en red juntas en una localización. Todo el almacenamiento de los datos y
el procesamiento ocurre dentro de esta “nube” de máquinas. Usuarios diferentes pueden enviar “trabajos”
de cómputo al Hadoop desde clientes individuales, las cuales pueden ser sus propias máquinas en
11
Fig. 4. Un cluster Hadoop tiene muchas máquinas en paralelo que almacenan y procesan grandes
conjuntos de datos. Las computadoras clientes envían trabajos a esta nube de computadoras y obtienen los
resultados [9].
Hadoop Core, el subproyecto bandera, proporciona sistemas de ficheros distribuidos (HDFS) y soportado
por la metáfora de computación distribuida Map Reduce-
HBase construido sobre el Hadoop Core para proporcionar una base de datos escalable y distribuida.
Pig es un lenguaje de alto nivel de data-flow y un marco de ejecución para la computación paralela. Está
construido encina del Hadoop Core.
Hive es una infraestructura de almacén de datos construida sobre Hadoop Core que proporciona una
indización general de los datos, adhoc de las solicitudes y el análisis de los conjuntos de datos.
El proyecto Hadoop Core proporciona los servicios básicos para la construcción de un entorno de
cómputo en la nube (cloud computing) con hardware de uso general (commodity), y las API para el
desarrollo de software que correrá en la nube. Las dos piezas fundamentales de Hadoop Core son el marco
MapReduce, el entorno de cómputo en la nube y el Hadoop Distributed File System (HDFS).
El modelo MapReduce
Hadoop soporta el modelo MapReduce, el cual fue introducido por Google como un método de solución
de clases de problemas de gran escala con clusters grandes de máquinas de comunes.
- Map: Un paso inicial de ingestión y transformación, en el cual los registros individuales de entrada
pueden ser procesados en paralelo.
- Reduce: Un paso de agregación o resumen, en el cual todos los registros asociados tienen que ser
procesados juntos por una sola entidad.
El núcleo del concepto de MapReduce en Hadoop es que una entrada puede ser dividida en pedazos
lógicos, y cada pedazo puede ser inicialmente procesado independientemente por un mapa de tareas. Los
resultados de este procesamiento individual de los pedazos pueden ser particionados físicamente en
distintos conjuntos, los cuales son entonces ordenados. Cada pedazo ordenado es pasado a una tarea de
reducción. La figura 5 ilustra cómo trabaja el modelo MapReduce.
El mapa de tareas puede correr en cualquiera de los nodos de cómputo del cluster y múltiples mapas de
tareas pueden correr en paralelo a través del cluster. El mapa de tarea es responsable en la transformación
de los registros de entrada en pares llave/valor. La salida de todos los mapas será particionada y cada
partición será ordenada. Habrá una partición para cada tarea de reducción. Cada llave ordenada de la
partición y el valor asociado con las llaves son entonces procesados por una tarea de reducción.
Mahout es una biblioteca de algoritmos de aprendizaje automático de Apache. Ello significa en particular
para Mahout el disponer de motores de recomendación (filtrado colaborativo), agrupamiento y
clasificación. Este es también escalable. Mahout tiene la finalidad de ser una herramienta de aprendizaje
automático a seleccionar cuando la colección de datos a ser procesados es muy grande, (relativo a ser
procesada por una sola máquina). En la actualidad, estas implementaciones de aprendizaje automático
13
escalables de Mahout están escritas en Java y algunas secciones se basan en el proyecto de Cómputo
distribuido de Apache Hadoop.
Figura 6. Sistemas de computadoras utilizadas en el experimento. Este está enlazado por una red de de
100 Mbps. Las computadoras del cluster de Linux están interconectadas por una red Ethernet de un Gigabit
[elaboración propia].
Para comprobar el funcionamiento, el empleo y realizar la caracterización del sistema basado en Hadoop se
seleccionó la suite HiBench [xx] de Intel la cual consiste en un conjunto de programas de Hadoop que
incluyen micro-evaluadores y aplicaciones del mundo real (Figura 7)
Técnica de división en bloques para la correspondencia por referencia utilizando MapReduce. [9].
El agrupamiento de documentos tiene cada vez más importancia en el área de la minería de datos y la
recuperación de información. Con el crecimiento de los volúmenes de datos, las técnicas de CPU y de
eficiencia de la memoria para los algoritmos de agrupamiento está recibiendo una considerable atención por
la comunidad de investigadores. Para tratar con enormes cantidades de datos (ej., los documentos de
Wikipedia o CiteSeerX que tienen varios GB de tamaño), las técnicas de agrupamiento distribuido han sido
diseñadas para proporcionar facilidades de escalabilidad y flexibilidad. Uno de los problemas a solucionar
es el problema de agrupamiento de documentos en el área de correspondencia por entidad (Entity
Matching) donde los documentos de varias fuentes de datos son seleccionados juntos. Más específicamente,
se puede utilizar una técnica de optimización común denominada división por bloques que reduce el
enorme espacio de búsqueda para el agrupamiento de las fuentes de datos en grupos más pequeños y el
procesamiento de las comparaciones solo dentro de esos grupos. En el artículo [12], se aplica el marco de
trabajo de MapReduce para gestionar el enorme conjunto de datos bibliográficos mediante una técnica de
división en bloques flexible, escalable y fácil de utilizar para reducir el espacio de búsqueda para realizar la
correspondencia por entidad.
Para determinar la relación entre documentos se utiliza las co-citas. Estas son técnicas bibliométricas de
medición de la similitud para determinar publicaciones relacionadas por tópicos de una colección de
documentos. Esta puede ser utilizada en los agrupamientos para unir publicaciones de tópicos similares
(Figura 8).
Figura 8. Calculo de la matriz de citas L y la matriz de co-citas C basados en el grafo de citas G [12].
Para calcular la proximidad entre los clusters, se requiere disponer de una matriz de medidas de
proximidad inicial entre clusters únicos. Para ello puede utilizarse la medida de co-citas como como una
medida de proximidad inicial (Fig. 9).
Se define como dos publicaciones cercanas, cuando sus medidas de co-citas normalizadas alcanzan un
15
umbral definido por el usuario. Por ejemplo, considerar que dos publicaciones son similares a partir de que
medida de co-citas es mayor que 0.2.
Figura 9. Dendograma para 118 publicaciones creadas por una herramienta de agrupamiento [12]
En los algoritmos de agrupamiento (clustering) del tipo de K-medias y en los clusters jerárquicos, el
cálculo más intenso de la CPU se produce en el cálculo de la proximidad o la distancia entre las
observaciones desde el conjunto de datos. El cálculo de la matriz de co-citas es realizado de forma de
adición y puede realizarse también en paralelo debido a que el cálculo entre dos publicaciones es
independiente de otros cálculos (Figura 10).
Después de realizados los cálculos de todas las co-citas entre publicaciones, se pueden utilizar los
resultados como entrada a un cluster jerárquico en Mahout de Apache. Mahout proporciona los algoritmos
para varias tareas de minería de datos tales como clasificación o agrupamiento utilizando en la corrida de
estos con MapReduce y alimentar los cálculos con la matriz inicial de proximidad.
IV. CONCLUSIONES
En el artículo, a partir de definir la concepción de la recuperación de información en la Grid o GridIR y
sus funcionalidades, la inteligencia de negocios con semi o no estructurados, se propone crear la estructura
16
de GridIR con herramientas Apache de código abierto. Esta concepción se valida a través de expresar las
funcionalidades de las herramientas propuestas, compatibles con las funcionalidades necesarias en la
estructura de recuperación, y la interrelación entre las mismas partiendo de una única concepción de diseño
y un lenguaje de programación común (java) lo cual posibilita realizar las adecuaciones necesarias por
software para su completa armonización en su implementación. Esta idea también se ilustra con el ejemplo
de división en bloques para la correspondencia por referencia utilizando MapReduce el cual demuestra la
factibilidad de ejecución práctica de la estructura de GridIR, en particular, el procesamiento de grandes
bases de datos obtenidas con un buscador Web mediante el agrupamiento de los resultados de las
búsquedas.
AGRADECIMIENTOS
Este trabajo se realizó en el marco del proyecto“Algoritmos de Minería de datos para la toma de
decisiones en procesos industriales con procesamiento paralelo (Cluster y Grid) y la búsqueda especializada
de contenidos en la Web” (Proyecto no asociado de la Agencia de Energía Nuclear y Tecnologías de
Avanzada, Contrato PNA/8/25 NO./2012)
REFERENCIAS
[1] NoSQL in the Enterprise. A Guide for Technology Leaders and Decision-Makers. DataStax
Corporation. March 2012. Pp 18.
[2] Kimball. R., The Evolving Role of the Enterprise Data Warehouse in the Era of Big Data Analytics.
Kimball Group. 2012
[3] Suárez I., et al., Algoritmos de minería de datos para la toma de decisiones en procesos industriales con
procesamiento paralelo (grid) y herramienta y metodología para la búsqueda especializada de
contenidos en la web. Reporte de Investigación del ICIMAF. No. 641, Noviembre 2011. 20p.
[4] Integration Guide for MapReduce Applications in IBM Platform Symphony – Advanced Edition. IBM
Platform Symphony. Version 5.2. May 2012
[5] Volker Markl. Big Data Analytics. Parallel Data Processing Beyond Map and Reduce. Database
Systems and Information Management Lab. Technishe Universitat Berlin.
[6] Larson R., Grid-based Digital Libraries and Cheshire3. UC Berkely School of information. 2006. PPT.
[7] Smiley D., Pugh E., Apache Solr 3 Enterprise Search Server.Copyright © 2011 Packt Publishing
[8] NutchTutorial.
http://wiki.apache.org/nutch/NutchTutorial?action=fullsearch&context=180&value=linkto%3A%22Nut
chTutorial%22. Descargado el 9 de marzo del 2012.
[9] Lam Chuck., Hadoop in Action ©2011 by Manning Publications Co.
[10] Owen S., Mahout in Action. ©2012 by Manning Publications.
[11] Dai J. Performance, Utilization and Power Characterization of Hadoop Clusters using HiBench. Intel
2010.
[12] Paradies, M., An Efficient Blocking Technique for Reference Matching using MapReduce.
Datenbank Spektrum (2011) 11: 47–49 © Springer-Verlag 2011.
MÓDULO CALDERAS DEL SISTEMA
DATASEGE H25MW
Luis M. Fernández1, José R. Rodríguez2, Carlos González3, Ileana Sánchez4, Ricardo Sebastián5
Resumen: El presente trabajo trata sobre el módulo Calderas (Unidades de Generación de Vapor) del sistema
Datasege H25MW (Simulador para el Entrenamiento de Operadores de Grupos Electrógenos Hyundai de 2.5
MW). El objetivo del sistema es facilitar la comunicación entre el entrenador y el operador, en su período de
adiestramiento. La mayor ventaja del sistema es la capacidad de autoevaluación del operador. El módulo Calderas
incluye: el suministro de agua, el tratamiento químico y térmico, la producción de vapor, etc. El módulo emplea
modelos matemáticos para simular el proceso.
I. INTRODUCCIÓN
Las calderas o generadores de vapor son instalaciones industriales que han evolucionado
extraordinariamente desde la época de la Revolución Industrial [1]. La máquina de vapor,
nombre de la época, sigue siendo el corazón de muchos procesos, al ser el centro de los
generadores de energía eléctrica que la obtienen a partir de centrales termoeléctricas. Los
buques modernos emplean las calderas para generar electricidad, al igual que otras
instalaciones industriales. El vapor que generan tiene diferentes usos y no todas emplean
una misma fuente para generar el calor que transforma el agua en vapor.
1
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico: luis@icimaf.cu
2
Dpto. de Matemática Interdisciplinaria, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15
#551 e/ C y D Vedado, Correo electrónico: tito@icimaf.cu
3
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, cgonzalez@icimaf.cu
4
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, ileana@icimaf.cu
5
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, sebas@icimaf.cu
1
El presente trabajo es continuación de un Reporte de Investigación del ICIMAF [2] y tiene
en cuenta los aportes de las tesis [3], [4] y [5].
Para comprender mejor el Módulo Calderas del simulador es necesario conocer el proceso
[6], [7], [8] y [9], es por ello que presentamos una breve descripción.
Las calderas que acompañan a los grupos electrógenos Hyundai traen un contenedor
auxiliar. Este contenedor incluye los elementos siguientes:
• Bombas de suministro de agua de alimentar, ver figura 2. Son las encargadas de
enviar el agua desde el tanque de agua de alimentar hasta el domo. También pueden
trabajar en modo de recirculación hacia el propio tanque de agua de alimentar.
• Bomba de tratamiento químico, ver figura 3. Es la encargada de suministrar los
productos al agua, para disminuir las incrustaciones en el domo, el horno y las
tuberías.
• Detector de aceite, ver figura 4. Es el encargado de determinar si el agua de
condensado que retorna del proceso se contaminó con aceite.
• Tanque de purga, ver figura 5. Todas las purgas del tanque de agua de alimentar, del
domo y del resto de las instalaciones son enviadas a este tanque.
• Panel de mandos, ver figura 6. El sistema tiene habilitado un display con tecnología
touch screen que permite visualizar en pantalla las partes fundamentales del
proceso. Este panel permite accionar las bombas, establecer modos de operación
manual y automático. En el modo automático, el elemento inteligente es un
Controlador Lógico Programable (PLC). Los dos PLC que emplea tienen
implementado un algoritmo PID cuyos parámetros se ajustan desde aquí. Contiene
además reportes gráficos de las variables asociadas a los PID.
2
Fig. 2. Bombas Fig. 3. Bomba Fig. 4. Detector Fig. 5. Tanque Fig. 6. Panel de
de suministro de tratamiento de aceite de purga mandos
de agua de químico
alimentar
Una vez que el agua es succionada del TAA por las Bombas de Suministro de Agua de
Alimentar (BSAA), puede seguir dos caminos. Uno es de retorno al TAA y el otro en viajar
hacia el Domo. En el camino hacia el Domo hay un área de Control del Agua de Alimentar
(CAA). Esta área permite controlar el flujo de acceso, del agua, en cada caldera del
emplazamiento. La instalación es la que se muestra en la
figura 7.
El Domo recibe el agua procedente del TAA y la envía al horno para convertirla en vapor.
El vapor retorna al Domo para ser distribuido hacia diferentes partes del proceso a partir del
Cabezal de Vapor (CV), ver figura 9.
El vapor almacenado en el domo se emplea para precalentar el agua en el TAA. Una parte
es empleado en el horno para deshollinar, etc.
El Horno, ver figura 9, es el encargado de transformar el agua en vapor y para ello utiliza la
temperatura de los gases que se obtienen como residuo de la combustión. Esta idea reduce
extraordinariamente los costos, al no tener necesidad de consumir combustible para generar
el vapor. Además disminuye la temperatura de los gases que van a la atmósfera.
El Horno recibe los gases calientes desde el Dámper, ver figura 10.
3
Fig. 8. Domo Fig. 9. Cabezal de vapor Fig. 10. Dámper
Los gases que se obtienen como residuo de la combustión viajan por un canal magistral que
recorre todas las calderas del emplazamiento. Aquellas calderas que demandan de ellos
posicionan las válvulas del Dámper en el ángulo adecuado para obtener solo la cantidad de
gases que se requieren para convertir el volumen de agua en vapor. El resto de los gases
viaja por el canal y puede ser empleado por otras calderas.
El vapor que se entrega a través del CV retorna a la caldera a través del Cabezal de
Condensado (CC), ver figura 11. De ahí se envía en forma de agua al área de enfriamiento,
ver figura 12. En el área de enfriamiento hay dos caminos: uno va directamente al TAA, el
otro, va al mismo lugar, luego de pasar por los Ventiladores de Condensado (VC). La
selección del camino se hace en función de la temperatura que trae el agua.
El agua que regresa al tanque de alimentar cierra lo que se conoce como el ciclo del agua.
Esta recuperación del vapor y su condensación reduce extraordinariamente los costos por
consumo de agua y de quimicales. Solo se reponen las pérdidas en el proceso.
Podemos apreciar tres ciclos importantes en este proceso: el del agua, el de los gases y el
del vapor.
Tal como ocurrió con el Módulo PTQA [2], se trabajó con los modelos matemáticos de
cada parte del proceso y se emplearon las mismas herramientas para la programación del
simulador.
4
Métodos.
Establecimos los coeficientes de las ecuaciones de los modelos de temperatura, flujo,
presión y volumen para cada recipiente, según fuera el caso.
Cuando las relaciones son no lineales, se establecieron los coeficientes del modelo lineal
alrededor del punto de operación, considerando solo variaciones inferiores al 3 %. Es por
ello que para una representación más precisa de las áreas, recomendamos un estudio más
preciso de los modelos. Como se trata de modelos a emplear para entrenamiento de
operadores, en su primera versión, no hemos considerado una mayor precisión.
Para la evaluación de los errores se establecieron procedimientos por áreas. Al igual que en
el módulo PTQA el operador puede entrenarse sin evaluación. Denominamos esta etapa
aprendizaje de navegación por el simulador. Se puede realizar con asesoría del profesor o
con la ayuda del manual de usuario. En cualquier caso los errores no crean problemas en el
proceso real.
Este método de trabajo es el que se emplea con cada parte del proceso.
Herramientas
Para desarrollar y validar el Módulo Calderas del simulador se emplearon las herramientas
siguientes:
5
• Hardware. Laptop Dell Inspiron con procesador i7, 8 GB RAM y HD 250 GB. El
producto final instalado corre sobre PC con procesador Intel, P4 o superior, 1 GB
RAM y requiere 9.69 MB de espacio en el HD, Sony Cybershot DSC-W530 con
14.6 Mpixel para las fotos. Las entrevistas se registraron en mp3 con grabadora
portátil Sony IC Recorder.
• Software. Se empleó el ANSI C como plataforma de desarrollo. El CorelDraw y el
MS PowerPoint para el diseño. También Sony PMW para las fotografías. MS-Word
y Adobe Acrobat para el manual de usuario.
III. RESULTADOS
Para facilitar la comunicación del operador con el módulo Calderas del simulador, se
desarrollaron un conjunto de HMI (Human Machine Interface). Estas HMI hacen más
amigable la comunicación ya que están diseñadas por áreas. De esta forma, el operador se
puede entrenar, y evaluar si lo desea, en un área específica.
La experiencia en el uso del simulador nos ha demostrado, que en el caso del módulo
Calderas, puede ser interesante adiestrar por ciclos. Se destaca el ciclo del agua, este va del
TAA al Domo y del cabezal de condensación de vapor al TAA. El ciclo de los gases
comprende al Dámper y al Horno. El tercer ciclo es el del vapor, este incluye al Horno, al
Domo, al Cabezal de Vapor y al Cabezal de Condensado.
6
Podemos decir entonces que la opción Vista General nos permite navegar hacia un nuevo
portal desde donde
operamos cada parte
de la caldera.
En el menú está
presente, además, la
opción de
configuración, ver
figura 15, que
permite establecer,
en cada caso, las
condiciones
iniciales.
Fig. 15. Configuración del módulo
Es muy importante que en el proceso de configuración los valores que se establezcan para
cada variable estén en su rango de operación, de lo contrario podrán aparecer valores que
no correspondan con la realidad. Somos del criterio de que esta opción se debe emplear con
asesoría del profesor.
Debieron abrirse la válvula de entrada de agua y la de salida de agua del tanque a las
bombas. Ambos errores se penalizan. Debieron abrirse las válvulas a la entrada de cada
bomba. Luego tenemos dos opciones:
7
• Se recircula el agua hacia el TAA. En este caso debemos abrir la válvula de retorno
de la bomba al tanque, para cada bomba que esté trabajando.
• Se envía el agua al Domo. En este caso debemos abrir las válvulas del CAA o la
válvula de desvío. Adicionalmente debe abrirse la válvula de entrada al Domo.
Cada error que se cometa tiene una penalización que disminuye la calificación ideal de 100
puntos. La Tabla I presenta las penalizaciones posibles en el TAA.
En el nivel más bajo están los botones de navegación global, que nos permiten visitar
cualquier área sin necesidad de regresar al portal.
Un desarrollo similar se estableció para cada una de las áreas, precisándose errores y
penalizaciones de acuerdo con la importancia de cada uno.
TABLA I
ERRORES PARA EL TANQUE DE AGUA DE ALIMENTAR
8
Hemos visto muchos errores y fuertes penalizaciones, los más leves son: Bajo nivel de agua
en el tanque, Bombas de agua operando en vacío, Baja temperatura del agua, se penalizan
con -5 porque su afectación es menor. Pero: Posible daño en las bombas, se penaliza con
-15 puntos por ser un error severo.
IV. CONCLUSIONES
Contamos con el módulo Calderas del Sistema Datasege H25MW, el cual permite el
entrenamiento, supervisado por un profesor o no, de operadores de calderas.
Un sistema de evaluación con escala de 100 puntos, basado en penalización por errores, fue
implementado. El operador puede entrenarse evaluándose o no.
BIBLIOGRAFÍA
[1] Shields, Carl D. Calderas: Tipos, características y sus funciones. Edición
Revolucionaria. Tercera edición 1975. Cuba.
[2] Fernández, Luis M., José R. Rodríguez, Ileana Sánchez, Ricardo Sebastián, Carlos
González. Módulo PTQA del sistema Datasege H25MW, Reporte de Investigación
ICIMAF-655, 2012.
[3] A. Sosa, Jorge. Diseño del Simulador de la Planta de Tratamiento Químico de Agua de
Habana 220. Tesis de Ingeniería ISPJAE, 2011.
[4] Heyner García, Simulador de calderas para grupos electrógenos de 2,5 MW. Tesis de
Ingeniería ISPJAE, 2011.
[5] Matos Cantillo, Rodolfo. Sistema Asesor para la atención de Alarmas en plantas
Hyundai de 2.5 MW implantado sobre PLC, Tesis de Ingeniería ISPJAE, 2010.
[6] Hyundai Heavy Industries CO, LTD. Manual de Instrucciones de Tecnología H25MW
DPP.
[7] Luna Leiva, A. Cartas de Régimen Tecnología HH 2.5 MW DPP, 2009.
[8] Manuales de explotación Eléctrica y Hyundai Heavy Industries CO. LTD, Julio 2007.
[9] Pocket Book 2.5 MW 9H25 / 33 DPP / O & M, Editado por Unión Eléctrica, MINBAS
2007.
[10] http://www.ni.com. Sito Web de National Instrument.
9
Aplicación de modelo de predicciones energéticas a dos hoteles de ciudad.
MSc. Adriana V. Acosta Corzo
Resumen
1. Introducción
El Turismo, visto como un sector de amplia relevancia en la economía cubana, con infinitas
posibilidades de desarrollo, debería constituirse en un tema de especial interés público para la
nación, (9). Las facilidades de desarrollo no solo han de estar dirigidas a la obtención de nuevos
ingresos sino a la obtención de una eficiencia económica que contribuya al ahorro de recursos.
Las instalaciones hoteleras se caracterizan por ser edificaciones con un uso permanente a lo
largo de cada año y donde su principal objetivo reside en garantizar confort y calidad para los
huéspedes en todos sus servicios, durante su estancia en la instalación. En estos inmuebles
predomina el movimiento de los ocupantes desde la habitación hacia las áreas exteriores, la
presencia de cristales, la diversidad entre habitaciones, así como el amplio uso del sistema de
aire acondicionado. Estos factores inciden decisivamente en los altos niveles de carga térmica.
Por estas razones para las actividades de alojamiento en el turismo constituye un verdadero reto
lograr la eficiencia energética sin afectar la calidad de los servicios que se brindan, (3). En los
hoteles, de forma similar que en otros inmuebles climatizados el gasto energético del sistema de
climatización representa alrededor de un 60% del consumo eléctrico total. En aras de disminuir
el consumo eléctrico, no se debe ir en detrimento del confort del huésped, que paga su estancia
para disfrutar de las comodidades, correspondientes a la categoría del alojamiento. Afectar los
estándares de confort de un hotel durante la visita de un turista, puede perturbar la opinión del
servicio brindado, evitar que vuelva a visitarnos y contribuir a que haga disentir a sus
conocidos de que nos visiten; perjudicando y comprometiendo el ingreso de otras temporadas.
Por ello, es tan importante velar por que las condiciones de confort no se vean afectadas, en
ningún momento.
En Cuba, el ahorro de los portadores energéticos ha sido objeto de estudio por varios
especialistas: Fernández Pizat aborda el tema de la disminución del consumo de los sistemas
de climatización de los hoteles cubanos; Montelier Hernández y otros han desarrollado un
procedimiento de optimización de la temperatura de agua helada a través de la utilización de
redes neuronales, modelos neurodifusos y algoritmos genéticos en el hotel “Jagua” de la ciudad
de Cienfuegos. También Montero y otros han trabajado en la predicción del consumo de
electricidad y de gas a través de las redes neuronales artificiales. (7,12,13,14,15,16,17)
Los hoteles estudiados son operados por empresas mixtas y turoperadores internacionales.
Ambos pertenecen al grupo Cubanacán del ministerio del turismo. Son catalogados de
categoría 5 estrellas, poseen un índice de ocupación promedio alto y se encuentran localizados
en La Habana.
El esquema general del equipamiento del sistema centralizado de aire acondicionado está
conformado por un circuito primario y otro secundario. El circuito primario está constituido por
4 máquinas enfriadoras del agua, de condensación por aire; con una capacidad de 208 ton de
refrigeración o 730 kW de carga de enfriamiento cada una, para un total de 2.92 MW. Este
circuito se complementa además con el empleo de bombas que impulsan el agua hacia los
lugares de consumo, a través de sistemas de tuberías y de manejadoras, climatizadoras y
unidades de ventiladores y serpentines (conocidos como “fan coils”), (1). Según la carga
nominal del fan coil, en el hotel se han instalados 4 modelos de unidades de ventiladores
serpentines. El sistema secundario de distribución de agua helada se encuentra subdividido en 7
circuitos a su vez, para una mejor gestión del sistema en general. Las habitaciones son
alimentadas por tres de ellos: uno para los pisos del primero al quinto del bloque A, uno para los
pisos del sexto al noveno de ese mismo bloque y uno para los cuatro pisos del bloque B. El
resto de los circuitos están destinados a otras áreas de la instalación. El caudal de agua de los
circuitos destinados a las habitaciones es el 50% del caudal total del sistema secundario.
La mayor fuente de ganancia térmica en las habitaciones, desde el punto de vista constructivo,
está relacionada con una amplia puerta de cristal que separa la habitación del balcón. Por otra
parte en el interior de cada habitación se encuentra un mobiliario abundante, varios equipos
electrodomésticos, así como abundante iluminación que también transfieren calor al local, al
igual que los ocupantes.
En el hotel existen dos subestaciones eléctricas y un grupo electrógeno. Las cargas eléctricas se
encuentran distribuidas entre ambas subestaciones. La carga eléctrica asociada a la
climatización de las habitaciones se encuentra conectada, en su mayoría, a la subestación
número 2. No se encuentran conectados a esta subestación los motores de los ventiladores de los
fan coils de las habitaciones del segundo bloque del hotel. Por esta razón cualquier cálculo del
consumo energético de la climatización de las habitaciones siempre se compara con los registros
de consumo de la subestación número 2 o también nombrada T2, (1)
El bloque hotelero es una ampliación del hotel “Parque Central”. Está clasificado como un
hotel de ciudad. Cuenta con un total de 148 habitaciones, distribuidas a lo largo de 9 pisos. Se
encuentra ubicado en el norte de la Habana, en una importante zona de la Habana Vieja. Las
habitaciones se subdividen en 20 tipos diferentes atendiendo a sus dimensiones. A diferencia de
las habitaciones del hotel “Meliá Habana”, las ventanas hacia el exterior no ocupan toda la
superficie del área exterior. El mobiliario y el equipamiento interior también son abundantes en
correspondencia con la categoría del alojamiento, (8).
Para ambos hoteles los gastos por concepto de climatización se dividen en tres categorías:
gastos fijos, gastos de salones de eventos y gastos de habitaciones.
Los gastos fijos no dependen de la ocupación del hotel y están asociados con el funcionamiento
básico de la instalación, independientemente de la afluencia de turistas. Comprende las áreas de
uso general como son el recibidor, el centro de negocios, los restaurantes, las oficinas, los
almacenes, la planta real, la cocina central, los locales tecnológicos y otros.
Los gastos de salones de eventos dependen del uso que se les dé a los mismos y de la
programación del hotel. Los gastos de las habitaciones están estrechamente relacionados con la
cantidad de turistas hospedados. Para este estudio en particular será analizada la climatización
de las habitaciones, partiendo del criterio que el alojamiento del hotel debe constituir la
principal fuente de ingresos del mismo.
70
[kw h/HDO]
60
50
40
30
0 2 4 6 8 10 12
Meses del año 2012
Figura #1. Comportamiento de la relación kW h consumidos y habitaciones ocupadas durante
los 12 meses del año 2012.
La estructura del consumo eléctrico para los dos hoteles se puede observar en las figuras #2 y
#3.
Figura #2. Distribución del consumo eléctrico del hotel “Meliá Habana”, según carga nominal
instalada.
Figura #3. Estructura del consumo eléctrico del hotel “Parque Central, La Torre”, según
mediciones de consumo.
El modelo empleado es del tipo directo y su objetivo es predecir las variables de salida, a partir
del conocimiento de la estructura y de los parámetros del sistema, si este es sometido a
determinadas condiciones de las variables de entrada. Este tipo de modelo es ampliamente
utilizado en los programas de simulación desarrollados para el análisis del consumo energético
de edificios que emplea un sistema de calefacción, ventilación y aire acondicionado; como:
“BLAST”, “DOE-2” y “Energy Plus”, (1).
Con el objetivo de calcular la carga, fue desarrollado un predictor de carga que contempla los
parámetros constructivos del edificio, la época del año, la ocupación, la predicción de la
temperatura exterior e interior, el equipamiento y la iluminación de la zona, que es objeto de
análisis.
Para la aplicación del método es necesario generar las series de coeficientes que sustentan al
mismo. Estos coeficientes dependen de las características constructivas del edificio. En el
trabajo, los coeficientes de las series de tiempo fueron generados con la ayuda de un programa
desarrollado por Iu, de la facultad de Mecánica y de Ingeniería del Espacio Aéreo de la
Universidad Estatal de Oklahoma, conocido como “PRF/RTF Generator”. Este programa
consiste en una interfaz entre el método y la aplicación, que facilita la instrumentación del
procedimiento RTS.
De esta forma para cada tipo de habitación se dispone de la serie de coeficientes CTS, la serie
de coeficientes RTS y el área de la superficie y los coeficientes de transferencia de calor U.
Cada hora, como variables de entrada, se miden los valores de la temperatura exterior, de la
temperatura en el interior de las habitaciones, de la temperatura del agua helada, de la
temperatura del agua de retorno y se actualiza el vector de habitaciones ocupadas del hotel. Se
asume que los valores de temperatura son los mismos para cada habitación. Con todos estos
datos se calcula la carga térmica de cada habitación, determinando las diferentes ganancias de
calor correspondientes. Luego se suman todas las cargas y se totaliza el resultado para el hotel.
La formalización, parametrización del modelo de predicción de carga térmica se recoge en el
trabajo (1). Sin embargo en el mismo no fueron empleados los modelos del fan coil y de las
enfriadoras que a continuación se describen.
Los fan coils constituyen los intercambiadores de calor entre el agua helada procedente de las
enfriadoras y el aire interior de cada habitación. Para modelar este tipo de equipamiento se
empleó el método conocido como efectividad – número de unidades de transmisión (NTU)
desarrollado por Kays y London en 1984 para los intercambiadores de calor. (18). De esta forma
fueron consideradas las ecuaciones de balance de energía en el aire, en el agua y en el
serpentín, simbolizadas por las ecuaciones (1), (2) y (3) respectivamente. La expresión de la
temperatura media logarítmica representada en la ecuación (4) se corresponde con los
intercambiadores de calor de tipo paralelo o de flujo a contracorriente. La solución de estas
ecuaciones fue implementada a través de un método de prueba y error utilizando una función de
optimización del MATLAB, (11).
y Parámetros
(5)
(6)
El empleo de modelos dinámicos para describir la operación de los fan coils y de las enfriadoras
posibilita un mejor ajuste de la estimación del consumo eléctrico de las enfriadoras por concepto
de climatización de las habitaciones ocupadas del hotel.
Tent cond Entrada Temperatura del aire a la entrada del condensador, [°C]
4. Resultados
Para la obtención de los resultados en ambos hoteles fueron utilizados los registros de
mediciones de los hoteles. También se emplearon las ecuaciones descritas en el libro de
Sicrometría práctica de Acosta Marrero, (2).
En el caso del hotel “Meliá Habana”, los registros se corresponden al mes de mayo del año
2008, al igual que los resultados de las mediciones de la temperatura interior realizada en una
habitación ocupada del hotel durante 20 días. El consumo eléctrico de las enfriadoras en el
“Melía Habana” no se encuentra independizado, por lo que los resultados son comparados con
los valores reales de consumo alcanzados en la subestación T2, donde se encuentran conectadas
las unidades enfriadoras. Es necesario aclarar que en el consumo eléctrico estimado no ha sido
considerado el consumo de las bombas, ni el consumo de las habitaciones desocupadas. En la
tabla 3 se representan los valores obtenidos para el modelo y los registros reales de consumo de
la subestación T2 y del total (T1+T2) del hotel.
Tabla 3: Resultados de la aplicación del modelo a las habitaciones del hotel “Meliá Habana”.
Fecha 2008 Habitaciones Promedio de Carga Consumo Consumo de % del Consumo % del
ocupadas la Frigorífica eléctrico de la consumo eléctrico consumo
Temperatura Diaria de las las subestación eléctrico de total del eléctrico de
Exterior habitaciones enfriadoras T2 [kWh] las hotel [kWh] habitaciones
[°C] ocupadas calculado habitaciones climatizadas
[kWh] por modelo climatizadas en el total
[kWh] en T2 del hotel
14
13
Tret, [°C]
12
11
10
7
0 50 100 150 200 250
Horas
En el caso del hotel “ Parque Central, La Torre”, los registros conciernen a los días 30 de abril,
1 y 2 de mayo del año 2013. También para el estudio fueron realizadas mediciones de la
temperatura interior en una habitación ocupada del hotel. Los registros reales del hotel cuentan
con mediciones independientes para el consumo eléctrico de las climatizadoras, lo que facilita la
comparación de los resultados. Sin embargo no se pudo obtener el registro de las mediciones de
la temperatura del agua de retorno.
En la tabla 4 se representan los valores obtenidos para el modelo y los registros reales de las
habitaciones del inmueble hotelero.
Tabla 4: Resultados de la aplicación del modelo a las habitaciones del hotel “Parque Central, La
Torre”.
Fecha Habitaciones Temp. Consumo Consumo % del consumo Consumo % del % del consumo
2013 Ocupadas Ext [°C] eléctrico eléctrico eléctrico de la eléctrico consumo eléctrico de la
enfriadoras enfriadoras climatización total del eléctrico de climatización
(modelo) (real) [kWh] de las hotel las de las
[kWh] habitaciones en [kWh] enfriadoras habitaciones en
el consumo real en el total el consumo
de las del hotel total del hotel
enfriadoras
30-Abr 143 26,54 2150 2681 82,7 6219 43,1 34,5
01-may 144 26,72 2236 2950 75,8 6156 47,9 36,3
02-may 133 26,41 2069 2500 82,8 5890 42,4 35,1
5. Conclusiones
La aplicación del modelo a dos instalaciones hoteleras diferentes, permite considerar la futura
generalización del mismo a otros hoteles.
Los resultados obtenidos posibilitan el uso del modelo para otras aplicaciones más complejas
como son la utilización de técnicas de control predictivo basado en modelo no lineal en la
regulación de la eficiencia energética de los edificios hoteleros.
Recomendaciones
El estudio debe ser ampliado a otras áreas climatizadas del hotel que también poseen una alta
incidencia en el consumo eléctrico del edificio.
Es importante velar desde la misma etapa de diseño de contar con toda la información requerida
para aplicar modelos que garanticen el seguimiento de la dinámica actuante.
Agradecimientos
Este trabajo no hubiera sido posible sin la ayuda del personal de las instalaciones hoteleras que
facilitaron las mediciones en las habitaciones y los registros históricos de consumo energético,
así como de los especialistas del grupo “Cubanacán”.
Referencias
1. Acosta C. A., González A. I., Zamarreño J.M. and Castelló V., 2011. “Modelo para la
predicción energética de una instalación hotelera”. Revista Iberoamericana de Automática e
Informática. http://www.revista-riai.org. España Vol. 8.
2. Acosta Marrero G., 1998. “Sicrometría práctica del aire exterior “. Editorial Científico-
Técnica. Ciudad de la Habana. Cuba.
3. ASHRAE, 2007. ASHRAE Handbook. Chapter 5, “Hotels, Motels, and Dormitories”.
ASHRAE Handbook Editor.
4. ASHRAE, 2009. ASHRAE Handbook. Chapter 18, “Nonresidential cooling and heating
load calculations”. ASHRAE Handbook Editor.
5. Carrier, 2012, “Eficiencia Energética”. Departamento técnico.
6. Castilla M., Álvarez J.D., Berenguel M., Pérez M., Rodríguez F. and GuzmánJ.L., 2010.
“Técnicas de control de confort en edificios”. Revista Iberoamericana de Automática e
Informática. http://www.revista-riai.org. España.
7. Fernández Pizat, J.F., 2012. “Disminución del consumo energético en los sistemas de
climatización de hoteles cubanos.
8. Hernández Juvier Y. A., Díaz Serret M.A., 2013. “Modelado y control del consumo
energético del bloque habitacional del hotel Parque Central La Torre”. Tesis de grado.
CUJAE. La Habana. Cuba.
9. López Felix, 2012. “El turismo en la brújula de Cuba”. Periódico “Granma”. Cuba. 12 de
Octubre del 2012.
10. Marik K., Rojicek J.,Stluka P. and Vass J.,2011.”Advanced HVAC Control: Theory vs.
Reality”. Preprints of the 18th IFAC World Congress. Milano. Italy. pp. 3108-3113.
11. MatLab® 7.12.0.635 (R2011a), “Ayuda de la herramienta”, versión 7.0, 2011.
12. Montelier Hernández, Borroto Nordelo, Lapido Rodríguez, Monteagudo Yánez, Álvarez
Guerra Plasencia, Armas. 2005. “Influencia de las principales variables climatológicas en la
operación de los sistemas de climatización por agua helada”. Cuba.
13. Montelier S., Barroto A.,De Armas M. y Gómez J.,2008. Procedimiento de optimización de
la temperatura de agua helada en sistema de climatización centralizados a flujo constante”.
CubaSolar. Cuba.
14. Montero R, Pérez C., Góngora E., Marrero S., 2009. “Predicción del consumo de
electricidad y gas LP en un hotel mediante redes neuronales artificiales”. Energética.
Volumen 42. Medellin. Colombia.
15. Montero, R.L, Hechavaria, J.H y Nordelo, A.B., 2011.”Carga térmica y consumo energético
en edificación turística con climatización centralizada a flujo variable”. Instituto Superior
Minero Metalurgico. Universidad de Holguin, Cuba. Universidad, Ciencia y Tecnología.
Versión impresa ISSN 1316-4821. uct v.15 n.61 Puerto Ordaz.
16. Nodal, Y.V, Rodríguez, M.L, Sarduy, J.R,2012. Optimización de sistemas centralizados de
agua helada en la etapa prematura del diseño comercial. Universidad de Cienfuegos Carlos
Rafael Rodríguez. Centro de Estudio de Energía y Medio Ambiente. Ingeniería Mecánica.
Vol. 15. No. 1. p. 54-65
17. Pérez Ajo P., 2010. “Ahorro Energético y Control Distribuido en Sistemas de Clima
Centralizado”. XIV Congreso Latinoamericano de Automática. Chile.
18. TROTT A. R. and WELCH T.,2000.” Refrigeration and air-conditioning.”. Third edition
by Butterworth-Heinemann.
19. Vega B.G., Bombino O., Cigler J., Oldewurtel F., Rodríguez M. Á., 2013. ”Model
Predictive Control for a Tropical Island Hotel”. Paper ID 975. CLIMA 2013: 11th REHVA
World Congress & 8th International Conference on IAQVEC. Czech Republic.
TCA2013 1
Resumen— En el presente trabajo se muestra la labor y protección de la información obtenida de modo legal, útil
realizada para lograr la instalación y configuración de la para los actores económicos de una organización para el
plataforma Eclipse, que será manejada en el marco del proyecto desarrollo de sus estrategias individuales y colectivas, con el
como la plataforma de desarrollo común para la configuración de
objetivo final de “ Dar la información correcta a la persona
las herramientas Apache. Se expone la fundamentación teórica
que contiene los conceptos necesarios para la comprensión del correcta en el momento correcto para tomar la decisión
trabajo que se ha realizado y la ilustración de los pasos necesarios correcta”. [2]
para lograr el correcto funcionamiento de la herramienta Apache
Solr. En los resultados obtenidos se muestra la creación de un Para poder hablar de Inteligencia Competitiva en un proceso
proyecto Maven desde Eclipse con dependencias a Solr. de VT (conocido por sus siglas VT-IC) la información captada
por la unidad o personas que realizan vigilancia tecnológica
Palabras Clave — Alrededor de cuatro palabras o frases claves,
en orden alfabético, separadas por comas. debe ser incorporada a los procesos de decisión estratégica y
táctica de la organización.
ideal se contaría con un sistema que cuenta con una interfaz Vigilancia Tecnológica (VT). Es por esto que se reconoce a la
que analiza el comportamiento y preferencias del usuario y Vigilancia como un proceso informacional. [3]
realiza peticiones en su representación a una base de
conocimientos que se encuentra estructurada y gestionada La VT es el esfuerzo sistemático y organizado de una empresa,
debidamente para la rápida y correcta recuperación de para la observación, captura, análisis, difusión precisa y
información; en donde dicha base de conocimientos devuelve recuperación de información sobre los hechos del entorno
las respuesta a la interfaz para que esta a su vez le brinde una económico, tecnológico, social o comercial, relevantes para la
respuesta al usuario. misma por poder implicar una oportunidad o amenaza para
ésta. [4]
En el campo de la investigación:
Se puede concluir, que el uso de la VT propicia el
Ante el gran volumen de información que generan las
mejoramiento de la toma de decisiones permitiendo formular
universidades y centros investigativos, surge la necesidad de la
planes y estrategias tecnológicas, minimizando la
contar con un servicio propio y único de vigilancia tecnológica incertidumbre que esta puede traer consigo. Además aporta
a favor de la comunidad académica. nuevos elementos y enfoques que son utilizados para alertar
El Instituto de Cibernética, Matemática y Física (ICIMAF) sobre posibles amenazas y oportunidades reduciendo el riesgo
es un centro de investigación de ciencias en matemática, física para la organización.
y cibernética con una consolidada presencia nacional e
internacional y reconocido prestigio de su colectivo científico Con el desarrollo que han alcanzado las nuevas tecnologías, la
por los resultados obtenidos en las investigaciones y servicios informática ha llegado a jugar un papel fundamental en la
científicos y tecnológicos. Tiene como misión gestionar y gestión de la VT, permitiendo a estas empresas la
ejecutar proyectos de investigación, desarrollo e innovación automatización de sus procesos de gestión, mediante la
con personal motivado y de competencia reconocida; realizar creación de diversas aplicaciones, dichas aplicaciones utilizan
actividades de formación posgraduada, asesorías y servicios técnicas de Minería de datos específicamente la llamada
científicos y tecnológicos que brinden soluciones de alto valor minería web.
agregado, por lo que genera una gran producción científica. La minería web, puede ser clasificada en las siguientes
Para lograr estos objetivos los investigadores deben poder categorías: Minería de uso en la web, minería de la
realizar un mapeo y definir donde se está parado respecto a estructura web, minería del contenido web; la figura 2 sirve
una tecnología, para que pueda conocer qué otras tecnologías para ilustrar el enfoque propuesto.
existen en el mismo campo, lo que dará al científico una idea
acerca de qué tan innovador es lo que se está haciendo.
Por eso los autores planteamos como problema de Figura 2: Mapa conceptual de la clasificación minería Web
investigación: ¿Cómo desarrollar un sistema de vigilancia
tecnológica que facilite la labor de los investigadores? El proceso general de la minería web es el siguiente ver
figura 3:
II. MATERIALES Y MÉTODOS Recuperación de Información (IR): Proceso del
A continuación se exponen algunos fundamentos teóricos descubrimiento automático de documentos relevantes
necesarios para la mejor comprensión del trabajo realizado. de acuerdo a una cierta búsqueda. Documentos
Definición de Vigilancia Tecnológica. relevantes disponibles en la web tales como noticias
electrónicas, newsgroups, newswires, contenido de
La secuencia lógica de las acciones de observación, captación, las html, etc.
análisis, difusión selectiva y retroalimentación sobre los Extracción de Información (IE): Tiene como objetivo
hechos del entorno en las organizaciones, que integradas y transformar los documentos extraídos en el proceso
utilizadas sistemáticamente condicionan posibles cambios en de recuperación de información, en documentos que
la estrategia y en los procesos de innovación, es definida como sean más digeribles, fáciles de leer y de analizar.
Generalización: Reconocimiento de Patrones generales
TCA2013 3
de una página en particular o bien también patrones ¿Cuál es el objeto de la Vigilancia? ¿Qué debemos
de diferentes páginas. vigilar?
Análisis: Una vez que los patrones han sido ¿Qué información debemos buscar?
identificados, la parte humana juega un papel ¿Dónde encontrarla?
importante haciendo uso de herramientas adecuadas ¿De qué forma podemos difundirla?
para entender, visualizar e interpretar los patrones ¿A quién debe dirigirse?
¿Qué medios vamos a utilizar?
Figura 3: El proceso general de la minería web. Respondiendo estas interrogantes se puede definir para el
desarrollo del trabajo:
Los motores de búsqueda han tenido un éxito considerado
gracias a la enorme necesidad que tienen los usuarios de ¿Cuál es el objeto de la Vigilancia? ¿Qué debemos
indagar información no disponibles en sitios físicos y si en la vigilar?
Internet. Un motor de búsqueda tiene como objetivo indexar Se puede definir que se quiere realizar un estudio de VT
archivos almacenados en los servidores web, un ejemplo son orientado a la i+D+i, con el objetivo de realizar búsquedas de
los buscadores de Internet. El resultado de la búsqueda es un los contenidos de la web, posteriormente aplicarle técnicas de
listado de direcciones Web en los que se mencionan temas minería de contenido web para ello se utilizarán las técnicas
relacionados con las palabras clave buscadas. de:
Minería de páginas web
Basándonos en las descripciones hechas por Henzinger [11] Minería de resultados de búsqueda
podemos decir que los motores de búsqueda están integrados
básicamente por tres grandes componentes; el crawler, el ¿Qué información debemos buscar?
indexador y el query processor. La información a buscar será aquella relacionada a las líneas
de investigación del centro.
Crawler: Recorren las páginas recopilando información ¿Dónde encontrarla?
sobre los contenidos de las páginas. Recolectan La información a buscar estará dispersa en la web, tanto en
páginas de manera recursiva a partir de un conjunto la intranet como la internet. Se utilizará la minería de páginas
de links de páginas iniciales. Cuando buscamos una web y se trabajará con datos de tipo: texto libre, páginas
información en los motores, ellos consultan su base escritas en HTML o XML, elementos multimedia y cualquier
de datos, y nos la presentan clasificados por su otro tipo de contenido.
relevancia. De las webs, los buscadores pueden
almacenar desde la página de entrada, a todas las Otro enfoque metodológico lo muestran los autores Ashton,
páginas de la web. Rodríguez y Vargas Que proponen un modelo que realiza un
Indexador: el objetivo principal del indexador es resumen (ver tabla 1) de los procesos y actividades
procesar las páginas coleccionadas por el crawler. La involucrados en la Vigilancia tecnológica.
indexación proporciona agilidad en las búsquedas, lo
que se traduce en mayor rapidez a la hora de mostrar
resultados.
Query processor: procesa las consultas de los usuarios
y regresa resultados de acuerdo a esas consultas y de
acuerdo a un algoritmo de posicionamiento.
de textos, la bibliominería, etc., el empleo de Mahout con sus es muy grande, posiblemente demasiado grande para una sola
algoritmos de aprendizaje automático. Esta idea se representa máquina. Esta implementación está escrita en Java y algunas
en la figura 5. de sus partes están construidas el proyecto de computación
Nutch es un programa de código libre diseñado distribuida Hadoop. Este es una biblioteca de Java, o sea no
especialmente para realizar las tareas de robot de búsqueda, proporciona una interface de usuario, un servidor pre-
esto es, para rastrear la web recuperando las páginas que empaquetado, o un instalador. Este es un marco de
componen la red a través de la estructura de enlaces existente herramientas que pretenden ser utilizadas y adaptadas por los
entre ellas. Nutch crea una base de datos con todos los enlaces desarrolladores [13].
encontrados, al tiempo que guarda una copia de todas las
páginas localizadas y el resultado del análisis de su contenido, Algunos de los algoritmos se mencionan a continuación:
pues incorpora parsers para muchos formatos, no solamente Clasificación Agrupamiento (Clustering)
HTML. (Clasification)
Solr es el programa de código libre perteneciente al Regresión Logística Reference Reading
proyecto Apache que se ocupa de las tareas de búsqueda y Naïve Bayes Canopy Clustering
recuperación de información. Solr emplea la librería Lucene
Support Vector
para las tareas esenciales de indexación y recuperación, pero a K-Means Clustering
Machines
través de Tomcat o Jetty permite una configuración externa
Perceptron Fuzzy K-Means
integral que posibilita el desarrollo de cualquier aplicación de
Redes neuronales Expectation Maximization
búsqueda y recuperación de manera relativamente sencilla. Sin
embargo, es necesario instalar por separado Nutch y Solr, Random Forests Mean Shift Clustering
configurarlos correctamente, y posteriormente integrarlos de Restricted Boltzmann
Hierarchical Clustering
manera que las páginas obtenidas con Nutch puedan ser Machines
indexadas y recuperadas mediante Solr. Online Passive
Dirichlet Process Clustering
Aggressive
Boosting Latent Dirichlet Allocation
Hidden Markov Models Spectral Clustering
Minhash Clustering
Top Down Clustering
IV. CONCLUSIONES
Fase III Organización, Depuración y Análisis de la
Información: El trabajo realizado:
Para realizar el análisis de la información y descubrir
patrones en los datos se utilizará la minería de contenido web Presenta un estudio de los principales conceptos y
y el estudio de tendencias. Para realizar la minería del características de VT-IC.
contenido web y el estudio de tendencias se utiliza la
aplicación de la herramienta Mahout integrada al buscador Realiza un acercamiento a los fundamentos de la
que permite mediante sus algoritmos el agrupamiento y la minería de datos, profundizando en la minería web.
clasificación categorizar el contenido obtenido del proceso de
Permitirá el posterior desarrollo de un sistema de
RI.
Vigilancia Tecnológica el cual facilitará la labor
Mahout es una biblioteca de aprendizaje automático en investigativa de los académicos, para que puedan
código abierto de Apache. Los algoritmos implementados
realizan en lo fundamental las funciones de motores de encontrar los campos más fértiles para descubrir
recomendación (filtraje colaborativo), agrupamiento y material científico básico y aplicado.
clasificación. También Mahout es extensible. Mahout tiene la
finalidad de ser una herramienta de aprendizaje automático a
seleccionar cuando la colección de los datos a ser procesados
TCA2013 6
Resumen— El presente trabajo tiene como objetivos una meta. Se trata de controlar el robot para que navegue por
principales diseñar, simular y validar una Red Neuronal Artificial el entorno, evitando los obstáculos y alcanzando la meta.
(RNA) que actuará como el núcleo de decisión en la estrategia de Existen varios enfoques para intentar resolver este problema,
autoguiado de un robot móvil en entornos desconocidos. La
por un lado, se está trabajando en mejorar los métodos clásicos
estructura propuesta para la red neuronal está basada en
arquitecturas de tipo Perceptrón Multicapa (MLP) y su de planificación de trayectorias, como los grafos de
entrenamiento se realiza mediante el algoritmo Backpropagation visibilidad, los diagramas de Voroni, etc. [2]; y por otro, las
(BP). Diferentes trabajos con arquitecturas modulares neuronales investigaciones se encaminan hacia sistemas de control
señalan que éste tipo de estructura provee un control apropiado inteligentes, basados en técnicas de Inteligencia Artificial
de robots en tareas vinculadas a detección y evasión de obstáculos como son la Lógica Fuzzy [3], [4] y las Redes Neuronales [5],
y han sido frecuentemente utilizados en el mundo real. En este
[6]. Estos sistemas han permitido abocar muchos de los
trabajo se propone la adición de una entrada a la RNA no
recogida en la literatura especializada consultada. En la fase de problemas de control gracias a su capacidad de emular algunas
desarrollo se han tenido en cuenta las peculiaridades del mini características propias de los humanos.
robot móvil RICIMAF, sobre el que se implementará la red En este trabajo se pretende aprovechar la capacidad de
neuronal y por tanto se realizaron algunas aproximaciones generalización de las redes neuronales para resolver los
necesarias. problemas que se plantean en la navegación de un robot móvil
Palabras Clave — Algoritmos de Retropropagación, detección
en un ambiente desconocido. Este es un trabajo de simulación
de obstáculos, evasión de obstáculos, inteligencia artificial, para su posterior implementación en el mini robot móvil
navegación de robots, redes neuronales. RICIMAF.
El resto del artículo se organiza de la siguiente manera: en
el epígrafe II se presentan algunas características del robot
I. INTRODUCCIÓN RICIMAF, el cual constituye la razón de esta investigación; en
Paulatinamente el uso de los robots se hace más popular y el epígrafe III se modelan las peculiaridades del sistema en
en muy distintos ámbitos, llegando a tener tal impacto que estudio; en el epígrafe IV se realiza una breve introducción a
actualmente sus aplicaciones se encuentran desde el campo del las redes neuronales y se expone el proceso de diseño y
entretenimiento hasta grandes proyectos de investigación a entrenamiento de la Red Neuronal Artificial (RNA) utilizada;
nivel mundial. en el epígrafe V se explican los pasos seguidos para la
Estimaciones recogidas en la literatura especializada validación de los resultados; y en los últimos epígrafes se
afirman de que para 1995 se encontraban funcionando unos arriba a las conclusiones del trabajo y se exponen las
700,000 robots en el mundo industrializado. Más de 500,000 referencias bibliográficas.
se empleaban en Japón, unos 120,000 en Europa Occidental y
unos 60,000 en Estados Unidos [1]. Hoy en día es difícil
realizar una aproximación de tales estimados. El empleo de los II. DESCRIPCIÓN DEL “RICIMAF”
robots se ha hecho tan popular dado que son unos excelentes El mini robot móvil elegido para la posterior fase de
auxiliares en tareas con alto grado de riesgo o trabajos que implementación de los resultados alcanzados en este trabajo es
suelen ser desagradables para el ser humano. Los robots el Robot del Instituto de Cibernética, Matemática y Física
pueden realizar tareas monótonas y repetitivas durante las 24 “RICIMAF” [7].
horas sin bajar su rendimiento. Este es un robot flexible creado con fines docentes e
Uno de los retos tecnológicos más importantes en el campo investigativos, cuyo sistema de control central está basado en
de la robótica móvil lo constituye la navegación autónoma de el microcontrolador PIC16F628A. Su sistema de tracción y
robots en entornos desconocidos. Actualmente, un gran dirección al mismo tiempo, es de tipo diferencial, con una
número de investigadores centran sus estudios en el desarrollo rueda loca y dos ruedas motrices accionadas por motores de
de técnicas de control y navegación de robots. De forma paso. Básicamente el robot puede realizar tres tipos de
resumida, el problema que se plantea puede enunciarse de la movimiento: en línea recta, en arco, y rotación (vuelta sobre su
siguiente manera: un robot móvil se encuentra situado en un propio eje).
determinado ambiente, que contiene una serie de obstáculos y A este robot se le ha añadido cinco pares de sensores
TCA2012 2
Estos sensores tienen la capacidad de detectar la presencia Fig. 7: Esquema de una RNA.
de un obstáculo y medir la distancia a la que se encuentra. En
este caso, para su modelación se ha considerado que La neurona artificial fue diseñada para "emular" las
únicamente son de dos estados, de forma que si se detecta un características del funcionamiento básico de la neurona
TCA2012 4
biológica. En esencia, se aplica un conjunto de entradas a la Para la tarea de evitar obstáculos es muy común el uso de
neurona, cada una de las cuales representa una salida de otra una red neuronal del tipo Perceptrón. Algunos trabajos
neurona. Cada entrada se multiplica por su „peso‟ o interesantes se pueden revisar en [3] y [12].
ponderación correspondiente. Todas las entradas ponderadas La arquitectura del Perceptron, llamada mapeo de patrones
se suman y se determina el nivel de excitación o activación de (pattern-mapping), aprende a clasificar modelos mediante un
la neurona. aprendizaje supervisado. Los modelos que clasifica pueden ser
Las RNA aprenden de la experiencia, generalizan de vectores con valores reales y las categorías de la clasificación
ejemplos previos a ejemplos nuevos y abstraen las se expresan mediante vectores binarios.
características principales de una serie de datos. Siguiendo los criterios expresados anteriormente se
Debido a estas peculiaridades, muchos de los sistemas selecciona para el desarrollo del algoritmo de navegación del
inteligentes de generación y seguimiento de trayectorias frente robot RICIMAF un MLP (Prceptrón Multicapa), debido a que
a obstáculos de la robótica móvil en la actualidad están este tipo de redes, por sus características, son muy válidas para
basados en el uso de las RNA. resolver problemas de clasificación como el que nos ocupa. A
esto cabe añadir que presentan una arquitectura relativamente
A. Diseño de la RNA para la navegación del RICIMAF
sencilla para su implementación en el robot.
Existen numerosos trabajos dedicados a la resolución del La Fig. 8 muestra la estructura de la red empleada.
problema de la navegación de robots mediante la utilización de
RNA. Algunos de los trabajos más relevantes fueron
realizados por Ducket y Nehmzow, quienes investigaron
numerosas metodologías posibles.
Este set de datos se completa con las respuestas deseadas número posible de neuronas en una sola capa oculta. Este
para cada patrón de entrada, las cuales se elaboraron según lo criterio se adopta con la intención de minimizar el costo de
planteado en el párrafo anterior: seguir el criterio del procesamiento que tendrá lugar en la etapa de implementación
comportamiento humano. de la red sobre el mini robot móvil RICIMAF.
Después de numerosas pruebas que incluyeron variaciones
C. Desarrollo en MATLAB
en el número de neuronas en la capa oculta, la corrida con
Para la creación, entrenamiento y test de la red se utilizó la disímiles algoritmos de entrenamiento, la utilización de
toolbox Neural Networks de MATLAB, herramienta que diferentes funciones de activación tanto para las neuronas de la
dispone de una biblioteca para trabajar de forma sencilla con capa oculta como las de la capa de salida, el empleo de
redes neuronales [14]. diferentes divisiones del set de datos para entrenamiento,
El entrenamiento es llevado a cabo de forma off-line, validación y test de la RNA, el uso de varios criterios de error
debido a que se hace sobre la base de reglas fijas predefinidas a minimizar por los algoritmos de entrenamiento, entre otras,
y no será necesario reentrenarla una vez logrado el se obtuvieron los resultados finales mostrados en la Tabla I.
comportamiento deseado. Esta tabla muestra el rendimiento alcanzado en el
Para el trabajo con esta toolbox se siguió el criterio de entrenamiento, referido a los principales parámetros de interés.
alcanzar con el entrenamiento, el máximo rendimiento de la
RNA (correcta clasificación de las entradas) con el menor
TABLA I
RESULTADOS OBTENIDOS EN LA ETAPA DE ENTRENAMIENTO DE LA RNA.
Algorithm Neurons in Performance Transfer Overall
hidden layer function function accuracies
Levenberg-Marquardt 5 mse logsig/tansig 83.3 %
Bayesian Regularization 5 sse logsig/tansig 98.5 %
BFGS Quasi-Newton 5 mse tansig/tansig 69.6 %
Resilient Backpropagation 5 mse tansig/tansig 91.0 %
Scaled Conjugate Gradient 5 sse logsig/tansig 80.4 %
Conjugate Gradient with
5 sse logsig/tansig 40.5 %
Powell/Beale Restarts
Fletcher-Powell Conjugate
5 sse tansig/tansig 61.7 %
Gradient
Polak-Ribiére Conjugate
5 sse tansig/tansig 64.4 %
Gradient
One Step Secant 5 mse tansig/tansig 73.9 %
Variable Learning Rate
5 mse logsig/tansig 63.9 %
Gradient Descent
Gradient Descent with
5 mse tansig/tansig 36.4 %
Momentum
Gradient Descent 5 sse logsig/tansig 78.1 %
Como se observa en la Tabla I, el algoritmo que mostró los Primeramente se analiza la gráfica del gradiente del error.
mejores resultados fue el basado en las Reglas Bayesianas, por Como se puede observar en la Fig. 9, el gradiente disminuye
lo cual fue el utilizado para el diseño de la RNA propuesta. con el transcurso de las épocas de entrenamiento. Este es uno
Los resultados obtenidos con este algoritmo de de los comportamientos deseados durante el entrenamiento de
entrenamiento son los esperados, ya que en la literatura las RNA y uno de los objetivos del algoritmo de entrenamiento
especializada se demuestran sus bondades trabajando con sets seleccionado en este trabajo. También se aprecia que en la
de datos de pequeño tamaño y datos con poca influencia de última época del entrenamiento el valor del gradiente es
ruido, como los que generalmente provienen de las lecturas satisfactoriamente pequeño.
sensoriales. Además, es recomendado cuando los datos de
entrenamiento de entrada y salida se encuentran en el rango [-
1,1].
Ing. Yarán Manuel Ortega Corteguera. Nace el 3 de marzo de 1985 en la de dicho centro y se encuentra vinculado directamente al grupo de
provincia La Habana. Se titula como: “Ingeniero en Control Automático”, en investigación de robótica móvil. Las principales líneas de interés están
el “Instituto Superior Politécnico José Antonio Echeverría”, ubicado en La relacionadas con la navegación de robots móviles, diseño de interfaces con
Habana, Cuba, en 2010. Actualmente se encuentra cursando la “Maestría microcontroladores y programación de aplicaciones. Ha realizado
Cibernética Aplicada, Mención Control Avanzado”. Permanece trabajando publicaciones y participado en eventos, tanto de alcance nacional como
desde su graduación como ingeniero, en el Instituto de Cibernética, internacional, con trabajos vinculados a estas temáticas.
Matemática y Física (ICIMAF), donde obtiene la categoría científica de Calle 15 #551 e/ C y D, Vedado. Habana 4, Código Postal 10400. Cuba.
“Aspirante a Investigador”. Pertenece al departamento de Control Automático (537) 8320319, yaran@icimaf.cu
PROBLEMAS DE OPERACIÓN DURANTE EL ARRANQUE DE UN BLOQUE
ENERGÉTICO DE 330 MW.
Resumen:
Se describe un arranque de un bloque energético de 330 MW utilizando el software
A330 y se compara el proceso real con el modelo teórico propuesto. Se analizan las
causas de las desviaciones de los principales parámetros registrados en los gráficos
de arranque y se señalan errores humanos y dificultades técnicas que dilatan el
tiempo de puesta en servicio de la unidad y reportan sobreconsumo de combustible.
Introducción.
El proceso de arranque de una Central Termoeléctrica (CTE) agrupa diferentes
procesos de gran complejidad que juegan un papel fundamental en la explotación
confiable y eficiente de las mismas, destacándose en ello los consumos por
arranque y una maniobrabilidad acorde con las exigencias del Sistema
Electroenergético Nacional.
El software A330, elaborado para una CTE de 330 MW por parte del Centro de
Estudios de Medio Ambiente y Energía de la Universidad de Matanzas, implementa
la modelación de las normativas de operación, permite obtener los gráficos de
arranque específicos para cada estado térmico inicial de la unidad y el monitoreo del
proceso, comparando el comportamiento teórico con el real, teniendo además la
posibilidad de su ajuste durante el proceso como consejero del operador, lo que
hace posible reducir los costos de arranque, el riesgo de averías, y el sobreconsumo
de combustible.
Desarrollo.
A continuación se analiza un arranque “frío” a partir del fichero histórico de una
unidad de 330 MW con la utilización del software A330.
Este tipo de arranque obliga a que todos los venteos y drenajes en el generador de
vapor estén abiertos para permitir una evacuación de aire y condensado en las
líneas principales de vapor, estas válvulas permanecen abiertas hasta que se
alcanza 2 bar de presión en el domo cerrándose posteriormente. El vent de arranque
está situado a la salida del recalentador de alta temperatura y se mantiene abierto
garantizando un flujo de vapor por todos los intercambiadores de la caldera. Esta
condición que se mantiene hasta que exista vacío en el condensador (presión de
vacío menor de 300 mbar), que permita en este momento abrir el desvío de baja
presión (by-pass), estableciéndose el flujo a través de él y el envío del vapor al
condensador, posibilitando cerrar el vents de arranque sin que se corte la circulación
del vapor. Los desvíos de alta y baja presión (by-passes), figura 2, son de gran
importancia tanto en el proceso de arranque de la unidad, como en operación
normal. El desvío de alta presión tiene como finalidad enviar el vapor sobrecalentado
directamente a los recalentadores garantizado la circulación de vapor, en los
momentos en que las condiciones (presión y temperatura) no son las idóneas para
circular por dentro del cilindro de alta presión de la turbina. En operación normal,
asimila la sobre presión del vapor sobrecalentado, cuando la presión excede dos bar
por encima de la consigna pre ajustada.
El desvío de baja presión, evita que se expulse el vapor recalentado a la atmósfera
por el vents de arranque, en los períodos de arranques, cuando exista ya vacío en el
condensador y las condiciones del vapor (presión y temperatura) no son las idóneas
para circular por dentro del cilindro de media presión de la turbina, permitiendo
recuperar el vapor recalentado. En operación normal es el encargado de regular la
presión de vapor recalentado evacuando la sobrepresión al condensador.
Figura No. 2. Sinóptico del sistema SCADA. By-passes de alta y baja presión.
A partir del minuto 160 se incrementa el consumo de combustible llegando a 9.75 t/h
en el minuto 190 y la caldera reacciona incrementándose las pendientes de subida
de temperatura de vapor sobrecalentado y recalentado hasta valores de 2.9 y 2.53
ºC/min respectivamente siendo el valor normativo de 2ºC/min. El incremento de la
temperatura del metal del domo alcanza valores de 1.62 ºC/min.
En la figura 4 se observa el
recorrido normal del sistema
agua vapor, donde las líneas
de color verde representan el
recorrido del agua hasta el
domo y las líneas de agua de
atemperamiento, de color
amarillo se representa el vapor
y los sobrecalentadores de
baja, media y alta temperatura
(SBT, SMT y SAT), a la
derecha del gráfico tenemos la
entrada del vapor a recalentar y
los recalentadores de baja y
alta temperatura (RBT y RAT).
A partir del minuto 220 se presenta un defecto en uno de los quemadores el cual
presenta mala combustión y se procede a su cambio.
A partir del minuto 360, con el aumento del vacío, se comienza a preparar
condiciones para el rodaje de turbina.
Como se observa en la figura 3, al mejorar el vacío, aún sin dar orden de rodaje de
la turbina esta se acelera, debido a que se hace mayor la diferencia de presión entre
las válvulas de cuello y el condensador, lo que provoca que aumente la velocidad del
vapor por entre los alabes y como consecuencia, un aumento de la velocidad del
rotor de turbina desde 76 rpm en girador hasta 188 rpm.
Como se aprecia en la figura 3, en el minuto 370 con más de 500 rpm se visualiza
una señal de diferencia de temperatura entre el metal del cilindro de media y el
vapor, mayor de 50 ºC, que acciona dicha protección, la misma provoca el cierre
inmediato de las válvulas de cuello, cortando el flujo de vapor a turbina (disparo de
turbina).
Una vez alcanzada las 3600 rpm se procede a reducir la presión de vapor
recalentado para realizar la sincronización del bloque. Esto se realiza rápidamente
mediante el bypass de baja presión llegando hasta 8 bar.
Se comienza a subir la carga 185 min después de lo planificado, con una pendiente
de 3 MW/min., ajustada aproximadamente a la pendiente de rodaje, lo cual se logra
con la apertura lenta y constante de las válvulas de regulación del cilindro de media
presión de la máquina. En este arranque después de sincronizar se llegó a 37 MW
de potencia.
Al llegar a los 100 MW, se produce el cambio de combustible de fuel-oíl para crudo.
Se continúa subiendo carga a petición del despacho nacional, se revisan todos los
parámetros en cada una de las posiciones, se comprueba estabilidad en los mismos.
Finaliza el proceso de arranque en el minuto 500 cuando se logran 70 MW.
Conclusiones.
Bibliografía.
Rüdiger Franke, Bernd Weidmann. Starting the boiler. Startup optimization for steam
boilers in E.ON power plants. Boiler_Start_Up_procedures.pdf. Disponible en :
http://www.abb.com/global/scot/scot221.nsf/veritydisplay/fc7df0e90d93a0ddc1
2572b4002ffbf0/$file/operational%20experiences%20with%20startup%20opti%
20eon_pr_deabb%201333%2007_e.pdf
“CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA
INTEGRACIÓN CON EL GESTOR DE PROYECTO MAVEN Y LA HERRAMIENTA
APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB
ESPECIALIZADO.”
Elina Mylen Montero Puñales1, Armando Plasencia Salgueiro2, Ileana Suarez Blanco3
RESUMEN: El departamento de Control Automático del Instituto de Cibernética Matemática y Física (ICIMAF)
del organismo CITMA lleva a cabo el desarrollo de un proyecto no asociado a programa Proyecto PNAP
121.00000 “Algoritmos de Minería de datos para la toma de decisiones en procesos industriales con procesa-
miento paralelo (Cluster y Grid)” de la Agencia de Energía Nuclear y Tecnologías de Avanzada (AENTA). Entre
sus principales objetivos se propone el desarrollo de un software para la búsqueda de información especializa-
da en Internet. Para el desarrollo de este trabajo se han estudiado herramientas de tecnologías Apache como
son el caso de Solr, Mahout, Nutch, Hadoop, las cuales brindan funcionalidades que pueden ser optimizadas y
aprovechadas. En el proyecto no existe una plataforma de desarrollo común que permita que se configuren y
posteriormente se integren las herramientas mencionadas, por lo que nace la necesidad de definir una plata-
forma de desarrollo común. En el presente trabajo se muestra la labor realizada para lograr la instalación y con-
figuración de la plataforma Eclipse, se expone la fundamentación teórica que contiene los conceptos necesarios
para la comprensión del trabajo que se ha realizado y la ilustración de los pasos utilizados para lograr el correc-
to funcionamiento de la herramienta Apache Solr. En los resultados obtenidos se muestra la creación de un
proyecto Maven desde Eclipse con dependencias a Solr.
ABSTRACT: This report shows the work done to achieve the installation and configuration of the eclipse plat-
form, which will be managed as part of the project, as the common development platform for configuring apache
tools. It describes the theoretical foundation that contains the necessary concepts for an understanding of the
work that has been done and the illustration of the necessary steps to ensure the proper functioning of the tools.
In the results shows the creation of a Maven project from Eclipse with Solr dependencies.
5. REFERENCIAS BIBLIOGRÁFICAS
1. Mari Carmen Marcos. Entrevista a
José Ramón Pérez Agüera profesor de la
UCM [en linea]. "Hipertext.net", núm.
6, 2008. http://www.hipertext.net
Ing. Elina Mylen Montero Puñales Doctor en Ciencias Técnicas (1992). Master en Ciencias Técnicas
(1979). Master en Gestión de Información en las Organizaciones
Graduada en 2011, de ingeniería en ciencias informáticas, en la (2000) por la Universidad de La Habana y la Universidad de Murcia.
universidad de ciencias informáticas (UCI). Siendo estudiante se Ingeniero en equipos electroautomáticos de la aviación de la
desempeñó como analista en el proyecto D´TIC de la facultad 1 Academia Militar N.E. Shukovsky, de Moscú (1979). Actualmente,
de la uci. Cumplió misión internacionalista en Venezuela cursan- Investigador Agregado del Departamento de Control Automático del
do el cuarto año de la carrera desempeñándose como adminis- Instituto de Cibernética, Matemática y Física (ICIMAF) del CITMA.
tradora de redes y sistemas en un (CDI) centro de diagnóstico Jefe de los Proyectos “Algoritmos de minería de datos para la toma
integral. Trabaja actualmente en el departamento de control de decisiones en procesos industriales con procesamiento paralelo
automático del instituto de cibernética, matemática y física (ICI- (cluster y grid) y para la búsqueda especializada de contenidos en
MAF) del CITMA como reserva científica. Participó en el taller la Web” Proyecto no asociado a programa de la Agencia de
científico cibernética aplicada TCA 2011 y TCA 2012 del men- Energía Nuclear y Tecnologías de Avanzada (AENTA) y
cionado departamento como ponente. Participó en la jornada “Algoritmos de Control Automático y Modelación en Tiempo Real
científica del instituto como ponente. Participó como ponente en para Software libre”, proyecto interno del ICIMAF. Coordinador de
el congreso internacional de información Info 2012.trabaja en la la Maestría “Cibernética Aplicada” auspiciada por el ICIMAF,
actualidad en el proyecto no asociado a programa de la agencia profesor de la misma. Jefe del Departamento de Control
de energía nuclear y tecnologías de avanzada (AENTA) “algo- Automático.
ritmo de minería de datos para la toma de decisiones en proce-
sos industriales con procesamiento paralelo (cluster y grid) y
para la búsqueda especializada de contenidos en la web”. Cursa
Autores: Benavides Maldonado José, Jimmy Stalin Paladines, José Ocho Alfaro & Víctor Espinoza
Ochoa
Resumen— La finalidad del documento es añadir soluciones al En la figura 1 se puede apreciar el sistema controlado con
reconocimiento de minerales y transporte en la minería de cobre labVIEW con su respectivo sistema de PDI elaborador por
en el sur del Ecuador, utilizando herramientas que poseen alumnos de la UNL.
MATlab y labVIEW, el algoritmo desarrollado en MATlab
utiliza los principios de procesamiento de imágenes para
segmentar y filtrar las mismas, para finalmente aplicar la teoría
de redes neuro-difusas para el reconocimiento de la presencia de
cobre en una roca que se toma como modelo, es importante añadir
que gracias a un aplicación hecha en labVIEW se controla el
movimiento de una banda transportadora utilizando un bloque
PID. Para el mando a distancia se configura tanto las antenas
para el control inalámbrico, asi como el PLC -2020 de National
Instruments que es el responsable de ejecutar el bloque PID en la
banda transportadora, se eligió una correcta banda de frecuencia
para poder comunicar las dos antenas que para este caso fueron
utilizadas punto a punto. El mando del motor eléctrico utilizado
consiste en realizar el arranque, la regulación de velocidad, el
frenado, la inversión del sentido de marcha, así como el
mantenimiento del régimen de su funcionamiento, de acuerdo con Fig.1.1 Prototipo creado por estudiantes de la carrera de la UNL para
realizar prácticas de Control Automático y Sistemas Inteligentes.
las exigencias del proceso tecnológico. En el software de control
de velocidad de un motor de corriente alterna se maneja un tipo
de bases de datos, el cual es registro de variables basado en texto II. MATERIALES Y MÉTODOS
plano por medio del formato csv. Esta base de datos permitirá
almacenar las variables como hora velocidad medida, velocidad Al realizar este trabajo se aplicó el método de prueba de
establecida (set point), voltaje de salida, Temperatura 1, confirmación que se basó en la Ejecución, Pruebas y Puesta en
Temperatura 2, Temperatura 3 y por último la variable Marcha los resultados para ser ocupados en alguna aplicación
manipulada por el controlador, la cual es el voltaje de salida en concreto como en este caso para dar una solución a la
desde el Compact FieldPoint 2020 hacia el variador de frecuencia minería de cobre del sur del Ecuador. Los materiales que se
trifásico que controla el motor AC.
utilizaron son los siguientes.
Palabras Clave — UNL ( Universidad Nacional de Loja), Un variador de frecuencia es un sistema para el control de la
labVIEW, WiFi, cFP Compact FieldPoint, Variador de velocidad rotacional de un motor de corriente alterna (CA) por
Frecuencia, Sistemas Inteligentes, Redes neuronales, lógica fuzzy, medio del control de la frecuencia de alimentación
Anfis, PID, PDI, Formato CSV. suministrada al motor de la marca Sinamigs G110 de Siemens.
Un cFP Compact FieldPoint 2020, en los cuales se ocupan los
I. INTRODUCCIÓN módulos de Cuadratura NI cFP-QUAD-510 que recibe la señal
El procesamiento digital de las imágenes es de gran utilidad del encoder trabajando con el principio de número de pulsos
en la automatización de control de procesos, debido a que se por revolución máxima revolución 5000 rpm, NI cFP-TC-120,
puede develar y analizar características que otros procesos más 2 Ubiquiti Nanostation 2, 3 Termocupla tipo K, 1 Breaker
sencillos no podrían, gran cantidad de imágenes en menor trifásico 30 A, 1 Tomacorriente, Polea aluminio 16", Banda
tiempo y extraer información relevante para mejorar procesos tipo, 1 Enchufe, Cable sólido #10, Cable flexible # 14, 1
de producción, esto es apoyado con el control de velocidad en cámara de NI, un banco diseñado por estudiantes para poder
lazo cerrado de un motor trifásico de inducción Jaula de adquirir la imágenes de las piedra.
Ardilla con centro de operación remoto desde una PC, es
importante recalcar que este proyecto está funcionando en la
UNL, en el laboratorio de Automatización y Control, donde
los estudiantes de carreras como Ingeniería Electromecánica,
Electrónica, Ordenamiento Territorial y Sistemas pueden
acceder a profundizar prácticas que luego podrán ser puestas Para la parte de PDI las piedras.
en uso en la industria minera de cobre del sur de Ecuador.
TCA2012 2
Para entrenar el FIS se escoje el metodo hybrid, error de Fig. Esquema de la instalación con labVIEW
tolerancia 0 y epoca 30, dandonos un error de 0.31, si
tuvieramos un error alto, nos indicaria que el conjunto de datos En la Fig.2.11 se muestra la sección de código fuente que se
extraidos no serian la mejor opcion, Figura 2.9 encarga de la sincronización con el dispositivo de adquisición
de datos y de la lectura de sus entradas analógicas para
posteriormente ser analizada y mostrada en el panel
frontal.Para leer las entradas analógicas del dispositivo de
adquisición de datos primeramente se debe especificar el
dispositivo a utilizarse así como también los canales a
utilizarse. En el caso del presente proyecto estamos utilizando
el dispositivo denominado FP @ 172_16_10_10 y los canales
Fig.2.9 Gráfica del entrenamiento analógicos a utilizarse son los siguientes: cFP-TC-120
(Todos), cFP-QUAD-510 (Canal de velocidad 0). También
Por otro lado la función evalfis de MATlab permite evaluar debemos especificar el rango de las variables a adquirir, así
los datos extraídos de diferentes piedras analizadas haciendo como también el rango de voltaje para dichas variables. Cabe
uso del Sistema de Inferencia Neuro-Difuso llamado recalcar que estas configuraciones se las debe realizar fuera
TCA2012 4
Análisis de la planta No use líneas verticales en la tabla. Los planteamientos que sirven para
toda la tabla no necesitan letras de pie de nota.
En la tabla I se muestran las variables de entrada y salida
tanto para la planta como para el controlador. Las tareas de
En la figura 2.14 se describirán las funciones de
este modelo es identificar el modelo para el grupo Variador de
transferencia con sus respectivas interacciones de entrada y
frecuencia-Motor-Banda transportadora que describa el F
salida (que fueron desarrolladas con la herramienta dei
comportamiento real del sistema instalado. Simular, en lazo
LabVIEW): g
abierto, el modelo acondicionado mediante los parámetros
.
reales para la evaluación del comportamiento estático y 1
dinámico de las siguientes variables: velocidad de rotación del .
motor, velocidad lineal de la banda, peso del elemento que A
transporta la banda y la frecuencia de motor. Determinar los m
p
parámetros del controlador que permita regular las variables l
dentro de las especificaciones deseadas. Simular el sistema i
completo: controlador, actuadores, planta, sensores; como t
parte de un sistema en lazo cerrado, los que se muestran en la u
d
tabla III Fig.2.14 Estructura del modelo MIMO del sistema
d
El esquema de control se seleccionará en función de lase
respuestas pertenecientes a las variantes de la ley de controllc
PID, sintonizadas mediante el método Ziegler-Nichols en lazoo
cerrado (método de las oscilaciones mantenidas) y en lazom
abierto (método de la curva de reacción), así también se p
l
e
j
o
TCA2012 5
AGRADECIMIENTOS
Les agradecemos a la UNL, por las facilidades prestadas
para realizar este documento.
REFERENCIAS
[1] Jordi Mayné, 2003. Sensores, acondicionadores y procesadores de señal.
Ciudad de México, México. Nº 2 (60 pag.).
[2] Companioni, A. (2000). La programación en Matlab. La Habana-Cuba.
Enlaces Electrónicos.
[5] www.ni.com/download.
1. Introducción.
1
2. Materiales y métodos.
2
red neuronal y regresión estadística respectivamente, para lo cual se aplica un
muestreo aleatorio simple.
3
no está en servicio; a partir de las definiciones anteriores se propone que la función
objetivo a minimizar es la siguiente:
4
Figura 2. Interface del software Optimización APA.
5
Tabla 4. Resultado de la optimización de los parámetros de diseño de la RNA.
Consumo de corriente Posición del variador de velocidad
Coeficientes Bomba Bomba
Bomba 1 Bomba 1 Bomba 2 Bomba 3
2 3
LR 0.004 0.006 0.005 0.005 0.006 0.005
CM 0.9 0.9 0.3 0.5 0.9 0.3
Nn 2 1 3 2 3 3
Imax 250000 180000 325000 50000 150000 125000
Una vez obtenidos los parámetros estructurales y de entrenamiento óptimos para la red
neuronal se entrena la misma con dichos parámetros obtenidos y posteriormente se
obtienen los valores de los pesos y los umbrales para su simulación.
Figura 3. Error RMS de cada modelo para Figura 4. Error RMS de cada modelo para
el consumo de corriente. la posición del variador de Velocidad.
3.4. Precisión del modelo combinado
Para validar el uso del modelo combinado se utilizan tres combinaciones de trabajo de
las bombas de alimentar para una hora de explotación y se determina el error relativo
máximo y RMS entre los valores predichos por los modelos y la medición real obtenida
del sistema SCADA. En la tabla 5 se muestran los resultados obtenidos del error
relativo máximo y RMS para las variables: consumo de corriente y porciento de apertura
del variador de velocidades, demostrándose que los errores de predicción de dichos
modelos son menores de un 3 %, justificándose así su validez para la modelación de
dichas variables.
6
Tabla 5. Error relativo máximo y RMS del modelo combinado frente a mediciones
reales.
Consumo de Corriente [A] Posición del Variador de Velocidad [%]
Error [%]
Bomba 1 Bomba 2 Bomba 3 Bomba 1 Bomba 2 Bomba 3
Relativo Max. 0.33 2.09 1.24 0.21 1.01 2.23
RMS 0.09 1.75 0.83 0.21 1.01 0.66
7
de vista las plantas más ineficientes del país son las que dejan de generar dicha
energía ahorrando combustible, por tanto, teniendo en cuenta que el consumo
específico de combustible promedio del SEN es de 270 g/kWh, se estima que el ahorro
de combustible para la combinación de las bombas 1-3 es de 46,98 kg/h y para las
bombas 2-3 representa 100,71 kg/h. Conociendo que el precio promedio para el año
2012 del petróleo crudo nacional es de 450.38 USD/t, se puede estimar un costo
aproximado de 21.15 USD/h y 45.35 USD/h para las bombas 1-3 y 2-3
respectivamente. Asumiendo que el ahorro para dichas combinaciones de bombas se
mantiene aproximadamente con un comportamiento como el anterior se puede asumir
un ahorro de 152280 USD/año y 326520 USD/año durante el trabajo de las bombas 1-3
y 2-3 respectivamente.
Conociendo que se ahorra aproximadamente 338.26 t/año de petróleo crudo nacional
para la combinación de las bombas 1-3 y 725.12 t/año para la combinación 2-3, se
puede realizar un análisis de impacto ambiental haciendo uso del Software Inventario
de Emisión y Absorción de Gases de Efecto Invernadero basado en las Guías
Revisadas del Panel Intergubernamental del 2006, pudiendo cuantificar de esta manera
que cantidad de gases contaminantes se deja de emitir a la atmósfera. Según el
software mencionado anteriormente este analiza los principales gases contaminantes
de la atmósfera, entre los cuales tenemos del Dióxido de Carbono (CO2), Metano (CH4),
Óxido Nitroso (N2O), Óxidos de Nitrógeno (NOx), Compuestos Volátiles Diferentes del
Metano (COVDM), Dióxido de Azufre (SO2) y Monóxido de Carbono (CO). En la tabla 8
se muestran los resultados del cálculo ambiental para las bombas 1-3 y 2-3. Para
ambos casos los gases contaminantes de mayor predominio son: el CO 2 y el SO2, este
último debido al alto contenido de azufre que posee el crudo nacional.
Conclusiones.
La aplicación del diseño de experimento para los datos iniciales permite obtener un
nuevo conjunto de datos con una disminución de su dispersión físicamente significativa
y por consiguiente el nivel de ruido que pudiera influir sobre el ajuste de los modelos es
relativamente bajo.
8
Utilizando los modelos matemáticos de regresión estadística y red neuronal se obtienen
las características energéticas actuales de cada bomba de alimentar caldera con un
buen nivel precisión.
El uso del modelo combinado permite obtener una respuesta de las variables
modeladas con un error de predicción cuantiosamente menor que el obtenido por los
modelos de red neuronal y regresión estadística para todos los puntos del conjunto de
comprobación, demostrándose la precisión del modelo combinado frente a un nuevo
conjunto de valores.
Se logra alcanzar una mayor eficiencia en la operación de las bombas de alimentar
mejorando el indicador de eficiencia de la central térmica.
El Software que puede ser utilizado en cualquier Central Termoeléctrica que trabaje con
dos bombas de alimentar en paralelo, teniendo en cuenta la necesidad de actualizar los
modelos.
Referencias.
9
SISTEMA DE MONITOREO Y CONTROL EN TIEMPO REAL PARA UN
HORNO
1 Instituto de Cibernética Matemática y Física (ICIMAF), Cuba, frank@icimaf.cu, 116 Acosta % Heredia y Saco Apto 2, La
Víbora.
RESUMEN: El presente artículo trae una propuesta de cómo utilizar el sistema operativo de tiempo
real RTAI para crear herramientas de control de sistemas en tiempo real duro. A través del RTAI se ha
logrado crear un sistema operativo con el cual se puede acceder al planificador del micro y darle la
máxima prioridad a una aplicación de control consiguiendo que todos los recursos de la computadora
estén en función de esta. Para comprobar este proceso se ha desarrollado un software basado en tec-
nologías libres propuesto para el monitoreo y control en tiempo real de un horno.
A modo de resumen en el presente trabajo se describe como se ha concebido el sistema operativo con
el RTAI incluido y como se ha hecho uso del mismo a través de un software para el control de un hor-
no. Al final se dan los resultados que comprueban que el software de control del horno trabaja en
tiempo real duro. Esto puede ser una solución viable para la enseñanza en institutos de nuestro país
donde se hace imposible adquirir instrumentación como controladores lógicos programables que rea-
lizan esta tarea y que son muy caros en el mercado actual. Por otra parte continúa labrando la senda
de trabajos con propuestas de sistemas en tiempo real con el uso del software libre, esto es una rama
muy importante en disciplinas como el control automático, la computación, la cibernética y otros.
ABSTRACT: This paper presents a proposal of how to use the real-time operating system RTAI to
create tools to control hard real-time systems. Through RTAI has managed to create an operating sys-
tem with which you can access the micro planner and give top priority to an application by getting con-
trol all computer resources are based on this. To check this process has developed software based on
free technologies proposed for monitoring and real-time control of an oven.
To summarize, in the present work has been described how we get an operating system designed with
the RTAI and how we use it through software to control a furnace. In the end the results are given that
show that the oven control software works in real time drive. This may be a viable solution for teaching
in institutes of our country where it is impossible to acquire instrumentation as programmable logic
controllers that perform this task and they are very expensive in today's market. Moreover trail contin-
ues working the jobs proposed real-time systems with the use of free software, this is a very important
branch in disciplines such as automatic control, computer science, cybernetics and other.
KeyWords: RTAI (Real Time Application Interface), hard real-time system, application to control.
Partiendo de esta premisa, las tareas efectuadas por el sistema de control, deben ser ejecutadas en
“tiempo real” y deben reaccionar a eventos externos que también ocurren en “tiempo real”. Entonces
un sistema en tiempo real debe brindar la posibilidad de tener control del tiempo en que se deben ejecu-
tar las tareas.
En las ramas del Control Automático son diversos los escenarios donde los sistemas de control distri-
buido necesitan operar bajo condiciones de tiempo real duro (conocido en inglés como Hard Real Ti-
me), esto implica requerimientos críticos en su comportamiento temporal. Un ejemplo de esto son los
Controladores Lógicos Programables (PLC por su sigla en inglés) y los Sistemas de Diseño de Control
Asistido por Computadoras (CACSD por sus siglas en inglés). Por su parte los CACSD como Matlab,
Scilab o Scicoslab son softwares creados para diseñar sistemas de control y trabajan en su mayoría so-
bre sistemas operativos convencionales lo que llega solo a ofrecer características de tiempo real blando
(conocido en inglés como Soft Real Time).[2]
Para de alguna forma compensar problemas como el del tiempo real duro para los CACSD, en el mer-
cado existe una gran variedad de sistemas operativos que sirven para esto. Entre ellos, se destacan
RTLinux, ADEOS, QNX entre otros. Una característica que define a la mayoría de estos softwares es
que son propietarios por lo que el uso y la explotación de los mismos se hace limitado.
Ante esta situación la comunidad del software libre ha venido trabajando durante varios años y ha des-
arrollado herramientas libres que permiten el trabajo en tiempo real. Estos softwares se basan en tecno-
logías libres y pueden ser usados sin costo alguno y entre ellos se encuentra RTAI –LAB que se integra
con otros softwares CACSD para lograr tiempo real duro.
En el caso de los PLC según el profesor Ing. Norberto Molinari [3]: “Se entiende por Controlador
Lógico Programable (PLC), o Autómata Programable, a toda máquina electrónica, diseñada para con-
trolar en tiempo real y en medio industrial procesos secuenciales”. Entonces a modo de resumen los
PLC son instrumentos que controlan procesos principalmente en las industrias y lo hacen en tiempo
real.
En el presente trabajo se expone el software de control HornoSysRT, como una nueva propuesta de
implementación de un PLC, manteniendo la premisa que tienen estos de trabajar con tiempo real duro y
para ello se definió como proceso de control un horno. Dicho software se ha desarrollado sobre la base
del conocimiento adquirido en investigaciones previas donde se hace uso de RTAI para conseguir
tiempo real duro. Este es un sistema operativo libre y que permite realizar tareas en tiempo real del cual
se tienen resultados satisfactorios en la utilización con softwares CACSD.
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
II. METODOLOGÍA
RTAI (Real Time Application Interface).
Con el objetivo de realizar los procesos de control en tiempo real tal y como lo hacen los PLC, en la
presente investigación se utilizó RTAI. Esta interfaz es una extensión del kernel estándar de Linux des-
arrollado por el Departamento de Ingeniería Aeroespacial del Politécnico de Milán (DIAPM), Italia.
RTAI le atribuye al sistema propiedades de tiempo real, o sea asume dicho kernel como si fuera una
tarea más de tiempo real asignándole una baja prioridad. Las operaciones básicas de este tipo de tareas
son implementadas como módulos del núcleo. RTAI maneja las interrupciones de periféricos y si éstas
no requieren servicios de tiempo real pasan a ser atendidas por el kernel.
Primero debe abrirse una consola o Terminal y entrar como root, primero teclea:
su
y luego entra la contraseña de administrador.
Luego se deben instalar las dependencias necesarias para la compilación del kernel ejecutando la si-
guiente línea en la Terminal:
apt-get install build-essential crash kexec-tools makedumpfile kernel-wedge kernel-package
Una vez concluido este primer paso, se prosigue con la instalación de otros paquetes necesarios para la
compilación.
apt-get install libncurses5 libncurses5-dev libelf-dev asciidoc binutils-dev
Para continuar con el proceso de instalación del kernel, se debe descargar la fuente del último kernel
estable (en este caso se utilizó v2.6.32.46) y el parche de RTAI correspondiente a la versión de dicho
kernel. No importa que los últimos números difieran, estos están asociados a las actualizaciones reali-
zadas para dicha distribución.
El paso siguiente es crear una careta dentro de la ruta /usr/src para la compilación del kernel, ubicarse
en él y descargar las fuentes del kernel y colocar el parche de RTAI también. El kernel de Linux y el
parche de RTAI constituyen ficheros extensión “.tar.bz2” y “.patch.gz” respectivamente, estos se des-
comprimen y dentro de la carpeta que se crea del kernel de linux se copia el fichero “.patch” que se
4
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
5
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
III. RESULTADOS
Una vez compilado el RTAI se procedió a la construcción del software de control HornoSysRT el cual
tal y como muestra la figura 1 cuenta con los siguientes módulos:
- Gestión de usuarios.
- Monitoreo y control de parámetros internos.
- Monitoreo de parámetros externos.
Reportes de ensayos.
La programación del sistema fue desarrollada empleando filosofía orientada a objetos, lo que hace una
diferencia notable con los tradicionales sistemas enfocados al control, que por sus características de
hardware necesitan que la programación sea realizada al más bajo nivel posible. Esto posibilita dar un
salto en el proceso de reutilización de código y funciones, contribuye a la estructuración de este tipo de
sistemas de manera modular y posibilita la sustitución de un PLC comercial por una PC de propósito
general.
La aplicación propuesta presenta una interfaz cómoda, diseñada con el objetivo de que el operario en-
cargado de la explotación del horno introduzca de forma manual la menor cantidad de parámetros. Está
acompañada de ayudas contextuales en todas sus áreas permitiendo así una interacción dinámica con el
usuario.
Obsérvese en la figura 2 la interfaz de monitoreo de los parámetros externos humedad relativa y tempe-
ratura externa. Cada uno de estos parámetros tiene un rango dentro del cual deben estar para que se
pueda trabajar con el horno. Esta es la primera interfaz que se visualiza cuando se comienza el proceso
de control, si estos parámetros están fuera de rango no se puede pasar al control interno del horno.
6
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
En la figura 3 se muestra la interfaz de monitoreo y control de los parámetros internos los cueles son
humedad y temperatura. Como ya en esta interfaz se incluye no solo el monitoreo sino también el con-
trol pues es aquí donde se ejecutan los ensayos con el horno. Para un ensayo se establece su tiempo de
duración y se decide el tipo de control a realizar, manual o automático. En el control manual el operario
es el que le suministra las perturbaciones a las variables controladas y establece las mismas en los valo-
res deseados. En el segundo caso el operario establece el valor de referencia del parámetro controlado
más el error del mismo.
En la figura 4 se puede observar un ejemplo de un ensayo que se realizó a través de un control auto-
mático, durante un minuto para mantener el horno a 30 grados Celsius y una humedad interna del 30%,
ambos parámetros con una banda de histéresis de 6.
7
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
IV. CONCLUSIONES
Con la investigación realizada se ha conseguido construir todo un sistema que permite monitorear y
controlar en tiempo real un horno prototipo. Esto ha posibilitado sentar las bases desde el punto de vista
de conocimiento sobre el trabajo de plataformas de código abierto aplicadas al control automático, sir-
viendo como punto de partida para próximas investigaciones en esta esfera.
La filosofía desarrollada tiene un impacto muy positivo y es aplicable en pequeñas y medianas empre-
sas, centros de investigación y universidades donde el desarrollo y aplicación del control automático
sean eje fundamental. Con esta solución se evita la compra de equipamiento y patentes. Sustituye el
tradicional empleo se sistemas PLC comerciales, evitando todos los inconvenientes que estos acarrean,
desde el punto de vista de su programación interna, costo y dependencia al hardware para el que viene
concebido, convirtiendo una PC de propósito general en un sistema que permite realizar más tareas, y
el registro de las mismas en sistemas de bases de datos.
V. REFERENCIAS BIBLIOGRÁFICAS
1. Erik Marichal Arbona1, Ronald Ugas Lago, Alberto Aguado Behar, Rafael F. Tanda
Martínez: " Simulación en tiempo real de un regulador difuso utilizando herramientas de software
libre.", Instituto de Cibernética Matemática y Física, Reporte de investigación, Ciudad de La Habana,
2011.
2. Erik Marichal Arbona, Ronald Ugas Lago, Alberto Aguado Behar, Rafael F. Tanda Martí-
nez. “Simulación de reguladores PID Auto-Ajustables e identificación de sistemas a lazo cerrado en
tiempo real duro mediante el empleo de la herramienta RTAI-LAB.” Reporte de investigación, Instituto
de Cibernética Matemática y Física, Ciudad de la Habana, 2009.
3. Norberto Molinari. “Curso sobre Controladores Lógicos Programables (PLC).” Instituto Supe-
8
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”
9
TCA2012 1
Resumen— El crecimiento del universo digital supera la La práctica ha demostrado que no es posible conservar todo
capacidad de almacenamiento disponible, este fenómeno lo que se crea en materia de ceros y unos. Los discos duros por
afecta muchas ramas de la Ciencia, dada la necesidad de sí solos y otros medios de almacenamiento por muy grandes
almacenar enormes cantidades de datos. La utilización del que sean en materia de capacidad, no son suficientes por sí
Almacenamiento Distribuido es una solución viable y solos y han surgido nuevas tecnologías que combinan
económica que ha adquirido popularidad en los últimos años. hardware y software para persistir los datos.
Los discos duros, las computadoras, la red y las aplicaciones
que forman parte del sistema pueden colapsar con mayor Entre las existentes, se encuentran los sistemas de tipo
probabilidad en un entorno no controlado y el principal reto es Redundant Array of Independent Disks (RAID), que dispone
garantizar la escalabilidad y tolerancia a fallos que posibiliten de varios discos duros para formar una única unidad lógica de
una alta disponibilidad. Utilizando las Redes de Petri almacenamiento y que combinados con redes de interconexión
Coloreadas, CPN Tools y basado en el software Hadoop se especializadas dieron lugar a las Storage Area Network (SAN).
obtiene una representación de un Sistema de Almacenamiento Los precios de los componentes de una SAN son elevados al
Distribuido. Se evalúa el comportamiento y se comparan compararlos con el hardware de las computadoras personales
diferentes alternativas de configuración para seleccionar la (PCs por sus siglas en inglés) y los dispositivos típicos de una
más adecuada. Mediante el modelado y simulación, se prueban red local. Por este motivo principalmente, varias instituciones
alteraciones al modelo y el estudio de futuras modificaciones de países del tercer mundo y en vías de desarrollo no cuentan
antes de implementarlas y validarlas. con el dinero suficiente para adquirir esta tecnología.
Palabras Clave — Hadoop, modelado, simulación, Sistema de Una alternativa mucho más económica que está tomando
Almacenamiento Distribuido, Redes de Petri Coloreadas. auge, luego del impacto global de las redes de computadoras,
consiste en utilizar el espacio disponible de las PCs
I. INTRODUCCIÓN (conectadas a través de la red) para almacenar los datos. De
Desde los inicios de la evolución del hombre, la humanidad esta forma surgen los Sistemas de Almacenamiento
ha reconocido el valor de la información y la importancia de Distribuido (SAD) [3]. Los SAD no son más que un grupo de
hacerla perdurable en el tiempo. Para ello, se comenzaron a computadoras conectadas entre sí con el fin de almacenar, de
utilizar numerosas formas para almacenar y conservar de manera transparente a los usuarios, archivos de cualquier
forma segura lo que representara datos y conocimiento. Se índole en el espacio libre de los equipos. Brindando la
tallaron las paredes y las piedras, luego se escribe en el papel y posibilidad de obtener acceso mediante la red a archivos
así se fueron perfeccionando los mecanismos hasta la era almacenados en nodos remotos, con un desempeño y fiabilidad
digital, en la que se comenzaron a utilizar los circuitos casi del mismo modo que si fueran locales.
electrónicos para el almacenamiento.
A continuación se mencionan las principales características
El mundo de la informática enfrenta una eminente que deben tener los SAD para lograr un buen desempeño. Lo
preocupación con el crecimiento acelerado del universo primero es la disponibilidad, ya que el sistema debe ser capaz
digital. Estudios realizados [1] revelan que en los últimos años de responder a las peticiones de los usuarios en todo momento.
la información digital ha crecido 10 veces más y la cantidad de Sin embargo, los disco duros fallan, las estaciones de trabajos
información supera en gran medida a los medios de se rompen, las redes sufren pérdida de conectividad y las
almacenamiento disponibles. Las consecuencias de la gran aplicaciones se detienen. Por lo tanto, la tolerancia a fallas
demanda de almacenamiento son disímiles y se incrementan debe incorporarse para gestionar estas fallas y mantener la
cada año debido a: la complejidad de las investigaciones disponibilidad de los datos. Una manera de enfrentar las fallas
científicas [2], el aumento de la resolución de cámaras es haciendo réplicas, varias estrategias de replicación existen
digitales, grabaciones de cámaras de vigilancia, conversión de para replicar los datos en distintos nodos del sistema. De esta
materiales a formato digital, teléfonos móviles con avanzados manera, si algún nodo falla se puedan recuperar los datos a
servicios multimedia y los sistemas de televisión digital partir de las réplicas que existen en otros nodos. Por último, el
quetoman auge en los países desarrollados, por solo citar sistema debe cumplir con la escalabilidad para poder
algunos ejemplos. aumentar su capacidad de almacenamiento agregando nuevos
equipos sin que afecte su rendimiento.
TCA2012 2
El lenguaje de programación funcional CPN ML [15] [16], El Client Node es el encargado de mandar a crear en el
es una extensión del Standard ML, permite programar las Name Node un nuevo registro para el almacenamiento de un
TCA2012 3
archivo mediante el llamado de la función create(). En ese determinados Data Nodes que realicen copias de los bloques a
instante se realiza la creación en el Name Node de un espacio otros para completar el número de réplicas necesarias.
para el fichero pero sin ningún bloque de datos asociado. El
Name Node realiza varias comprobaciones para asegurarse de Cuando las réplicas se han copiado satisfactoriamente en
que el archivo no existe, si es así, se hace un registro del nuevo todos los Data Nodes, entonces se procede a registrar un
archivo, de lo contrario, la creación de archivos fallará y el nuevo paquete y así hasta que todos los paquetes de cada
cliente se le notifica la existencia del mismo. archivo sean replicados tantas veces como el factor de
replicación indique. Luego se cierra el fichero en el Name
Node y se le envía al usuario un mensaje que notifica que su
archivo fue almacenado satisfactoriamente.
III. RESULTADOS Y DISCUSIÓN del SAD. Todas las solicitudes pasan a la Red y en
dependencia del destino, una vez en la Red las consume el
En esta sección se presenta el diseño del SAD usando las Data Node o el Name Node.
RdPC y la herramienta CPN Tools. Este diseño se realizó de
forma jerárquica y a partir de la página principal “Top” (ver Una vez dentro de la página Write, se pueden observar los
Figura 2) se fueron desarrollando las sub-páginas que procesos explicados anteriormente como son crear un espacio
representan los procesos que se realizan en el sistema. Solo se en el Name Node, inicializar las colas, de los paquetes y de los
mostrarán algunas páginas de un total de 48. ACK, dividir un fichero en paquetes, y el proceso de consumir
los paquetes y enviarlos a los Data Nodes. Todos estos
procesos tienen sus subpáginas donde se implementan.
[11] http://www.informatik.uni-hamburg.de/TGI/PetriNets/
TCA2012 1
RESUMEN: Se presenta un sistema para el control automático de un dispensador robótico de líquidos, utiliza-
do en la producción de radiofármacos encapsulados, destinados al diagnóstico y al tratamiento de diversas
enfermedades. Se emplea un microcontrolador que gobierna el dispensador robótico mediante algoritmos de
control secuencial y se comunica con un nivel superior de control a través de un bus RS-485. En una compu-
tadora corre un supervisor que permite planificar la producción en función de las necesidades de cada paciente,
así como configurar y diagnosticar el sistema. Debido a que el dispensador trabaja en un área con peligro ra-
dioactivo, se diseñó y fabricó toda la instrumentación para que trabajara fuera de esta área, quedando solo el
accionamiento y los sensores en el área más peligrosa, facilitando así la reparación y el mantenimiento del sis-
tema. También se incluyeron un conjunto de algoritmos de diagnóstico para minimizar las afectaciones en los
actuadores y extender la vida útil del equipo. Este sistema permite crear productos con la calidad y el formato
adecuado para ser exportados al mercado internacional, mejora la protección radiológica e incrementa la efecti-
vidad del medicamento.
ABSTRACT: The present paper presents a system for the automatic control of a robotic dispenser of radio-
pharmaceuticals capsules used in the diagnosis and treatment of diverse illnesses. It is used a microcontroller,
that controls the robotic dispenser by means of sequential control algorithms and it communicates with a superi-
or level of control through a bus RS-485. In a computer run a supervisor program that allows planning the pro-
duction in function of each patient's necessities, as well to configure and to diagnose the system. Because the
dispenser works in an area with radio-active danger, your instrumentation it was designed and it manufactured
for worked outside of this area, being alone the working and the sensors in the most dangerous area, facilitating
this way the repair and the maintenance of the system. They were also included a group of diagnosis algorithms
to minimize the affectations in the actuators and to extend the lifetime of the team. This system allow create
products with appropriate quality and format to be exported to the international market, it improves the radiologi-
cal protection and it increases the effectiveness of the medication.
1. INTRO
ODUCCIÓN recu peración de eeste sistema de control fue imposi-
ble y tampoco pudo adquirirse e a la empresaa produc-
La administra ación oral dee radiofármac cos se puede e tora, por estar de scontinuado.
realizar en fo
orma líquida o en cápsulas. En la actua--
lidad el métoodo predominante en todo el mundo es s Por lo anterior, teniendo en cuenta el e excelente
la cápsula, debido a su us notables ventajas
v (verr estad do técnico de
e los equipos y que el costto de uno
ffigura 1), lo que
q obliga a utilizar esta forma
f de pre-- nuevvo, para el trabajo en a ambiente rad dioactivo,
ssentación si se
s quiere exp portar a otro mercado.
m oscilla alrededor d
de 50’000 US SD, se decidióó diseñar
un nnuevo sistema a de control en función d de los re-
La cápsula también pos sibilita un mejor proceso o querrimientos deffinidos por e el CENTIS. Esto se
productivo, pudiéndose
p auutomatizar es ste si las pro-- desaarrolló por esspecialistas d
del Departam mento de
dducciones so on lo suficienttemente grandes, en parti-- Conttrol Automáttico del Insttituto de Cib bernética,
ccular las cáp psulas para diagnóstico.
d Las
L cápsulas s Mateemática y Físsica (ICIMAF F) en un prooyecto de
para terapia se pueden ha acer una a una, a pedido. I+D++i financiado por la Agenccia de Enegía a Nuclear
En ambos ca asos es neces sario un sistemma de control y Te ecnologías d de Avanzada a (AENTA) y por el
aautomático queq permita diseñar la producción en n CENNTIS.
ffunción de la demanda y garantice
g la dosis
d necesa--
ria para cadaa paciente. 2. MÉTODOS
S Y HERRAM
MIENTAS
Debiido a la natu uraleza del p proceso se emplearon
maq uinas de estado para im mplementar e el control
secu uencial y la coomunicación.. Cada tarea se desa-
rrolló
ó definiendo las variable es participan
ntes, sus
posib bles valores y los estadoss de interés, incluyen-
do a aquellos que pudieran com mprometer la a produc-
ción,, el equipo o lla salud del o
operador.
Para a el desarrolloo del supervisor se estab bleció co-
mo g guía la metoddología del P Proceso Unificcado Ra-
ciona al (RUP). Estte es un procceso de desa arrollo de
softwware dirigido por casos de e uso y centraado en la
arquuitectura.
Fig. 1 Forrmas de admin
nistración ora
al de El firrmware del mmicrocontrolad dor se programó en C,
radiofárma
acos emp leando el co ompilador PIC C-C 4.106 en el am-
En nuestro país,
p estos medicamentos se producen n bientte de trabajo del MPLAB 8.46. Este co ompilador
een forma líquida en el Centro
C de Isó
ótopos (CEN-- ofrecce un conjuntto de biblioteccas para los mmicrocon-
TTIS), y en la actualidad ses desarrolla una línea de e trola dores PIC, qque facilitan lla programacción y re-
producción ded cápsulas donde
d se empleará el sis-- duce en el tiempo dde desarrollo. La simulació ón de las
ttema presenttado en este trabajo. Esto o permitirá la
a interf
rfaces se reaalizó en Prote eus 7.7SP2, integrán-
eexportación y por tanto la entrada de e importantes s dolo al MPLAB p para permitir la comproba ación del
ingresos al paaís por este concepto.
c circuuito y del códdigo en un m mismo ambiente. Este
ento rno cuenta con instrume entos virtuale
es como
Para la prod ducción de ra adiofármacos en cápsulas s oscilloscopios, an nalizadores lógicos, ana alizadores
ees necesario diluir y dispe ensar con altta precisión y de la a comunicacción serie, ettc; y depurad dores de
eexactitud peq queñas cantidades de so oluciones ra-- códig go muy poten ntes. [1]
ddiactivas, del orden de microlitros.
m Estas operacio--
nes deben realizarse en determinada as posiciones s El su upervisor se desarrolló en n QtCreator 1.0.0. Es
dde la pequeñ ña área ocup pada por la capsula
c y conn un ID DE completam mente integra ado para el ddesarrollo
un mínimo de error, lo cu ual es indispensable para a de pproyectos bassados en las librerías Qt mediante
qque el conten nido radioactivo no pueda a degradar su u el le
enguaje C++. Está dispon nible para pla
ataformas
eenvoltura. Poor lo que es necesario dis sponer de un n Wind dows, Mac O OS X y Linuxx. Provee me ediante el
ddilutor-dispen
nsador de altaa precisión. uso de dichas lib brerías portab bilidad para e
el código
en la as diferentess plataformass, es decir, e el mismo
El CENTIS ya y cuenta co on dos equipo os con estas s códig go se puede compilar sin realizar cambios para
ccaracterística
as, modelo TECAN RSP-5 505, los cua-- los diferentes sistemas ope erativos. Ofreece gran
les fueron adquiridos de segunda ma ano pero sin n cant idad de librerrías además de los están ndares de
usar. Estos poseían
p un sistema
s de coontrol basadoo C++ y una noved dosa concepcción para la p programa-
een un microc controlador Z80
Z enlazadoo por RS-232 2 ción guiada por e eventos en a ambientes vissuales. El
ccon una com mputadora, do onde corría un n software dee man ual de usuario y la ayuda a del sistema se desa-
ssupervisión y control en n ambiente MS-DOS.
M La
a rrolla
aron en Help& &Manual 4.
TCA201
12 3
Mediante la creación de puertos serie e virtuales in-- porta
an el líquido, y que provo
ocarían el blo
oqueo de
tterconectados, empleando o Virtual Serrial Ports Dri-- este sistema.
vver XP (VSPD), se verificó ó la comunicaación entre el
ddiseño en Proteus y el supervisor,
s y por tanto el
ffuncionamien nto de todo el sistema. En este paso se e
ddetectaron laa mayoría de los problema as y se corri--
ggieron.
Los esquemas y el diseño de fabric cación de las s
ttarjetas se realizaron en Protel
P 99SE. La
L fabricación n
sse realizó totalmente en el
e ICIMAF porr el equipo de e
ttrabajo.
3
3. DISPENSADOR ROBÓTICO
R TECAN
T
El dispensad dor TECAN RSP-505
R es una
u mesa de e
ccoordenadas que puede trabajar en los s planos X, Y
Fig. 3 Jeringas y émbolos de lo
os dosificadorres A y B.
y Z, y que po osee un brazo
o móvil con estos tres gra--
ddos de liberta
ad. [2] La ssalida de cada a jeringa se cconecta a unna válvula
de 3 vías que perrmite seleccio onar entre el conducto
del rrecipiente quee contiene el agua emplea ada en la
cebaa y limpieza del sistema, y el de la p punta dis-
penssadora que trransporta el rradiofármaco.. La posi-
ción de esta válvula se modifica mediante un motor
de ccorriente direccta con reducctor y un dete
ector ópti-
co. AAsí es posib ble combinar la acción de e los dos
dosifficadores en las funcione es de carga//descarga
de la
as jeringas y lla limpieza de
e los conductoos.
4. EL SISTEM
MA DE CON
NTROL.
El diiseño del sisttema de conttrol se realizó
ó en base
a loss requerimienntos técnicos definidos porr el CEN-
TIS para este pro oceso producctivo y según n las nor-
mas y procedimie entos para ell trabajo con radiacio-
nes ionizantes. Esto incluye:
Fig. 2 Dis
spensador rob
bótico TECAN RSP-505. 1. E
El gobierno de e los motoress de paso que e mueven
e
el brazo en los 3 ejes, las jeringas dosificadoras
El brazo móvil está equipado con un n detector de e
y las válvulas para la dosifiicación y el laavado del
nivel y una punta dispensadora con nectada a un n
s istema.
bloque de do osificación qu ue controla laa cantidad de e
2. D
Detección del nivel y de un n conjunto de e irregula-
medicamento o que se va a administrar.
ri dades en conndiciones de operación.
Los movimien ntos, en los planos
p X, Y y Z, son accio-- 3. In
ntegrarse a u un bus de com municacioness RS-485
nados por 3 motores
m de paso, lográndo ose una reso-- h alf dúplex qu e ya existe enn la instalació
ón.
lución de 0.15mm, 0.13m mm y 0.1mm m respectiva-- 4. P
Permitir la inte
errupción del proceso, si ffuese ne-
mente. Es po osible detecta ar la posición inicial de los
s c esario, y registrarse la missma.
eejes X y Y, mediante se ensores óptic cos. El eje Z Sistema robussto pero de un costo ba
5. S ajo, cuya
ccuenta con un detector de e nivel en la punta
p dispen-- re
eparación req quiera de un n acceso mín nimo a la
ssadora y ese e mismo sens sor es capaz de identificarr zoona expuesta a a la radioacctividad.
la posición inicial del recorrrido. 6. E
El volumen a dosificar se a ajustará a la actividad
Los módulos dosificadores s A y B, pose een dos jerin-- ra
adiológica de el líquido, meedida antes d de la pro-
ggas de 2.5 mlm y 1 ml de capacidad
c tota
al, cuyos ém-- d ucción de lass cápsulas m mediante un d dosímetro
bolos se ac coplan a sistemas de accionamiento
a o coon comunicacción RS-232.
idénticos. Esstos están fo ormados por un reductorr
mecánico gobernado por un motor de paso, capaz z 4.2 Circuitos e
electrónicos de contro
ol
dde entregar dosis
d del orde
en de microlitrros. Para
a satisfacer e
estos requerimientos se d diseñaron
TTambién cue entan con do os detectores s ópticos que e un cconjunto de ccircuitos elecctrónicos que incluyen
puede emple earse para identificar la ob bstrucción dee un mmicrocontrolador como elemento princcipal. Del
la jeringa o de
d algunos de e los conductos que trans-- esquuema electrónico original se pudieron n aprove-
charr solamente lo
os motores, llos detectorees ópticos
TCA201
12 4
y el detectorr de nivel con n su circuito acondiciona-- y pu uede trabaja ar a 20MHz. Incluye tam mbién un
miento. Trannsmisor-Rece eptor Sincróniico y Asincró ónico Uni-
Con este nue evo diseño, la
a mayor parte de los circui-- versa al (EUSART)), 3 temporiza adores, dos m modulado-
ttos electrónic
cos se ubicann en la zona protegida del res d de ancho de e pulso (PWM) y 10 con nversores
áárea de prod ducción, donnde es posible cambiar o analó ógicos-digitalles (ADC) de e 10 bits, en ntre otros
reparar una tarjeta sin es star expuestoos a residuos
s perifféricos de inte
erés para nueestra aplicacióón.
dde radioactivvidad. Solo ses mantienen dentro del Se a adquirieron 2 pequeñas fuentes con nmutadas
ddispensador robótico TEC CAN los mottores, los de-- (“sw itching”) de a alimentación, una de 15V V/2A y la
ttectores de fin de carrera y el detector de
d nivel. otra de 30V/4A, q que se energ gizan con un rango de
El TECAN re equiere la ma anipulación de
d 29 salidass tens ión entre 110 0 y 230VAC. E En la interfazz principal
ddigitales, la lectura de 11
1 entradas digitales y 7 se aadicionó un re egulador de 5V/1A para ccubrir las
eentradas ana alógicas, danddo un total de
e 48 entradas
s neceesidades del microcontrola ador y los cirrcuitos de
y salidas (ve er tabla 1). Esta cantidad d supera las
s comu unicación.
ddisponibles ene cualquier microcontrolador de en-- Se d diseñó una ta arjeta controladora que incluye al
ccapsulado DIIP, el cual es el que mejorr se adapta a micro ocontrolador y a las inte erfaces de comunica-
nuestras posibilidades tecnológicas. ción,, y 5 tarjetas de acondicioonamiento de e señales.
Estaa últimas son idénticas y cu ubren las neccesidades
Tabla 1 Entradas y salidas neces
sarias.
de ppotencia y dessacople galvá ánico de los ejes X, Y
Entradas Salidas y Z, y de los dossificadores A y B. Par ello utilizan
Elemento
os a Controlar Digi- Analó-
A Digita- transsistores mosffet canal N (233A/50V, 0.06Ω).
tales gicas
g les
Comunicación RS
R 485 1 2
Comunicación RS
R 232 2 2
Motores de paso 12
XYZ
Sensores ópticos 2
Medición de
e corriente 2
Motores de corriente directa
a 2
Válv.
Sensores ópticos 2
Fuentes de 30V
V y 15V 2
Jumper de configuración 1
Pulsador de Parrada de Emergen ncia 1
Zumbador 1
Leds Bicolor 2
12 7 29
TO
OTAL
48
TTodas se inseertan en un ra
ack de alumin
nio, dentro dee Los comandos fu undamentaless, que se mue estran en
un armario de pequeñas
p dimensiones s la ta bla 2, permita
an gobernar y configurar eel sistema
(300x130x210mm) con IP65. En este ta ambién están n desd de una comp putadora que actúa como amo del
las fuentes, dos
d ventiladorres que hacenn circular aire
e bus. En esta corrre un programa que perm mite esta-
por los disipadores, los fusibles
f y las
s regletas de e bleceer los paráme etros del procceso productivo, como
cconexión. son: cantidad de e cápsulas, ssus coordena adas y la
cant idad de radioofármaco a de epositar en ca
ada una.
Tabla 2 Principales comandos.
C
Co-
Ac
cción
ma
ando
* Solicituud de identificaciión
# Cambiaa modo de trabajo
A Solicitaa estado de funcionamiento del siistema
T Solicitaa posición en cadda plano y de vállvulas
W Dosificaa cápsula
K Mezcla líquidos en áreaa de recarga
I Solicitaa corriente de mootores
H Mueve la punta a una cooordenada
Z Mueve la punta a una cáápsula
C Configuura comunicacióón
Configuura posición de rreposo y limpiezza y
N
tiempo de espera sin acttividad
Fig. 6 Circuitos
C de control
c en el armario.
a V Configuura tiempo de paaso de cada motoor
B Configuura datos de la baandeja activa
Del armario salen varios conductores apantallados s ! Transmmite y recibe datoos por RS232
hacia la zona a con peligro
o radiológico, atravesando
o
una pared de e plomo y otrra de aluminioo que confor-- Paraa garantizar la
a medición de e la actividad del líqui-
ma un recin nto estanco que
q contiene
e al TECAN. do sse incluyó la comunicació ón RS-232C a 5 hilos
T
Todo a una distancia de e aproximada amente 2.5m. con un MAX232 [5], y median nte el bus RS-485 se
Otros conduc ctores viajan hacia la coomputadora y envía an tramas quue contienen los comandos propios
hacia la línea
a de alimentacción de 220VAAC. dosímetro. El microcontrola
del d ador sirve de pasarela
entree el dosímetrro y la PC, evvitando el usoo de con-
4
4.3 Comun
nicación verso ores dentro d
del área radioactiva.
Para la comu unicación con
n el nivel supperior de con-- Se eestablecieron 5 modos de trabajo que e el usuario
ttrol se utiliza un bus RS-4 485 half dúpllex, al cual el pued de seleccionaar, estos sonn: dosificaciónn, limpie-
microcontrola ador se acopla mediante e un circuito o za, ddiagnóstico, cconfiguración y dosímetro o. Otros 4
MAX485 [4]. Se utiliza un na velocidad ded comunica-- mod os son mod dificados solo
o por la máq quina de
cción entre 9.6 y 38.4 KBPS, con 1 biit de inicio, 8 estad dos y se info
orman al usua ario, estos soon: recar-
bits de datos, uno de para ada y los dato os en formato o ga, rreposo, mezccla y parada.
AASCII. Se diseñaron las tramas de comunicación
c n
aacorde a los s requerimienntos del sisteema y en la a 4.4 Detección y diagnósttico de fallo
os.
puesta punto o se le asigna
a a la interfaz un identifica-- Dada as las condicciones de ope
eración y la n
necesidad
ddor único dentro del bus. Se creo una a máquina de e de mminimizar lass roturas denntro de la cá ámara de
eestados para el análisis de e las tramas y la detección n fabri cación, se diiseñaron un cconjunto prottecciones
dde errores de e comunicaciión, y se indiica en un led d y méétodos de dettección y diaggnóstico de ffallos que
bicolor estos sucesos. inclu
uyen la medicción de la corrriente que ciircula por
Si la trama no n se conform ma correctam mente, con el cadaa campo de lo os motores d
de paso, la coomproba-
TCA201
12 6
cción del movimiento de lo os émbolos de e las jeringas
s visorr, y se obtuvvieron los modelos de ca asos de
y la medición n de la tensiión de las fu
uentes de ali-- uso, de análisis,, de diseño, de despliegue, de
mentación. imple ementación y de prueba [7 7][8].
El incrementto de la corrriente que circula por las s El m
modelo de cassos de uso p principal de laa aplica-
bobinas de un motor de pa aso puede inddicar su dete-- ción de supervisió ón se muestraa en la figura 7. Este,
rioro y la nec
cesidad de caambiarlo, así como que su u requuiere de la accción del acttor Operador,, el cual
ttemperatura está excedie endo las cond diciones ópti-- será el responsable de la inte eracción con el siste-
mas de opera ación. Reconocer este prooblema puede e ma d de tal forma que se obte engan los ressultados
eevitar que see afecte un lo
ote de medica amentos y se e espe erados. Los ccasos de uso más importan ntes son
pierda el material radioacctivo. Con estte mismo fin n abrirr, crear y guaardar un proyyecto, editar volúme-
sse comprueb ba si existen pérdidas de e pasos cada a nes d de las cápsullas, además dde los relacio
onados a
vvez que el sistema regres sa a la posicción inicial de
e la crreación de la bandeja, la vverificación y el envió
un eje. de loos datos al miicrocontroladoor
La detección de movimien nto de los émb bolos permitee
cconocer si ses está dispe ensando correctamente el
medicamento o y si no existen obstruc cciones en el
cconducto porr donde circula el líquido. De igual for--
ma puede em mplearse parra verificar loss motores de e
paso del bloqque dosificado
or.
Estas rutinass de diagnóstico se realiz zan continua--
mente en cad da paso de cada
c motor, se
s indica me--
ddiante leds cualquier situa
ación anorma al y se envían n
aal supervisor cuando este lo solicita.
4
4.5 Planific
cación de trayectorias
s.
La trayectoria
a del brazo ro obótico será planificada
p en
n
eel nivel superrior de controol y será enviaada a la inter--
ffaz mediante e una secuen ncia de coma andos con la a
ddosis corresppondiente a cada
c cápsula. Mediante un n
ssistema de control
c secue encial que re ecibe los co--
mandos del nivel
n superiorr, los interpretta y los alma-- Fig. 8 Mode
elo de casos d
de uso princip
pal.
ccena en una a cola, es po osible describ bir complejas s Se rrealizaron pru uebas de ca aja blanca y de caja
ttrayectorias sin
s retrasos o esperas prroducto de la a negrra, primero con el apoyo de la simula ación en
ccomunicación n [6]. Proteeus y el VSPD XP, y po osteriormente e con el
El microcontrrolador, mediiante una má áquina de es-- siste
ema real. Tod das se planificaron para M Microsoft
ttados y los datos
d de la bandeja almacenados en n Winddows XP, que e es la platafforma que em mplea el
EEPROM, ejjecutará cada acción ne ecesaria para a CEN NTIS actualme ente; pero se
e planificarán también
aalcanzar cad da destino de efinido en los comandos. paraa GNU/Linux.
Para ello debbe realizar toddos los movim mientos por el El re
esultado es u un supervisorr compuesto por tres
plano X-Y co on la punta dispensadora
d a una alturaa mód ulos, especia alizados en actividades e específi-
ssuficiente para no colision nar con la bandeja y bajarr cas, pero que ccomparten da atos y recurrsos del
hasta la capssula a dispen nsar. Una vez z que se aca-- siste
ema.
be el materiaal contenido en e la punta o este no sea a
ssuficiente para la siguientte cápsula, de eberá mover-- El mmódulo de pla anificación dee la producción es el
sse al área de
e recarga, llen nar la punta co on el material más utilizado y pe ermite al operrador crear un
n proyec-
necesario y continuar
c el trabajo. to qu
ue especifica la bandeja a utilizar y la dosis para
cadaa cápsula, así como medirr la actividad radiológi-
En la tarea de recarga se s emplea el detector de e ca d e un volumen n conocido de e producto. C
Con estos
nivel para sumergir la puntap dispenssadora en la a dato s se calcula la equivalencia volumen/acctividad y
ssolución radiioactiva y ab bsorber el prroducto. Pero o el vo
olumen de líq quido a dosifficar en cada capsula.
ttambién es muy
m importantte no sumergirla más de lo o Postteriormente y de forma auttomatizada, sse optimi-
necesario. za ell recorrido deel brazo robótico.
TTambién se definieron ta areas de limp pieza de con-- Paraa iniciar el trabajo se espeera la orden ddel opera-
dductos y de la punta, al iniciar y al co oncluir la pro-- dor y se verifica qque la bandeja definida en la tarjeta
dducción. contrroladora sea la correcta, ssino se transffieren los
4
4.6 Superv
visor. dato s de esta. Po osteriormentee se le envíaan las do-
sis p
por cada cáp psula en la se ecuencia ópttima para
Siguiendo la metodología RUP se dise
eñó el super-
come enzar la dosifficación.
TCA201
12 7
Fig. 9 Mód
dulo de planific
cación de la producción.
p
De igual formma se registran los datos del operador y
ttodas las variables de inteerés, siguienddo las normass F ig. 11 Módulo
o de configura
ación y diagnó
óstico.
eestablecidas por las “bue enas prácticas de produc--
Med iante este módulo se con nfigura y se vverifica la
cción”.
comu unicación co on la interfaz, se configguran los
El segundo módulo
m solo se
s emplea para especificarr tiemppos de paso óptimos para a los motoress, las co-
las caracteríssticas de la bandeja, como o cantidad dee rrien
ntes máximass, las coorden nadas de repposo y de
ffilas y de coolumnas, dista ancia entre ellas,
e coorde-- limpiieza, etc. Possee una pesttaña para caada modo
nada inicial, coordenada
c Z de movimien nto y de dosi-- de trrabajo y en ella las accioones y la infformación
fficación, coorrdenada de recarga,
r etc. Una vez que e dispoonible en ese
e modo.
eestá definida se guarda en un archivo para su pos--
tterior empleoo en el módulo o anterior. 5. CONCLUS
SIONES
El coontrol automá ático está prresente en la a mayoría
de loos procesos p productivos dde nuestros días. Pero
tienee especial ap plicación en á áreas peligroosas para
la saalud del hom mbre y en aquellas que la a pueden
favorrecer. En nue estro trabajo abordamos e estos dos
sectoores, la prod ducción de m medicamentos y el tra-
bajo con producto os radioactivo
os.
Tuvimmos especia al cuidado en n verificar el funciona-
mien nto de nuestro o diseño y paara ello hay qque resal-
tar la
a gran importtancia de los simuladores y depu-
radoores de códig go, los cualess nos permitieron de-
tectaar la mayoría de los errore es antes de fa abricar el
diseñño.
Los simuladores también noss ayudaron a al diseño
del ccontrol secue encial, a optim
mizar las máq quinas de
estad do y la comu unicación, a p prever un con njunto de
posibbles fallos y a implementar mecanism mos para
su de etección, diag gnóstico y repparación.
Fig. 10 Módulo
M para el diseño de la bandeja. Se d destaca que un microconttrolador de gama me-
dia ees capaz de e gobernar esste equipo, ssiguiendo
El tercer móddulo es utiliza
ado fundame entalmente en n una secuencia de operación diseñada en un nivel
la puesta a punto,
p la repa
aración y el mantenimiento
m o supe erior de contro ol, obteniéndoose un sistemma robus-
ddel sistema. Este permite e configurar su funciona-- to pe ero muy eco onómico y so ostenible en nuestras
miento y realizar diversas tareas de diaagnóstico, porr cond diciones.
lo que se deebe permitir ele acceso solo o al personal
ccapacitado. Peroo sobre todo,, se creó una a línea de prroducción
de rradiofármacoss encapsulad dos que debe reducir
nota blemente loss efectos seccundarios y lo os conta-
mina antes asociados a estoss medicamen ntos, así
como o facilitar su p
producción y su exportació ón.
TCA2012 8
INTRODUCCIÓN:
Las técnicas de Minería de Datos intentan obtener patrones o modelos a partir de
los datos recopilados. Se clasifican en dos grandes categorías: supervisadas (o
predictivas) y no supervisadas (o descriptivas).
1
El modelado predictivo es el proceso mediante el cual se crea un modelo para
predecir un resultado. Si el resultado es categórico se llama clasificación y si el
resultado es numérico se llama regresión. (Toronto University, 2011)
2
estima en qué medida el Modelo creado por el algoritmo es adecuado para clasificar
ese tipo de datos. Si la clasificación se considera suficientemente certera, se asume
que se ha obtenido un Modelo Validado y por tanto se estima que dicho Modelo
(Conjunto de reglas) es capaz de generar “artificialmente” un Conjunto de datos de
testeo que sea una reproducción suficientemente fiel del Conjunto de datos de
entrenamiento. (Corso, C., 2008), (Hernández, J. & Ferri, C., 2006)
Árboles de Decisión
Los árboles de decisión representan funciones lógicas (if-then). Por medio de
Aprendizaje Automático se infiere un Árbol de Decisión a partir de un conjunto de
instancias o ejemplos. El algoritmo “J48” de Weka utiliza un método heurístico para
inferir el árbol, donde se realiza la selección del atributo en cada nivel del árbol en
función de la calidad de la división que produce. (Kohavi, R. & Quinlan, J. R., 2002).
El árbol de decisión crea un modelo basado en una estructura de árbol. Los nodos
en el árbol representan características, cuyas ramas representan valores con
características posiblemente relacionadas. Una hoja representa la clase que termina
en una serie de nodos y ramas. Para determinar la clase de una instancia se rastrea
la ruta de los nodos y las ramas para la hoja terminal. (Kohavi, R. & Quinlan, J. R.,
2002).
El árbol de Decisión que genera el algoritmo “J48” se basa en la teoría del Grano de
Información (Grain theory) donde la bifurcación en cada nodo busca la mayor
ganancia de información, y se generan reglas de decisión que son fáciles de
interpretar. (Kohavi, R. & Quinlan, J. R., 2002).
DESARROLLO:
Según los resultados docentes de una muestra de 180 estudiantes; clasificados
cualitativamente como alto, medio o bajo; en siete asignaturas durante la enseñanza
secundaria y preuniversitaria con sus respectivos resultados posteriores en tres
diferentes ramas universitarias, se aplicó el algoritmo de Clasificación “J48” y se
3
obtuvo un árbol de decisión que permite pronosticar cuáles serían los resultados
universitarios esperados para un estudiante de acuerdo con los resultados docentes
en las etapas secundaria y preuniversitaria. Además, dicho árbol permite determinar
cuáles de las siete asignaturas valoradas para la enseñanza secundaria y
preuniversitaria influyeron decisivamente en el rendimiento académico de las tres
especialidades consideradas y cuál sería relación lógica operacional entre las
asignaturas en función del resultado previsto. Este pronóstico sería útil para estimar
en qué rama universitaria se podría esperar un mejor el rendimiento para un
estudiante de acuerdo con sus resultados docentes históricos y de este modo
aportar elementos que le ayuden a decidir qué carrera escoger.
Ciencias Ciencias
Matemática Español Física Química Historia Geografía Biología Humanidades
Exactas Biológicas
Alto Medio Bajo Alto Bajo Alto Medio Medio - -
Medio Bajo Alto Medio Alto Medio Bajo - Medio -
Bajo Alto Medio Bajo Medio Bajo Alto - - Alto
Alto Bajo Alto Alto Bajo Alto Medio Alto - -
Alto Bajo Medio Medio Alto Medio Bajo - Alto -
Alto Bajo Bajo Alto Medio Bajo Bajo - - Bajo
Medio Alto Alto Medio Bajo Alto Medio Alto - -
Medio Alto Medio Bajo Alto Medio Bajo - Alto -
Medio Alto Bajo Alto Medio Bajo Alto - - Alto
Bajo Alto Bajo Medio Bajo Alto Medio Bajo - -
Figura 2. Fragmento con 10 casos tomados de la tabla original de 180 alumnos (Cada fila horizontal
contiene los resultados de un estudiante). (Elaboración propia)
Este análisis sería válido para cualquier caso similar donde se evalúen ciertos
“factores” (en lugar de asignaturas) que permitan pronosticar como consecuencia
los valores de ciertos “parámetros” y comprender qué “factores” inciden
directamente sobre los valores de dichos “parámetros” y estimar si existe alguna
relación lógica entre ellos.
Factor 1 Factor 2 Factor 3 Factor 4 Factor 5 Factor 6 Factor 7 Parámetro 1 Parámetro 2 Parámetro 3
Alto Medio Bajo Alto Bajo Alto Medio Medio - -
Medio Bajo Alto Medio Alto Medio Bajo - Medio -
Bajo Alto Medio Bajo Medio Bajo Alto - - Alto
Alto Bajo Alto Alto Bajo Alto Medio Alto - -
Alto Bajo Medio Medio Alto Medio Bajo - Alto -
Alto Bajo Bajo Alto Medio Bajo Bajo - - Bajo
Medio Alto Alto Medio Bajo Alto Medio Alto - -
Medio Alto Medio Bajo Alto Medio Bajo - Alto -
Medio Alto Bajo Alto Medio Bajo Alto - - Alto
Bajo Alto Bajo Medio Bajo Alto Medio Bajo - -
Figura 3. Tabla hipotética con la incidencia de siete factores sobre tres parámetros a considerar.
(Elaboración propia)
4
CIENCIAS EXACTAS
Figura 4. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Ciencias Exactas”. (Elaboración propia)
5
mal clasificadas, mientras que las que fueron bien clasificadas se denotan por
cruces.
Las Instancias mal clasificadas son aquellos valores cuyo pronóstico fue erróneo,
donde el modelo no pudo predecir el valor esperado. En términos prácticos se trata
de resultados docentes en la rama universitaria que divergen de lo pronosticado.
Figura 5. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Ciencias Exactas”.
(Elaboración propia)
El árbol se compone de un nodo raíz (Física para este caso) de donde se derivan
tres variantes: “Alto”, “Medio” o “Bajo”, etc. Si las notas de Física fueron altas se
pasa al nodo: Español. Si las calificaciones de Español fueron medias, entonces se
pasa al nodo: Matemática. Si en esta asignatura las notas fueron altas, se
pronostica que el estudiante obtendrá notas altas en la rama de Ciencias Exactas.
De forma análogas ocurre en todo el árbol, siempre de arriba hacia abajo, partiendo
del nodo raíz.
6
HUMANIDADES
Figura 6. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Humanidades”. (Elaboración propia)
7
Figura 7. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Humanidades”.
(Elaboración propia)
El árbol se compone de un nodo raíz (Historia para este caso) de donde se derivan
tres variantes: “Alto”, “Medio” o “Bajo”, etc. Análogamente al caso anterior, si las
notas de Historia fueron altas se pasa al nodo: Español. Si las calificaciones de esta
asignatura fueron medias, entonces se pasa al nodo: Matemática. Si en esta
asignatura las notas fueron altas, se pronostica que el estudiante obtendrá notas
altas en la rama de Humanidades. De forma similar ocurre en todo el árbol.
8
CIENCIAS BIOLÓGICAS
Figura 8. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Ciencias Biológicas”. (Elaboración propia)
9
Figura 9. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Ciencias Biológicas”.
(Elaboración propia)
CONCLUSIONES
Para el caso analizado, el algoritmo “J48” de Weka pronosticó con una exactitud
superior al 90 % el rendimiento académico de los estudiantes analizados basándose
en el rendimiento docente previo. Se pudo apreciar que de las 7 asignaturas
consideradas hubo 5 con influencia decisiva para el pronóstico: Matemática,
Español, Historia, Física y Biología.
Como se explicó previamente, este trabajo es aplicable al Control de Procesos y a
cualquier caso en el cual se evalúe la probable influencia de varios factores sobre
ciertos resultados.
BIBLIOGRAFÍA
Basulto, M. (2013). Descubrimiento de conocimiento sobre accidentes de tránsito en
una base de datos concerniente a las afectaciones a la infraestructura de las
telecomunicaciones en “ETECSA” Tesis en opción al grado de Master en
Cibernética Aplicada, Mención Minería de Datos. ICIMAF.
Basulto, M. (2011). La aplicación de Técnicas de Minería de Datos para extraer
Información de la base de datos: Hechos No Delictivos de ETECSA en el 2010.
Tesina para el para el Diplomado Aplicaciones de la Minería de Datos. ICIMAF.
Britos, P. (2008). Procesos de explotación de información basados en sistemas
inteligentes. Universidad Nacional de La Plata, Argentina
Corso, C. (2008). Aplicación de algoritmos de clasificación supervisada usando
Weka. Universidad Tecnológica Nacional, Facultad Regional Córdoba. Argentina
Kohavi, R. & Quinlan, J. R. (2002). Decision-tree discovery. Handbook of Data
Mining and Knowledge Discovery, pp. 267-276, Oxford University Press.
Toronto University. (2010).
http://chemeng.utoronto.ca/~datamining/dmc/data_mining_map.htm (Consultado:
febrero 2011).
10
TCA2013 1
SELECCIÓN DE UN SIMULADOR DE
PROGRAMAS PARA PLC EN UNA
PLATAFORMA DE RÁPIDO DESARROLLO DE
PROTOTIPOS.
Autores: Armando Plasencia Salgueiro, Frank Pacareu de la Cruz
Resumen— Los sistemas empotrados, en particular los Para llevar a cabo el correcto intercambio de información
programadores lógicos programables (PLC) están jugando un entre las distintas partes que integran un sistema automatizado
papel cada vez más importante en la ingeniería de control. Sin son necesarios una serie de interfaces o líneas de
embargo, independientemente de su popularidad, debido a sus comunicación.
limitaciones de recursos en ocasiones se hace difícil el construir
con ellos sistemas de control complejos. Para la comprensión de
estos sistemas se expone la concepción teórica de los PLC, su
estructura de hardware y los diferentes software de desarrollo de
programas para PLC. Una de las etapas fundamentales en el
diseño del controlador lo constituye la etapa de simulación. Se
expone entonces una plataforma de desarrollo basada en una PC
de propósito general con Sistema Operativo Linux-RTAI para la
cual se seleccionó, después de un análisis de varias herramientas
de simulación mediante una metodología de marco jerárquico, la
herramienta de código abierto Scilab/Scicos.
Palabras Clave — Simulador de programas PLC. Scilab/Scicos Figura 1. Esquema general de un sistema automatizado
[Reyes.; 2004]
Concepto gráfico
TCA2013 4
empresas con una alta cualificación en sistemas de lógica sigue las mismas pautas. Cada operación es representada por
cableada podrían ser fácilmente formados y adaptados a los un símbolo normalizado. Un conjunto de operaciones que
nuevos sistemas de lógica programable, permitiendo a las llevan a cabo una función específica se pueden agrupar
empresas abaratar la transición hacia un nuevo modelo de formando una subrutina o bloque el cual pasa a tener un
automatización de procesos. símbolo asociado que puede ser empleado en otro segmento de
programa tantas veces como se quiera. Sólo es necesario
seguir unas pautas sintácticas y semánticas a la hora de
construir los diagramas.
Lista de instrucciones
El lenguaje de lista de instrucciones (Instruction List -IL-) es
el lenguaje de programación de PLCs más potente de los que
existe. Es un lenguaje literal de bajo nivel parecido al lenguaje
ensamblador empleado para la programación de Figura 10. Diagrama de bloques funcionales [Reyes.; 2004]
microcontroladores.
Es un lenguaje cuyo origen está en Alemania de la mano de Texto estructurado
Siemens y sus primeros autómatas. Este lenguaje se basa en la El texto estructurado (Structured Text -ST-) es un lenguaje
utilización de un mnemónico que representa la instrucción literal de alto nivel que surge de adaptar el lenguaje Pascal
seguido del operando u operandos sobre los que se aplica. El empleado en la programación de PCs a las necesidades propias
resultado de la operación puede ser almacenado sobre uno de del control de procesos.
los operandos o sobre alguno de los registros o la pila que Es un lenguaje muy potente especialmente indicado para la
emplea el equipo. Cada línea del programa contiene una única representación de algoritmos de control complejos en los que
instrucción y su ejecución es secuencial comenzando por la sea necesario emplear bucles, condicionales, etc.
primera de la lista. Todos los programas escritos en cualquiera
de los otros lenguajes puede ser finalmente traducido a IL
Metodología de diseño.
Tradicionalmente, el ciclo de desarrollo de un sistema de
control consiste en dos pasos principales: el diseño del
controlador y su implementación. Estos dos pasos están
frecuentemente separados. Como se muestra en la figura 16, en
donde se representa el llamado modelo V. Mientras que el
diseño del controlador es realizado por usualmente por
ingenieros de control, su implementación es realizada por
ingenieros de sistemas (software). En el primer paso, el
ingeniero de control modela los procesos físicos utilizando las
ecuaciones matemáticas. De acuerdo con las especificaciones
de los requisitos, es donde los ingenieros de control diseñan
Figura 13. Lenguajes de programación [Reyes.; 2004] los algoritmos de control. Los parámetros de los algoritmos de
control son determinados frecuentemente mediante
DISEÑO DE LOS SISTEMAS DE CONTROL simulaciones extensivas para alcanzar el mejor funcionamiento
EMPOTRADOS. posible. LA herramienta más ampliamente utilizada en este
Como los sistemas de control crecen en complejidad y paso es Matlab/Simulink que incluye la realización de la
funcionalidad, se hace imposible en muchos casos utilizar modelación, la síntesis y la simulación de los sistemas de
controladores analógicos. Por ello la mayoría de los control. En los sistemas de control de tiempo real, los procesos
controladores son digitales y están implementados con físicos son usualmente modelados como sistemas analógicos
computadoras. La introducción de las computadoras en los mientras que los algoritmos de control son discretizados para
lazos de control tiene muchas ventajas. Por ejemplo, se hace favorecer su implementación digital. En el segundo paso, los
posible ejecutar algoritmos avanzados con cálculos ingenieros de software desarrollan los programas que ejecutan
complicados en un entorno de GUI amigable. La estructura los algoritmos de control con los parámetros obtenidos del
TCA2013 8
control y el desarrollo del programa de control se propone una automático del ICIMAF. Reporte de Investigación.
plataforma de Hardware basada en una PC de propósito ICIMAF 2011.
general que soporta el Sistema Operativo de tiempo real
RTAI-Linux y aplicando la metodología de marco jerárquico Armando Plasencia Salgueiro. Nacido en La Habana el 3 de
se selecciona el software, después de estudiados varios marzo del 1956. Graduado de especialista aeronáutico y M. Sc. en
Ciencias Técnicas en la Academia Militar N.E. Shukovsky de
software de simulación de programas de PLC, en donde esta
Moscú, Rusia en 1979. Doctor en Ciencias Técnicas por el
plataforma debe de desarrollar la etapa de simulación. Este Instituto Técnico Militar de Ciudad de La Habana, en 1990. M.
software fue el software libre Scilab/Scicos. Sc. en Gestión de Información en las Organizaciones en la UH
(2000). Se desempeñó como tecnólogo de aviación (1990),
Director fundador del Laboratorio de Investigación de Informática
REFERENCIAS
y Automatización (USIA) hasta el 2000 en la Empresa de
1. Reyes.; Autómatas programables. Departamento de Reparación de Aviación “Yuri Gagarin”. Jefe del laboratorio de
recopilación y análisis de datos de vuelo (Control Objetivo) de
Ingeniería de sistemas y automática. Universidad de Cubana de Aviación del 2002 al 2006. Profesor de la Maestría en
Oviedo. 2004 Gestión de Información en las Organizaciones, Cátedra UNESCO,
2. Nikoukaran, J., A hierarchical framework for de la Universidad de La Habana del 2002 al 2010. Investigador y
Jefe del Departamento de Control Automático del Instituto de
evaluating simulation software. Simulation Practice Cibernética, Matemática y Física (ICIMAF) del CITMA. Profesor
and Theory. 1999 y Coordinador de la Maestría “Cibernética Aplicada” del propio
ICIMAF. Jefe de los proyectos del PNCIT “Minería de Datos para
3. Ma L. et al., Integrated Design and Implementation of las mediciones industriales” (ya concluido), “Algoritmos de
Embedded Control Systems with Scilab. 2008 Minería de datos para la toma de decisiones en procesos
industriales con procesamiento paralelo (Cluster y Grid) y la
Accesado en http://www.mdpi.org/sensors/papers búsqueda especializada de contenidos en la Web” (Proyecto no
/s8095501.pdf. asociado de la Agencia de Energía Nuclear y Tecnologías de
4. Susta, R. LOW COST SIMULATION OF PLC Avanzada) y “Algoritmos de Control Automático y Modelación
en Tiempo Real para Software libre” (Proyecto institucional).
PROGRAMS. Department of Control Engineering, Centra sus intereses de investigación en el Diagnóstico y la
Faculty of Electrical Engineering, Prague. 2004 fiabilidad de sistemas técnicos, los Sistemas de Seguridad de los
Vuelos, las Tecnologías de la información y las Comunicaciones,
5. Plasencia A. Control en tiempo real con software libre. la Minería de Datos, la Inteligencia de negocios, la Docencia de
Fundamentación, situación actual, resultados y Tecnologías y la Robótica.
Resumen— En la presente investigación se analizó de las que a pesar de que son bajo licencia GPL es necesario
técnicas de minería de datos la de árboles de decisión y la de conectarse al sistema gestor de bases de datos y cuando existe
reglas de inducción para integrar varios de sus algoritmos al una gran cantidad de datos a analizar el proceso se vuelve
sistema gestor de base de datos (SGBD) PostgreSQL, debido a las
engorroso y lento. (Soto Jaramillo, 2009) Además se debe
deficiencias de las herramientas libres existentes. También se
propuso un mecanismo para optimizar el rendimiento de los garantizar la seguridad de los datos pues la información viaja a
algoritmos implementados con el objetivo de aprovechar las través de la red. Otra alternativa que propone weka es
ventajas de PostgreSQL y se comprobó mediante un experimento, convertir los datos a la extención “arff” pero ante cualquier
que al utilizar los algoritmos integrados al gestor, los tiempos de actualización de los datos de la bases de datos sería necesario
respuestas y los resultados obtenidos son superiores. volverlos a convertir Para darle solución a estos problemas en
Palabras Clave — árboles de decisión, minería de datos, la actualidad algunas empresas como Microsoft y Oracle han
PostgreSQL, reglas de inducción, sistema gestor de bases de desarrollado módulos dentro de sus sistemas gestores de bases
datos.
de datos que tienen incluido las técnicas de minería de datos,
lo que les permite ganar en rapidez en los tiempos de respuesta
I. INTRODUCCIÓN ya que no sería necesario transformar “datos sin formato” en
“información procesable” (preparación de los datos) o
La informatización de las empresas, organizaciones e importación o vinculación con la herramienta encargada de
instituciones ha generado un gran incremento de la hacer el análisis, se evita tener que contar con personal
información almacenada en las bases de datos, la cual es de preparado en otras herramientas de análisis de datos, se
gran utilidad cuando se quiere explicar el pasado, entender el proporciona a los analistas de datos un acceso directo pero
presente y predecir la información futura, por lo que se hace controlado lo que acelera la productividad sin poner en riesgo
necesario analizar la misma para la obtención de información la seguridad de los datos, sin embargo a pesar de estas ventajas
útil para la organización. estos tienen el inconveniente de ser propietarios.
Anteriormente estos análisis se realizaban manualmente Actualmente Cuba está inmersa en migrar a software de
mediante técnicas estadísticas, sin embargo esta forma de código abierto con el objetivo de garantizar la seguridad
actuar es lenta, cara, altamente subjetiva y con el incremento nacional y lograr la independencia tecnológica en el país. Una
del volumen de datos es prácticamente imposible el análisis sin de las tareas para lograr este objetivo es la migración a la
la ayuda de herramientas o técnicas potentes. tecnología de bases de datos PostgreSQL debido a que es el
Una de las técnicas más usadas para obtener conocimiento SGBD de código abierto más avanzado del mundo ya que
analizando los datos presentes en las bases de datos es la soporta la gran mayoría de las transacciones SQL, control
minería de datos, que permite obtener patrones o modelos a concurrente, y permite agregar extensiones. (Vazquez Ortíz,
partir de los datos recopilados. Esta técnica se aplica en todo Mesa Reyes, & Castillo Martínez, 2012) (The PostgreSQL
tipo de entornos, como por ejemplo en la rama biológica, en Global Development Group, 2011) Sin embargo este sistema
aplicaciones educacionales, financieras, procesos industriales, no tiene integrado estas técnicas de minería de datos.
policiales y políticas. Por lo cual es necesario lograr la independencia del
Dentro de la minería de datos existen diversas técnicas sistema gestor de base de datos PostgreSQL para analizar los
entre las cuales se encuentran la de inducción de reglas y datos mediante las técnicas de minería de datos reglas de
árboles de decisión, las cuales según diversos estudios inducción y árboles de decisión.
realizados se encuentran entre las más utilizadas. (Moreno,
2007) (Heughes Escobar, 2007) II. MATERIALES Y MÉTODOS
Para la aplicación de estas técnicas existen numerosas
Durante el desarrollo del presente trabajo los métodos
herramientas independientes del sistema gestor de bases de
científicos de investigación que fueron utilizados son:
datos que permiten aplicarlas a grandes volúmenes de datos,
sin embargo, la mayoría de éstas son propietarias como SPSS Histórico-lógico: permitió realizar un estudio
Clementine, SAS Enterprise Miner y MATLAB las cuales no de para definir las tendencias actuales de las técnicas
están al alcance de las organizaciones cubanas ya que son de minería de datos y las herramientas utilizadas
altamente costosas y otras como WEKA o YALE Rapid Miner para la aplicación de estas.
TCA2012 2
El ID3 fue propuesto por J. R Quinlan en 1986, este es un Generalmente las tablas sobre la cuales se realizan análisis
algoritmo simple y, a la vez potente, cuya misión es la de minería de datos cuentan con un gran volumen de
elaboración de un árbol de decisión como un método para información, lo cual puede retrasar el resultado de dicho
aproximar una función objetivo de valores discretos, que es estudio.
resistente al ruido en los datos y que es capaz de hallar o Una de las opciones que brinda PostgreSQL para mejorar el
aprender de una disyunción de expresiones. rendimiento en estos casos es el particionado de tabla para
Para la construcción del árbol el algoritmo utiliza el análisis obtener un mejor desempeño a la hora de consultar dichas
de la entropía, la teoría de la información (basada en la tablas.
entropía) y la ganancia de información. El particionado de tablas es una técnica que consiste en
descomponer una enorme tabla (padre) en un conjunto de
tablas hijas. Esta técnica trae como resultado reducir la
cantidad de lecturas físicas a la base de datos cuando se
ejecutan las consultas.
En PostgreSQL los tipos de particionado existentes son por
rango y lista. (The PostgreSQL Global Development Group,
2011)
Las tablas creadas por la función tendrán como nombre la En el archivo “mineria_datos.control” creado para agregar
concatenación de máster más el antiguo nombre de la tabla la extensión donde se cargaran las funciones de los algoritmos
para el caso de la tabla padre y para las hijas es la implementados se definieron los siguientes parámetros:
concatenación del antiguo nombre de la tabla más el valor de
comment: una breve descripción sobre el
la clase por la cual se creo la partición.
contenido de la extensión creada.
Encoding: El tipo de codificación utilizado.
default_version: La versión de la extensión
relocatable: Si se puede
schema: El esquema dónde se almacenarán los
objetos creados por la extensión.
IV. CONCLUSIONES
De los resultados obtenidos en esta tesis se puede decir que
las técnicas de minería de datos árboles de decisión y reglas de
inducción permiten obtener como resultado final reglas las
cuales por sus características son unas de las formas de
representar más divulgados y una de la más compresivas de
Con los resultados de las tablas 4, 5 y 6 se puede decir que entender por las personas.
a medida que se incrementaron las cantidades de registro se Además se pudo evidenciar que las herramientas libres
dificultó el análisis de los datos con la herramienta Weka. existentes de minería de datos tiene el inconveniente de ser
independientes del SGBD por lo cual se implementaron tres
algoritmos de las técnicas de clasificación y se integraron al
TCA2012 7
SGBD PostgreSQL lo que contribuye a la soberanía Moreno, G. (octubre de 2007). Recuperado el enero de 2012,
tecnológica del país y a que el gestor sea más competitivo. de http://gamoreno.wordpress.com/2007/10/03/tecnicas-mas-
En la investigación también se desarrolló una función que usadas-en-la-mineria-de-datos/
permite aprovechar uno de los mecanismos de optimización PostgreSQL. (12 de SEPTIEMBRE de 2011). Obtenido de
del gestor para mejorar los resultados de respuesta del los http://www.postgresql.org/about/press/presskit91/es/
algoritmos implementados. Soto Jaramillo, C. M. (2009). INCORPORACIÓN DE
Se realizó la validación de los algoritmos implementados TÉCNICAS MULTIVARIANTES EN UN SISTEMA
utilizando un diseño de experimento en el cual se observó que GESTOR DE BASES DE DATOS.
los tiempos de análisis de los algoritmos integrados al SGBD The PostgreSQL Global Development Group. (2011).
son menores que los resultados de la herramienta Weka. PostgreSQL 9.1.0 Documentation.
Vázquez Ortíz, Y., & Castillo Martínez, G. (2011). Propuesta
de un plan de capacitación para la preparación y futura
REFERENCIAS certificación en PostgreSQL. Revista Cubana de Ciencias
Chesñevar, C. I. (2009). Datamining y aprendizaje Informáticas .
automatizado. Obtenido de Vazquez Ortíz, Y., Mesa Reyes, Y., & Castillo Martínez, G.
http://cs.uns.edu.ar/~cic/dm2009/downloads/transparencias/05 (2012). COMUNIDAD TÉCNICA CUBANA DE
_dm%20(Learning_rules).pdf POSTGRESQL: ARMA PARA LA MIGRACIÓN DEL PAÍS
Heughes Escobar, V. (2007). Minería Web de Uso y perfiles A TECNOLOGÍAS DE BASES DE DATOS DE CÓDIGO.
de Usuario:Aplicaciones con Lógica Difusa. Tesis de UCIENCIA.
Doctorado .
HOLTE, R. C. (1993). Very Simple Classification Rules
Perform Well on Most Commonly Used Datasets. Machine
Learning .
Martínez Valenzuela, V. (octubre de 2007). Diseño
Experimental. Obtenido de
http://www.slideshare.net/hayimemaishte/diseo-experimental
MODELO DINÁMICO DEL ROBOT ITM-5
Abelardo del Pozo Quintero pozo@icimaf.cu
Instituto de Cibernética. Matemática y Física (ICIMAF)
Dpto. Control Automático
Abstract
At present the dynamic model of the robot manipulators is PACS: 45.40 Ln
not a problem of open research. However, when one
wants to build a robot manipulator, it is necessary to
INTRODUCCIÓN
Los manipuladores robóticos son básicamente brazos -Tomando piezas de una bandeja alimentadora o
mecánicos, equivalentes a los dispositivos que manipulan transportadora y transfiriéndolas a una máquina, o una
piezas, herramientas, etc., pero tienen un sistema del mesa de posicionamiento, u otro transportador, etc.
control incorporado y son capaces de un funcionamiento -Tomando las piezas de los vagones, tornillos de banco,
independiente. Estos dispositivos son buenos en tareas que etc., y transfiriéndolos para realizar otra manipulación;
requieren una cantidad considerable de repetición dentro - Operaciones de ensamblajes que incluyen la toma de
de tolerancias pequeñas. piezas de las bandejas, depósitos de alimentación, etc., y
poniéndolos en algunas otras posiciones para el ensamblaje
Los manipuladores deben ser reprogramables, o incluso dentro de un circuito impreso.
capaces de tomar decisiones simples. Después que el - Resumiendo podemos asegurar que la probabilidad de
programa se introduce en el manipulador, éste debe operar aplicación de un manipulador es bastante alta.
automáticamente, sin la guía humana.
Si el sistema mecánico de un manipulador está bien- Ya es una realidad la utilización de los manipuladores en
diseñado, fabricado y ensamblado se le debe proporcionar muchas esferas de la industria, particularmente para los
un sistema de control bien desarrollado para alcanzar el fines militares, donde una de sus aplicaciones es alimentar
nivel de exactitud obtenido con la mecánica. cañones con balas tomadas de alimentadores portátiles.
El área de utilización de los manipuladores robóticos es Diseñaremos el modelo dinámico de un robot
cada vez más amplia, citaremos algunos ejemplos: antropomorfo con 5 grados de libertad, destinado a la
En la industria ejecución de tareas tales como tomar y trasladar los objetos
a una nueva ubicación.
El objetivo de este reporte de investigación es obtener un El modelo dinámico inverso proporciona los torques a las
modelo dinámico de la estructura mecánica del robot articulaciones y fuerzas en función de las posiciones,
ITM-5, con el fin de obtener la síntesis de las ecuaciones velocidades y aceleraciones de las articulaciones y se
dinámicas del mismo. Con estas ecuaciones se tienen las describe por:
condiciones para el diseño y mejora de los algoritmos de
control de las articulaciones que actuaran sobre los T = f (q, q , q , fe) [2]
motores acoplados a éstas. Del mismo modo estas
ecuaciones sirven de base para determinar una trayectoria La ecuación [2] es el modelo dinámico inverso porque
precisa en el recorrido del brazo del robot hacia un punto define la entrada del sistema, como una función de las
determinado en su espacio de trabajo. variables de la salida.
En el problema dinámico inverso es conocida una historia
Numerosos trabajos se han publicado relacionados con la temporal de las coordenadas de las articulaciones o
síntesis de las ecuaciones cinemáticas y dinámicas. Los coordenadas cartesianas y a partir del conocimiento de
trabajos pioneros Pieper [1], Paúl [2], Whitney [3], crearon estas historias, de la arquitectura y parámetros inerciales
las bases de todo el andamiaje cinemático-dinámico de los del sistema los torques o fuerzas son determinados como
manipuladores y robots. historias temporales de las diferentes articulaciones que
serán actuadas.
El problema dinámico consiste de dos tareas, la directa
y la inversa. En el diseño de los robots, el modelo dinámico inverso se
El problema dinámico directo consiste en hallar las usa para seleccionar los actuadores, realizando el cálculo
aceleraciones en la articulación, dada la posición, de los torques que necesitan los actuadores para lograr el
velocidad y aceleración de las articulaciones, las cuales movimiento deseado.
son obtenidas al resolver el problema cinemático.
Las ecuaciones dinámicas que describen el movimiento
y se formula mediante la siguiente expresión dinámico del robot son altamente no lineales y representan
q g q, q T, fe [1] un conjunto de ecuaciones diferenciales de segundo orden
con: acoplado entre sí, lo cual tiene un grado de complejidad
grande. Por otro lado, los coeficientes dinámicos de estas
q : el vector de aceleraciones de la articulación. ecuaciones varían con la posición de las coordenadas
q: el vector de posiciones de la articulación. generalizadas de las articulaciones, las cuales son
q : el vector de velocidades de la articulación. funciones de transformaciones trigonométricas.
T: el vector de torques de la articulación o
fuerzas, dependiendo si la articulación es de No obstante, estas dificultades de la dinámica, el no
revolución o prismático respectivamente. considerar sus efectos conduce a disminución en la
fe: el vector de fuerzas y momentos ejercido por el velocidad del robot, además de la aparición de vibraciones
robot en el entorno. y otros efectos indeseables en el movimiento del brazo
robótico, limitando el campo de utilización del mecanismo
El modelo dinámico directo juega un papel importante en a tareas de muy baja precisión.
el diseño y el funcionamiento de los robots y es empleado
para llevar a cabo las simulaciones con el propósito de DESCRIPCIÓN Y DATOS TÉCNICOS DEL ROBOT
probar la ejecución del robot y estudiar los méritos ITM-5
relativos de los posibles esquemas de control. También se
usa para identificar los parámetros dinámicos que son El robot está construido sobre la base de 4 eslabones
necesarios para las aplicaciones de control y simulación conectados en serie a través de 5 articulaciones
rotacionales que definen los 5 grados de libertad del robot,
[4]
Fig.1 Estructura del robot ITM-5 eslabón 4 o muñeca hacia delante o hacia atrás en el plano
horizontal. Debe señalarse que esta posición horizontal de
Podemos relacionar estos eslabones con la siguiente la muñeca no cambia con la posición angular del eslabón
notación: 3. El rango del movimiento de este eslabón es de + 25
El eslabón L1 que representa la base, el cual puede girar el grados y - 40 grados y existe un limitador mecánico que
ángulo θ1 por medio de una articulación rotacional, cuyo impide la continuación del movimiento.
eje de movimiento es vertical. El movimiento será El eslabón L4 es el eslabón final o muñeca, el cual
ejecutado por un motor eléctrico de corriente directa (CD) representa la mano de sujeción o agarre. Aquí existen dos
que permitirá giros que abarcarán un área de trabajo de ± articulaciones rotacionales cuyo movimiento originan la
170 grados. trayectoria que describen los ángulos θ4 y θ5.
El eslabón L2 está situado entre las articulaciones La articulación relacionada con el ángulo θ4 produce un
rotacionales 2 y 3. Este simula el brazo superior de la giro de la muñeca o eslabón final de flexión hacia arriba o
estructura humana, realizará los movimientos descritos por hacia abajo con respecto al plano horizontal. Para realizar
el ángulo θ2 hacia la izquierda o la derecha con respecto al estos movimientos se utilizará un motor eléctrico CD
plano vertical. Además, debido al acoplamiento mecánico acoplado a un sistema de engranaje de discos y varillas que
se producirán los movimientos del eslabón 3 hacia engranan con la muñeca. El rango de trabajo de este
adelante o hacia atrás en el plano horizontal. El andamiaje movimiento de flexión es de ± 90 grados con respecto al
mecánico para realizar estos movimientos se basa en un plano horizontal, existe un tope mecánico por si el
tornillo sinfín, el cual esta acoplado a un motor eléctrico de movimiento sobrepasa los valores máximos de ± 90
corriente directa y mecánicamente al eslabón 2. Es grados.
importante resaltar que el brazo inferior siempre estará en La articulación relacionada con el ángulo O5 produce un
paralelo al plano horizontal independientemente de la giro de la muñeca circular con respecto al eje del eslabón
posición angular que adquiera el eslabón 2. 4. Estos movimientos son ejecutados de una forma
El rango del movimiento de este eslabón es de ± 40 semejante al movimiento de flexión. Un motor eléctrico
grados. Si este rango es sobrepasado existe un limitador CD es acoplado a un sistema de engranaje de discos y
mecánico que impide la continuación del movimiento. varillas para transmitir el movimiento hasta la muñeca y
El eslabón L3 está situado entre las articulaciones allí se enlaza con una rueda dentada que produce el
rotacionales 3 y 4. Representa el brazo inferior o antebrazo movimiento rotacional de la muñeca. El rango de
de la estructura humana y realiza los movimientos del movimiento es de ± 180 grados y existe un limitador
ángulo θ3 hacia arriba o hacia abajo con respecto al plano mecánico el cual evita un movimiento por encima de los
horizontal. límites. El eje de referencia para girar en el sentido
La estructura mecánica para realizar estos movimientos es positivo o negativo, está dado por la posición adquirida por
semejante a la del eslabón anterior, o sea, mediante un la articulación que causa el movimiento de flexión.
tornillo sinfín el cual está acoplado a un motor eléctrico En la tabla que aparece más abajo son mostrados los datos
CD y a su vez unido mecánicamente al eslabón 3. El técnicos de este robot suministrados para elaborar el
movimiento del eslabón 3 produce un movimiento del esquema cinemático del mismo.
TABLA 1
SÍNTESIS DINÁMICA
Esto tiene grandes problemas, porque la dinámica del
Es de vital importancia en el empleo de un robot para la movimiento de un robot de n grados de libertad es
ejecución de las tareas industriales el movimiento de su inherentemente no lineal. Estas características no lineales
brazo. Para mantener una trayectoria determinada debemos pueden deberse a diversos factores entre estos podemos
aplicar, si es necesario, los torques de compensación citar: las cargas inerciales propias de cada articulación, las
correctores a los motores, con el fin de ajustar cualquier debidas a la interacción con las articulaciones vecinas, la
desviación de la trayectoria deseada debido a los efectos carga gravitacional sobre los eslabones, etc. Si a esto
dinámicos de la estructura mecánica. adicionamos que los parámetros dinámicos del robot varían
con el valor de las coordenadas generalizadas, Inercia de acoplamiento en cada articulación debida a
comprenderemos la necesidad de un modelo dinámico que la influencia de las aceleraciones de otras articulaciones
describa las ecuaciones del movimiento del robot, teniendo sobre ésta resultando en otro torque de reacción.
en cuenta las no linealidades que más influyen en la Inercia gravitacional es un torque de reacción generado
dinámica. en cada eslabón debido a la acción de la gravedad.
Torque de reacción debido a la velocidad en una misma
Existen varios métodos disponibles en la literatura para crear articulación (efecto centrífugo) y al ocasionado por la acción
el modelo dinámico de un robot entre ellos tenemos el de las velocidades de otras articulaciones sobre una dada
método de Lagrange [5], el recursivo de Lagrange [6], el de (efecto de Coriolis).
Newton-Euler [7], etc.
Nuestro modelo solo contemplará los tres primeros grupos
La formulación de Lagrange describe el comportamiento del de torque de reacción y despreciaremos el último grupo por
sistema dinámico en función del trabajo y la energía las siguientes razones:
guardados en el sistema, es muy explícito y sistemático, - Éstos son generalmente de valor mucho más pequeño que
pudiendo estructurarse en forma algorítmica para los fines los otros
de la computación, pero tiene el inconveniente de su alta - Son muchos términos en número creando una mayor
ineficiencia computacional, ya que el orden de las complejidad innecesaria al modelo
operaciones aritméticas es grande (n). - Sólo debe tenerse en cuenta si el robot se moviera a
velocidades altas (más de 1.5 m/s).
En este reporte se utilizará el método de Lagrange, debido a
la claridad en la obtención de los coeficientes dinámicos, La aplicación del método de las ecuaciones de Lagrange es
que en la simulación por computadora, ayudarán a mejorar muy sistemática pues consiste en hallar el Lagrangeano total
los algoritmos de control del brazo. No obstante, del sistema, basado en la determinación de la energía
desarrollaremos nuestro trabajo haciendo las cinética y potencial de todas las masas del sistema,
simplificaciones necesarias que minimizaran el número de concentradas en forma puntual en los eslabones
operaciones del modelo dinámico, en vista a su cómputo en
tiempo real para los propósitos del Considere a un robot manipulador compuesto de n-1
control, pero sin perder la visión de la contribución de los eslabones conectados en serie a través de n articulaciones
coeficientes dinámicos en el modelo dinámico rotacionales que definen los n grados de libertad del robot
(GDL).
MODELO DINÁMICO
La energía total ℇ de un robot de n GDL es la suma de las
Necesitamos determinar los torques que se han de aplicar a energías cinética (κ) y la potencial (ψ) de cada eslabón i,
las articulaciones del robot de manera de vencer el efecto de siendo i el número de eslabones articulados que componen
la gravedad, la inercia propia o efectiva de cada articulación, el robot [5].
la inercia de acoplamiento debido a las interacciones entre n
las articulaciones. q, q i q, q i q (1)
Estos torques representan las ecuaciones de movimiento del i
mecanismo articulado y serán obtenidas con la ayuda de las siendo:
matrices de transformación homogéneas elaboradas para q = [q𝟏…… q𝐧 ] 𝐓 es el vector de posición de las coordenadas
cada articulación y el formalismo de la mecánica generalizadas o globales y su derivada
Lagrangeana. 𝐪̇ es el vector de velocidades de las coordenadas
Es evidente que al cambiar la configuración espacial del generalizadas
robot en su movimiento, los torques estarán cambiando κi es la energía cinética de la masa representando a un
instantáneamente. El modelo dinámico completo del robot eslabón i.
ITM-5 será descrito por un juego de 5 ecuaciones ψi es la energía potencial de la masa representando al
diferenciales no lineales y acopladas eslabón i.
Cada ecuación contiene un número grande de términos que
representan torques (se excluyen las fuerzas) debido, a que El Lagrangeano L (q, 𝐪̇ ) de un robot de n GDL es la
todas las articulaciones son rotacionales) clasificados en 4 diferencia entre su energía cinética (κ) y su energía
grupos: potencial (ψ), es decir,
Inercia efectiva propia de cada articulación, la cual
origina por las aceleraciones en la articulación un torque de
reacción.
L q, q q, q q (2)
Nosotros asumimos aquí que la energía potencial (ψ), sólo El desarrollo de (6) para la articulación i genera una serie de
se debe a las fuerzas conservadoras como la energía términos, que pueden representarse simbólicamente con un
gravitacional y a las energías conservadas en los muelles sentido físico como:
comprimidos sí éstos existen en la configuración. La
energía potencial q , depende exclusivamente del
vector de posición q
Ti ii qi ij q j jii q2j ijj qi2 ijk qj qk ikj qk qj i
La energía cinética del robot q, q es una función (7)
cuadrática en las velocidades de la articulación y esta dada Donde:
por la masa M y el vector de las velocidades lineal y Pii es el coeficiente de inercia efectiva de la articulación
rotacional 𝐪̇ del eslabón y se puede expresar vectorialmente i y representa una aceleración en esa articulación la cual crea
como: un torque en la articulación igual a ii qi .
1 T
q, q q q q (3) Pij es el coeficiente de inercia de acoplamiento entre las
2 articulaciones i y la j y surge cuando una aceleración en la
articulación i ó j origina un torque en la articulación j ó i
Donde: igual a ij qi ó ij q j .
M(q) es una matriz de dimensión n x n llamada la matriz de
Pjii es el coeficiente de la fuerza centrifuga de la
inercia, que es simétrica, positiva y definida para toda q Є
articulación i y actúa sobre ésta cuando existe una velocidad
Rn . y representa la inercia efectiva propia de cada
en esa articulación i, produciéndose un torque en la
articulación, originándose por las aceleraciones en la
articulaciones resultando en un par o una fuerza de reacción articulación i igual a jii qi2 .
Pijj es el coeficiente de fuerza centrifuga actuando sobre
Entonces el Lagrangeano total del robot está dado por la articulación i debido a la velocidad en la articulación j,
provocando un torque de reacción en la articulación i igual a
Sustituyendo (3) en (2)
ijj q 2j .
1 T
L q, q q q q q (4) Pijk y Pikj son los coeficientes que constituyen la
2 denominada fuerza de Coriolis, actuando en la articulación i,
debido a las velocidades que existen en la articulación j y k,
Las ecuaciones dinámicas que dan los torques de reacción se produciendo un torque de reacción en la articulación i igual
obtienen empleando la ecuación de Lagrange en función del
a la suma algebraica de los términos ijk q jqk ikj qk q j
Lagrangeano y de las coordenadas generalizadas del robot,
esto es: Pi es un coeficiente de efecto gravitacional actuando en
la articulación i. representando una aceleración debida a la
d acción de la gravedad sobre esa articulación, produciéndose
dt q
L q,q L q,q (5) un torque de reacción igual a Pi.
q
Aprovechando las ecuaciones cinemáticas desarrolladas
siendo: para el robot ITM-5 en [8], donde el robot es descrito por un
T es el vector torque o de fuerza de reacción correspondiente juego de matrices de transformación A, que describen la
a cada articulación de dimensión n que provoca el posición y orientación de cada articulación-eslabón,
movimiento del robot podemos obtener las ecuaciones dinámicas en función de
estas matrices.
Sustituyendo la expresión (4) en (5) tenemos:
El desarrollo algebraico matricial es dado en forma general
en [2] cuya ecuación final para la articulación i del robot
d 1 T 1 T
q q q q q q q ITM-5 es el siguiente:
dt q 2 q
2 q
(6)
j j jT j j 2 j jT j j
traza j q k a i qi qk qm m j g rj
T
5 traza
Ti k 1 q k qi k 1 m1 q k q m
j
qi qi (8)
j1
Comparando los coeficientes que acompañan a las
coordenadas generalizadas q, q y q en las
ecuaciones (3) y (4) obtenemos
:
5 j j jT
ij traza j (9)
ji 1 k 1 q k qi
5 j j 2 j jT
ijk traza j (10)
ji 1 k 1 m 1 q k q m qi
5 j j
i m j g T rj (11)
ji 1 qi
Los coeficientes Pij, Pijk y Pi han sido definidos considerar el movimiento simultáneo del
anteriormente. subgrupo de articulaciones que definen la
En el caso del coeficiente Pii este surge cuando posición de la mano, mientras que el movimiento
en el coeficiente Pij hacemos i=j, del subgrupo de articulaciones que determinan la
Por otro lado el término Iai q i es la contribución orientación, es mantenido fijo.
de la energía cinética de los motores en las considerar sólo los términos ij qi y i , éstos
articulaciones y son con frecuencia de una son los relacionados con las aceleraciones y
magnitud alta. efecto gravitacional y despreciar los
Zj: representa la matriz de inercia en cada correspondientes a las velocidades (fuerza
eslabón que incluye los momentos de inercia, los centrífuga y de Coriolis), puesto que las
productos de inercia cruzados y los momentos de contribuciones de estos términos a velocidades
los eslabones con respecto a los centros de masa normales es pequeña y simplifica en grado sumo
de cada eslabón. el cálculo del tiempo real.
rj: expresa los centros de masa de cada eslabón,
qj: es la aceleración de cada coordenada SIMPLIFICACIÓN DE LOS TÉRMINOS Pij y Pii
generalizada,
mj: es la masa de cada eslabón, Como ya se mencionó anteriormente el término Pij
g: es el vector que expresa la aceleración de la incluye la inercia efectiva de la articulación cuando
gravedad. (i=j) y la inercia de acoplamiento entre las
articulaciones i y j, que en su forma general viene
SIMPLIFICACIÓN DEL MODELO DINÁMICO j
dado por la ecuación (9) donde representa la
Calcular los términos de la ecuación (8) representa q j
una complicación de tal magnitud que se pierde visión diferenciación de la matriz de transformación
en el análisis del comportamiento dinámico del homogénea Aj o Jacobiana de la articulación j con
manipulador. Por esto, asumiremos algunas respecto a las coordenadas generalizadas de esa misma
restricciones que facilitaran el análisis del articulación, referida al sistema de coordenadas de la
comportamiento dinámico del manipulador bajo mano.
diferentes condiciones. En el [9] se demuestra que la matriz Jacobiana se
A su vez esto permite el diseño de un sistema más puede expresar como:
simple y confiable. Estas restricciones son:
( T ) (12) Ix I xy I xz mj xj
qi
I yx Iy I yz mj yj
Si consideramos cualquier articulación podemos j (17)
escribir: Izx Izy Iz mj zj
mj x j mj yj mjzj mj 0
j (Tj )i (13)
qi
Como (17) es una matriz simétrica los elementos
fuera de la diagonal son iguales y son los
Siendo (Tj )i una matriz incremental llamados productos de inercia cruzado: Ixy=Iyx;
Ixz = Izx; Iyz=Izy.
A A ..... A j i 1 i Ai Ai 1 ..... A j (14)
Los términos de la diagonal son los momentos de
1
Tj i i i 1
inercia de los eslabones con respecto al sistema
de coordenadas de la articulación, estos son: Ix,
donde definiremos el producto matricial como: Iy, Iz.
i j
j Ai Ai 1 ..... A j (15) Los términos mjxj, mjyj, mjzj son los momentos
de los eslabones con respecto a los centros de
Los elementos de la matriz incremental son dados en masa de estos.
A A es
el [10] dependiendo del tipo de articulación y
alrededor de que eje rota. Si sustituimos (13) en (9) Si en (16) efectuamos el producto j j j
obtendremos: posible simplificar bastante ésta expresión.
5 j
ij traza ( j j ) j ( j j )T (16)
El desarrollo de esto puede verse en [2].
ji 1 k 1 La expresión final simplificada de (16) para el robot
la matriz de inercia Zj tiene la forma: ITM-5 es la siguiente:
Donde
mpkpxx = Ix; mpkpyy= Iy; mpkpzz =Iz; representan Note que los productos de inercia cruzados han sido
los momentos de inercia de los eslabones con despreciados, ya que ellos en general son pequeños
respecto al sistema de coordenadas de la comparados con los términos de la diagonal, o sea, los
articulación correspondiente. momentos de inercia de los eslabones.
w y v son los vectores diferenciales de rotación y Si en (18) hacemos i=j obtenemos la inercia efectiva de
traslación respectivamente. la articulación.
p p p
w ix k pxx w iy k pyy w iz k pzz v i v i r v i x w i
5 2 p 2 p 2 p p p
ii mp p (19)
p i
n
i mp gT i rp (20)
SIMPLIFICACIÓN DE LOS TÉRMINOS Pi p i
Si descomponemos la matriz Tp de la siguiente manera:
El término Pi representa el efecto gravitacional sobre
p i 1 i 1 p (21)
los eslabones del robot y aparece en la ecuación (8) la
cual se puede escribir usando (11) así:
y además postmultiplicamos Ai por la matriz unitaria
i mp g T i1 i1 i i1p rp
n
descompuesta. De la misma forma obtendremos:
(24)
p i
i mp gT i1 i1p i i1p
n 1 i 1
rp (22)
p i Si descomponemos el producto intermedio es sus
componentes tendremos:
definimos la matriz incremental como:
0 z y dx
z 0 x dy
i 1
i i 1 p i i 1
p1
y x 0 dz
0 0 0 0
(23)
sustituyendo (23) en (22)
nx ox ax px 0 z y dx
n oy ay p y z 0 x dy i1 T
gT Ti 1 i1 i g x g y g z 0 y g (25)
nz oz az pz y x 0 dz
0 0 0 0 0 0 0 0
m x
base y la articulación de la base.
i i La pieza #2 incluye el eslabón denominado brazo
x i
n
(38) superior y las articulaciones adheridas a éste.
m i
i
La pieza #3 define el eslabón conocido como antebrazo
y las articulaciones correspondientes.
n Sigue la articulación de la muñeca y por último es
m y i i
mostrado el eslabón correspondiente a la mano.
y i
n
(39) Puesto que el proceso de cálculo es sumamente largo,
mi
mostraremos el procedimiento sólo para la pieza #1
que representa la articulación de la base y compuesta
i
de diferentes partes.
n
m z i i
Se mostrarán los resultados numéricos de las otras
piezas en la tabla l del anexo I al final del reporte.
z i
n
(40)
m
i
i
La pieza #1 fue dividida en varias partes, estas son:
a) Paralelepípedo; b) 2 cilindros huecos; c)
siendo xi, yi, zi las distancias desde los centros de Paralelepípedo; d) Cilindro macizo
gravedad de las n masas al origen del sistema de
Cálculo de los volúmenes de las partes que conforman
coordenadas, desde el cual se mide x, y ó z , a lo la pieza #1 en la Fig. 2
largo de los ejes X, Y, ó Z respectivamente.
n
m i
i es la suma total de la n masa. (41)
mc1 = 0.01821 kg
mp2 = 0.12407 kg
mc2 = 0.037126 kg
La masa total de la pieza es:
4
m i zi
z i 1
4
42.2295x103 2.25862x103
mi
i 1
Las coordenadas del centro de masa de la pieza de la inercia de los eslabones rotando alrededor de un eje lo
Fig.2 con respecto al origen del sistema de coordenadas representamos por I:
de la articulación son: I mi ri2 (42)
x 0; y 0; z 0.0463m i
Debido a que los eslabones no son masas puntuales,
En el anexo I es mostrada la tabla 1 con los centros de sino que es una distribución continua de masa , la
masa de todos los eslabones del robot ITM -5. sumatoria se convierte en una integral:
Cálculo de los momentos de inercia de los eslabones I ri2 dmi (43)
Puesto que los eslabones lo estamos considerando i
cuerpos rígidos que rotan alrededor de un eje fijo donde el elemento de masa infinitesimal se calcula a
situado en las articulaciones, entonces el momento de partir del peso específico del material o densidad
definido como (ρ) y el correspondiente elemento de Haciendo uso del manual [11], determinamos los
volumen infinitesimal (dV). momentos de inercia para la pieza #1 en la Fig. 2 como
dmi dVi (44) ilustración. Los momentos de inercia de todos los
eslabones del robot son calculados y mostrados en la tabla
Siempre y cuando los eslabones tengan una forma regular 1 del anexo I.
se puede obtener de los manuales de ingeniero las fórmulas Los componentes de la pieza #1 son cuerpos comunes
que dan los momentos de inercia de cuerpos rígidos cuyo momento de inercia son estándar, estos son:
comunes. Si no es posible obtener esta información es paralelepípedo, cilindro hueco y cilindro macizo, al usar
necesario determinar estos mediante (42) y (44). las fórmulas del manual los momentos de inercia están
dados con respecto a los ejes z, y, x que pasan por el centro
Las fórmulas anteriores son válidas siempre y cuando el de masa del cuerpo respectivamente y han sido calculados
material sea homogéneo, esto hace que la densidad del considerando una distribución continua de masa.
mismo sea uniforme, de no ser así tendríamos que saber
cuál es la dependencia de ρ de r para poder efectuar la Para el paralelepípedo (p1)
integración.
1 1
Iz mp1 (x 2 y 2 ) (0.70343)(0.2522 0.1422 4.90454x103 kg m 2 (45)
12 12
1 1
I y mp1 (x 2 z 2 ) (0.70343)(0.2522 0.7042 ) 4.04355x103 kg m 2 (46)
12 12
1 1
I x mp1 (y2 z 2 ) (0.70343)(0.1422 0.7042 ) 1.50299x103 kg m 2 (47)
12 12
En los cilindros huecos (c1) donde el espesor de las
Donde I x , I y , Iz , con la barra arriba significa el paredes es de 0.0195 m, empleamos las fórmulas que
momento de inercia de la masa ( m p1 ) con respecto a nos dan los momentos de inercia con respecto a los ejes
z, x, y que pasan por su centro de masa Hudson [11].
los ejes que pasan por el centro de masa. 1
Para hallar los momentos de inercia de la masa ( m p1 ) I z mc1 (R 2 r 2 ) 0.0614155x103 kg m 2 (51)
2
con respecto al sistema de coordenadas que está en la 1 h2
articulación y es paralelo al sistema de coordenadas de I x mc1 (R 2 r 2 ) 0.0318553x103 kg m 2 (52)
4 3
centro de masa, empleamos la expresión siguiente
Wells [5]. I y I x 0.0318553x103 kg m 2 (53)
siendo R y r los radios exterior e interior
I x I x mp1 (y 2 z 2 ) (48) respectivamente y h la altura del cilindro.
Los momentos de inercia de la masa (mc1) con respecto
I y I y mp1 (x 2 z 2 ) (49) al sistema de coordenadas de la articulación serán
calculados empleando las fórmulas (48), (49) y (50)
Iz I z mp1 (x 2 y 2 ) (50)
I xc1 I x mc1 (y 2 z 2 )
donde x, y, z son las coordenadas del centro de 0.0323669 x103 kg m2
masa medidas desde el origen del sistema de I yc1 I y mc1 (x 2 z 2 )
coordenadas de la articulación.
Para el paralelepípedo (p1) 3.54832 x103 kg m2
I x p 2.75743x103 kg m2
Izc1 I z mc1 (x 2 y2 )
1
I5x m5 k5xx
2
; I5y m5 k5yy
2
; I5z m5 k5zz
2
Utilizamos la expresión (19) obtenemos P55 como:
serán funciones de la carga y lo representaremos con el
supraíndice (*) para indicar la dependencia con la masa P55 (m5 )* k 5zz
2
(I5z )* (59)
de la carga.
Este resultado nos dice que P55 es una constante
Si en la fórmula (18) comenzamos con la última
numérica que depende de la masa de la carga.
articulación i=5, entonces debemos disponer de las
constantes dinámicas m5, r5 , I5x, I5y, I5z, las cuales ya CÁLCULO DEL COEFICIENTE P44
fueron calculados y tomamos esta información de la Ahora consideramos la articulación 4 la cual rota sobre
tabla 1 del anexo I. el eje (y), entonces de (19) es necesario conocer la
Además debemos determinar los vectores diferenciales matriz
3
T4 A4 y la 3 T5 A 4 A5 y los vectores
5 5
de traslación y rotación v5 y w 5 , para esto es diferenciales de estas matrices que son
4 4 5 5
necesario conocer la matriz de transformación del ( v4 y w 4 ) y ( v4 y w 4 ) respectivamente.
último eslabón A5, que denominamos en forma general Ahora las constantes dinámicas de los eslabones 4 y 5
i 1
como ( Ti ) de forma que sea evidente la relación del robot ITM-5 son:
entre los sistemas de coordenadas de las articulaciones m4 , m5 , 4 r4 , 5
r5 , , I 4x , I 4y , I 4z , I5x , I5y , I 5z
adyacentes. Entonces para i=5 será
4
T5 = A5
con esta información podemos calcular el coeficiente
P44.
i 1
Los vectores de (v), (w) y la matriz ( Ti ) para cada
una de las articulaciones del robot están calculados en c34 0 s34 s 3 4 L 4
forma general en [10], pero como éstas dependen si el
0 1 0 0
movimiento de la articulación es rectilíneo o rotacional 3
T4
o si la rotación ocurre alrededor de algunos de los ejes s34 0 c34 c 3 4 L 4
del sistema de coordenadas, entonces para cada
0 0 0 1
articulación debe definirse las condiciones y las
fórmulas de simplificación.
En el [10], se han desarrollados las fórmulas para los de donde utilizando (3.88) y (3.89) de [10] obtenemos:
movimientos rotacionales desde la (3.86) hasta la
v 4 L4 0 0 1
4 T
(3.91) y los movimientos traslacionales se transforman
desde la (3.95) hasta la (3.100), con las
w 4 0 1 0 0
4 T
correspondientes simplificaciones.
La articulación 5 es rotacional y el movimiento se
ejecuta alrededor del eje z, en este caso empleamos las
5
fórmulas (3.86) para hallar el vector v5 y la (3.87) c34c5 c34s5 s3 4 s3 4L 4
5
para determinar el w5 . s3 c5 0 0
4
3
T5
La matriz T5 para este robot es: s34c5 s34s5 c34 c34 L4
0 0 0 1
c5 s5 0 0
s c5 0 0
4
T5 5
v4 L4c5 L4c5 0 1
5 T
0 0 1 0
w 4 s5 c5 0 0
T
0 0 0 1 5
k 31 (34 ) I4y m4 L24 L23 2L4 L3c34 2 s3 4L3 x 4 L4 c34 L3 z 4
k*32 (34 , 5 ) * I5x s52 * I5y c52 * m5 L24 L23 2L3L4c34 2 * m5 s34 L3 c5 x 5 s5 y5 L4 c34L3 z5
(61)
CÁLCULO DEL COEFICIENTE P22
2
v2 w 2 v2 w 2 ,
2 3 3
4
v2 w 2 ,
4
5
v2 w 2
5
La articulación 2 rota sobre el eje (y) necesitamos las Añadimos las constantes* dinámicas de los eslabones
1 2, 3, 4 y 5 y aplicando el mismo procedimiento
matrices T2 (dada en 3.15) y los productos de las hallamos el coeficiente dinámico P22
matrices siguientes:
1
T2 A2 ; 1 T3 A2 A3 ; 1T4 A2 A3 A4 ;
1
T5 A2 A3 A4 A5
los correspondientes vectores diferenciales:
P22 k*2 k*21 (23 ) k*22 (3 4 , 24 ) k*23 (3 4 , 24 , 5 )
donde
k*2 I2y m2 L2 L 2 2 z 2
k*21 (23 ) I3y m3 L25 L22 2[(L3L 2s 23 2c 23L 2 )x 3 (L 3 s 23L 2 z 3]
L24 L23 L22 2L4 L3 c3 4 2L 4 L 2 s 24 2L 3 L 2 s 23
k (3 4 , 24 ) I 4y m 4
*
2 (s34 L3 c24 L2 )x 4 (L4 c34 L3 s 24 L2 ) z 4
22
* I5x s52 * I5y c52 * m5 L24 L23 L22 2L3L4c34 2L4 L2s 24 2L3L2s 23
(62)
k 23 (34 , 24 )
*
2 c5s34 L3 c24 L2 x 5 (s5s34 L3 c24 L2 )y5 L4 c34L3 s 24L2 z5
P11 k1 k11
*
(2 ) k12
*
(3 ) k13
*
(4 ) k14
*
( 45 )
donde
k1 I1z
*
k11 (2 ) I 2xs 22 I 2zc22 m 2L 2s 2 s 2L 2 2 c 2x 2 s 2z 2
*
k12 (3 ) I3x c32 I3zs 32 m 3 c 3L 3 s 2L 2 c 3L 3 s 2L 2 2 s 3x 3 c 3z 3
*
k13
(4 ) I 4x c24 I 4zs 24 m 4 (c 4L 4 c 3L 3 s2 L2 ) c4 L4 c3L3 s2 L2 2 s4 x 4 c4 z 4
c24 * I5x c52 * I5ys52 * m5 (c4 L4 c3L3 s2 L2 ) c4 L4 c3L3 s2 L2
k (45 )
*
(63)
2 s4 c5 x 5 s5 y5 c4 z5
14
BIBLIOGRAFÍA
ANEXO I
RESUMEN: Las tecnologías y software desarrollados en el mundo son un producto de la inteligencia y del
conocimiento humano, y como producto de este último, no están exentas de errores. Estos errores en los soft-
ware y tecnologías, conocidos comúnmente como vulnerabilidades, son provocados por malas prácticas, por
problemas de seguridad informática cometidos durante el desarrollo; por el uso de otras tecnologías que tienen
vulnerabilidades, o por problemas de configuración. Las vulnerabilidades informáticas pueden ser aprovechas
por intrusos con la intención de obtener información de un sistema, o adueñarse de él, violando normas de se-
guridad establecidas.
Un tipo de ataque a las vulnerabilidades de los software son las inyecciones de Lenguaje de Consulta Estructu-
rada (SQL, por sus siglas en inglés), las cuales consisten en la inserción o “inyección” de una consulta SQL, a
través de los datos de entrada que poseen las aplicaciones, o mediante el Localizador de Recurso Uniforme
(URL, por sus siglas en inglés).
Con el volumen de información de las Bases de Datos de Vulnerabilidades, se pueden aplicar técnicas que
permiten detectar patrones en grandes conjuntos de datos, el conjunto de estas técnicas se conocen como Mi-
nería de Datos. Teniendo en cuenta las bases de datos de vulnerabilidades, es factible elaborar una metodolog-
ía, que aplique técnicas de Minería de Datos para realizar una base de conocimiento capaz de filtrar inyeccio-
nes SQL. Esta base de conocimiento puede insertarse en un cortafuego de aplicación Web, convirtiéndolo en
un cortafuego semántico de aplicación Web para inyecciones SQL.
Palabras Clave: Base de Datos de Vulnerabilidades, Cortafuego Semántico de Aplicación Web, Inyecciones
SQL, Minería de Datos.
ABSTRACT: The technology and software development on the world are the smart and knowledge human
result, for that they can have errors because the human are not perfect. These errors are called vulnerabilities.
Hacker is taked advantage of vulnerabilities to gain privileges about any system and broke out security law.
One kind of attack to software vulnerability is SQL injection, which are injection of Structure of Query Language
(SQL) on application input data or URL.
With Vulnerability Data Base information and Data mining Technic would be pattern detected about SQL injec-
tion. This result would allow creating a knowledge base to filter SQL injection attack. The knowledge base can
insert in Web Application Firewall and this is converted in Semantic Web Application Firewall.
KeyWords: Data Mining, Semantic Web Application Firewall, SQL Injection, Vulnerability Data Base.
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
tancia desarrollar criterios estandarizado para eva- Arquitectura modular, permitirá a los contribu-
luar los productos. En el caso de los WAFs, el Con- yentes a implementar fácilmente sus propios
sorcio de Seguridad en Aplicaciones Web (WASC, módulos sin necesidad de comprensión profun-
por sus siglas en inglés), ha desarrollado un criterio da de la arquitectura IronBee, así como también
para evaluar los WAFs en cuanto a técnicas de más sencilla la integración de módulos particu-
detección, técnicas de protección, gestión de log, lares para cada usuario.
administración, entre otros [2]. Mediante este Con-
sorcio, se garantiza un desarrollo creciente de esta Esfuerzo de colaboración de la Comunidad con
tecnología, y la hace más eficaz para contrarrestar el fin de captar, centralizar y compartir la infor-
ataques a las aplicaciones Web. mación necesaria para defender a las aplica-
ModSecurity. ciones web [4].
Entre los desarrollos más representativo en esta 2.1.3 Filtros de Intercepción
tecnología se encuentra ModSecurity, el cual se
implementó como un módulo de Apache; sin em- Otra solución de seguridad son los Filtros de Inter-
bargo, él puede proteger cualquiera aplicación Web cepción, que consisten en una serie de módulos
siempre que el Servidor Apache se configure como independientes, que se pueden encadenar para
un proxy inverso. Las peticiones entrantes son ana- mejorar el análisis de seguridad en la aplicación.
lizadas antes de pasarlas al servidor web, o a cual- Los Filtros no tienen dependencias explícitas entre
quier otro módulo de Apache. Para realizar este ellos, se puede añadir un nuevo filtro, sin dañar el
filtrado se puede utilizar expresiones regulares, lo funcionamiento de uno existente. Cada filtro posee
cual lo hace muy flexible [3]. una secuencia de patrones que le permiten denegar
Varias compañías del área de seguridad informática o permitir la interacción entre el cliente y el servidor
ya poseen sus WAF comerciales, entre los que se Web o aplicación. Esta modularidad hace al siste-
encuentran: Profense, Citrix, F5, Cisco, Trustware. ma de Filtros reusable para todas las aplicaciones.
Existe también el caso de la compañía Qualys que Los Filtros son adicionados como un plugins del
posee un proyecto de desarrollo en software libre servidor Web, o en los archivos de configuración de
de su WAF, el cual nombra IronBee. las aplicaciones que lo activa dinámicamente. Son
ideales para la realización de tareas centralizadas y
IronBee.
repetibles en todas las solicitudes y las respuestas
IronBee, es llevado por el equipo que diseñó y que están débilmente acoplados con la lógica de la
construyó ModSecurity, el nuevo proyecto apunta a aplicación principal. También son buenos para fun-
producir un firewall de aplicación web que sea se- ciones de seguridad como validación de entradas,
guro, de alto rendimiento, portable, y libremente generación de log de envíos y de respuestas, y en
disponible incluso para el uso comercial. la transformación de las respuestas de salida. En
El proyecto IronBee está abierto a todas las partes muchas arquitecturas se propone el uso de filtros
interesadas en unirse al esfuerzo de desarrollo y de seguridad en los servidores Web y en los módu-
proporcionar: los de framework de aplicaciones, dándole un ma-
Un motor de inspección de seguridad de aplica- yor nivel de seguridad aplicando estas 2 estrate-
ciones que proporciona nuevas herramientas gias. Muchos de los Filtros de Seguridad, emplean
de procesamiento y análisis para el tráfico una lista de sentencias que no deben ser permitidas
HTTP. (BlackList, por sus siglas en inglés), y en otras las
permitidas (WhiteList, por sus siglas en inglés), la
Apache Software License v2, una licencia de combinación de estos filtros perfecciona el análisis
código abierto no viral que permite a los indivi- de seguridad.
duos y las organizaciones comerciales por igual Entre los desarrollos realizados en esta tecnología
a participar, creando una comunidad de usua- se encuentra el API libre, UrlScan de Microsoft,
rios, así como una comunidad de desarrollado- para el servidor Internet Information Server y
res. WebKnight con las mismas características. Por lo
general, todos los marcos de trabajos (framework)
Portabilidad, construido desde cero para traba- para la Web, presentan filtros para mitigar los ata-
jar en varios modos de implementación, tales ques de inyecciones SQL y otras amenazas de las
como pasiva, embebida, fuera de proceso, y de aplicaciones Web.
proxy reverso.
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
Como otra estrategia de seguridad para mitigar las Quaid-i-Azam, Islamabad, Paquistán, desarrolla un
amenazas de inyecciones SQL se utilizan los Sis- proyecto de un Firewall Semántico de Aplicaciones
temas de Detección de Intruso de Aplicaciones Web [6]. Los investigadores de este proyecto cen-
(IDS, por sus siglas en inglés). Estos trabajan con tran su atención en el desarrollo automático de una
los logs generados por el sistema buscando, en ontología basada en un texto y la generación de
base a anomalía o violación de reglas definidas. reglas semánticas para el Firewall Semántico de
Aplicaciones Web (SWAF, por sus siglas en inglés).
2.1.4 Firewall de Base de Datos Los SWAFs son firewall capaces de proteger apli-
caciones Web, contra todo tipo de ataque, en la
Una de las estrategias más cercana a los sistemas capa de aplicaciones, que sea conocido o no cono-
de almacenamiento de información son los Firewall cido [7]. La potencialidad de esta tecnología radica
de Bases de Datos, que es esencialmente un servi- en el buen desarrollo de la ontología requerida, la
dor proxy que se encuentra entre la aplicación y la que debe variar según el intérprete de la tecnología
base de datos. La aplicación se conecta al servidor Web utilizada, y la técnica de Minería de Datos
de seguridad de bases de datos y envía la consulta definida para el filtrado de ataques.
como si se tratara normalmente la acción de conec-
tarse a la base de datos. El servidor de seguridad Para desarrollar una base de conocimiento para un
de la base de datos, analiza la consulta prevista y la SWAF, que mitigue inyecciones SQL, en una apli-
transfiere al servidor de base de datos para ser cación Web, para un intérprete específico, se hace
ejecutado, si se considera segura. Alternativamen- necesario la utilización de una metodología que
te, se puede evitar que la consulta se ejecute si es ayude a:
malicioso. También puede servir como un IDS a Evaluar los niveles de riesgos a los que está
nivel de aplicación para la actividad de base de sometida la aplicación Web.
datos maliciosos, mediante el monitoreo de co-
nexiones en modo pasivo y las alertas administrati- Definir los elementos necesarios para el desa-
vas de comportamiento sospechoso. rrollo de la ontología correspondiente al intér-
prete.
Un ejemplo de implementación de un Firewall de
Base de Datos de código abierto es GreenSQL [5]. Definir la base de conocimiento para la mitiga-
GreenSQL ción de las inyecciones SQL.
GreenSQL es un Firewall de Bases de Datos de
Definir la técnica de Minería de Datos más ade-
código libre, con el objetivo de proteger las bases
cuada al problema.
de datos de los ataques de inyecciones SQL. Gre-
enSQL trabaja como un proxy para sentencias SQL Aunque no existen investigaciones referidas a la
y tiene soporte para MySQL, PostgreSQL. Recien- posible creación de un Firewall Semántico de Base
temente el proyecto que desarrolla esta herramien- de Datos, en esta investigación se pretende propo-
ta publicó GreenSQL Pro, una versión comercial ner esta estrategia como técnica de filtrado de in-
que soporta al gestor de bases de datos Microsoft yecciones SQL. Esta estrategia, al igual que los
SQL Server [5]. SWAFs, tendría que cumplir los procesos definidos
Las técnicas referidas anteriormente para mitigar por la metodología.
inyecciones SQL, tienen la debilidad de no ser ca- Al existir WAFs y Firewall de Base de Datos de
paces de mitigar inyecciones SQL no conocidas. El código abierto, no se hace necesario invertir tiempo
tiempo de actualización de su base de conocimien- en el desarrollo de uno en específico. Es más con-
to, las hace ineficiente frente a nuevos tipos de veniente, proponer que se les integre un módulos
ataques. Con el uso de técnicas de Minería de Da- de estas técnicas de filtrado, que emplean Minería
tos, se puede perfeccionar el análisis de los Firewall de Datos.
de Aplicaciones y los de Bases de Datos, haciéndo-
lo capaces de poder mitigar técnicas no conocidas.
2.2 Metodología para Mitigar Inyecciones
2.1.5 Firewall Semántico de Aplicaciones SQL
Web Para el desarrollo de una metodología es necesario
definir procedimientos y métodos que guíen el pro-
Un grupo de investigación de la universidad de ceso. Esta metodología propone una combinación
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
del sistemas de evaluación de riesgos CWRAF [8], Esta metodología, para un correcto desarrollo, apli-
con la metodología de Minería de Datos CRISP-DM ca el flujo de trabajo presentado a continuación en
[9]. En cada una de las fases se van a generar arte- la figura 1.
factos, los cuales son las entradas para las próxi-
mas fases.
Para desarrollar la metodología propuesta es nece-
sario que se cuente con conocimientos en el área
de la Minería de Datos y de Seguridad Informática.
Para esto, la metodología define dos roles: el Espe-
cialista de Minería de Datos y el Especialista de
Seguridad Informática.
Especialista de Minería de Datos: tiene la respon-
sabilidad de llevar a cabo los procesos definidos
por la metodología, guiar el proceso de Minería de
Datos y dar cumplimiento satisfactorio a al modelo
realizado.
Especialista de Seguridad Informática: tiene la res-
ponsabilidad de llevar a cabo los procesos definidos
por la metodología, guía el proceso de Mitigación
Figura 1: Diagrama de flujo de la metodología.
de Riesgos y dar cumplimiento satisfactorio al filtra-
do de inyecciones SQL. Debe tener conocimiento
sobre las inyecciones SQL. 2.3 Desarrollo de la metodología
Para esta metodología se han definido seis fases 2.3.1 Comprensión del Negocio
que se explican a continuación:
1. Comprensión del Negocio. Tiene como obje- Para desarrollar los siguientes paso de la metodo-
tivo recopilar información sobre los objetivos, logía correctamente es necesario realizar una reco-
funcionamiento y tecnologías utilizadas en la lección de toda la información referente a la aplica-
aplicación Web. ción desarrollada. En este caso, se cuenta que:
Es un sistema de comercio electrónico de artí-
2. Análisis de Riesgos del Negocio. Tiene como culos de computación.
objetivo verificar el nivel de riesgo, en cuanto a
inyecciones SQL, de la aplicación Web; argu- Fue desarrollado con el CMS Joomla versión
mentar la necesidad del firewall de aplicaciones 1.5 y como gestor de base de datos MySQL
Web y del de Base de Datos. 4.0.
3. Colección y Preparación de los Datos. Tiene Se encuentra de cara a internet y permite tran-
como objetivo recolectar y preparar los datos sacciones bancarias.
necesarios para el proceso de aprendizaje del
modelo para filtrar inyecciones SQL. Estos da- 2.3.2 Análisis de Riesgos del Negocio
tos dependerán del servidor de aplicaciones uti-
lizado y el gestor de bases de datos. Primer paso: definir el Dominio del Negocio
Debido al negocio que realiza el cliente, el dominio
4. Modelado. Tiene como objetivo definir los pro- correspondiente es Comercio Electrónico.
cesos y las técnicas de Minería de Datos que
más se ajustan a la solución del problema.
Segundo paso: definición del Grupo Tecnológi-
5. Evaluación. Tiene como objetivo verificar el co y Modelos Tecnológicos (MT).
buen funcionamiento del modelo definido. Tabla I. Grupos Tecnológicos y sus Modelos Tec-
nológicos correspondientes al negocio.
6. Despliegue. Tiene como objetivo desplegar el
modelo en un firewall de aplicaciones Web y en Grupo Modelos Tecnológicos
uno de Bases de Datos. Se verifica el funcio- Tecnológico
namiento del modelo en un entorno real. Tecnolog- Base de Datos (MySQL), CMS
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
ías Web (Joomla) gos con mayor alcance, para profundizar en todas
las debilidades que pueda poseer el negocio co-
rrespondiente.
Tercer paso: definición del Escenario de Inter-
acción. Tabla III. Definición de las Técnicas de Impacto
para el negocio
De los Escenarios de Interacción definidos por
CWRAF, el que se acoge con mayor exactitud al Impacto Capa Im- Explica-
negocio especificado es, el Suministrador de Ven- portancia ción
tas al Consumidor Basado en la Web (Web-Based Modifi- Apli- 9 Modificar la
Retail Provider, por su definición en inglés) cuyo cación de cación información de
identificador es retail-www. Datos los clientes, los
inventarios.
Cuarto paso: definición de los Valores del Con- Lectura Apli- 7 Lectura de
texto del Negocio (VCN) de Datos cación la tarjeta de
crédito de los
Tabla II. Definición del dominio de negocio y su clientes, de
escenario información de
los contacto y
Dominio Escenario Detalles la contraseñas
de Interacción
Ejecutar Apli- 10 Leer o mo-
Comer- Suministrador Es un sistema de un código o cación dificar tarjetas
cio Electró- de Ventas al cara a internet, con- comando sin de créditos,
nico Consumidor tiene en sus bases de autorización obtener o modi-
Basado en la datos números de ficar informa-
Web. tarjetas de créditos e ción personal,
inventarios. modificar el
MT: base de da- sitio web
tos, servidor Web,
servidor de aplicacio-
nes, sistema operati- El marco CWRAF, tiene definido una serie de esce-
vo de propósito gene- narios de interacción con sus definiciones de im-
ral. pactos correspondiente. Esta definición de impactos
VCN: necesidad pudiera ser de mucha utilidad para escenarios simi-
de confidencialidad – lares.
los clientes deben Calculando el peso del impacto con CWSS.
confiar en que sus
compras será envia- Las cuatro técnicas de impactos están asociadas a
das a sus hogares y las amenazas de inyecciones SQL. El mayor subva-
que sus tarjetas de lor entre los impactos es 10, el máximo valor defini-
créditos están segu- do para las técnicas de impacto. Por lo tanto el
ras. peso del impacto es 1.
Necesidad de la
privacidad de la in-
formación – es nece-
Sexto paso: Toma de decisiones.
sario la protección de Debido al gran riesgo que presenta este sistema
la información de los con respecto a ataques de inyecciones SQL, y la
clientes. importancia de la información que maneja, se deci-
de utilizar un firewall semántico para el filtrado de
Quinto paso: Unión de los valores del negocio y ataques de inyecciones SQL; por lo que se continua
las debilidades con el proceso de desarrollo de esta metodología.
Como esta metodología pretende mitigar inyeccio-
nes SQL, solo se pondrán las técnicas de impactos 2.3.3 Colección y Preparación de Datos
asociadas a esta debilidad del software. En el pro-
En el proceso de colección y preparación se están
ceso de desarrollo de la metodología, si los espe-
utilizando los registros de la base de datos OSVDB
cialistas desean, pueden hacer un Análisis de Ries-
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
publicada hasta Junio del 2010. En esta base de Distribución de los registros de prueba me-
datos se encuentran registrados 376 vulnerabilida-
des por inyección SQL en joomla, y de estas 299 diante la Regla de Asociación:
cuentan con la sentencia de inyección. Para la in-
vestigación solo se tomará de la tabla ―vulnerabili-
ties‖, el campo ―manual_notes‖, donde se encuentra
el registro de sentencias de inyección. Estos regis-
tros datan desde el 23 de Agosto del 2007 hasta el
30 de Junio del 2010.
2.3.4 Modelado
Identificación de los términos
Dado el funcionamiento del CMS Joomla para este
negocio en particular, y los registros de inyecciones
SQL en la base de datos de vulnerabilidades
OSVDB correspondiente, se definen los términos
que quedarán representados. Es necesario reflejar
tanto los términos del CMS Joomla, como los del
Figura 2: Distribución de SQLi mediante Regla
gestor MySQL, ya que basado en la combinación
de Asociación.
de estos dos se realiza una inyección SQL.
Esta técnica reflejó una distribución bien defini-
da, denotándose 14 falsos negativos.
Selección de la técnica de modelado
La herramienta seleccionada por la investigación es Distribución de los registros de prueba me-
Rapidminer por el gran número de formatos que
soporta, lo que facilita la adquisición de los datos diante SVM:
por la herramienta [10]. Posee varias técnicas para
el análisis de Minería de Datos, y sobre Rapidminer
puede definir el flujo completo del proceso de mi-
nería en cuestión.
Naive Bayes, esta técnica no solo modela de forma
cualitativa el conocimiento sino que además expre-
san de forma numérica la fuerza de las relaciones
entre las variables. Es un algoritmo realizado para
trabajar bajo incertidumbre debido al uso explícito
de la teoría de la probabilidad [11].
En la construcción del modelo se utilizaron un total
de 226 inyecciones SQL a Joomla, a través de la
URL, y 203 peticiones del flujo normal sistema. Se
reservaron 5 inyecciones SQL contemporáneas a la
muestra de entrenamiento, 55 inyecciones SQL con
fecha de publicación del 7 de Julio del 2010 hasta
el 1ro de Agosto del 2012, y 21 peticiones normales Figura 3: Distribución de SQLi mediante SVM.
a la aplicación, para la evaluación del modelo.
Esta distribución a pesar de solo denotar siete
falsos negativos, no se encuentra también reflejada
como la anterior. Los márgenes de confidencia si y
no, son muy estrechos, lo que pudiera incrementar
el número de falsos negativos al incrementarse el
números de casos a filtrar.
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
Certeza: 81.58%.
Certeza 94.74%
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”
“Informática 2013”
TCA2013 1
Resumen— Como apoyo al curso de “Aprendizaje automático” fundamental en la navegación de los robots móviles. Estos
de la Maestría de Cibernética Aplicada se propone una práctica deberán ser capaces de adaptar sus habilidades de forma que
de laboratorio sobre Aprendizaje por refuerzo, consistente en la puedan reaccionar adecuadamente en un medio externo
simulación de la navegación de un robot utilizando el algoritmo complejo, desconocido y dinámico. Un buen método para
de Q-learning. Para ello se brinda la concepción, los fundamentos
alcanzar este objetivo es el aprendizaje por refuerzo (RL)
teóricos del aprendizaje por refuerzo y se propone la simulación
del Robot RICIMAF desarrollado en el Instituto de Cibernética,
debido a que no es necesario el conocimiento completo del
Matemática y Física con un simulador de Robótica. Así se logra entorno y permite al robot aprender en línea.
una mejor comprensión del tema de Aprendizaje por refuerzo El aprendizaje automático es un término tomado del estudio
durante la docencia del curso. del aprendizaje de los animales y también está relacionado con
la teoría de los autómatas de aprendizaje de control
automático. El aprendizaje automático puede ser utilizado para
Palabras Clave — Robótica, aprendizaje por refuerzo, conocer las salidas desconocidas deseadas al dotar a los robots
algoritmo Q-learning, práctica de laboratorio. autónomos de una evaluación adecuada de su accionamiento y
también puede ser utilizado para realizar el aprendizaje en
línea de los robots. El aprendizaje en línea y la adaptación son
I. INTRODUCCIÓN características deseables para cualquier algoritmo de
En la Maestría “Cibernética Aplicada”, mención Minería de aprendizaje de un robot que opera en entornos cambiantes y no
Datos, se imparte el curso “Aprendizaje Automático”. Uno de estructurados donde los robots exploran su entorno para
los temas a impartir es el de los algoritmos de Aprendizaje por recolectar suficientes ejemplos y adquirir la experiencia
refuerzo, sin embargo, a pesar de su fácil comprensión necesaria. En un medio exterior complejo, este requiere
intuitiva, se hace difícil el que los fundamentos de los mismos realizar un aprendizaje en línea mediante la interacción con el
sean asimilados en su concepción teórica y práctica por mundo real.
carecer de una práctica de laboratorio que permita diseñar y En este artículo se describirán los fundamentos y la
ejecutar los mismos en un ejemplo práctico. Las búsquedas metodología para la práctica de laboratorio consistente en el
realizadas en Internet de prácticas en cursos similares no han desarrollo de una red neuronal basada en una arquitectura de
arrojado resultados satisfactorios. aprendizaje por refuerzo y su aplicación para el aprendizaje de
Una de las aplicaciones más generalizadas de los algoritmos la evasión de obstáculos. La estructura del artículo es la
de aprendizaje por refuerzo es la navegación de robots móviles siguiente, primero se dan los fundamentos y la concepción del
autónomos. Si bien es cierto que la navegación de robots aprendizaje por refuerzo, posteriormente se describe la
reales con el empleo de estos algoritmos es un proceso costoso arquitectura de una red neuronal de aprendizaje por refuerzo
por la necesidad de realizar muchas iteraciones para obtener (RLNN) y la tarea de evasión de obstáculos basada en esa
una salida adecuada existen las herramientas de simulación arquitectura. Finalmente se proponen las herramientas para
adecuadas que permiten ejecutar estos algoritmos con realizar la simulación y los resultados esperados acorde con la
resultados cercanos a los reales y con un muy inferior costo, literatura consultada.
por lo que esta puede ser una opción viable.
Entonces, para darle solución al problema se propone en este
trabajo describir las ideas, algoritmos, los programas y el II. MATERIALES Y MÉTODOS
empleo de la simulación de robots móviles autónomos que El aprendizaje por refuerzo es una técnica de aprendizaje
permitan facilitar a los estudiantes la comprensión y la basada en prueba y error. En ella hay un decisor, denominado
aplicación práctica de estos algoritmos lo que deberá redundar agente el cual es colocado en un medio exterior (ver figura 1),
en una mejor calidad del proceso docente. el cual puede ser un laberinto para el robot. En cualquier
La investigación de los robots móviles autónomos tiene la momento, el medio está en un estado determinado que es uno
finalidad tanto para la comprensión del comportamiento dentro del conjunto de estados posibles, ejemplo el
inteligente como para la construcción de sistemas que exhiben movimiento de un robot en las direcciones posibles sin chocar
comportamiento inteligente. El evitar los obstáculos es la tarea
TCA2013 2
con las paredes. Una vez que una acción es tomada cambia el sensores. En el caso de que un robot se mueva en una
estado. habitación, este puede no conocer su posición exacta, ni la
posición exacta de los obstáculos, ni la posición objetivo por
lo que deberá tomar decisiones a partir de la información
parcial aportada por sus sensores ultrasónicos.
La política π define el comportamiento del agente y es una
representación de los estados del medio exterior y las
acciones: La política define la acción a ser tomada en
cualquier estado. Off-policy se denomina el método en el cual
el valor de la próxima mejor acción se realiza sin la
intervención de ninguna política. On-policy es cuando se
Figura 1. El agente interactúa con el medio. En cualquiera de emplea una política para determinar la próxima acción.
los estados del medio, el agente toma una acción que cambia el Las secuencias de las acciones desde el inicio hasta un
estado y devuelve una recompensa [Alpaydin, E., 2010] estadofinal es un episodio (episode) o una prueba (trial)
La obtención de un balance entre exploración/explotación es
La solución de la tarea requiere de una secuencia de acciones, uno de los problemas más difíciles del RL para el control. La
entre las cuales está la realización de la realimentación, política π utilizada determina el balance entre la exploración
raramente en forma de recompensa y solo cuando la secuencia del medio exterior y la explotación de lo ya encontrado, pero
completa es consumada. posiblemente esta sea una solución sub-óptima. Con la
La recompensa define el problema y es necesaria si queremos búsqueda aleatoria se alcanza una exploración máxima
un agente que aprenda. El agente aprendiz aprende la mejor mientras una política voraz da una explotación máxima
secuencia de acciones para un problema donde el “mejor” es tomando siempre la acción que tiene el mayor valor.
cuantificado como la secuencia de acciones que tiene una Para explorar, uno de los métodos más utilizados es la
mayor cantidad de recompensas acumuladas. Tal es el exploración (también llamada exploración
escenario del aprendizaje por refuerzo (RL). distribuida semi-uniforme) en donde con una probabilidad Є
Con relación a los métodos tradicionales, este se diferencia en seleccionamos una acción aleatoriamente uniforme entre todas
varios aspectos. Al RL se le llama “Aprendizaje con un las acciones posibles (arbitrariamente) utilizando una
crítico” lo cual es lo contrario al aprendizaje con un maestro distribución probabilística aleatoria y con una probabilidad de
que es lo que teníamos en el aprendizaje supervisado. Un 1-Є seleccionamos la mejor acción a utilizar. Este método es
crítico se diferencia de un maestro en este no dice que hacer un método de exploración indirecta en el sentido que no utiliza
sino cuan bien se ha accionado en el pasado; el crítico nunca ninguna información de una tarea en específico. No se quiere
informa por adelantado. La realimentación del crítico es continuar explorando indefinidamente pero si comenzar a
insuficiente y cuando llega, llega tarde. Esto conduce al sacar el máximo beneficio una vez que hemos realizado una
problema de “asignación de créditos”. Después de tomar exploración suficiente. Para ello, se comienza con un valor
varias acciones y obtener la recompensa, deben valorarse las alto de Єy gradualmente este va decreciendo. Necesitamos
acciones individuales realizadas en el pasado y encontrar los entonces estar seguros que la política es soft, o sea que la
movimientos que nos condujeron a ganar la recompensa para probabilidad de seleccionar cualquier acción a є A en estados s
registrarlas y “recordarlas” más tarde. En esencia, lo que є S es mayor que 0.
realiza un programa de aprendizaje por refuerzo es que Si la recompensa y el resultado de las acciones son no
aprende para generar un “valor interno” para los estados deterministas entonces tenemos una distribución probabilística
intermedios o acciones en términos “conociendo” que tan bien para la recompensa p(rt+i|st,at) de cuyas recompensas se toman
ellos nos están conduciendo al objetivo y como adquirir una muestras, y hay una distribución probabilística para el próximo
recompensa real. Una vez que el mecanismo de recompensa estado p(st+1|st,at). Esto nos ayuda a modelar la incertidumbre
interna aprende, el agente puede tomar una acción local para en el sistema que puede ser debida a fuerzas que no podemos
maximizar el mismo.El conocimiento se almacena en una tabla controlar en el medio exterior debido a la falta de
que contiene una estimación de la recompensa acumulada para conocimiento sobre el medio. Por ejemplo podemos tener un
alcanzar el estado objetivo desde cualquier estado inicial. robot defectuoso con determinados fallos que conlleva a no ir
La solución de la tarea requiere de una secuencia de acciones y a la dirección deseada y por consiguiente desviarse, o avanzar
desde esta perspectiva se puede utilizar un proceso de decisión menos o más de lo deseado.
de Markov para modelar el agente. La particularidad es que es En tal caso tenemos que
que en el caso de los modelos de Markov hay un proceso
externo que genera una secuencia de señales, por ejemplo el
habla, las cuales observamos y modelamos. En este caso sin (1)
embargo, es el agente el que genera la secuencia de acciones. Cuando la recompensa no es inmediata para cada estado de
En ocasiones, tenemos un proceso de decisión de Markov transición, las recompensas necesitan propagarse de alguna
parcialmente observable en los casos en que el agente no forma “hacia- atrás” (backwards) a través del histórico de los
conoce su estado exactamente. Este deberá inferir con una estados. Esto es realizado por los métodos de diferencia
cierta indeterminación mediante la observación utilizando temporal (TD) bajo la suposición de que los estados
TCA2013 3
Función Selección-Acción
La red neuronal nos permite generar la función Q. El
conjunto de las posibles acciones esta dado por:
- a1: acción de girar a la izquierda
- a2: Ir hacia adelante
- a3: Acción de girar a la derecha.
La selección de la acción que el robot tiene que ejecutar está
basada en la política de Exploración/explotación (EEP), por
esa razón e utiliza el método voraz (ε – greedy) el cual
consiste en la selección de una acción de “voracidad” con una
probabilidad de ε y para seleccionar una acción aleatoria con
una probabilidad de 1 – ε
- p Є [0.1] un número aleatorio
- Si p< ε a “Exploración” donde a є A de todas las
acciones posibles.
- Si p>ε se selecciona
Figura 7. La función Q con una red neuronal artificial del
tipo MLP para el Q-learning.[Hatem M. et al. 2008].
(10)
Aprendizaje de las ANN
La red neuronal se basa en la actualización y ajuste de las Medio exterior
matrices de peso de una red neuronal utilizando la ecuación de La lectura del estado del medio exteriores realizada a través
actualización de un algoritmo clásico de Q-learning y el de los sensores que son colocados a tres lados del robot. Dos a
algoritmo de Back propagation. la izquierda, dos a la derecha y tres al frente. Los sensores son
La capa de salida del tipo de detección de proximidad (ultrasónicos). El ángulo
Para la matriz de peso de apertura de cada sensor varía entre –π/12 y π/12. El vector
de estado S es seleccionado de forma tal de obtener
(6) información sobre la existencia de obstáculos a los tres lados
Para los vectores de estado tenemos del robot.
Este vector está compuesto de siete variables binarias si
(7) donde i = 1,… 7. La selección de estas variables están hechas
Donde: de forma obtener cualquier información de cualquier cosa, por
Qobjetivo es una simplificación de la ecuación de optimización ejemplo, si si = 1, entonces hay un obstáculo cerca del robot, si
de Bellman la cual se da por la fórmula siguiente: si = 0 no hay obstáculos cercanos.
La figura 8 muestra el estado del medio exterior que da
valor al vector de estado S, tal que S = [1,1,0.0,0.0.0].
(8)
f: son las funciones de activación de las neuronas en la capa
de salida.
(9)
Donde:
f: son las funciones de activación de las neuronas en la capa
Figura 8. Estado del medio exterior [Hatem M. et al. 2008].
de oculta.
la presencia o ausencia de obstáculos en las tres direcciones, (1)-Initialize random weights W of the neural network;
izquierda, delante, derecha, lo que representa el estado del
medio exterior. El valor de esta función o la señal de refuerzo (2) Give the initial position of the robot
está dada por: [(Xr(0),Yr(0),θr(0)];
r = - 1 si el robot choca con un obstáculo, 0 en otros casos,
+1 el robot avanza. Fork=1toiterationk
Resumiendo, los procedimientos de aprendizaje a seguir
para el algoritmo Q-learning se pueden enumerar de la forma (3)-Reading the State of the environment by the seven
siguiente: sensors (L,A, R);
1. Inicialización de la red neuronal.
2. Inicialización del sistema móvil autónomo del robot. (4)For a fixed state, calculation of the Q-function by the
3. Obtener el estado actual neural network for the three possible actions (TL,Ar,TR);
4. Obtener Q(S,b) para cada acción mediante la
sustitución del estado corriente y la acción en la red (5)-Determination of the optimal action is action which is
neuronal the maximum value of Q (optimal_Action->Max(Q));
5. Determinar una acción acorde con la ecuación: acción
= max(Q(S,b)) (6)-Run the optimal with probability ε; or random action
6. EL robot se mueve y obtiene el estado actual. with probability1-ε
7. Si falla (se produce la colisión), se genera el refuerzo =
-1 y regresa al estado de inicio de nuevo. (7)Reading the new state St+1 of the environment through
8. Generar Qtargetde acuerdo con la ecuación: sensors the Seven(G,A,D);
Qtarget(S,b) = g(S,b,y) + γmaxaєAQ(y,b)
Utilice Qtargetpara entrenar la red como se muestra en la (8)-Reinforcement;
Figura 9.
9. Repetir 3-8 hasta que el robot aprenda. (9)-Test of Reinforcement
(epochs) incluye 1000 pasos, y un paso consiste en un par de realización de la simulación con algunas de las
observación-acción. Al final, el robot deberá moverse en un herramientas puestas a disposición de los estudiantes
entorno sin experimentar ninguna colisión. (V_REP, Simbad o MRDS) y comprobar las ventajas del
algoritmo RLNN sobre el RL simple.
REFERENCIAS
[1] [1] Huang B. et al. Reinforcement Learning Neural Network to the
Problem of Autonomous Mobile Robot Obstacle Avoidance.Proceedings
of the Fourth International Conference on Machine Learning and
Cybernetics, Guangzhou, 18-21 August 2005 (hybrid&fuzzy/NN-
Q.pdf).
[2] [2] Hatem M. et al., Simulation of the navigation of a mobile robot by
the Q Learning using artificial neuron networks. University Hadj
Lakhdar of Batna-Algeria-Faculty of Engineering Department of
Electronics. 2008 (simulación/81.pdf)
[3] [3] Alpaydin, Ethem. Introduction to machine learning. 2010
Massachusetts Institute of Technology.
[4] [4] Heaton J. Introduction to Neural Networks for Java. Second
Edition.Heaton Research, Inc. 2008.
(a) Número de colisiones del robot con obstáculos. [5] [5] Heaton J. Introduction to Neural Networks for C#, Second Edition.
Heaton Research, Inc. 2008.
[6] [6] FRÄMLING K. Reinforcement Learning in a Noisy Environment:
Light-seeking Robot. Laboratory of Information Processing Science
Helsinki University of Technology, 2002 (generals/NNA04final.pdf).
[7] [7] Guash R. et al., Desarrollo de un sensor de visión para aprendizaje
por refuerzo en robótica. Universidad de Alicante. 2009
(paper_161.pdf)
[8] [8] Pozo A. MODELO CINEMÁTICO DEL MINI ROBÓT MÓVIL
RICIMAF. 2011
[9] [9] Pozo A. et al. MODELO CINEMÁTICO DINÁMICO DEL MINI
ROBÓT MÓVIL RICIMAF. 2011.
Resumen— Con el avance de las tecnologías de la información, artículos ordenados; formalizados; publicados bajo la
las publicaciones científicas han alcanzado un gran auge a nivel responsabilidad de una institución, bien comercial o científico-
mundial, siendo las revistas digitales online en Internet un factor técnica, que certifique la calidad de los contenidos, y
significativo. La relación costo-beneficio de la impresión con el
distribuidos exclusivamente haciendo uso de los servicios y
empleo de las tecnologías de información (desktop publishing)
llegó a un punto en el que la producción electrónica se hizo valor añadido que aportan las redes teleinformáticas tales
obligatoria y generalizada, aun cuando persiste la publicación como Internet.
impresa y su distribución en papel como producto final. Cuba
cuenta con 110 revistas digitales certificadas por el CITMA con el PUBLICACIONES SERIADAS
objetivo de crear un espacio donde la comunidad científica
cubana pueda publicar y que sus artículos sean reconocidos en sus Una publicación seriada es aquella "editada en partes
Curriculums Vitae y por jurados y tribunales de diferente índole, sucesivas, que usualmente tiene designaciones numéricas y
grados, categorías científicas. En los años 80 el Instituto de cronológicas y pretende aparecer indefinidamente". Así, se
Cibernética, Matemática y Física perteneciente al CITMA, crea consideran publicaciones seriadas a las revistas, periódicos o
una publicación seriada en formato impreso con el nombre de diarios, boletines, anuarios, directorios, memorias de
“Control, Cibernética y Automatización” que con el paso del encuentros, actas institucionales, etc. (2)
tiempo se dejo de publicar. En el presente se crea un proyecto que
tiene como objetivo rescatar dicha revista pero en formato digital.
Los principales elementos de una publicación seriada son:
Por lo que la investigación se centra en definir las concepciones
para su diseño.
Título, subtítulo, designación numérica, designación
cronológica, periodicidad, lugar de publicación, editor,
Palabras Clave —revistas digitales, Control, Cibernética y dirección postal, ISSN, y dato de indización.
Automatización.
Una de las más importantes publicaciones seriadas son las
I. INTRODUCCIÓN revistas o publicaciones periódicas. El contenido esencial de
las revistas son los artículos escritos por diferentes autores
La introducción acelerada de tecnologías para el tratamiento sobre temas relacionados con las áreas de interés de un público
de la información, el surgimiento de nuevos lenguajes y lector, anuncios sobre eventos y cartas al editor. La edición de
formatos, el desarrollo de las redes de telecomunicaciones y las revistas está bajo la responsabilidad de un editor o un
los servicios en línea asociados a ellas, y la evolución y uso grupo de editores y de un comité editorial que ayuda al editor
intensivo de la Internet, son los principales factores que han en la revisión de los artículos para su publicación.
influido en la aparición y desarrollo de las publicaciones
electrónicas. La aplicación de estas tecnologías en la industria FACTOR DE IMPACTO EN REVISTAS ELECTRÓNICAS:
de la publicación facilita la aparición de nuevos tipos de
materiales en el mercado. El número de revistas científicas a nivel mundial se estima en
más de 16.000 y no para de crecer. Sin embargo, no todas las
Una publicación electrónica es una forma superior de revistas tienen la misma calidad, por lo que los profesionales
publicación soportada en medios electrónicos y que apoyada de la información y documentación científica, investigadores y
en las posibilidades de los programas modernos para el responsables de la evaluación necesitan disponer de
tratamiento y acceso de la información ofrece vastas indicadores cuantitativos que midan su calidad y les faciliten la
facilidades de interacción hombre/publicación de manera local toma de decisiones en la selección de revistas para la
o mediante el uso de redes de comunicación. (1) formalización de suscripciones, el envío de manuscritos y la
evaluación de la actividad científica (3).
Un ejemplo concreto de esto es el surgimiento de las revistas
electrónicas, como una nueva forma de comunicación El indicador bibliométrico más utilizado para estos fines es el
científica que permiten distribuir información a miles de factor de impacto (FI), ideado inicialmente por Eugene
personas con mayor rapidez y menores costos. Garfield .El FI de una revista es el número medio de veces que
son citados en el año actual los artículos de esa revista
Partiendo de lo antes expuesto debemos referirnos entonces a publicados en los dos últimos años. Se calcula en cada revista
qué son las revistas electrónicas (RE), son aquel conjunto de estableciendo la relación entre las citas que en un año han
TCA2011 2
recibido los trabajos publicados durante los dos años II. MATERIALES Y MÉTODOS
anteriores y el total de artículos publicados en ella durante
esos dos (4, 5). METODOLOGÍA:
México cuenta con 8 revistas registradas con factores de A que grupo objetivo va dirigida.
impacto entre 0,23y 3,2. Una se encuentra redactada en el
idioma inglés, 6 son bilingües y 1 en español. Frecuencia de publicación.
Lograr contribución tanto nacional como E-ditor 3.0.1: Potente herramienta para crear documentos,
internacional (autores reconocidos y artículos de multimedia. ...electrónicos, revistas digitales, catálogos. Corre
calidad y actualidad se publiquen en la revista). sobre los sistemas operativos Win98/98SE/Me/2000/XP.
Publicación de artículos que permitan a la revista Permite crear publicaciones digitales. Corre sobre los sistemas
consolidarse a nivel mundial en el área de las operativos WinXP/Vista/7.
ciencias. OJS- Open Journal System: Permite la gestión de una o varias
Hacer llegar las publicaciones a los lectores de forma revistas electrónicas, es software libre y multiplataforma.
periódica.
Lograr una edición de artículos bilingüe (al menos en Después de un análisis realizado se escogió para el desarrollo
un comienzo y luego multilingüe) el Open Journal System (OJS) que es una solución de código
abierto para la gestión y publicación en edición electrónica de
PROCESO DE CERTIFICACIÖN DE LA REVISTA. revistas científicas. Se trata de un sistema de gran flexibilidad
para los editores de una revista que apoya en la gestión y
Para publicar una revista es necesario obtener un certificado edición, el cual se puede descargar de forma gratuita y e
de inscripción documento que legaliza la existencia de estas instalarse en un servidor web local. Ha sido diseñado para
publicaciones y autoriza su circulación. (11) reducir el tiempo y la energía dedicadas a las tareas
administrativas relacionadas con la edición de una revista, a la
1. Carta de solicitud de inscripción: dirigida al Director vez que mejora el mantenimiento de registros y la eficiencia en
de la Dirección de las Publicaciones Periódicas en los procesos editoriales. Su objetivo es mejorar la calidad
ella se solicita la aprobación para la inscripción de la académica y pública en la edición de la revista a través de una
publicación. serie de innovaciones, desde hacer más transparentes las
2. Proyecto de publicación: se encabezara como políticas de la revista a mejorar la indexación. Sus
proyecto de publicación seriada. Deben especificarse características principales son: instalación y gestión local; los
los seis puntos siguientes: titulo, objetivos y alcance, editores configuran los requisitos, secciones, procesos de
características principales, política editorial en cuanto evaluación, etc.; Envío electrónico, revisión de doble ciego, y
a publicidad, autofinanciamiento. gestión de todo el contenido; Módulo de suscripción con
3. Carta de aval: se deberá presentar una carta firmada opciones de acceso abierto, de embargo y de acceso
por el ministro del organismo al que pertenece el restringido. Indexación integral del contenido; Herramientas
centro donde se hará la publicación en la que exprese de Lectura para el contenido, basadas campos y en la elección
su conformidad y avale el proyecto que se presente. del editor; Notificaciones a través del correo electrónico y
Las publicaciones seriadas están llamadas a ocupar un posibilidad de comentarios para los lectores; Ayuda y soporte
importante lugar en INTERNET, por ser instrumentos electrónico completo y sensible al contexto; Módulo de pagos
imprescindibles en la difusión y divulgación de todo para tasas de la revista, donaciones, etc. (12)
aquello que se produce para el conocimiento público en
los diversos campos y esferas de la sociedad. Aquellas
DEFINIR SECCIONES:
que proyecten difundirse a través de INTERNET deberán
cumplir, de acuerdo con sus objetivos y perfiles temáticos, Para definir las secciones con que va a contar la revista se
los requisitos siguientes: realizó un estudio de algunas revistas de control automático
a) estar inscrita como publicación electrónica en el que poseen impacto a nivel internacional. Las revistas
Registro Nacional de Publicaciones Seriadas, analizadas fueron: Asian Journal of Control, Control
b) mantener objetividad y alto nivel profesional, Engineering Practice, Engineering Applications of Artificial
c) exponer los más genuinos valores nacionales, Intelligence, Journal of Process Control, Automática: Estas
d) dar a conocer las realizaciones más importantes y revistas cuentan entre sus principales secciones (13):
novedosas de nuestro en las diferentes esferas,
e) destacarse por su presentación formal y estética, Equipo editorial, Guías para los autores, Envío artículos,
f) cumplir rigurosamente la periodicidad prevista para la Números publicados, Alertas de nuevo contenido, Mejores
edición de cada número. artículos, Noticias, Suscripción, Artículos más citados,
Artículos más leídos.
Utilizando las ventajas de trabajar con una herramienta
HERRAMIENTAS PARA DESARROLLO: configurable como lo es el OJS y tomando de guía el estudio
realizado se definió para la revista las siguientes secciones:
Para el desarrollo de revistas digitales existen disímiles Inicio, Acerca de la revista, Área personal, Buscar, Actual,
herramientas entre ellas se pueden mencionar: Archivo.
Ikatz en Casa 2.2.0.0: Permite crear álbumes y revistas
digitales. Corre sobre los sistemas operativos
WinMe/XP/Vista/7.
TCA2011 4
Acerca de la revista: Esta sección contiene información acerca Además en esta edición se tiene como objetivo publicar los
del Equipo editorial, Política de secciones, Política de acceso mejores vente artículos expuestos en el Taller de Control
abierto, Envíos online, Declaración de privacidad, Mapa del Automático de ICIMAF 2011.
sitio, Acerca de este sistema de publicación. En la imagen 1 que se muestra a continuación aparece la
interfaz de la revista.
Área personal: Le da al usuario la opción de modificar sus
datos personales dependiendo el rol que desempeñen el sitio.
Rol Opciones
Gestión del sitio
Gestor/a de revistas
Funciones administrativas
Páginas de gestión
Editor/a
Gestión Usuarios/a
Roles
Autor/a Realizar envíos.
Resumen— Este trabajo se realiza un análisis de los Sistemas regidos por estándares industriales bien definidos, tales como
de Control Distribuidos (DCS). Se comienza con el modelo IEC, XML, PROFIBUS, Ethernet, TCP/IP, OPC, ISA. Lo cual
piramidal de automatización y el concepto de integración, para facilita grandemente la selección de los componentes, reduce
llegar a definir la arquitectura de un DCS. Luego se realiza una
los costos en piezas de repuesto, posibilita futuras
comparación entre los sistemas ofertados por los fabricantes más
conocidos de equipos para la automatización de procesos. Se ampliaciones y sobre todo, aumenta la estabilidad del sistema.
realiza una comparación de los sistemas teniendo en cuenta La característica de integración vertical es la comunicación
funcionalidades y equipamientos, bajo la premisa que se trabaja de datos de forma transparente, desde el Nivel 0 hasta el Nivel
para una industria de procesos de gran complejidad, como una 4. Aquí vale destacar, la creciente convergencia entre
refinería. También se define el uso de los sistemas de alta automatización y las TICs.
disponibilidad y la necesidad de un sistema integrado de
En función de las necesidades concretas se puede elegir
seguridad y protección.
distintas arquitecturas para el sistema de automatización. Este
Palabras Clave — control automático de procesos, control modelo piramidal con gran integración es flexible y se ajusta a
distribuido, disponibilidad, seguridad. las necesidades del usuario. En los inicios de un proyecto,
basta con cubrir los tres primeros niveles para que la planta
pueda operar de forma automática. El objetivo que se persigue
I. INTRODUCCIÓN con el sistema y la envergadura del proceso tecnológico es
En una planta de procesos, el sistema de control es el entonces el que define la cantidad y distribución del
encargado de mantener los puntos de operación dentro de los equipamiento.
valores adecuados, disminuyendo la intervención directa del
operador. Para conseguir su objetivo debe contar, como II. MATERIALES Y MÉTODOS
mínimo, de un elemento que cuantifique el estado de cada una
de las variables, un elemento inteligente que basándose en A. Las diferentes arquitecturas de los sistemas de
estos valores decida qué acciones realizar, un tercer elemento automatización industrial.
que materialice dichas decisiones, y por último un canal de Una arquitectura, es un modelo y una descripción funcional
comunicación entre ellos. La instauración de este tipo de de los requerimientos y las implementaciones de diseño para
sistema es de vital importancia ya que con él viene las diferentes partes del sistema.
acompañado un aumento de la productividad y la calidad del Para un sistema automático industrial existen diferentes
producto terminado, lográndose además disminuir el consumo elementos que diferencian una arquitectura de otra. Si se
de energía y materiales. utiliza como base la uniformidad del equipamiento, las
Teniendo en cuenta que los sistemas de producción arquitecturas pueden ser divididas en heterogéneas y
continuos pueden ser vistos como una organización jerárquica homogéneas. Las homogéneas usan elementos de un mismo
en forma de pirámide con varios niveles, se hace lógico que el tipo y un mismo fabricante, garantizando al máximo la
modelo piramidal de automatización sea el más difundido. compatibilidad a nivel de interconexión entre ellos, pero si
Según la referencia [1], este modelo cuenta con cinco niveles: este no abarca una función específica no es posible
Nivel 0 Proceso, Nivel 1 Control, Nivel 2 Supervisión, Nivel 3 implementarse. Entonces la solución que más se apega al
Planificación. Nivel 4 Empresa. concepto de total integración, es el de maximizar el empleo de
Actualmente se requieren soluciones en las que se reduzca la tecnología de un fabricante y sólo recurrir a otros para
al máximo los tiempos empleados en el desarrollo de los funciones puntuales. No cubiertas por el primero o mejor
sistemas; desde el diseño hasta la puesta en marcha. Además cubiertas por otros.
de esto se necesita que el sistema cuente con una mayor Por otra parte, si se utiliza como elemento diferenciador la
disponibilidad y flexibilidad. Estas son las causas que llevan al morfología de las conexiones se agrupan en:
desarrollo del concepto de Automatización Totalmente Centralizada. En este existe un único elemento donde
Integrada (TIA), que no es más que lograr la máxima radica la lógica de control, y a él se conectan directamente
integración, en y entre, los diferentes niveles de la pirámide de todas las señales de entrada - salida del proceso.
control. Descentralizada. En estas las diferentes señales están
La integración horizontal conlleva a que todo el proceso de conectadas a módulos de entrada – salida que no se
producción utilice componentes de hardware y software encuentran físicamente unidos al equipo de control. Esta
TCA2012 2
estos costos, junto con requisitos en cuanto a la seguridad del cuenta las condiciones que esté enviando al proceso el DCS,
personal, la maquinaria, el medio ambiente y el proceso, es responsabilidad del sistema de enclavamiento. Este sistema
confieren una importancia creciente a la disponibilidad de los de acuerdo a los nuevos estándares equivale al Sistema
sistemas en uso. Instrumentado de Seguridad (SIS). Este sistema cuenta con:
Algunos de los principales campos de aplicación de los
sistemas de automatización de alta disponibilidad son los Iniciadores (presostatos, interruptores de nivel, detectores
siguientes: generación y distribución de energía, química y de gases, etc) o sensores que detecten variables críticas
petroquímica, petróleo y gas, refinerías, industria del proceso, independientes a los utilizados por el DCS.
farmacéutica, centrales abastecedoras y depuradoras de aguas, Elementos de acción final (válvulas de corte, válvulas
entre otros. automáticas actuadas por medio de electroválvulas, etc).
La alta disponibilidad en los sistemas de automatización se Solucionador lógico (Logic solver). Elemento de
consigue mediante una estructura redundante, que hace posible hardware y aplicaciones de software, que desarrollan la
que se pueda seguir controlando el proceso de producción lógica del sistema.
incluso si se presenta una avería. Para lograr que la Consola de operación. En ellas el operador puede acceder
redundancia sea lo más completa posible es necesario que a los sistemas de enclavamiento o funciones
abarque cada uno de los elementos del sistema. instrumentadas de seguridad y actuar sobre ellas).
La alimentación eléctrica existente en la industria Pueden existir elementos tales como pulsadores,
normalmente es de 110 – 240 VAC, o superior, y la tensión conmutadores y lámparas de señalización.
necesaria para los diferentes equipos es de 24 VDC. Por esta
razón se hace necesario conectar fuentes de alimentación. Además de estos elementos básicos, en ocasiones es
Para lograr la redundancia a este nivel se debe conectar una necesario disponer de una derivación (by-pass) para iniciar la
fuente más, en paralelo a las fuentes necesarias. Con esto se operación. Esto se debe a que existen elementos iniciadores
logra suministrar la corriente necesaria en caso de que una que impiden la puesta en operación de un equipo si no se
fuente falle. Además se debería conectar un banco de baterías dispone de un medio para anularlo temporalmente. Como
de respaldo (back up) para alimentar los armarios en caso de ejemplo: un equipo que esté fuera de servicio que va a ser
que falle la alimentación eléctrica. puesto en operación va a dar señal de bajo caudal y no lograría
En el equipo donde se realiza el control, las modalidades se arrancar nunca.
diferencian en la duración del tiempo de conmutación. Esto no Debe existir también un botón de paro de emergencia, el
es más que el tiempo en que se pasa del sistema maestro a la cual debe estar accesible al operador, pero protegido para
estación de reserva, y pueden ser: tiempo de conmutación evitar activación por accidente. Su función es abrir el circuito
largo (Warm-Stand-by, ≥ 1 s) y tiempo de conmutación corto de alimentación eléctrica a los elementos de acción final, por
(Hot-Stand-by, <100 ms). El más empleado es este último. En lo que lleva la planta a una posición segura. Este prevalece
él, ambos subsistemas están siempre trabajando, y si se sobre cualquier derivación.
produce un fallo, el equipo intacto sigue controlando el
proceso. El sistema operativo es el encargado de realizar III. RESULTADOS Y DISCUSIÓN
autónomamente todas las funciones complementarias, tales
como: intercambio de datos, reacción ante fallos (conmutación A. Descripción del proceso de destilación atmosferica
al equipo de reserva), sincronización de ambos subsistemas, y La figura 2 muestra un esquema típico para una Unidad de
autochequeo. Destilación Atmosférica (UDA), en una refinería de petróleo.
El sistema debe contar con dos vías de comunicación: una En ella el crudo es precalentado (1), desalado (2) y entra al
principal y otra de reserva. Cada vía debe estar compuesta por tren de precalentamiento (3) donde adquiere calor de otros
un cable independiente, y en cada equipo se debe contar con reflujos más calientes. De aquí pasa a un horno (4) donde
una interfaz capaz de atender cada vía. eleva su temperatura hasta los 675 a 725 °F necesario. Esta
La estación de operación también debe poder seguir en corriente caliente entra en la torre de destilación atmosférica
funcionamiento ante un fallo por lo que deben instalarse (5) donde los componentes más ligeros se vaporizan y
varias, y cada una debe contar con una vía de datos asciende. La torre cuenta con recirculaciones laterales para
independientes. garantizar el intercambio liquido-gas necesario en cada una de
Aunque estos sistemas de alta disponibilidad reducen al sus zonas. Los productos que se obtienen, empezando por el
máximo la posibilidad de una posible emergencia, siempre tope, son: nafta virgen ligera y pesada, varsol, keroseno y
queda un pequeño margen para que esta ocurra. Por esta razón diesel; además se obtienen gas de baja presión y residuo
[2] plantea que independientemente del sistema de control, el atmosférico, que pasan a ser carga para otras unidades. Cada
proceso debe ser vigilado por otro sistema que lo mantenga uno de los productos terminados pasa al despojador
dentro de los parámetros de seguridad. correspondiente (7, 8, 9, 10). Los vapores son devueltos a la
torre principal por debajo del plato superior al de extracción,
D. Sistema Instrumentado de Seguridad (SIS)
mientras que los fondos pasan a enfriarse y son bombeados a
Lograr llevar la unidad a condiciones seguras, sin tener en tanque.
TCA2012 4
extensión a dos concentradores. Del cuarto de control, zona comunicación industrial que da vida al sistema de control. Se
sombreada un gris, salen 15 cables de bus de instrumentación optó por un sistema redundante
que se distribuyen por toda la Unidad y cuatro cables de bus debido a la necesidad de maximizar
de periferia sobre 485 IS para la comunicación con los el tiempo de funcionamiento de la
concentradores. Los cables de BI están conectados a unidad, ya que las pérdidas
acopladores BP/BI que conforman tres Enlaces BP/BI, que su económicas existentes durante un
vez se conectan al BP del sistema anterior a las barreras de periodo de no refinación son
seguridad intrínseca. Este bus parte de las tarjetas de cuantiosas.
comunicación BP que se agregaron en la AS con este fin.
También se agregaron las tarjetas de comunicación para BS, REFERENCIAS
cada una de estas se conectan a un switch, los cuales están [1] L.C. Pérez Rivas, “Modelos de
interconectados en doble anillo mediante fibra óptica. A estos automatización,” FONACIT, Mérida,
2006.
se conectan los servidores, estableciendo una conexión entre la [2] J. Acedo Sánchez, Instrumentación y control básicos de procesos.
tarjeta de BS y otro puerto del switch. El bus de estaciones se España : Díaz de Santo, 2006, pp. 299-353.
conforma con otros dos switch interconectados del mismo [3] J. Acedo Sánchez, Control Avanzado de Procesos. Teoría y Práctica.
modo. A ellos se conectan, usando la tarjeta de red de la placa España: Díaz de Santo, 2003, pp. 137 – 149.
[4] D. M Considine, Process Instruments and Control Handbook. Tomo II.
base, los servidores, los clientes y la estación de ingeniería. Cuba: Ediciones Revolucionaria, 1968.
Esta última también emplea una tarjeta de BS, para conectarse [5] Experion Platform CEE-based Controller Specifications and Technical
el bus del sistema. Data, Honeywell, 2004.
[6] I/A Series System DIN Rail Mounted Subsystem User’s Guide, Foxboro,
2007.
IV. CONCLUSIONES [7] CENTUM VP System Overview, Yokogawa, 2008.
[8] Sistema para control de procesos SIMATIC PCS7, Siemens, 2003.
En el desarrollo de este trabajo se ejecutaron todas las tareas [9] Seguridad contra fallos mediante PLC SIMATIC S7 de alta
concebidas para el cumplimiento de su objetivo general, disponibilidad, Siemens, 2004.
diseñar un Sistema de Control Distribuido para la Unidad de [10] Sencillo, Flexible y Fiable. Process Safety con SIMATIC Safety
Integrated, Siemens, 2004.
Destilación Atmosférica en una refinería de petróleo. Para
conseguirlo se utilizaron como base los conceptos del modelo Alfredo Tablada Crespo y los otros autores pueden incluir sus biografías al
piramidal de automatización, el de automatización totalmente final de la última versión de la ponencia, no en la primera versión a ser
integrada y las diferentes arquitecturas para sistemas de enviada a los revisores. La biografía puede contener lugar y/o fecha de
nacimiento, educación del autor, grados científicos (en qué campo,
automatización industrial. institución, ciudad o país, y año en que se ganaron). Además, puede listar
Se realizó un estudio de los Sistemas de Control Distribuido experiencias de trabajo, incluyendo estancias posdoctorales; mencione la
ofertados por cuatro fabricantes, en el cual: se definió una ubicación de su trabajo actual. Información sobre publicaciones anteriores
puede ser incluida. Los intereses de investigaciones actuales y anteriores,
configuración típica para este tipo de sistema. membresías en sociedades profesionales, y premios también deben ser
Se seleccionó todo el equipamiento necesario, comenzando incluidos. Por favor, proporcione su dirección postal y/o correo electrónico
por los sensores y actuadores en el nivel de proceso, hasta las para permitir el contacto. Si se incluye una fotografía, la biografía se colocará
estaciones clientes de operación, en el nivel de supervisión. La alrededor de ella. La fotografía se coloca en el extremo superior izquierdo de
la biografía.
elección fue realizada garantizando al máximo la integración
entre dispositivos en un mismo nivel y de este con el superior.
Todos estos equipos se interconectaron en la red de
Intente igualar las dos columnas en la última página
Programa de computación para la simulación de una planta industrial de
separación de gases en base a membranas de zeolita
Parte II. PROGRAMA PSAMemb 1.1.
RESUMEN
En el trabajo se presenta un software en Qt-creator basado en el modelo y el algoritmo
desarrollados previamente en el marco del proyecto PSAMemb. En el trabajo se dió
solución a la modelación matemática-computacional de tres de los esquemas
tecnológicos clásicos para la separación de gases con membranas de propiedades
adsortivas. El software consta de un programa principal, dos programas auxiliares, dos
que forman parte del paquete de instalación de la Borland Software Corporation para la
gestión de bases de datos, y tres programas elaborados en proyectos anteriores para la
separación de gases por tecnologías de columnas de zeolitas. El impacto de este
proyecto es en los terrenos científico y tecnológico, donde se contribuirá con una
herramienta muy poderosa para el diseño de materiales porosos y de tecnologías de
enriquecimiento de mezclas gaseosas.
ABSTRACT
In this work, a Qt-creator program based on the model and on the algorithm previously
developed by the same group in the frame of the PSAMemb project is presented. In this
work, a solution was reached for the mathematical-computational modelation of three of
the classical technological schemas for gas separation with membranes having adsorption
properties. The software consists of a principal program, two auxiliary programs, other two
been included in the installation package of the Borland Software Corporation for the
management of databases, and three programs elaborated in previous projects for gas
separation by zeolite towers. The project´s impact is in the scientific and technological
fields, where a very powerful tool will contribute to design of porous materials and
processes for enrichment of gas mixtures.
_____________________
1
Departamento de Control Automático, Instituto de Cibernética, Matemática y Física, CITMA, 15 # 551, entre C y D, Vedado,
CP 10400, La Habana, Cuba. *cgonzáles@icmf.inf.cu
2 Universidad de las Ciencias Informáticas, MIC, Autopista de San Antonio de los Baños, Km. 1½, Torrens, Municipio
Boyeros, La Habana, Cuba, ymartinezd@uci.cu, iaguevara@uci.cu
1. INTRODUCCIÓN
La entrada de datos se efectúa mediante cuadros visuales que conservan las últimas
entradas con el fin de que sean repetidas a voluntad del usuario. Se tuvo cuidado de
mantener una congruencia entre el almacenamiento y las salidas de datos de los
programas auxiliares tales como el TRANSMOL y el ATOMPORE para que se
pudieran integrar en el paquete sin mayores dificultades. Los programas ONAEQ1 y
ONAEQ2, realizados en base al lenguaje Delphi7, fue integrado mediante ejecutables,
manteniendo su formato propio de entrada y salida, aunque se prevé su conversión a
C++ en versiones posteriores para lograr una mayor uniformidad.
El programa realiza los cálculos en lazos sucesivos que simulan secuencialmente los
procesos que ocurren en el equipo o planta de membranas, aunque algunos de estos
procesos ocurren en realidad de forma paralela, lo cual abre la posibilidad de emplear
ese tipo de esquema de programación si el tiempo de las corridas llegara a ser un
problema en las simulaciones.
Selección de esquema
Proceso P2
M1M2 M3 M5
Proceso B
M5
Proceso P1
M1 M2 M3 M4 M6
M6
Hasta |µDi- µDi-1|<0,01
Salida de resultados
2.2. Implementación:
Tabla Experimento
temperatura: Almacena la temperatura del sistema, la cual se considera constante
para cada experimento.
nombre: Nombre del experimento realizado.
constr: Valor de la constante Universal de los gases, se almacena con el objetivo de
relacionar, sobre todo, la cantidad de cifras significativas con que se trabaja, y así se
pueda tener en cuenta en el análisis de aproximación.
fechaExp y horaExp: Almacenan los datos de la fecha y hora en que se realizó el
experimento. Estos datos no constituyen entrada del usuario, sino que el programa los
toma directamente del Sistema operativo.
pPrima: Almacena la velocidad a la cual varía la presión en el tiempo.
fmN: Almacena la fracción molar de uno de los componentes en el gas de
alimentación, que constituye un dato especificado por el usuario.
Tabla DatosIniciales
idExperimento: Este dato tiene la conexión con la tabla experimento, constituye una
llave foránea de esta tabla, pues se debe conocer a qué experimento corresponden
los datos de la tabla.
volumenA,1,2 y D: Almacena los datos de los volúmenes de cada uno de los
depósitos que conforman la instalación.
presion1,2,3,4,5,D yJ: Almacenan los datos de las presiones en los depósitos, que
constituyen entradas de datos del usuario.
Tabla Resultado
idExperimento: Este dato tiene la conexión con la tabla experimento, constituye una
llave foránea de esta tabla, pues se debe conocer a qué experimento corresponden
los resultados obtenidos.
fmA,1,2 y D: Almacenan los valores de las fracciones molares de nitrógeno que
quedan en cada depósito después del último ciclo del experimento.
nODA, nNDA: Cantidades de moles en el depósito inicial después del último ciclo del
experimento.
nOD1, nND1: Cantidades de moles en el depósito 1 después del último ciclo del
experimento.
nOD2, nND2: Cantidades de moles en el depósito 2 después del último ciclo del
experimento.
nOD, nND: Cantidades de moles en el depósito final después del último ciclo del
experimento.
nOP, nNP: Cantidades de moles del gas producido después del último ciclo del
experimento.
nOW, nNW: Cantidades de moles del gas liberado a la atmósfera después del último
ciclo del experimento.
Presion4,5,6,7,8,9,i,ii: Presiones iniciales, finales o intermedias en cada depósito que
influyen en la obtención del resultado del experimento.
2.6. Ejecución.
El sistema cuenta con una ayuda breve que guiará al usuario a través del
proceso de utilización del PSAMemb si fuera necesario.
3. RESULTADOS Y DISCUSIÓN
Los tiempos de ejecución del programa en las pruebas realizadas fueron muy
satisfactorios. La duración de un experimento completo de simulación con
alrededor de 10 ciclos no fue mayor de 5 min. El segmento de programa más
consumidor de tiempo es la carga de los datos de las funciones de flujo de la base
de datos, lo cual debe ser motivo de optimización en versiones posteriores del
programa.
4. CONCLUSIONES
REFERENCIAS
1
Blatov, V. A., Shevchenko, A. P. Analysis of voids in crystal structures: the methods of ¨dual¨ crystal
chemistry, Acta Cryst., 2003, A(59): 34-44
2
Breck, D. W. Zeolite Molecular Sieves. New York, John Wiley & Sons Inc, 1974. 784
3
Velázquez Garrido, M., González González, C. R., Delgado Diez, B. Establecimiento de un método de
separación de oxígeno nitrógeno por un sistema VSA. Proceedings TECNOMAT 2000 (Edition in CD),
Ciudad Habana, 2000
4
Ruthven D.M., Farook S., Knaebel K.S., Pressure Swing Adsorption, VCH, 1993.
5
Bhave, R.R. (Ed.), Inorganic Membrane Synthesis, Characteristics and Applications, Van Nostrand
Reinhold, New York, 1990
6
Burggraaf, A.J., Cot L., Membrane Science and Technology Series, 4. Fundamentals of Inorganic
Membrane Science and Technology, Elsevier, Amsterdam, 1996
7
Burganos V.N., Membranes and Membrane Processes, MRS Bulletin, March 1999, 19-22
8
Morooka S., Kusakabe K., Microporous inorganic membranes for gas separation, MRS Bulletin, 3,25-
29(1999)
9
Engelen C.W.R., Membrane for separating off small molecules and method for the production thereof, Pat.
US 5591 345, 1997
10
González González C. R. , Bravo López Y., Soto Borroto L., Machado Batista Y. Simulación
computacional de los procesos de difusión multicomponentes en membranas policristalinas de zeolita.
Parte II. Algoritmo general del programa, Reporte ICIMAF, Nº 423/2009
11
Yrelis Bravo López1*, Carlos R. González González Programa para la conversión de una estructura
cristalina poroso en una función que describa el ámbito accesible heterogéneo , Reporte ICIMAF, Nº
458/2010
12
González González C. R.; Bravo López Y.; Navas Conyedo E.; Soto Borroto L. Simulación
computacional de los procesos de difusión multicomponentes en membranas policristalinas de zeolita. Parte
III. PROGRAMA TRANSMOL 1.1 Reporte ICIMAF, Nº 512/2010
TCA2012 1
Como vector V que representa la fiabilidad de los expertos se [9] J. M. Merigó, "A unified model between the weighted
determina el siguiente vector de Pesos (V= [0.2, 0.1, 0.4, 0.2, 0.1]. average and the induced OWA operator," Expert Systems
Los resultados de esta agregación se muestran en la Tabla 2 y se with Applications, vol. 38, pp. 11560-11572, 2011.
muestran además los resultados de la agregación utilizando el [10] J. L. Salmeron, "Supporting decision makers with Fuzzy
operador WA. En esta caso el vector de pesos obtenido asociado con Cognitive Maps," vol. 52, ed: Industrial Research Institute,
el operador TW-OWA es el siguiente W=[ 0.33,0, 0.33, 0.33, 0.00], y Inc, 2009, pp. 53-59.
el vector de pesos asociado con el operador TW-IWA es =[0.25,0, [11] B. Kosko, "Fuzzy cognitive maps," International Journal
0.25, 0.50, 0]. of Man-Machine Studies, vol. 24, pp. 65-75, 1986.
Tabla 2. Resultados de la agregación. [12] C. W. Ping, "A Methodology for Constructing Causal
Operador Valor Knowledge Model from Fuzzy Cognitive Map to Bayesian
Media -0,446 Belief Network," PhD Thesis, Department of Computer
Science, Chonnam National University, 2009.
WA -0,356 [13] B. Kosko, "Hidden patterns in combined and adaptive
TW-OWA -0,627 knowledge networks," International Journal of
TW-IWA -0,628 Approximate Reasoning, vol. 2, pp. 377-393, 1988.
[14] W. Stach, et al., "Expert-Based and Computational
Como se puede apreciar tanto la media como la medida ponderada Methods for Developing Fuzzy Cognitive Maps," in Fuzzy
zona afectados por los valores extremos. En el caso de TW-OWA y Cognitive Maps, M. Glykas, Ed., ed Berlin: Springer, 2010,
TW-IWA la agregación no resultan afectada la presencia de valores pp. 23-41.
extremos siendo el resultado menos susceptible a ser afectados por [15] C. Goodier, et al., "Causal mapping and scenario building
valoraciones extremas y errores comunes en la determinación de la with multiple organisations," Futures, vol. 42, pp. 219-229,
intensidad y signo de las relaciones causales. 2010.
[16] M. Y. Leyva-Vázquez, et al., "Modelado y análisis de los
V. CONCLUSIONES factores críticos de éxito de los proyectos de software
mediante mapas cognitivos difusos," Ciencias de la
La fusión de la información es un área de trabajo con múltiples Información, vol. 43, pp. 41-46, 2012.
aplicaciones en especialmente en la toma de decisiones. La presencia
de valores extremos en las opiniones afecta especialmente la
agregación.
En este trabajo se presentó un operador de agregación que tiene en
cuanta la presencia de datos extremos. Se presentó además una
extensión para el modelado de la fiabilidad de las fuentes.
Como trabajos futuros se proponen el manejo de distintas formas de
representación de la incertidumbre en la opinión de los expertos. La
obtención de nuevas extensiones del modelo especialmente para la
inclusión de las probabilidades y su utilización en modelos para la
toma de decisiones.
REFERENCIAS
[1] M. Garcia and D. Puig, "Robust Aggregation of Expert
Opinions Based on Conflict Analysis and Resolution." vol.
3040, R. Conejo, et al., Eds., ed: Springer Berlin /
Heidelberg, 2004, pp. 488-497.
[2] V. Torra and Y. Narukawa, Modeling decisions:
information fusion and aggregation operators: Springer,
2007.
[3] G. Beliakov, et al., Aggregation functions: a guide for
practitioners: Springer, 2007.
[4] R. R. Yager, "On ordered weighted averaging aggregation
operators in multicriteria decisionmaking," Systems, Man
and Cybernetics, IEEE Transactions on, vol. 18, pp. 183-
190, 1988.
[5] J. Merigó, "New extensions to the OWA operators and its
application in decision making," PhD Thesis, Department
of Business Administration, University of Barcelona, 2008.
[6] R. R. Yager, "Quantifier guided aggregation using OWA
operators," International Journal of Intelligent Systems,
vol. 11, pp. 49–73, 1996.
[7] J. M. Doña Fernández, "Modelado de los procesos de toma
de decisión en entornos sociales mediante operadores de
agregación OWA," Tesis en opción al grado de doctor en
ciencias, Universidad de Málaga, 2008.
[8] R. R. Yager, "Families of OWA operators," Fuzzy Sets and
Systems, vol. 59, pp. 125-148, 1993.