Documente Academic
Documente Profesional
Documente Cultură
TESIS
PRESENTAN:
JULIETA AGUILERA MUOZ
DAVID HERNNDEZ PREZ
ASESORES:
DR. JULIO CESAR TOVAR RODRGUEZ
DR. CARLOS ROMN MARIACA GASPAR
DR. RODRIGO LPEZ CRDENAS
Agradecimientos
J.A.M.
AGRADECIMIENTOS
JULIETA AGUILERA MUOZ
Son tantos los sentimientos encontrados al ver concluida mi meta, que echando un vistazo para
atrs me doy cuenta que llegar hasta aqu no fue fcil, hubo desvelos, preocupaciones, tristezas,
enojos; pero tambin hubo alegras, amor, aprendizaje, nuevos amigos, y sobre todo, ese apoyo
de las personas que s que siempre estarn a mi lado.
A mis padres,
Por ser orgullosamente su hija, que me guiaron y motivaron en todo momento, que estuvieron
conmigo en cada desvelo, que me inculcaron todos los valores necesarios y por todo el apoyo que
me han brindado.
A mi hermano,
Por su preocupacin, consejos y estar siempre al pendiente de mi madurez.
A mi novio,
Por estar conmigo en todo momento, apoyar mis decisiones, perdonar mis errores, aguantar mis
altibajos y sobre todo por darme tanto amor para seguir adelante superando los obstculos.
A mis amigos,
Que siempre me han apoyado en las buenas y malas decisiones que he tomado, pero sobre todo
por todo el cario y amor recibido.
A mis asesores,
Por su tiempo, paciencia, dedicacin y comprensin.
Al IPN,
Por abrirme las puertas a esta maravillosa institucin y cobijarme, pero sobre todo a la ESIME,
que me brindo todo lo necesario para llegar hasta aqu y a la que le debo el aprendizaje recibido.
GRACIAS
4
Agradecimientos
D.H.P.
Agradecimientos
D.H.P.
A mi novia,
July, por abrirme tu corazn y permitirme compartir a tu lado una de las mejores etapas de mi
vida, por apoyarme y estar conmigo en las buenas y en las malas, por impulsarme a ser mejor y
superarme, por tu gran amor y paciencia, por comprenderme, tolerar mis arranques, por festejar mis
aciertos y sufrir mis derrotas, por llenar de bellos momentos mi vida y mi paso por esta institucin Este
es el primero de nuestros logros y sueos realizados juntos mi vida!!!
A mis amigos,
En especial a Charly y a Arturo (Cheyenne), por su cario, por estar ah cuando ms he necesitado
de ustedes, por compartir momentos de alegra, coraje y tristeza, por tolerar mis arranques, disculpar mis
errores y aceptarme tal como soy y por impulsarme a ser mejor da a da.
A mis profesores,
Por aportarme nuevos y valiosos conocimientos. En especial a nuestros directores de tesis los
Doctores Julio Tovar, Carlos Mariaca y Rodrigo Lpez, por brindarnos el material necesario para la
realizacin de este trabajo y an ms, por su tiempo, apoyo, dedicacin y amistad.
Al IPN y a la ESIME,
Por abrirme las puertas, darme una oportunidad en esta gran institucin y brindarme los espacios
para concluir mis estudios de ingeniera y as superarme para servir a los dems.
Gracias a todos ustedes, pues son gente de xito y con su ayuda tambin yo lo soy Los AMO!!!
Dicen que toda gloria es efmera, sin embargo he aprendido de todos ustedes que para trascender
no solo basta con un solo logro, hay que luchar da a da para ser mejores y conseguir xitos diarios.
Por ltimo, a todos aquellos que lean este trabajo y pudieran encontrar una inspiracin en l o bien
su contenido les sea de ayuda, de igual manera gracias pues habr cumplido mi cometido, recuerden que:
Habr dos fechas en tu tumba, todos tus amigos las leern. Pero lo relevante ser ese pequeo
guin entre ellas Kevin Welch.
ndice
General
ndice General
Objetivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Justificacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
11
12
13
14
16
16
17
18
19
20
21
21
22
23
24
25
26
26
27
32
33
34
36
37
38
38
40
42
46
47
52
56
56
56
58
61
62
62
63
63
66
3.2.2
ndice
General
67
68
Simulaciones y Resultados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Motor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Clculo de los parmetros del motor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Modelo matemtico del motor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Representacin de la F.T. en Espacio de Estados. . . . . . . . . . . . . . . . . . . . . . .
4.1.4 Controlabilidad y Observabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.5 Error en estado estacionario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.6 Cambio de polos del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Control de velocidad del motor con PID (Simulacin). . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Control de velocidad del motor con Control Inteligente RNRE (Simulacin). . . . . . . . .
4.4 Control de velocidad del motor con PID (Pruebas fsicas). . . . . . . . . . . . . . . . . . . . . . . .
4.5 Control de velocidad del motor con Control Inteligente RNRE (Pruebas fsicas). . . . . .
71
71
71
73
73
76
77
78
80
84
92
94
Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
101
Trabajos futuros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
103
104
Apndice A Motor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1 Definicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2 Motor de Corriente Directa (C.D.). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3 Funcionamiento de un motor de C.D. con escobillas. . . . . . . . . . . . . . . . . . . . . . . . . .
i
i
i
ii
Apndice B Sensor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.1 Definicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2 Sensores de desplazamiento y rotacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2.1 Sensores basados en efecto Hall. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iii
iii
iii
iii
Apndice C PWM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.1 Definicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.2 Funcionamiento del PWM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
v
v
vi
vi
vi
vii
viii
ix
xi
xvi
ndice de
Figuras
ndice de Figuras
1.1
1.2
Funciones de activacin: (a) identidad, (b) escaln, (c) saturacin, (d) sigmoide, (e)
14
16
1.3
16
1.4
Diferentes Topologas
18
1.5
23
1.6
23
1.7
25
1.8
28
1.9
30
1.10
31
1.11
33
1.12
34
1.13
36
1.14
37
2.1
40
2.2
Ejemplo de RNRE con tres entradas, tres salidas y tres nodos en la capa oculta. . . . . .
42
2.3
(a) Diagrama a bloques de una RNRE. (b) Diagrama a bloques de la red adjunta de
una RNRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
3.1
Modelos de Identificacin. (a) Modelo I. (b) Modelo II. (c) Modelo III. (d) Modelo IV . .
60
3.2
61
3.3
64
3.4
66
3.5
3.6
68
70
4.1
71
4.2
72
4.3
(a), (b), (c), (d) y (e) lgebra de bloques empleada desde el concepto bsico de
mquina elctrica para determinar la funcin de transferencia del motor. . . . . . . . . . . .
74
ndice de
Figuras
4.4
75
4.5
Retroalimentacin de estado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
4.6
Control PID: (a), (b) comparacin entre la seal de referencia y la seal de entrada . . .
81
4.7
82
4.8
Control PID: (a) Error en estado estacionario, (b) Error cuadrtico medio (RMS). . . . . .
83
4.9
Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de
referencia y la seal de salida de la planta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.10
85
Control directo adaptable con tres RNREs: (a) Seal de Control ff, (b) Seal de
control fb. (c) Seal de control total. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
4.11
87
4.12
Control directo adaptable con tres RNREs: Error Cuadrtico Medio de control. . . . . . .
88
4.13
Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de
salida de la planta y la seal de identificacin de la planta controlada. . . . . . . . . . . . . .
89
4.14
Control directo adaptable con tres RNREs: (a) y (b) Estados identificados de la planta.
90
4.15
90
4.16
Control directo adaptable con tres RNREs: Error Cuadrtico Medio de identificacin. .
91
4.17
Control PID: (a), (b) comparacin entre la seal de referencia y la seal de entrada . . .
93
4.18
93
4.19
Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de
referencia y la seal de salida de la planta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.20
95
Control directo adaptable con tres RNREs: (a) Seal de Control ff, (b) Seal de
control fb. (c) Seal de control total. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
97
4.21
Control directo adaptable con tres RNREs: Error Cuadrtico Medio de control. . . . . . .
97
4.22
Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de
salida de la planta y la seal de identificacin de la planta controlada. . . . . . . . . . . . . .
98
4.23
Control directo adaptable con tres RNREs: (a) y (b) Estados identificados de la planta.
99
4.24
Control directo adaptable con tres RNREs: Error instantneo de Identificacin. . . . . . . 100
4.25
Control directo adaptable con tres RNREs: Error Cuadrtico Medio de identificacin. . 100
A.1
A.2
Motor de cuatro polos, el campo magntico es producido por la corriente que fluye en
ii
las bobinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ii
B.1
iv
C.1
D.1
E.1
ix
E.2
10
viii
Generalidades
OBJETIVO
Controlar la velocidad de un motor de corriente directa utilizando redes neuronales recurrentes
entrenables para el desarrollo de plataformas de enseanza para las materias de la especialidad de control
de la Ingeniera en Comunicaciones y Electrnica (ICE).
JUSTIFICACIN
Se realizar el control de un motor de Corriente Directa con redes neuronales recurrentes para
compararlos con los de un sistema de control clsico (PID), esto, para observar las diferencias y
similitudes en cuanto a su funcionalidad y estabilidad. Adems al tenerlo realizado fsicamente se le podr
dar utilidad en alguna aplicacin de la vida cotidiana, as como para el desarrollo de plataformas
educativas que coadyuven en la enseanza de las distintas materias de la especialidad de control.
11
Captulo 1
Captulo 1, [25]
Introduccin a las redes neuronales artificiales
En los ltimos aos de exploracin en inteligencia artificial, los investigadores se han intrigado
por las redes neuronales. El concepto se basa vagamente en cmo pensamos que funciona el cerebro de un
animal. Un cerebro consiste en un sistema de clulas interconectadas, las cuales son, aparentemente,
responsables de los pensamientos, la memoria y la conciencia. Una red neuronal artificial puede verse
como una mquina diseada originalmente para modelar la forma en que el sistema nervioso de un ser
vivo realiza una determinada tarea. Para lograr este objetivo, una red neuronal artificial est formada por
un conjunto de unidades de procesamiento interconectadas llamadas neuronas.
Cada neurona recibe como entrada un conjunto de seales discretas o continuas, las pondera e
integra, y transmite el resultado a las neuronas conectadas a ella. Cada conexin entre dos neuronas tiene
una determinada importancia asociada denominada peso sinptico o, simplemente, peso. En los pesos se
suele guardar la mayor parte del conocimiento que la red neuronal tiene sobre la tarea en cuestin. El
proceso mediante el cual se ajustan estos pesos para lograr un determinado objetivo se denomina
aprendizaje o entrenamiento y el procedimiento concreto utilizado para ello se conoce como algoritmo de
aprendizaje o algoritmo de entrenamiento. El ajuste de pesos es la principal forma de aprendizaje de las
redes neuronales. Las neuronas demuestran plasticidad: una habilidad de cambiar su respuesta a los
estmulos en el tiempo, o aprender; en una red neuronal artificial, se imitan estas habilidades por software,
[16].
Las redes neuronales destacan por su estructura fcilmente paralelizable y por su elevada
capacidad de generalizacin (capacidad de producir salidas correctas para entradas no vistas durante el
entrenamiento). Otras propiedades interesantes son:
Adaptabilidad. Las redes neuronales son capaces de reajustar sus pesos para adaptarse a cambios
en el entorno. Esto es especialmente til cuando el entorno que suministra los datos de entrada es
no estacionario, es decir, algunas de sus propiedades varan con el tiempo.
Tolerancia ante fallos. Una red neuronal es tolerante ante fallos en el sentido de que los posibles
fallos operacionales en partes de la red solo afectan dbilmente al rendimiento de sta. Esta
propiedad es debida a la naturaleza distribuida de la informacin almacenada o procesada en la
red neuronal.
No linealidad. Una red neuronal puede ser lineal o no lineal. Esta ltima caracterstica es muy
importante, especialmente si se intenta modelar sistemas generados mediante pautas no lineales.
12
Captulo 1
Capacidad para aproximar mapeados no lineales mejor que otros esquemas (polinomios, etc.)
Un conjunto de sinapsis, caracterizada cada una por un peso propio wij, i = 1,2,....,n . El peso wij
est asociado a la sinapsis que conecta la unidad i-sima con la neurona j-sima.
Un valor constante llamado polarizacin o bias representado por b cuya presencia aumenta la
capacidad de procesamiento de la neurona y que eleva o reduce la entrada a la neurona, segn sea
su valor positivo o negativo.
Un sumador o integrador que suma las seales de entrada, ponderadas con sus respectivos pesos, y
el bias.
Cada j-sima neurona est caracterizada en cualquier instante por un valor numrico denominado valor o
estado de activacin vj(t). Las seales moduladas que han llegado a la i-sima unidad se combinan entre
ellas, generando as el estado actual de activacin como lo muestra la siguiente ecuacin:
m
v j (t ) wij x i (t ) b
(1.1)
y j (t ) fi (v j (t ))
(1.2)
i 1
13
Captulo 1
La figura 1.1 nos muestra el modelo no lineal de una neurona artificial, en base a los elementos
descritos anteriormente. La dinmica que rige la actualizacin de los estados de las unidades (evolucin de
la red neuronal) suele ser de dos tipos: modo asncrono y modo sncrono. En el primer caso, cada neurona
evala su estado continuamente, segn les va llegando la informacin, y lo hacen de forma independiente.
En el caso sncrono, la informacin tambin llega de forma continua, pero los cambios se realizan de
forma simultnea, como si existiera un reloj interno que decidiera cuando deben cambiar su estado. Los
sistemas biolgicos quedan probablemente entre ambas posibilidades.
Funcin
Salida
1
f (v )
1
si v 0
(1.3)
si v 0
y proporciona una salida con dos posibles valores. Es habitual encontrrsela con el nombre de funcin de
Heaviside.
14
Captulo 1
3. Funcin saturacin. La figura 1.2 (c) muestra la grfica de una funcin de activacin saturacin,
cuya representacin matemtica se presenta a continuacin:
f (v ) 1
av
si v c
si v c
(1.4)
en otro caso
4. Funcin sigmoide. Las funciones sigmoideas son un conjunto de funciones crecientes, montonas
y acotadas que provocan una transformacin no lineal de su argumento. Una de las ms utilizadas
es la funcin sigmoide definida por la siguiente ecuacin, donde p es la pendiente de la funcin de
activacin:
f(v) =
1
1+exp(-pv)
(1.5)
La funcin sigmoide est acotada entre 0 y 1, en la figura 1.2 (d) se muestra su representacin.
5. Otra funcin sigmoidea es la funcin tangente hiperblica:
f (v )
1 exp( pv )
1 exp( pv )
(1.6)
v2
f (v ) exp 2
2
(1.7)
donde define la anchura. La funcin alcanza su valor mximo cuando la entrada es cero.
(a)
(b)
(c)
15
(d)
(e)
Captulo 1
(f)
Figura 1.2. Funciones de activacin: (a) identidad, (b) escaln, (c) saturacin, (d) sigmoide,
(e) tangente hiperblica, (f) gaussiana.
16
Captulo 1
17
Captulo 1
Los dos modelos de red feed forward/feed back de dos capas ms conocidos son la red ART
(Adaptive Resonante Theory) y la red BAM (Bidirectional Associative Memory). Para ilustrar las
diferentes formas de conectividad presentamos la figura 1.4 en la que podemos visualizar 4 topologas de
redes diferentes: (a) Un Perceptrn multicapa (MLP) conectado completamente. (b) Un MLP modular. (c)
Una red recurrente conectada completamente. (d) Una red recurrente conectada parcialmente.
a)
b)
c)
d)
Figura 1.4 Diferentes Topologas Multicapa de Redes Neuronales Artificiales. (a) Un Perceptrn multicapa (MLP) conectado
completamente. (b) Un MLP modular. (c) Una red recurrente conectada completamente. (d) Una red recurrente conectada
parcialmente.
18
Captulo 1
asignado a las conexiones cuando se pretende que la red aprenda una nueva informacin.
Estos criterios determinan lo que se conoce como la regla de aprendizaje de la red. Otro factor que
debe ser considerado es la manera en la cual una red neuronal adopta un conjunto interconectado de
neuronas. En este ltimo contexto se habla de un paradigma de aprendizaje, el cual se refiere a un modelo
del entorno en el que la red neuronal funciona. Los dos tipos de paradigmas que habitualmente se conocen
son: aprendizaje supervisado y aprendizaje no supervisado. La diferencia fundamental entre ambos tipos
de aprendizaje est en la existencia o no de un agente externo (supervisor) que controle el proceso de
aprendizaje de la red.
Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en considerar
si la red puede aprender durante su funcionamiento habitual o si el aprendizaje supone la desconexin de
la red; es decir su inhabilitacin hasta que el proceso termine. En el primer caso, se trata de un aprendizaje
ON LINE, mientras que el segundo es lo que se conoce como aprendizaje OFF LINE.
En las redes con aprendizaje ON LINE no se distingue entre fase de entrenamiento y de operacin,
de tal forma que los pesos varan dinmicamente siempre que se presente una nueva informacin al
sistema.
Cuando el aprendizaje es OFF LINE, se distingue entre una fase de aprendizaje o entrenamiento y
una fase de operacin o funcionamiento, existiendo un conjunto de datos de entrenamiento y un conjunto
de datos de test o prueba que sern utilizados en la correspondiente fase. En estas redes, los pesos de las
conexiones permanecen fijos despus que termina la etapa de entrenamiento de la red.
A continuacin se presentan tres de las reglas de aprendizaje ms populares: aprendizaje
correccin por error, aprendizaje Hebbiano, y, aprendizaje competitivo y cooperativo. Al final de estas
reglas, se exponen los dos fundamentales paradigmas de aprendizaje mencionados anteriormente:
aprendizaje supervisado, y aprendizaje no supervisado.
w ji (n ) yi (n )ek (n )
(1.8)
19
Captulo 1
donde
ek (n ) dk (n ) yk (n )
(1.9)
siendo wij la variacin en el peso de la conexin entre las neuronas i y j ; y i (n) es la salida de la isima neurona, correspondiente a la entrada de la neurona j; dk (n) es el valor deseado para la j -sima
neurona; yk (n) es la salida de la j -sima neurona; es el factor de aprendizaje (0 < 1) que regula la
velocidad del aprendizaje.
Existen varios algoritmos de aprendizaje por correccin de error, por ejemplo la denominada regla
delta generalizada o algoritmo de retro propagacin del error (error back propagation), tambin conocido
como regla LMS (Least-Mean-Square Error) multicapa. Se trata de una generalizacin de la regla delta
para poder aplicarla a redes con conexiones hacia adelante (feed forward) con capas o niveles internos u
ocultos de neuronas que no tienen relacin con el exterior, [15].
wij yiy j
(1.10)
Esta expresin corresponde a la idea de Hebb, puesto que si las dos unidades son activas
(positivas), se produce un reforzamiento de la conexin. Por el contrario, cuando una es activa y la otra
pasiva (negativa), se produce un debilitamiento de la conexin. Se trata de una regla de aprendizaje no
supervisado, pues la modificacin de los pesos se realiza en funcin de los estados (salidas), de las
neuronas obtenidas tras la presentacin de cierto estmulo (informacin de entrada de la red), sin tener en
cuenta si se deseaba obtener o no esos estados de activacin.
20
Captulo 1
Errorglobal =
1 P N
y j(k)d j(k)
2P k=1 j=1
(1.11)
dnde:
N = Nmero de neuronas de salida.
P = Nmero de informaciones que debe aprender la red.
dj = Valor de salida deseado para la neurona j.
yj = Valor de salida obtenido para la neurona j.
k = patrn k-simo presentado a la red.
21
Captulo 1
Por lo tanto, de lo que se trata es de encontrar unos pesos para las conexiones de la red que
minimicen esta funcin de error. Para ello, el ajuste de los pesos de las conexiones de la red se puede
hacer de forma proporcional a la variacin relativa del error que se obtiene al variar el peso
correspondiente:
w ji k
Errorglobal
(1.12)
w ji
dnde:
wji = Variacin en el peso de la conexin entre las neuronas i y j.
Mediante este procedimiento, se llegan a obtener un conjunto de pesos con los que se consigue
minimizar el error medio, con la presentacin de cada nuevo patrn de entrenamiento a la red.
22
Captulo 1
Vector que
describe el estado
del entorno
Respuesta deseada
Supervisor
Entorno
Respuesta actual
Sistema de
Aprendizaje
Salida de error
Figura 1.5 Diagrama a bloques del aprendizaje supervisado
Vector que
describe el estado
del entorno
Entorno
Supervisor
1.5 El Perceptrn
El perceptrn es en realidad una neurona artificial conformada por los 5 elementos bsicos
descritos en el apartado 1.1; esto es: un conjunto de seales de entrada, sinapsis, bias, un sumador o
integrador y, una funcin de activacin. El modelo del perceptrn como lo conocemos es atribuido a
Rosenblatt [16]. Este modelo est dado por la siguiente expresin:
y f wi (k ) ui (k )
i 1
(1.13)
donde y , w , u , y k son definidos como se hizo anteriormente, para el caso del perceptrn f () es la
funcin escaln unitario.
El perceptrn fue desarrollado para ejecutar tareas de clasificacin de patrones, esto lo hace
definiendo fronteras de decisin lineales, es decir, resuelve problemas de separabilidad de conjuntos
convexos.
23
Captulo 1
1
J (k ) e 2 (k )
2
(1.14)
donde e(k ) es el error en la k-sima iteracin generado por la diferencia en la salida de la RN y la salida
deseada. Por lo tanto en el aprendizaje lo que se desea es minimizar esta funcin con respecto a los pesos
w, dado que en el ajuste de los pesos interviene el error diremos que el perceptrn es una RN con
aprendizaje supervisado. Veamos ahora como es que se obtiene esa ley de aprendizaje.
Derivemos J con respecto a cada uno de los pesos w i, i =1,2,...,m; donde m es el nmero de
entradas; el error es e = d y , donde y es la salida del perceptrn y d es la salida deseada; f () , es la
primera derivada de la funcin de activacin.
Entonces:
e
y
f ()ui
wi
wi
g (k )
J (W )
e
ef ()ui
i
(1.15)
(1.16)
El mtodo del Gradiente Descendente o regla Delta, [5] nos dice que:
i (k 1) i (k ) g (k )
(1.17)
donde g (k) es el gradiente de J con respecto a wi (k) , es decir, g (k) = J /wi ; multiplicando por 1 nos
da la direccin de descenso y es una constante positiva llamada tasa de aprendizaje. Entonces la
actualizacin de los pesos del perceptrn es:
i (k 1) i (k ) e (k ) f `()ui (k )
(1.18)
24
Captulo 1
< <1
i (k 1) i (k ) e(k ) f `()ui (k )
Donde
e( k ) d ( k ) y ( k )
25
Captulo 1
La estructura del PMC es una RN del tipo Feed Forward (RNFF), esto es, que el patrn de la
entrada se propaga hacia delante hasta la salida. Para aclarar este punto supngase un elemento de entrada
ui (k) y un elemento de la matriz de pesos wij (k) entonces la propagacin consiste en realizar el producto
ui(k)wiJ (k) y sumarlo a los dems productos uJ wkl (k); i k , j l , de la misma capa obteniendo una
seal zm(k), la cual, despus es introducida como argumento de la funcin f () formando una seal zm
(k), es decir,
componente del vector de entrada de la siguiente capa; este proceso contina neurona por neurona, capa
por capa hasta obtener el vector de salida Y(k).
y j (k ) f j j (k )
(1.19)
v j (k ) w ji (k ) yi (k )
(1.20)
i 0
26
Captulo 1
donde m es el nmero total de entradas aplicadas a la neurona j y wji(k) es el peso sinptico entre la
neurona j y la neurona i , y yi(k ) es la seal de entrada a la neurona j o bien, visto de otra manera es el
valor de la funcin de salida de la neurona i . Si la neurona j pertenece a la primera capada la red, la cual
queda expresada de la siguiente forma:
yi (k ) ui (k )
(1.21)
donde ui(k) es el i -simo elemento del vector de entrada. Por otro lado, si la neurona j pertenece a la
capa de salida de la red, m = mj y el ndice j seala la j-sima seal de salida de la red, la cual, queda
expresada de la siguiente forma:
yJ (k ) oJ (k )
(1.22)
donde oJ(k) es el j-simo elemento del vector de salida. Esta salida es comparada con la respuesta
deseada dJ(k), obteniendo as, el error de salida eJ(k) para la j-sima neurona de salida. En la fase del
paso hacia delante el clculo comienza con la primera capa oculta que presenta el vector de entrada, y
termina con la capa de salida calculando la seal del error para cada neurona de esta capa.
1.6.2 Algoritmo BP
Las redes neuronales entrenadas por medio del algoritmo BP son poderosas herramientas para
reconocimiento de patrones, memoria asociativa y filtros adaptables [31], pero tambin se ha descubierto
que cualquier tipo de RN puede ser entrenada por este algoritmo y realizar tareas como identificacin y
control, [18],[29], describamos ahora el algoritmo.
La seal de error de la j -sima neurona de salida en la k -sima iteracin es definida por:
eJ (k ) d J (k ) yJ (k )
(1.23)
27
J (k )
Captulo 1
1
eJ2 (k )
2 J C
(1.24)
donde C es el conjunto de todas las neuronas de salida. Sea N el nmero total de iteraciones; el error
medio cuadrtico medio es obtenido sumando todos los J(k) y normalizando con respecto a N, es decir:
J PROM
1
N
J (k )
(1.25)
k 1
JPROM y J(k) son funciones de los pesos de la red. JPROM representa la funcin de costo total, por lo tanto
nuestro objetivo en el aprendizaje es ajustar los pesos tal que JPROM sea mnima. Para el ajuste de los pesos
se utiliza el error instantneo Ec. (1.24), que nos ayudar a crear una correccin que es proporcional al
gradiente descendente de la funcin J(k) .
La figura 1.8 describe la j-sima neurona de una RN alimentada por la seal de salida yi(k) de la
i-sima neurona de la capa anterior. El estado de activacin vJ(k) asociado con la j-sima neurona es
definido en la Ec. (1.21), donde m es el nmero total de entradas, y0= 1 es la entrada al umbral J
aplicado a la neurona j; y wij es el peso de la j-sima neurona de la capa anterior. Por lo tanto, la salida de
la j-sima neurona en la iteracin k es:
y j (k ) f j j (k )
(1.26)
Y0=
yi(k)
J(k)
wJi(k)
dJ(k)
vJ(k)
yJ(k)
eJ(k)
El mtodo BP aplica la correccin wij(k) a los pesos sinpticos que es proporcional a la derivada
parcial J(k)/wij(k) Ec. (1.18). De acuerdo a la regla de la cadena tenemos:
28
Captulo 1
J (k )e j (k )y j (k ) j (k )
J (k )
wij (K ) e j (k )y j (k )y j (k )wij (k )
(1.27)
e j (k )
J (k )
e j (k )
e j (k )
y j (k )
y j (k )
j (k )
y j (k )
f j j (k )
wij (k )
1
yi (k )
J (k )
e j (k ) f j j (k ) yi (k )
wij (k )
(1.28)
wij (k )
J (k )
wij (k )
(1.29)
donde es la tasa de aprendizaje, el signo () es debido a que se desea tener la direccin de mximo
descenso para que el cambio de pesos reduzca el valor de J (k) .
Si J(k) es el gradiente local de la neurona de salida j, tenemos que:
j (k )
J (k )
J (k ) e j (k ) y j (k )
j (k )
e j (k ) y j (k ) j (k )
(1.30)
j (k ) e j (k ) f j j (k )
(1.31)
wij (k ) j (k )yi (k )
(1.32)
entonces
por lo tanto
con lo que la actualizacin de los pesos de la capa de salida est dada por:
(1.33)
29
Captulo 1
donde es la tasa del trmino momento de aprendizaje que es usado para eliminar oscilaciones en el error.
La figura 1.9 muestra el comportamiento del BP con respecto a las seales que intervienen.
Para los pesos de la capa de salida se utiliza la seal deseada y la salida de la red para generar el
error eJ(k) y obtener el gradiente local que nos ayude a actualizar los pesos. Cuando queremos actualizar
los pesos de las capas que no son de salida, el problema radica en que no contamos con una seal deseada,
en consecuencia es imposible generar un error ei(k) y obtener el gradiente local en esa capa, entonces
utilizaremos el error de salida para retro propagarlo y obtener un estimado del error en las capas anteriores
a la salida y as proporcionar un gradiente local que nos de la capacidad de actualizar los pesos de esas
capas. Considere la situacin descrita en la figura 1.10, la cual bosqueja una neurona j como un nodo
oculto en red.
De la ecuacin (1.31) podemos definir el gradiente local i(k) para una neurona oculta i como:
i (k )
J (k ) yi (k )
yi (k ) i (k )
J (k )
f i (k )
yi (k )
(1.34)
donde i(k) es el gradiente de la i-sima neurona; yi(k) es la salida de la isima neurona; vi(k) es el
estado de activacin de la i-sima neurona; fi() es la derivada de la i -sima funcin de activacin con
respecto a su argumento, todos pertenecen a la capa anterior a la de salida en la k-sima iteracin.
De la ecuacin (1.25) se tiene que:
30
Captulo 1
e
J
e j j
yi jC yi
(1.35)
e
J
e j j i
yi jC i yi
(1.36)
e j
j
f j ( j )
j-esima neurona
i-esima
neurona
i(k)
wij(k)
(1.37)
j(k)
vi(k)
yi(k)
wij(k)
di(k)
vj(k)
yj(k)
Figura 1.10 Grfica de la conexin entre dos neuronas. La i -sima neurona de la capa oculta conectada a la j sima neurona de
la capa de salida.
J
wij
yi
(1.38)
J
e j f j ( j ) wij
yi
j
(1.39)
J
j wij
yi
j
(1.40)
de (1.32) se sigue:
31
Captulo 1
i fi (i ) j wij
(1.41)
wli iyl
(1.42)
32
Captulo 1
u (k ) entonces:
ji i
J
J d j
w ji j w ji
(1.43)
J
j
(1.44)
GwNji
j
w ji
(1.45)
J
jGwNji
w ji
(1.46)
x1
Seal
de xi
entrada
xm
wij
Sumador
Funcin de
una variable
(pesos)
Funciones de varias
variables (funciones
de activacin)
yl
Seal
yi de
salida
yn
33
Captulo 1
A partir de esta relacin es fcil representar cualquier RN grficamente, por ejemplo sea la RN de
tres capas descrita por la siguiente ecuacin.
Y (k ) F N 3 (k ) ;
N 3 (k ) W3Z (k )
Z (k ) F N 2 (k ) ;
N 2 (k ) W2X (k )
X (k ) F N 1 (k ) ;
N 1 (k ) WU
1 (k )
(1.47)
U1
W1
N1
W2
N2
W3
N3
y1
u2
y1
U3
y3
wi
yl
xj
yl
wj
34
Captulo 1
yi
xl
wl
Yj
yj
xi
wi
yi
Por ejemplo. Funciones de activacin: yj = tanh (xi). En este caso, f(yj) = 1-x2, si yj = sigm (xi)
entonces f(yj) = xi(1-xi).
4.- Las funciones Multivaluadas son reemplazadas por sus jacobianos.
xj
y0
xj
y0
xi
yq
wj
yq
xn
yp
xn
yp
Casos especiales
- Productos: yj = xixl en cuyo caso GaF x l x i
- Redes neuronales: Una funcin multivaluada puede representar una red multicapa. En este caso,
F
el producto Gxi y puede ser obtenido por retro propagacin de y a travs de la red sin la
F
necesidad de calcularGxi
6.- Los nodos an=yn salida en la red original se transforman en nodos de entrada en la red adjunta, donde
la entrada es generalmente el error en
ui
uj
Red
original
y0
yq
Red
adjunta
-ej
-ei
35
Captulo 1
Este conjunto de reglas son un elemento importante para la construccin de la Red Adjunta, la
cual propaga la seal e (k ) que corresponde al error de salida generado por la diferencia entre la salida de
la RN y la seal deseada, entonces obtenemos el gradiente j(k) necesario para la adaptacin de los pesos.
En la figura 1.13 se muestra la RA obtenida a partir de las reglas anteriores.
La RN y la RA en base a estas reglas son topolgicamente equivalentes. La justificacin terica de
las reglas est dada en [49]. A modo de ejemplo mostramos la deduccin de la regla BP por este mtodo.
u1
W1
v1
v2
u2
v3
u3
W2
z1
z2
z3
y1
f
f
f
d1
y2
e1
y3
e2
d2
d3
e3
e1
f
f
e2
f
f
f
e3
W2
36
ef (li )
il
f (li ) jl 1wijl 1
Captulo 1
l L
1 l L 1
(1.48)
el cual es el trmino deducido matemticamente en la seccin anterior. Como pudimos observar este
mtodo es una alternativa bastante confiable y efectiva para encontrar los gradientes en RN de arquitectura
ms complicada.
(a)
(b)
Figura 1.14 Diagrama representativo de una RN y el esquema de la RA
Teorema 1.1: Sea f () una funcin continua, no constante, acotada y montona creciente. Sea
Imo un hipercubo unitario de dimensin mo. El espacio de funciones continuas en Imo es denotado por
C(Imo). Entonces, dada cualquier funcin f C(I
mo
m0
F (X1 , , X m0 ) i f w ij x j i
i 1
i 1
m1
F (X1 , , X m0 ) f (X1 , , X m0 )
para todo x1, x2,, xmo que yace en el espacio de entradas.
37
Captulo 2
Captulo 2, [25]
Redes Neuronales Recurrentes
En [29], [34], [46], [47], se describen modelos de RN usados para la prediccin y control de
sistemas dinmicos. Como mencionamos en el captulo anterior, las RN pueden derivarse en dos grupos
tomando en cuenta su estructura, RN feed forward (RNFF) (estticas) y RN recurrentes (RNR). En las RN
estticas su respuesta es independiente del tiempo. En consecuencia, una vez que se han ajustado sus
parmetros, la respuesta a una entrada determinada ser la misma, no importando en que instante la
entrada se presente. Las RN estticas son muy tiles en los problemas de clasificacin de patrones y
aproximacin de funciones porque constituyen aplicaciones no lineales entre el espacio de entradas al
espacio de salidas de las variables involucrada. En teora, se tiene la certeza de que una red neuronal de
conexiones hacia delante con una capa oculta no lineal y una capa de salida lineal puede aproximar
cualquier funcin con el grado de precisin que se desee [18].
Sin embargo, existen problemas que necesitan de un sistema que tenga una respuesta que dependa
de su estado anterior. Y por tanto, requieren de estructuras que tengan una dinmica interna propia. Si la
respuesta de una red neuronal depende de su pasado se dice que es una red neuronal dinmica. Algunas
tareas para este tipo de RN son: la prediccin de series, la identificacin y el control de sistemas
dinmicos. Las RNR se han usado para mejorar el desempeo en problemas de clasificacin que haban
sido resueltos por medio de RN estticas. La ecuacin de las RNR en tiempo continuo es la siguiente:
x f x , u, w 1
(2.1)
y g x, w2
donde x representa el estado de la RN, u la entrada externa, w 1 y w 2 son los parmetros de la red
(pesos), f es una funcin que representa la estructura de la red y g es una funcin que representa la
relacin entre la salida y la entrada.
38
Captulo 2
x j k 1 f v j k
v j k
(2.2)
wijx i k j
i 1
donde f es una funcin de activacin de tipo escaln, x i es el estado de la red, wij son los pesos y j es
el umbral.
En esta red el nmero de lazos de retroalimentacin es igual al nmero de neuronas. La salida de
cada neurona se pondera y retroalimenta a travs de un elemento de retardo a cada una de las neuronas de
la red. La presencia de retroalimentacin en esta red la hace interesante para las aplicaciones de modelado
y control de sistemas dinmicos [6].
j -simo del vector que representa la informacin o patrn que debe almacenar.
Muchas de las investigaciones acerca de la estabilidad de las redes se basan en el establecimiento
de una funcin, denominada funcin de energa de la red, para representar los posibles estados (puntos de
equilibrio) de la red.
La funcin de energa de una red de Hopfield discreta tiene la siguiente forma:
1 n n
E wij x ix j ix 0
2 i 1 j 1
(2.3)
donde wij es el peso de la conexin entre neurona y neurona, x i entrada de la neurona i , x j entrada de la
neurona j , i es el umbral. Cuando se presenta a la entrada de la red una nueva informacin, esta
evoluciona hasta alcanzar un mnimo de la funcin de energa, generando una salida estable.
39
Captulo 2
algunas
40
Captulo 2
X k 1 AX k BU k ,
(2.4)
Z k f X k ,
(2.5)
Y k f CZ k ,
(2.6)
A block diag Ai ,
(2.7)
A 1
(2.8)
, p y , respectivamente. f es
41
-1
-1
-1
Captulo 2
Figura 2.2: Ejemplo de RNRE con tres entradas, tres salidas y tres nodos en la capa oculta.
Teorema de observabilidad local [24]: Sea la RNRE definida por (2.9) y (2.10), y sea su
versin linealizada alrededor del origen (i.e. punto de equilibrio) definida por las ecuaciones (2.9) y
(2.11). Si el sistema linealizado es observable, entonces la RNRE es localmente observable alrededor del
origen.
Para demostrar este teorema es preciso hacer algunas consideraciones importantes, la primera
como ya se mencion es limitarnos a una vecindad alrededor de un punto de equilibrio de la red. Un estado
de la red X se dice que es un punto de equilibrio de la ecuacin (2.4) si, para una entrada u , se satisface
la condicin:
42
Captulo 2
AX BU 0
Sin prdida de generalidad, podemos proponer X 0 y U 0 , en otras palabras, el punto de
equilibrio est representado por el origen (0,0).
Tambin sin prdida de generalidad, podemos simplificar el procedimiento limitndonos a el caso
una entrada una salida, es decir un sistema SISO. Podemos reescribir las ecuaciones (2.4), (2.5) y (2.6)
de la siguiente forma:
x k 1 Ax k Bu k
(2.9)
y k f Cf x k
(2.10)
y g (x , u )
entonces linealizando alrededor del estado de equilibrio ps (0, 0) mediante expansin en series de
Taylor tenemos que:
g
g
g(x , u ) g(ps ) x 0 u 0 O
x pS
u pS
donde O representa trminos de orden superior, y como y(ps ) g (ps ) 0 entonces tenemos que la
ecuacin linealizada (despreciando los trminos de orden superior) queda:
g
g
y x u
x pS
u pS
pero como ps es el origen, entonces
x x 0x
u u0u
43
Captulo 2
y Cx Du
donde
g
g
C
x1 pS x n pS
g
D
u pS
u pS
y k Cx k
(2.11)
entonces
y k Cx k
y k 1 Cx k 1
CAx k CBu k
es de rango pleno. M 0 es la matriz de observabilidad del sistema (2.4) y (2.11) y como estamos tratando
con sistemas SISO entonces M 0 es de dimensin (n n ) .
Sea un 1 k u k , u k 1 , , u k n 2
44
entonces
dado
un
estado
inicial
x k ,
u n 1 k
genera
la
Captulo 2
secuencia
de
salidas
F un 1 k , x k un 1 k , yn k
donde F : 2n 1 2n 1 . Entonces podemos expresar el Jacobiano de H con respecto a un 1 k y
obs
J (0,0)
un 1 k
un 1 k 0,0
un 1 k
x k
0,0
yn k
un 1 k 0,0
yn k
x
k
0,0
(2.12)
yn k
MO
x k 0,0
entonces el Jacobiano de F con respecto a u n y x k evaluado en el origen es:
I S
J obs
0,0
0 M0
(2.13)
obs
Dado que Det J (0,0)
Det I Det M 0 Det M 0 tenemos que si M 0 es de rango pleno
obs
tambin lo tendr.
J (0,0)
45
Captulo 2
obs
Aplicando este teorema al anlisis anterior puesto que Det J (0,0)
Det M 0 0 donde M 0
es la matriz de observabilidad del sistema linealizado, entonces podemos decir que existe localmente un
mapeo inverso definido por:
u k , x k F u k , y k
1
n 1
n 1
Esto quiere decir que en una vecindad del origen, x k es alguna una funcin no lineal de
x k 1 Ax k Bu k
46
Captulo 2
entonces
x k 1 Ax k Bu k
x k 2 Ax k 1 Bu k 1 A Ax k Bu k Bu k 1
MC An 1B,..., AB, B
es de rango n (es decir de rango pleno).
E (k )
1 p 2
ei (k ),
2 i 1
w (k 1) w (k ) w (k )
(2.14)
en la que
47
E (k )
wij (k )
E (k )
,
wij (k )
Captulo 2
(2.15)
E (k )
wij (k 1),
wij (k )
(2.16)
en donde es la tasa para el trmino momento. A la ecuacin (2.16) se le conoce como regla delta
generalizada.
En [15] se da la siguiente explicacin del trmino momento. Si la regla delta generalizada se
desarrolla como una serie para k 0,..., n, se obtiene una ecuacin de diferencias de primer orden para
E 0
,
wij 0
k 1; wij 1
E 1
E 1
E 0
wij 0
,
wij 1
wij 1
wij 0
k 2; wij 1
E 2
E 2
E 1
E 0
wij 1
2
,
wij 2
wij 2
w
1
w
0
ij
ij
48
Captulo 2
k n;
E n
E n 1
E 0
k n; wij (n )
n
wij n
wij n 1
wij 0
n r
r 0
E (r )
,
wij (r )
entonces la expresin para el cambio de peso, wij (n ) es una serie exponencial. Un requisito para la
convergencia es que el parmetro este entre los lmites:
0 a 1
(2.17)
si a se le da un valor entre los lmites (2.17), entonces se considera a la ecuacin (2.16) como un
algoritmo de ajuste con tasa, o coeficiente, de aprendizaje variable. Si se toma a
E (r )
1
wij (r )
para toda r , la
lim wij (r )
(2.18)
E (r )
wij (r )
1 ,
(2.19)
la ganancia final ser 1, por esta razn la condicin (2.19) es una regla para definir el valor de .
El trmino momento tambin ayuda a reducir el efecto que ocurre cuando
de manera alternada. Si se define a
E (k )
A(k ),
wij (k )
E (r )
wij (r )
cambia de signo
tiene:
Wij (z )
A(z )
z
,
z
(2.20)
49
Captulo 2
es decir que la variacin del peso Wij (z ) y el gradiente de la funcin de costo, A(z ) , presenta un
comportamiento de un filtro pasa-bajos, lo cual significa que si el gradiente de la funcin de costo cambia
de forma alternada de signo, entre ms rpido sea este cambio, menor es el efecto sobre la variacin del
peso, amortiguando de esta forma las oscilaciones alrededor de un punto mnimo.
De lo anterior se concluye que el trmino momento (2.16) es til para acelerar el aprendizaje y
estabilizar el comportamiento de la regla delta (2.15).
Ahora bien, la actualizacin de los pesos en cada una de las capas de la RNRE puede ser obtenida
siguiendo el diagrama a bloques de la red adjunta de la RNRE (ver figura 2.3), construida utilizando el
mtodo diagramtico [49] revisado en el captulo anterior.
-1
(a)
+1
(b)
Figura 2.3 (a) Diagrama a bloques de una RNRE. (b) Diagrama a bloques de la red adjunta de una RNRE
Definamos la
Por lo que el l 1 vector del error de salida amplificado es dado por la siguiente ecuacin:
50
e1 k fy k e k
Captulo 2
(2.21)
C e1 k z T k
(2.22)
la actualizacin de los pesos de los elementos de la matriz de pesos de la capa oculta, para el modelo en
tiempo discreto de la RNRE, es realizado de la siguiente manera, [35]:
aij C ie k fi z k x j k
(2.23)
bij C ie k fiz k u j k
(2.24)
donde aij es la actualizacin del peso ij -simo elemento de la matriz general de pesos A bajo
aprendizaje; C i es el i -simo vector rengln, tomado de la matriz transpuesta C T ; e k es el vector
del error de salida amplificado; fi z k es el i -simo elemento del vector de la primera derivada de la
funcin de activacin, el cual es expresado como funcin del vector de salida de la primera capa oculta
z k ; x j k es el j -simo elemento del vector de estado x k ; bij es la actualizacin del peso del
ij -simo elemento de la matriz de aprendizaje B ; u j k es el i -simo elemento del vector de entrada
u k . La forma matricial de estas dos ecuaciones puede ser obtenida introduciendo algunas matrices y
vectores auxiliares como a continuacin se muestra.
Definiendo el n 1 vector de error, el cual aparece en la salida de la capa oculta, como:
e2 k C Te1 k
(2.25)
f z k diag fi z i k , i 1,..., n
(2.26)
por lo que el n 1 vector de error de salida transformado es dado por la siguiente ecuacin:
e3 k e2 k f z k
(2.27)
51
Captulo 2
A e3 k x T k
(2.28)
vA e3 k x k
(2.29)
la operacin se define como el producto de cada uno de los elementos de igual ndice k para formar
un nuevo elemento con el mismo ndice k en el vector resultado. Ambos vectores deben tener la misma
dimensin n 1
La actualizacin de la n m matriz de pesos de entrada B , es la siguiente:
B e 3 k u T k
(2.30)
x k 1 g (x k , uk )
(2.31)
yk h(x k , uk )
(2.32)
Las funciones no lineales de la planta y las funciones de activacin de la RNRE cumplen con las
siguientes consideraciones:
52
Captulo 2
Suposicin 1. La planta dinmica es localmente Lipschitz, entonces las funciones g , h son tales
que
(2.33)
(2.34)
g : g g g, g g 0 g1 x k
h : h h h, h h0 h1 x k
f ( ) f ( )
f ( )
(2.35)
L
2
(2.36)
ek yk yk
(2.37)
ek 1 yk 1 yk 1 f (C k xk ) f (Cx k ) h (x k , uk )
(2.38)
k xk x k
(2.39)
(2.40)
Wk 1 Wk Wk Wk 1
(2.41)
53
Captulo 2
Lk Ak
Bk
2
Ck ;
Lk 1 Ak 1
Bk 1
Ck 1
(2.42)
Si el algoritmo de aprendizaje para la actualizacin de los pesos est dado por (2.41) entonces
tenemos que:
Lk 1 A k
2 Ak
2
2 Ak 1 2 tr A k Ak
B k
2 Bk
2
2 Bk 1 2 tr B k Bk
C k
2 C k
2
2 Ck 1 2 tr C k Ck
2
2 tr A k Ak 1 2 tr Ak 1Ak
2
2 tr B k Bk 1 2 tr Bk 1Bk
2
2
2 tr C k Ck 1 2 tr Ck 1Ck
(2.43)
2
considerando las leyes de actualizacin de las matrices A , B y C dadas por las ecuaciones (2.22),
(2.28) y (2.30) tenemos que:
2
2
2
2
2
2
Lk 1 Lk 2 ek3 xkT ek3 ukT ek1 zkT k2 ek 13 xkT1 ek 13 ukT1 ek 11 zkT1
Ahora debido a la definicin de error dada en las ecuaciones (2.37) y (2.38), sacando a ste como
trmino comn, usando propiedades de la traza y utilizando una propiedad de desigualdad establecida en
[39], pueden ser obtenidas las siguientes sentencias:
2
Lk (( f (zk )CkT f (yk )xkT f (zk )CkT f (yk )ukT f (yk )zkT 2max (3) 2max (51) 2) ek )
2
(( f (zk1)CkT1 f (yk1)xkT1 f (zk1)CkT1 f (yk1)ukT1 f (yk1)zkT1 2max (31) 2max (5) 2) ek1 ) d
2
Lk ek ek 1 d
(2.45)
d : 2 2 k ek
2
6
k 1ek 1
2
61
2 k 1ek 1
2
3
k2 k ek
2
4
2
11
k 1
2
2 1
(2.46)
54
Captulo 2
Teorema de estabilidad [30]: Sea la RNRE con una estructura cannica de Jordan, [59],
descrita por las ecuaciones (2.4), (2.5), (2.6) y (2.7); y el modelo de la planta no lineal dado por las
ecuaciones (2.31) y (2.32). Y aplicando el algoritmo BP para la actualizacin de las matrices de pesos
~ 2 ~ 2 ~
Lk Jk Bk Ck
Lk ek ek 1 d
donde los parmetros de aprendizaje y son acotados como se muestra a continuacin:
0 1; 0 1
55
Captulo 3
Captulo 3, [25]
Identificacin y control de sistemas utilizando RN
3.1 Identificacin de sistemas utilizando RN
Para realizar el control Mediante una Red Neuronal es necesario construir un modelo matemtico
en el espacio de estados de la planta a controlar para, posteriormente, hacer una identificacin paramtrica
y utilizar estos resultados en el diseo del controlador. La identificacin del sistema es un proceso
fundamental previo al control del o los procesos que se lleven a cabo por la planta, ya que nos permite
obtener informacin medular del comportamiento del sistema, el cual, hasta antes de la identificacin
aparece ante nosotros como una caja negra. El objetivo de la identificacin es conocer los estados y
parmetros de la estructura de la planta, as como obtener un modelo que tenga un comportamiento
aproximado a esta.
El uso de las redes neuronales para la identificacin de sistemas se ha extendido de manera
importante debido a que permiten aproximar una gran variedad de clases de funciones no lineales con
suficiente precisin, haciendo de ellas las principales candidatas para utilizarse en modelos dinmicos,
para la representacin de plantas no lineales.
56
Captulo 3
i 1,2,..., en el espacio de salida por una funcin de decisin P . Los elementos de U i denotan los
vectores de patrones correspondientes a la clase yi . En sistemas dinmicos, el operador P , que representa
a una planta dada, es definido implcitamente por el par de entrada-salida de las funciones del tiempo u(t ) ,
y y P (u ) P(u ) , u U
(3.1)
para algn 0 deseado y con una norma apropiadamente definida en el espacio de salida (denotada
).
x k 1 A(k ) Bu(k )
(3.2)
y k Cx (k )
una planta SISO controlable y observable, la matriz A y los vectores B y C pueden ser elegidos de tal
forma que la ecuacin (3.2), puede ser escrita como:
n 1
m 1
i 0
j 0
y p k 1 iy k i j u k j
(3.3)
donde i y j son parmetros constantes desconocidos. Esto implica que la salida al tiempo k 1 es
una combinacin de sus entradas y salidas pasadas.
La ecuacin (3.3) motiva la construccin de los siguientes modelos de identificacin, [29]:
57
Captulo 3
Modelo Paralelo
La salida de este modelo al tiempo k 1 es una combinacin lineal de sus entradas y salidas
pasadas como se muestra a continuacin:
n 1
m 1
i 0
j 0
yk 1 i (k )yk i j (k )u k j
(3.4)
Modelo Serie-Paralelo
La salida de este modelo al tiempo k 1 es una combinacin lineal de sus entradas y salidas
pasadas de la planta como se muestra a continuacin:
n 1
m 1
i 0
j 0
yk 1 i (k )y k i j (k )u k j
(3.5)
Modelo I:
y k 1
n 1
y k i g u k , u k 1 ,..., u k m 1
i 0
Modelo II:
m 1
y k 1 f y k , y k 1 ,..., y k n 1 iu k i
i 0
58
Captulo 3
Modelo III:
y k 1 f y k , y k 1 ,..., y k n 1 g u k , u k 1 ,..., u k m 1
Modelo IV:
y k 1 f y k , y k 1 ,..., y k n 1 ; u k 1 ,..., u k m 1
donde u k y y k representan la entrada y salida de la plantas SISO al tiempo k , y m n . En la
figura 3.1 se muestran el conjunto de modelos. Las funciones f : n en los modelos I y II y
Modelo IRN:
y k 1
n 1
y k i N u k , u k 1 ,..., u k m 1
i 0
59
Captulo 3
Modelo IIRN:
m 1
y k 1 N y k , y k 1 ,..., y k n 1 iu k i
i 0
Modelo IIIRN:
y k 1 N 1 y k , y k 1 ,..., y k n 1 N 2 u k , u k 1 ,..., u k m 1
Modelo IVRN:
y k 1 N y k , y k 1 ,..., y k n 1 ; u k , u k 1 , u k m 1
donde N , N 1 y N 2 representan RN.
(a)
(c)
(b)
(d)
Figura 3.1 Modelos de Identificacin. (a) Modelo I. (b) Modelo II. (c) Modelo III. (d) Modelo IV.
60
Captulo 3
Estos modelos IRN-IVRN representados en esta forma asumen que las respectivas RN son del
tipo RNFF como el PMC, sin embargo tambin es posible utilizar RNR en lugar de stas. Las estructuras
anteriormente mostradas son tiles para una clase de sistemas bien definidos, en los cuales, se tiene cierto
conocimiento de su estructura, lo cual, hace limitado su uso, especialmente, en sistemas no lineales.
Planta
RNR
Algoritmo de
Aprendizaje
Figura 3.2 Identificacin dinmica de una planta.
61
Captulo 3
Esta es una estructura de aprendizaje supervisado clsica en donde el tutor, en este caso la planta,
proporciona los valores deseados directamente en el sistema coordenado de la red neuronal.
x k 1 x k , u k
(3.6)
y k x k
donde : n m n y : n son funciones suaves que se asumen conocidas. El problema
de control es disear un controlador que genere una seal de control u k basado en toda la informacin
disponible al instante k . En el campo de los sistemas lineales existe un vasto conocimiento en tcnicas de
control, sin embargo, para sistemas no lineales esto no es as.
Un problema muy comn en Control Automtico es proporcionar una entrada de control correcta
de tal forma que una planta no lineal sea llevada de un estado inicial x o hasta un estado final o deseado
62
3.2.1.1
Captulo 3
de error; el anlisis y diseo se efectan utilizando funciones de transferencia junto con una serie de
tcnicas grficas como los diagramas de lugar de las races y de bode [32].
La desventaja principal de la teora de control convencional, es que en general, solo se aplica a
sistemas lineales invariantes en el tiempo, con una entrada una salida. A veces resulta intil para sistemas
variantes en el tiempo, sistemas no lineales y sistemas MIMO. Entonces las tcnicas convencionales, no
tienen aplicacin en sistemas de control ptimo o adaptable, que en su mayora son variantes en el tiempo
y/o no lineales.
En el mtodo de espacio de estados se pueden disear sistemas con los polos en lazo cerrado
deseados. O sistemas de control ptimos respecto a ndices de desempeo determinados e incluir
condiciones iniciales en caso de que sean necesarias, no obstante se requiere una descripcin matemtica
precisa de la dinmica del sistema en contraste con los mtodos convencionales donde, por ejemplo, las
curvas experimentales de respuesta en frecuencia que no tiene exactitud suficiente, se puede incorporar al
diseo sin sus descripciones matemticas.
3.2.1.2
es un mtodo verstil ante situaciones de cambio en los parmetros de la planta y/o desconocimiento de
los mismos.
Considere primero el caso cuando los parmetros del modelo dinmico de la planta son
desconocidos pero constantes. En tal caso, mientras la estructura del controlador puede no depender en
general de los parmetros de la planta, el correcto ajuste del controlador no puede ser hecho sin el
conocimiento de tales valores. Las tcnicas de control adaptable [1], [23], [26], [42], proveen un
procedimiento de sintonizacin en lazo cerrado para los parmetros del controlador. En tales casos el
efecto de la adaptacin desaparece con el tiempo, y cambios en la operacin provoca un nuevo comienzo
en el proceso de adaptacin.
Considera ahora el caso en el que los parmetros del modelo de la planta cambian aleatoriamente
en el tiempo. Esto ocurre porque las condiciones ambientales cambian o porque hemos considerado
modelos lineales de sistemas no lineales. Estas situaciones tambin ocurren cuando los parmetros del
sistema varan lentamente. El control adaptable es considerado cuando un gran cambio, del que no se tiene
conocimiento, en los parmetros de la planta, ocurre de modo que se tenga un nivel de desempeo
63
Captulo 3
aceptable del controlador y ste se mantenga. En tales casos la adaptacin puede ser continua.
El desconocimiento y variaciones no medidas de los parmetros del proceso degradan el
desempeo de sistema de control. Similarmente a las perturbaciones actuando sobre las variables de
control, uno puede considerar que las variaciones en los parmetros del proceso son causadas por
perturbaciones actuando sobre los parmetros. Estas perturbaciones en los parmetros pueden afectar el
desempeo del sistema de control.
Perturbacion
es
Referencia
Control
Adaptable
Planta
Mecanismo
de
Adaptacin
Figura 3.3: Esquema bsico de un sistema de control adaptable.
Definicin 3.2.1: Un control adaptable mide un cierto ndice de desempeo del sistema de
control usando las entradas, los estados las salidas y las perturbaciones conocidas. De la comparacin
del ndice de desempeo medido con otro deseado, el mecanismo de adaptacin modifica los parmetros
del controlador ajustable y/o genera un control auxiliar tal que mantenga el ndice de desempeo medido
cercano del deseado.
Mientras el control por retroalimentacin convencional es orientado primeramente a la
eliminacin de los efectos de las perturbaciones sobre las variables de control, el control adaptable es
orientado hacia la eliminacin de los efectos sobre el desempeo del sistema de control cuando existen
variaciones de los parmetros de la planta. Un controlador adaptable puede ser interpretado como un
control por retroalimentacin donde la variable de control es el ndice de desempeo.
El control adaptable se fundamenta en la siguiente hiptesis: Para cualesquiera valores posibles
de los parmetros del modelo de una planta existe un controlador con una estructura fija y complejidad
tal, que el desempeo especificado puede ser alcanzado con valores apropiados en los parmetros de
control [23]. As pues, para sistemas discretos as como para sistemas continuos, lineales ambos, leyes de
64
Captulo 3
control estables pueden ser determinadas si est disponible informacin concerniente a la funcin de
transferencia de la planta. En el caso de sistemas no lineales es necesario ver que el controlador tiene los
grados de libertad necesarios para alcanzar el objetivo deseado, es decir, primero mostrar que existe para
cada valor de parmetros de la planta la matriz de parmetros ptimos del controlador, y segundo
determinar leyes de control estables que ajusten a los parmetros del controlador conforme el error de
control tiende a cero [29].
Como vemos la forma en que los parmetros del controlador se adapten es de vital importancia, en
la figura 3.3 el mecanismo de adaptacin es relativo a este aspecto. Un mtodo usado para este propsito
se basa en la teora del gradiente descendente, igual que la regla delta utilizada para actualizar los pesos de
una RN se busca minimizar un ndice de desempeo, esto es, si el error e es el generado por la diferencia
entre la seal de referencia yd y a salida de la planta y , e yd y y los parmetros del controlador,
el ndice de desempeo o funcin de costo es
1
2
e 2
(3.7)
Buscamos reducir al mximo este criterio, para esto modificamos los en direccin negativa al
gradiente de , esto es que
(3.8)
que es igual a la forma en que adaptamos los pesos de la RN con el BP, es llamada constante de
entrenamiento. Esta representa la forma ms sencilla e adaptar los parmetros, pero existen otros mtodos
ms complicados como es el caso del uso de la funcin de Lyapunov [38], [43].
As pues la ecuacin que describe un control adaptable en tiempo discreto es la siguiente:
u k 1, 2,..., n , r k
i k 1 i k
(3.9)
(3.10)
65
Captulo 3
Existen cuatro diferentes formas en que se implementa el control adaptable, estas son: I) Control
Adaptable en Lazo Abierto [42], II) Control Adaptable Directo, III) Control Adaptable Indirecto [29] y
IV) Control Adaptable con Modelo Interno [29], [27]. En este captulo abordaremos nicamente el
Control Adaptable Directo pues es el que se aplicar para nuestro sistema.
3.2.1.3
reducir cierto ndice de desempeo. En muchos casos, el desempeo deseado del control adaptable directo
puede ser especificado en trminos de las caractersticas de un sistema dinmico el cual es una realizacin
de la conducta deseada del sistema en lazo cerrado. En estos casos, el controlador es diseado tal que para
un modelo de una planta dada, el sistema en lazo cerrado tiene las caractersticas de la dinmica buscada
del sistema.
Establecido lo anterior, el diseo de un control adaptable directo puede ser equivalentemente
formulado como en la figura 3.4. El modelo de referencia de esta figura es una realizacin del sistema con
desempeo deseado. La construccin del control es ahora hecho de tal forma que:
1. El error entre la salida de la planta y la del modelo de referencia sean idnticamente cero para
condiciones iniciales iguales.
2. Un error inicial debe desaparecer con una cierta dinmica.
Entonces cuando los parmetros de la planta son desconocidos o cambian con el tiempo, de modo que
se alcance o se mantenga un desempeo dado, se debe tomar en cuenta un esquema de Control Adaptable
Directo por Modelo de Referencia y es mostrado en la figura 3.4 [18], [23], [29].
Modelo de
Referencia
Referencia
Control
Adaptable
Planta
Mecanismo de
Adaptacin
66
Captulo 3
mecanismo de adaptacin para directamente ajustar los parmetros del controlador en tiempo real de tal
forma que el error entre la planta y el modelo de referencia tienda a cero.
La ecuacin que describe el Control Adaptable Directo en tiempo discreto, cuando la adaptacin
es realizada utilizando la regla delta es:
u k 1, 2,..., n , r k
i k i k
(3.11)
(3.12)
donde u es la seal de control, es una funcin no lineal, son los parmetros del controlador, r es la
seal de referencia, e es el error generado por la diferencia entre la salida de la planta y la seal de
referencia, es el ndice de desempeo y es la constante de entrenamiento. Ntese que las ecuaciones
3.11 y 3.12 son similares a las ecuaciones 3.9 y 3.10, esto se debe a que el control adaptable directo es el
esquema de control adaptable ms usado.
A pesar de su elegancia, el uso del control adaptable directo es limitado por la hiptesis relativa al
subyacente diseo lineal en el caso de parmetros conocidos. Mientras el desempeo en muchos casos
puede ser especificado en trminos de un modelo de referencia, las condiciones para la existencia de un
posible control permitiendo que el modelo de referencia acte en lazo cerrado son restrictivas. Una de las
limitaciones bsicas es la suposicin de tener el modelo de la planta ceros estables en todos los casos, el
cual en tiempo discreto es bastante restrictivo, [23].
3.2.2
red neuronal siempre ajusta sus pesos tratando de minimizar un cierto ndice de desempeo. En contraste
con los sistemas lineales para los que existe una extensa teora sobre control adaptable [28], muy poco se
ha investigado respecto al control adaptable de sistemas no lineales. Recientemente las redes neuronales se
han dado a conocer como unas poderosas herramientas en el aprendizaje de la dinmica de sistemas no
lineales. Debido a su paralelismo masivo, rpida adaptacin e inherente capacidad de aproximacin, [15],
las RN han concentrado a un gran nmero de cientficos e investigadores, especialmente en el rea de
identificacin y control. En la literatura uno puede encontrar trabajos interesantes sobre este tema, [10],
[9]. A continuacin se presentan dos esquemas de control adaptable.
67
3.2.2.1
Captulo 3
RNRE-1 es un identificador (estimador) de los estados de la planta que se usan como entradas a la red de
control RNRE-2 tiene una segunda entrada que es la seal de referencia. El error de identificacin ei sirve
para ajustar los parmetros de la RNRE-1, mientras que el error de control ec sirve para ajustar los
parmetros de la RNRE-2. Cabe mencionar que este diagrama, as como los anteriores y precedentes estn
plasmados desde un punto de vista SISO, pudindose adecuar a sistemas MIMO sin ninguna dificultad,
simplemente cambiando las seales simples de entrada y salida por vectores de entrada y salida.
RNRE-2
PLANTA
Controlador
RNRE-1
Estados
Identificador
Figura 3.5 Diagrama a bloques para un sistema de control directo adaptable de seguimiento de trayectoria.
Teniendo en cuenta lo anterior podemos obtener una expresin para el control. Consideremos un
sistema definido por la siguiente ecuacin.
x k 1 x k , u k
y k x k
(3.13)
xc k 1 Axc k Bv k
z k f x c k
y k f Cx c k
(3.14)
v k r k , x i k
68
Captulo 3
u k N x c k , v k
u k N xc k , r k , x i k
(3.15)
donde N representa una RNRE. En la figura 3.5 se muestra el esquema de este tipo de control usando
RNRE.
El esquema de control mostrado en la figura 3.5 representa el control adaptable directo usando una
RNRE como controlador. La RNRE-1 ajusta sus pesos para obtener una seal y tal que y k y k ,
donde y es la salida de la planta y y la salida del sistema aproximado, los pesos de la RNRE-1 son
ajustados en lnea utilizando el error de identificacin ei k y k y k . La RNRE-2 ajusta sus
pesos para obtener una seal u k tal que y k r k , donde y es la salida de la planta y r seal de
referencia. Los pesos de la RNRE-2 son ajustados en lnea usando el error de control
ec k r k y k .
En la figura 3.6 se presenta el esquema de control directo adaptable utilizando tres RNRE. Dos de
ellas forman parte del controlador, y la tercera es un identificador (estimador) de los estados de la planta
que se usan como entrada de una de las redes de control. De esta forma el control estar formado por una
parte feed forward, dependiente de la trayectoria de referencia, y otra parte feed back, dependiente de los
estados que genera el identificador neuronal.
La ley de control est dada por la suma siguiente:
U k u ff (k ) u fb (k )
(3.16)
u ff k N 1 xc1 k , r k
(3.17)
69
Captulo 3
u fb k N 2 xc 2 k , v k
(3.18)
u fb k N 2 xc 2 k , x i k
donde N 2 es el control de retroalimentacin generado por la RNRE-3, y depende del vector de estados
generado por la red de identificacin.
Sustituyendo la ecuacin (3.12) en la ecuacin (3.11) obtendremos la siguiente expresin:
U k N 1 xc1 k , r k N 2 xc 2 k , x i k
(3.19)
Tanto las RNREs de control 2 y 3 como la RNRE de identificacin estn definidas por las
ecuaciones (2.9), (2.10) y (2.11). La RNRE-1 ajusta sus pesos para obtener una seal y tal que
RNRE-2
PLANTA
RNRE-1
RNRE-3
Identificador
Figura 3.6 Diagrama de bloques para un sistema de control adaptable directo utilizando tres RNRE.
70
Captulo 4
CAPTULO 4
Simulaciones y resultados
En este apartado se presentan los resultados tanto de simulacin como prcticos de los dos
diferentes esquemas de control (PID y RNRE), aplicados a nuestra planta, as como los clculos y
procedimientos que fueron necesarios para el desarrollo de este sistema.
4.1 Motor
4.1.1 Clculo de los parmetros del motor
Primeramente se compr el motor de C.D. que vamos a utilizar:
Caractersticas a 12Vdc:
Caractersticas a 6Vdc:
-Velocidad: 80RPM.
-Velocidad: 40RPM.
-Corriente mxima: 5A
71
Captulo 4
Encoder
Es un codificador de dos canales de efecto hall, se utiliza para detectar la rotacin de un disco
magntico en una protuberancia posterior del eje del motor.
Proporciona una resolucin de 64 conteos por revolucin del eje del motor, lo que corresponde a
8384 conteos por revolucin del eje de salida de la caja de cambios.
Sensor requiere una tensin de entrada, entre 3.5 y 20 V y dibuja un mximo de 10 mA. Las
salidas A y B son ondas cuadradas de 0 V a Vcc aproximadamente 90 fuera de fase. La
frecuencia de las transiciones que le dice a la velocidad del motor, y el orden de las transiciones
que indica la direccin. Contando tanto los flancos de subida y la cada tanto de las salidas A y B,
es posible obtener 64 conteos por revolucin del eje del motor. Utilizando slo un solo borde de
un canal de resultados en 16 conteos por revolucin del eje del motor, por lo que la frecuencia de
la salida de un osciloscopio en la captura anterior es 16 veces la frecuencia de giro del motor.
Ya teniendo nuestro motor, se calcularon todos los parmetros necesarios para calcular el modelo
matemtico de este.
Se midi la resistencia de la armadura (resistencia interna) y la inductancia del motor, dando como
resultado los valores presentados a continuacin:
Cabe mencionar que en el caso de la resistencia de la armadura, fue necesario realizar varias
mediciones y tomar el promedio debido al efecto que producen las escobillas en el sistema al realizar la
medicin de este parmetro.
72
Captulo 4
RESISTENCIA INTERNA A 6 V
RESISTENCIA INTERNA A 12 V
1.- 5.9
1.- 10.3
2.- 6.0
2.- 8.0
3.- 3.6
3.- 7.2
4.- 7.0
4.- 8.8
5.- 5.6
5.- 9.3
6.- 5.1
6.- 7.5
7.- 4.6
7.- 10.3
8.- 5.7
8.- 11.5
9.- 5.6
9.- 11.2
10.- 4.9
10.- 10.4
PROMEDIO: 5.4
PROMEDIO: 7.97
INDUCTANCIA: 1.602 mH
KT
W(s)
Kb
(a)
KT
W(s)
Kb
(b)
73
G(s)
Captulo 4
W(s)
Kb
(c)
KT
KT
(Ra sLa ) J
ms
1(
KT
(Ra sLa ) J
ms
)(Kb )
KT
(Ra sLa )J ms
1(
KT Kb
(Ra sLa )J ms
(Ra sLa )J ms
(Ra sLa )J ms KT Kb
KT
(Ra sLa )J ms KT Kb
(Ra sLa )J ms
G(S)
W(s)
(d)
G(s)
W(s)
(e)
Figura 4.3 (a), (b), (c), (d) y (e) lgebra de bloques empleada desde el concepto bsico de mquina elctrica para determinar la
funcin de transferencia del motor.
Donde:
Va = 12 V
ia = 300 mA
= 80 rpm
em= 12 V
Tg= 250 oz in
La= 1.602 mH
Ra= 7.97
K b=
KT=
= 0.15 V
= 833.33
Jm= 20.7 oz in s2
74
Captulo 4
W(s)
G(s)
Una vez obtenida nuestra funcin de transferencia, se calculan los siguientes polos:
P1= -0.76
P2= -4974.27
al encontrarse ambos polos en el semiplano izquierdo, se determina que el sistema es estable.
Posteriormente se realiza el clculo de :
2 n = 4975.03
= 40.51
40.51 > 1
el sistema es sobre amortiguado
158.52
s 4975.03s 3769.29
Y(s) = 2
(4.1)
teniendo que:
A0 = 3769.29
b0 = 158.52
A1 = 4975.03
m=0
n=2
por lo tanto m < n
75
Captulo 4
X 1 0
X 2 A0
y b0
1 X1
0
u
A1 X 2 1
(4.2)
X1
0
X
2
1
X 1 0
X1 0
u
X 2 3769.29 4975.03 X 2 1
(4.3)
X1
y 158.52 0
X
2
AB
A B
2
A B
n 1
(4.4)
1 4975.03
1
0
(4.5)
ecuacin 4.3, sabiendo que la matriz de observabilidad (O) est definida como:
CA
2
O CA
CAn 1
(4.6)
76
Captulo 4
158.52
0
0
158.52
(4.7)
12
ss = lim s
s 0
1 Go s
(4.8)
12
ss = lim
s 0 1 Go
(4.9)
donde:
(4.10)
Go = Gc (s) G(s)
Ki
Ki
Go = Kp
Go = Kp
KT
2
s LaJ m sJ m Ra KT K b
(4.11)
2
s 4975.03s 3769.42
(4.12)
Kds
152.38
Kds
Kps Ki Kds 2
152.38
s 4975.03s 3769.42
(4.13)
Go =
152.38(Kps Ki Kds )
2
Go =
(4.14)
s (s 4975.03s 3769.42)
2
12
ss = lim
s 0
152.38(Kps Ki Kds )
1 s (s 4975.03s 3769.42)
(4.15)
77
Captulo 4
12
ss = lim
s 0 s (s 2 4975.03s 3769.42) 152.38(Kps Ki Kds 2 )
2
s (s 4975.03s 3769.42)
(4.16)
(4.17)
ss =
(4.18)
y 158.52
X1
X
2
s1 0.76
s1 4974.27
el polinomio caracterstico deseado es:
3s 2 0
(4.19)
0 1
Ar
A Bk
2 3
(4.20)
78
Captulo 4
s 0 0 1 s
1 2
det SI Ar
s 3s 2
0 s 2 3 2 s 3
(4.21)
0
0 1
0
1
k1 k2
3769.29 4975.03 1
2 3
(4.22)
0 0 0 1
0
1
3769.29 4975.03 k1 k2 2 3
(4.23)
0 1
0
1
k 3769.29 k2 4975.03 2 3
1
(4.24)
donde:
k1 3769.29 2
k1 3767.29
k2 4975.03 3
k2 4972.03
k 3767.29 4972.03
( )
0
1
[158.52 0]
y(t)
0
1
3769.29 4975.03
[3767.29 4972.03]
Figura 4.5
Retroalimentacin de estado
79
Captulo 4
Kp = Ki Ti
Kp = (2.4) (1.5416)
Kp = 3.7
(4.26)
Kd = Td Kp
Kd = (2.7x10-6) (3.7)
Kd = 0.0001
Cabe sealar que todas las variables anteriores pueden modificar sus valores sin
necesariamente estar relacionadas una con las otras dado que se debe realizar un ajuste de los mismos
hasta obtener los resultados deseados a la salida del sistema controlado. Estos valores fueron los que
mejor se adaptaron al sistema utilizado en este apartado.
Para controlar la velocidad del motor antes descrito bajo este enfoque, se utiliz el esquema
de control mostrado en la figura D.1, haciendo uso de la planta descrita en la figura 4.5 y con seal
de entrada dada por la siguiente expresin:
(4.27)
donde WN () es una seal de ruido blanco con parmetros Tm, p y s . Se trata de secuencias de
pulsos de amplitud variable acotada por el intervalo [0.5, 0.5].
Todas las simulaciones se realizaron en MATLAB Simulink en tiempo continuo, el tiempo
de duracin de la simulacin fue de 1 minuto.
Las figura 4.6 (a) muestra la seal de referencia (azul) y la salida de la planta (roja)
controlada, y la figura 4.6 (b) muestra las mismas seales pero en un intervalo de tiempo menor para
apreciar a manera de zoom el control del sistema en los primeros instantes de tiempo. La figura 4.7
muestra la seal de control y por ltimo las figuras 4.8 (a) y 4.8 (b) muestran el error en estado
estacionario y el Error Cuadrtico Medio de control (el cual presenta un desempeo aceptable menor
al 2.4% del error), respectivamente.
80
Captulo 4
Comparacin de Control
0.25
Referencia
Salida
0.2
0.15
a
id
la
S
s
v
ia
c
n
re
e
fe
R
0.1
0.05
0
-0.05
-0.1
100
200
300
Tiempo
400
500
600
(a)
Comparacin de Control
0.25
Referencia
Salida
0.2
0.15
a
id
l
a
S
s
v
a
i
c
n
e
re
fe
R
0.1
0.05
0
-0.05
-0.1
10
20
30
40
50
Tiempo
60
70
80
90
(b)
Figura 4.6 Control PID: (a), (b) Comparacin entre la seal de referencia y la seal de salida de la planta.
81
100
Captulo 4
Seal de Control
1
0.8
0.6
l
o
trn
o
C
e
d
la
e
S
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
50
100
150
200
Tiempo
250
300
350
400
0.5
0.4
0.3
0.2
0.1
r
o
rr
E
0
-0.1
-0.2
-0.3
-0.4
-0.5
0
100
200
300
Tiempo
400
500
600
(a)
82
Captulo 4
0.1
0.09
0.08
o
i
d
e
M
o
ci
t
rd
a
u
C
r
o
rr
E
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
50
100
150
200
Tiempo
250
300
350
400
(b)
Figura 4.8 Control PID: (a) Error en estado estacionario, (b) Error cuadrtico medio de control.
83
Captulo 4
4.3 Control de velocidad del motor con Control Inteligente RNRE (Simulacin)
El segundo esquema de control empleado para controlar la planta antes mencionada fue el
Control Adaptable Directo utilizando tres RNREs, una de ellas para la identificacin de los estados y
las otras dos para llevar a cabo las tareas de control, el cual quedar dividido en dos partes (uc = uff
+ ufb ), como se mostrar ms adelante, para tal efecto se construy el sistema mostrado en la figura
3.6. La topologa de la RNRE de control Feedforward es (1,3,1) es decir tiene 1 entradas, 3 neuronas
en la capa oculta y 1 neuronas en la capa de salida, los parmetros de aprendizaje fueron: C1 = 0.01,
C1 = 0; La topologa de la RNRE de control Feedback es (3,10,1) es decir tiene 3 entradas,
10 neuronas en la capa oculta y 1 neuronas en la capa de salida, los parmetros de aprendizaje fueron:
C2 = 0, C2 = 0.001; La topologa de las RNRE de identificacin es (1,3,1) es decir tiene 1 entradas,
3 neuronas en la capa oculta y 1 neuronas en la capa de salida, los parmetros de aprendizaje fueron:
i = 0.001, i = 0.7; el tiempo de muestreo utilizado en todos los casos fue Ts = 0.01 minutos, las
funciones de activacin de las redes son del tipo tangente hiperblica; la identificacin y el control del
sistema fue realizado en tiempo real, aprovechando las caractersticas de las RNRE; el tiempo de
duracin de la simulacin fue de 2:30 minutos. La seal utilizada como referencia es la misma
utilizada en el esquema de control anterior, descrito por la ecuacin 4.27:
r (k ) = WN (Tm , p, s ) = WN ( 25,[0.25],[2, 3,5, 1, 4] )
Todas las simulaciones se realizaron en MATLAB Simulink en tiempo discreto.
La figura 4.9 (a) muestra la seal de referencia (azul) y la salida de la planta (roja) controlada, la
figura 4.9 (b) muestra la misma seal pro en un intervalo de tiempo menor a manera de zoom para
apreciar de manera ms clara el control del sistema en los primeros instantes de tiempo; La figura 4.10 (a),
4.10 (b), 4.10 (c) muestran las seales de control; La figura 4.11, muestra el error instantneo de control,
podemos observar que este error es acotado, lo cual indica que el sistema es estable; La figura 4.12
muestra el ECM de control, el cual presenta un desempeo aceptable menor al 3.03% del error. La figura
4.13(a) muestra la seal de salida de la planta (azul) controlada y la de identificacin (roja) de la planta
controlada, la figura 4.13 (b) muestra las mismas seales pero en un intervalo de tiempo menor para
apreciar a manera de zoom la comparacin de identificacin en los primeros instantes de tiempo; Las
figuras 4.14 (a) y (b) muestra los estados identificados de la planta, con diferencia de intervalos de tiempo
para su mejor observacin; La figura 4.15 muestra el error instantneo de identificacin para la salida de
la planta y finalmente la figura 4.16 muestra el ECM de identificacin el cual presenta un desempeo
aceptable menor al 0.54% del error.
84
Captulo 4
COMPARACIN DE CONTROL
0.25
Referencia
Salida
0.2
0.15
a
id
la
S
sv
ia
c
n
e
re
f
e
R
0.1
0.05
0
-0.05
-0.1
5000
10000
Tiempo
15000
(a)
COMPARACIN DE CONTROL
Referencia
Salida
0.04
0.02
0
-0.02
a
d
lia
S
vs
f
e
R
-0.04
-0.06
-0.08
-0.1
-0.12
-0.14
0
200
400
600
800
1000
Tiempo
1200
1400
1600
1800
2000
(b)
Figura 4.9 Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de referencia y la seal de salida de la
planta.
85
Captulo 4
ff
l
o
rt
n
o
c
e
d
l
a
e
S
0.3
0.2
0.1
0
-0.1
-0.2
0
5000
Tiempo
10000
15000
(a)
SEAL DE CONTROL II (FEEDBACK)
0
-0.02
b
f
l
o
tn
o
c
e
d
l
a
e
S
-0.04
-0.06
-0.08
-0.1
-0.12
5000
Tiempo
10000
15000
(b)
86
Captulo 4
e
S
0.2
0.1
0
-0.1
-0.2
-0.3
0
5000
Tiepo
10000
15000
(c)
Figura 4.10 Control directo adaptable con tres RNREs: (a) Seal de Control ff, (b) Seal de control fb. (c) Seal de control total.
0.5
0.4
0.3
0.2
o
e
n
tn
ta
s
n
i
ro
rr
E
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
0
5000
Tiempo
10000
15000
Figura 4.11 Control directo adaptable con tres RNREs: Error instantneo de Control.
87
Captulo 4
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
5000
Tiempo
10000
15000
Figura 4.12 Control directo adaptable con tres RNREs: Error Cuadrtico Medio de control.
i
ca
ci
fi
t
n
e
id
e
d
la
e
S
s
v
a
tn
la
p
a
l
e
d
l
a
e
S
Planta
Identificador
0.2
0.15
0.1
0.05
0
-0.05
-0.1
-0.15
-0.2
5000
Tiempo
10000
15000
(a)
88
Captulo 4
e
S
sv
a
t
n
a
lp
a
l
e
d
la
e
S
Planta
Identidicador
0.015
0.01
0.005
0
-0.005
-0.01
-0.015
-0.02
-0.025
-0.03
8
Tiempo
10
12
14
(b)
Figura 4.13 Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de salida de la planta y la seal de
identificacin de la planta controlada.
ESTADOS IDENTIFICADOS
x1(k)
x2(k)
x3(k)
0.05
s
o
d
a
t
s
E
-0.05
-0.1
5000
Tiempo
10000
15000
(a)
89
Captulo 4
ESTADOS IDENTIFICADOS
x1(k)
x2(k)
x3(k)
0.08
0.06
0.04
0.02
s
o
d
a
t
s
E
0
-0.02
-0.04
-0.06
-0.08
-0.1
-0.12
1.5
2.5
3
Tiempo
3.5
4.5
(b)
Figura 4.14 Control directo adaptable con tres RNREs: (a) y (b) Estados identificados de la planta.
-3
20
x 10
15
o
e
n
tn
a
t
s
n
I
r
o
rr
E
10
-5
5000
Tiempo
10000
15000
Figura 4.15 Control directo adaptable con tres RNREs: Error instantneo de Identificacin.
90
Captulo 4
r
d
a
u
C
o
id
e
M
r
o
rr
E
0.035
0.03
0.025
0.02
0.015
0.01
0.005
0
5000
Tiempo
10000
15000
Figura 4.16 Control directo adaptable con tres RNREs: Error Cuadrtico Medio de identificacin.
91
Captulo 4
0.8
0.7
0.6
a
id
l
a
S
s
v
ia
c
n
re
e
f
e
R
0.5
0.4
0.3
0.2
0.1
0
0.2
0.4
0.6
0.8
1
Tiempo
1.2
1.4
1.6
1.8
2
4
x 10
(a)
92
Captulo 4
COMPARACIN DE CONTROL
0.8
0.7
0.6
a
d
li
a
S
s
v
a
i
cn
e
r
e
fe
R
0.5
0.4
0.3
0.2
0.1
0
500
1000
1500
2000
Tiempo
2500
3000
3500
4000
(b)
Figura 4.17 Control PID: (a), (b) Comparacin entre la seal de referencia y la seal de salida de la planta.
1
0.9
0.8
0.7
0.6
ia
c
n
e
re
f
e
R
0.5
0.4
0.3
0.2
0.1
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
93
Captulo 4
4.5 Control de velocidad del motor con Control Inteligente RNRE (Pruebas fsicas)
El segundo esquema de control empleado para controlar la planta real fue al igual que en el
apartado de simulacin, el Control Adaptable Directo utilizando tres RNREs, una de ellas para la
identificacin de los estados y las otras dos para llevar a cabo las tareas de control, el cual quedar
dividido en dos partes (uc = uff + ufb ), como se mostrar ms adelante, para tal efecto se construy el
sistema mostrado en la figura 3.6. La topologa de la RNRE de control Feedforward es (1,3,1) es decir
tiene 1 entradas, 3 neuronas en la capa oculta y 1 neuronas en la capa de salida, los parmetros de
aprendizaje fueron: C1 = 0.01,
decir tiene 3 entradas, 10 neuronas en la capa oculta y 1 neuronas en la capa de salida, los parmetros de
aprendizaje fueron: C2 = 0, C2 = 0.001; La topologa de las RNRE de identificacin es (1,3,1) es decir
tiene 1 entradas,
aprendizaje fueron:
0.01 minutos, las funciones de activacin de las redes son del tipo tangente hiperblica; la identificacin
y el control del sistema fue realizado en tiempo real, aprovechando las caractersticas de las RNRE; el
tiempo de duracin de la simulacin fue de 1:40 minutos. La seal utilizada como referencia es la misma
utilizada en el esquema de control anterior, una seal continua de 0.65.
Todas las simulaciones se realizaron en MATLAB Simulink en tiempo discreto.
La figura 4.19 (a) muestra la seal de referencia (azul) y la salida de la planta (roja) controlada, la
figura 4.19 (b) muestra la misma seal pro en un intervalo de tiempo menor a manera de zoom para
apreciar de manera ms clara el control del sistema en los primeros instantes de tiempo; La figura 4.20 (a),
4.20 (b), 4.20 (c) muestran las seales de control; La figura 4.21, muestra el error instantneo de control,
podemos observar que este error es acotado, lo cual indica que el sistema es estable; La figura 4.22(a)
muestra la seal de salida de la planta (azul) controlada y la de identificacin (roja) de la planta
controlada, la figura 4.22 (b) muestra las mismas seales pero en un intervalo de tiempo menor para
apreciar a manera de zoom la comparacin de identificacin en los primeros instantes de tiempo; Las
figuras 4.23 (a) y (b) muestra los estados identificados de la planta, con diferencia de intervalos de tiempo
para su mejor observacin; La figura 4.24 muestra el error instantneo de identificacin para la salida de
la planta y finalmente la figura 4.25 muestra el ECM de identificacin el cual presenta un desempeo
aceptable menor al 0.54% del error.
94
Captulo 4
COMPARACIN DE CONTROL
0.8
0.7
0.6
lo
tr
n
o
C
s
v
a
ic
n
re
e
fe
R
0.5
0.4
0.3
0.2
0.1
0
Referencia
Salida
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
(a)
COMPARACIN DE CONTROL
0.8
0.7
0.6
l
o
trn
o
C
s
v
a
ic
n
e
re
f
e
R
0.5
0.4
0.3
0.2
0.1
R e fe re ncia
Sa lida
200
400
600
800
1000
Tiempo
1200
1400
1600
1800
2000
(b)
Figura 4.19 Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de referencia y la seal de salida de la
planta
95
Captulo 4
1
0.9
0.8
0.7
0.6
a
ci
n
e
r
e
f
e
R
0.5
0.4
0.3
0.2
0.1
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
8000
9000
10000
(a)
SEAL DE CONTROL II (FEED BACK)
0.5
0.45
0.4
0.35
0.3
ia
c
n
e
r
e
fe
R
0.25
0.2
0.15
0.1
0.05
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
(b)
96
Captulo 4
CONTROL TOTAL
1.6
1.4
1.2
1
a
ci
n
e
r
e
f
e
R
0.8
0.6
0.4
0.2
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
(c)
Figura 4.20 Control directo adaptable con tres RNREs: (a) Seal de Control ff, (b) Seal de control fb. (c) Seal de control total.
1
0.9
0.8
0.7
o
ci
t
r
d
a
u
C
o
id
e
M
ro
rr
E
0.6
0.5
0.4
0.3
0.2
0.1
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
Figura 4.21 Control directo adaptable con tres RNREs: Error Cuadrtico Medio de control.
97
Captulo 4
0.8
0.7
0.6
r
o
d
a
ci
fi
t
n
e
d
I
s
v
ta
n
a
l
P
0.5
0.4
0.3
0.2
0.1
Pla nta
-0.1
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
(a)
0.8
Pla nta
0.7
0.6
ro
d
a
icfi
t
n
e
d
I
s
v
a
tn
a
l
P
0.5
0.4
0.3
0.2
0.1
0
-0.1
100
200
300
400
500
Tiempo
600
700
800
900
1000
(b)
Figura 4.22 Control directo adaptable con tres RNREs: (a), (b) Comparacin entre la seal de salida de la planta y la seal de
identificacin de la planta controlada.
98
Captulo 4
ESTADOS IDENTIFICADOS
0.5
x1 (k)
x2 (k)
0.45
x3 (k)
0.4
0.35
0.3
a
ic
n
e
r
e
f
e
R
0.25
0.2
0.15
0.1
0.05
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
(a)
ESTADOS IDENTIFICADOS
0.5
x1 (k)
0.45
x2 (k)
x3 (k)
0.4
0.35
0.3
ia
c
n
e
r
e
f
e
R
0.25
0.2
0.15
0.1
0.05
0
500
1000
1500
2000
Tiempo
2500
3000
3500
4000
(b)
Figura 4.23 Control directo adaptable con tres RNREs: (a) y (b) Estados identificados de la planta.
99
Captulo 4
0.8
0.7
0.6
0.5
o
e
n
tn
a
t
s
In
r
ro
r
E
0.4
0.3
0.2
0.1
0
-0.1
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
Figura 4.24 Control directo adaptable con tres RNREs: Error instantneo de Identificacin.
0.1
0.09
0.08
0.07
co
it
r
d
a
u
C
o
i
d
e
M
ro
rr
E
0.06
0.05
0.04
0.03
0.02
0.01
0
1000
2000
3000
4000
5000
Tiempo
6000
7000
8000
9000
10000
Figura 4.25 Control directo adaptable con tres RNREs: Error Cuadrtico Medio de identificacin.
100
Captulo 5
CAPTULO 5
Conclusiones
La descripcin del sistema, el cual es el ejemplo central de este trabajo se present en el captulo
4. Se obtuvo el modelo matemtico de un motor de corriente directa aplicando tcnicas de simplificacin,
cambio de polos y representacin es espacio de estados. Al evaluar el modelo resultante se obtuvo
respuestas bastante aproximadas a las que se obtendran de un sistema real, adems de que permiti
conocer la dinmica interna del sistema.
Las Redes Neuronales Artificiales son poderosas herramientas para la identificacin y el control
de sistemas. Para poderlas ocupar correctamente y obtener buenos resultados mediante su implementacin
es fundamental conocer y manejar los conceptos bsicos de los elementos que las conforman, las
topologas y los diferentes tipos de aprendizaje que existen, los cuales son tratados brevemente a lo largo
de este trabajo. Tambin se present el mtodo diagramtico para poder derivar los algoritmos de
aprendizaje como el BP de una forma ms sencilla.
Todas las simulaciones y resultados presentados en este trabajo se realizaron utilizando RNRE,
debido a las ventajas que presentan sobre otro tipo de redes estticas. En los captulos 2 y 3 se ha
presentado una teora general acerca de las RN, abarcando tpicos importantes como lo son las topologas,
estructura, controlabilidad, observabilidad, aprendizaje y estabilidad. La marcada limitacin que
experimentan las RN estticas en cuanto a no poseer dinmica en su estructura y el tener que requerir una
gran cantidad de neuronas para llevar a cabo la mayora de los procesos son sus mayores desventajas ante
las RNR.
La identificacin es de gran importancia e inters para el control de procesos, ya que permite
obtener informacin del comportamiento del sistema, por lo que es necesario conocer las herramientas
para poder llevar a cabo esta tarea. Tales elementos son dados a conocer en el captulo 5; en dicho
captulo, qued de manifiesto el poder de adaptacin que tiene la RNRE para la identificacin de sistemas,
en donde se mostr que la RNRE se puede adaptar a condiciones y fenmenos externos al modelado de la
planta como lo son retardos en la alimentacin del sistema. La RNRE utilizada fue capaz de hacer el
seguimiento de la salida y la identificacin paramtrica del sistema con excelentes resultados.
Finalmente el objetivo ms importante de este trabajo fue alcanzado: el control del sistema
propuesto; como sabemos, existen diferentes esquemas y topologas para llevar a cabo esta tarea, el
principal enfoque fue desarrollar un esquema de control adaptable directo utilizando 3 RNREs, esto
debido a su sencillez de operacin y a que utiliza una RNRE para sintetizar la ley de control. Los
resultados obtenidos de las simulaciones fueron bastante satisfactorios, pues se propusieron diversos tipos
101
Captulo 5
de seales de referencia y la RNRE de control fue capaz de adaptarse a todas ellas con una velocidad
considerable, pudindose realizar todos los experimentos en tiempo real, nicamente se document un tipo
de entrada pues es la que se muestra ms interesante y difcil de realizar para el sistema al finalizar las
pruebas.
Este sistema se compar en funcionamiento con el de un controlador clsico muy difundido, el
PID; y aunque ste presento muy buenos resultados en la salida de la planta y el error es ms pequeo,
este no dista tanto en valores entre un esquema de control y otro. Al observar los resultados entre ambos
esquemas, se hace nfasis en la utilizacin de las RNs pues el PID si muestra una significativa ventaja en
precisin y exactitud en el control de un sistema como este pero es necesario conocer todos los parmetros
de la planta para su correcto y adecuado funcionamiento as como que nicamente funciona para esa
planta en especfico y por el contrario en un sistema en donde se apliquen las RNs como se hizo en este
caso, puede ser aplicable a casi cualquier sistema incluso del tipo MIMO (con algunas modificaciones en
la topologa de las redes), obteniendo satisfactorios resultados con errores menores al 4%.
Los resultados de este trabajo sern enviados a algunos congresos y estarn a la espera de su
futura publicacin.
102
Trabajos
Futuros
Trabajos futuros
Debido a los buenos resultados obtenidos en este trabajo, a futuro y como primer paso se
pretender ajustar este sistema para el control de 2 o incluso 3 variables: Velocidad (que hasta el
momento ya se tiene), Posicin y/o aceleracin, para as poder llevar este sistema a una aplicacin real que
beneficie en algn aspecto de la vida o bien aporte algo a la ciencia y tecnologa en nuestro pas
principalmente, por ejemplo controlando varios motores se podra realizar un brazo mecnico de precisin
o incluso podra aplicarse para controlar el movimiento de una prtesis en el cuerpo humano, etc.
Por otra parte, al realizar estudios de posgrado en esta rea ser bastante interesante ahondar en el
control de sistemas multivariables con retardo utilizando RNRs y encontrar matemticamente un criterio
que nos permita conocer hasta donde es posible llevar la estabilidad y el control del sistema.
103
Bibliografa
Bibliografa
[1]
Astrom, K. J., Wittenmark, B., Adaptive Control, Addison-Wesley, E. U., 1989, 524.
[2]
Baruch, I., Flores, J. M., Thomas, F., Garrido, R Adaptive Neural Control of Nonlinear
systems. In: Dorfner, G., Bischof, H., Hornik, K. (eds): Artificial Neural Networks ICANN 2001.
Lectura Notes in Computer Science, Vol. 2130. Springer-Verlag, Berlin Heidelberg New Cork
(2001), 930-936.
[3]
Baruch, I., Garrido, R., Flores, J. M., Redes Neuronales para la identificacin y control de
sistemas no lineales, Cientfica, No. 14, Marzo-Abril 1999, ESIME, pp. 39-45.
[4]
Baruch, I., Gorcheva, E y Garrido, R., Redes Neuronales para la identificacin de objetos no
lineales, Cientfica, No. 14, Marzo-Abril 1999, ESIME, pp. 39-45.
[5]
[6]
Calderon, G Draye, J. P., Pasivic, D., Teran, R. And Libert, G., Nonlinear Dynamic system
identification with Dynamic Recurrent Neural Networks, Proc of IASTED Inter. Workshop on
Neural Network0 for Identification, Control, Robotics and Signal/Image Processing, pp. 4954,1996.., May 5-8, 1999, Philadelphia, Pensylvania US, pp. 326-331.
[7]
Carletti, Eduardo J., Control de motores de CC - Control por Ancho de Pulso (PWM), Robots
Argentina, Argentina, 2007.
[8]
Chapman, Sthephen J., Mquinas Elctricas 3ra. Edicin, Mc Graw Hill, Mxico, 1998.
[9]
Chen, Fu-C., Back-Propagation Neural Networks for nonlinear self-tunning Adaptive control,
IEEE Control Syst. Mag., Vol. 10, No. 3, 1990. pp. 44-48.
[10]
Chen, S., Billings, S. A. y Grant, P. A., Nonlinear Systems Identification Using Neural
Networks, Int. J. Control, Vol. 51, No. 6, 1990, pp. 44-48.
[11]
Chu, S. R., Shoureshi, R. and Tenorio, M Neural networks for system identification, IEEE
Control Syst. Mag., Vol. 10, No. 3, 1990. pp. 31-35.
[12]
Cichoki, A. and Unbehauen, R., Neural Networks for optimization and Signal Processing, Ed.
John Wiley & Sons, 1993
[13]
[14]
Elman, J. L., Finding structure in time. Cognitive Science, vol 14, pp. 179-211, 1990.
[15]
Haykin, S., Neural Networks, A Comprehensive Foundation, Prentice Hall U. S., 2nd Ed.
1999.
[16]
[17]
Hopfield, J. J., Neurons with grade response have collective computational properties like
those of two-state neurons, In Proc. Nat. Academy Sci. USA. Vol. 81. pp. 3088-3092. 1984.
[18]
Hunt, K. J., Sbarbaro, D., Zbicowski, R., and Gawthrop, P. J., neural Networks for Control
Systems. A survey, Automatica, vol. 28, No. 6, pp. 1083-1112, 1992.
104
Bibliografa
[19]
Irie, B., and miyake, S., Capabilities of Three-layered Perceptrons, Proc. IEEE Anual Int.
Conf. Neural Networks, 1998, pp. 1641-1648.
[20]
Jin, L., Gupta, M. M. y Nikiforuk, P. N., Adaptive model Referent Control of Discrete Time
Nonlinear Systems Using Neural Networks, Control Theory an Advanced Technology, Vol. 10,
No.4 , Part3, sept. 1995, pp. 1379-1399
[21]
Jordan, M. I., Supervised learning and systems with excess degrees of freedom.
Massachusetts Institute of Technology. COINS Technical report 88-27, May. 1988.
[22]
Kleiner Effekt Groe Wirkung, elektronik industrie 7, Alemania, 2006, Traduccin Sensor
Hall, Josef Janisch, Julio de 2007.
[23]
Landau, I. D., Lozano, R., and M Saad, M., Adaptive Control, Springer Verlag, Great Britain,
1998.
[24]
Levin, A. V., and K. S. Narendra.1996. Control of nonlinear dynamical systems using neural
networks- Part II Observability, identification and control, IEEE Transactions on Neural
Networks, vol. 7, pp 30 42.
[25]
[26]
Miller III, W. T., Sutton, R. S., y Werbos, P. J., Neural networks for control, Addison Wesley,
E. U. 1989, 526.
[27]
Morari, m. and Zafiriou, E, Roust Process Control, Prentice Hall, E. U., 1989.
[28]
[29]
[30]
Nava, F., Baruch, I., Poznyak A., 2004. Stability Proofs of Advanced Recurrent Neural
Networks Topology and Learning, Competes Rendus. (Proceedings of the Bulgarian Academy
of Sciences) ISSN 0861-1459, Vol 57, No. 1, pp. 27 -32.
[31]
Nguyen, D. H. and Widrow, B., Neural Networks for Self-Learning Control Systems, IEEE
Control Systems Magazine, Vol,. 10, pp. 18-23, 1990.
[32]
Ogata, Katsuhiko, Ingeniera de Control Moderna 3ra. Edicin, Prentice Hall, Cap. 10,
Mxico, 1998.
[33]
Ogata, Katsuhiko, Sistemas de Control en Tiempo Discreto 2ra. Edicin, Prentice Hall, Cap.
10, Mxico, 1996.
[34]
Pham, D. T. and Yildirim, S. Robot Control using Jordan Neural Networks, Proc. Of the
Internat. Conf. On Recent Advances in Mechatronics, Istanbul, Turkey, Aug. 14-16, 1995, Vol.
II, pp. 888-893.
[35]
Phansalkar, V. V., and Sastry, P. S., Analysis of the Back-Propagation Algorithm with
Momentum, IEEE Trans. On Neural Networks, Vol 5, No 3., pp. 5005-506, 1994.
[36]
Pineda, F. J., Dynamics and architecture for neural computation in recurrent networks.
Journal of Complexity, Vol. 4, pp. 165-199,1988.
[37]
Pineda, F. J., Recurrent Back propagation and the dynamical approach to adaptive neural
computation. Neural computation, Vol. 1, pp. 161-172,1989.
105
Bibliografa
[38]
Polycarpou, M. M., Stable Adaptive Neural Control Scheme for Nonlinear Systems, IEEE
Trans. On Atomatic Control, Vol. 41, No. 3, March 1996, pp. 447-451.
[39]
Poznyak, A. S., Yu, W., Sanchez, E. N., and Perez, J. P., Nonlinear Adaptive Trajectory
Tracking Using Dynamic Neural Networks, IEEE Transactions on Neural Networks, 10, 1999,
1402-1411.
[40]
Recurso en lnea, Maquinas Elctricas Rotativas, Mc Graw Hill, Cap. 7, http://www.mcgrawhill.es/bcv/guide/capitulo/8448127641.pdf, Espaa, 2011.
[41]
Recurso en lnea, Motores Elctricos, Ed. Mc Graw Hill, Cap. 11, www.mcgrawhill.es/bcv/guide/capitulo/8448173104.pdf, Espaa, 2011.
[42]
Rodrguez R. F., y Lpez, S., M. J., Control Adaptivo y Robusto, Universidad de Sevilla,
Espaa 1996.
[43]
Rovithakis, G. A., and Christodolou, M. A., Adaptive Control of Unknown Plants Using
Dynamical Neural Networks, IEEE Trans. On Systems, Man an Cybernetics, Vol. 24, No. 3,
March 1994, pp. 400-412.
[44]
Snchez E. N., y Bernal, M. A., Nonlinear System Adaptive Trajectory Tracking by Dynamic
neural Control, Int. Joint Conf. On Neural networks, Vol. 3, pp. 2114-2118, 1999.
[45]
Snchez, E. N., Poznyak, A. S. y Wen Yu, Dynamic Multilayer Neural Network for Nonlinear
System Identification, Proc. 33th IEEE CDC, Dec. 1994, pp. 2480-2484.
[46]
Sastry, P. S., Santharam, G. and Unnikrishnan, K. P., Memory neuron Networks for
Identification and Control of Dynamical Systems IEEE Trans. On Neural Networks, Vol. 5, No.
2 March 1994, pp. 306-319.
[47]
Tsoi, A. C. and Back, A. D., Locally Recurrent Globally Feedforward Networks: A Critical
Review of Architectures, IEEE Trans. On neural Networks, Vol 5. No. 2. March 1994, pp. 229239.
[48]
[49]
Wan E. A. and Beaufays, F., Diagrammatic Methods for Deriving and Relating Temporal
Neural Networks Algorithms, Neural computations, Vol. 8, No. 4, pp. 182-201.
[50]
[51]
William, R. J., and Zipser, D., A learning Algorithm for continually running recurrent neural
Networks. Neural computation, Vol. 1 pp. 270-280, 1989.
nd
Madeline
106
and
Apndice A
APNDICE A
Motor
A.1
energa mecnica. Se pueden clasificar en dos grandes grupos: los motores de Corriente Directa (CD) y los
motores de Corriente Alterna (CA).
Los motores elctricos son los ms giles de todos en lo que respecta a variacin de potencia y
pueden pasar instantneamente desde la posicin de reposo a la de funcionamiento al mximo.
Estos motores se fabrican en potencias que varan desde una pequea fraccin de caballo hasta
varios miles, y con una amplia variedad de velocidades, que pueden ser fijas, ajustables o variables.
La conversin de energa en un motor elctrico se debe a la interaccin entre una corriente elctrica
circulante dentro de un devanado de cobre y un campo magntico formado entre dos polos opuestos de un
imn. El motor aprovecha este tipo de fuerza para hacer girar un eje, transformndose as la energa
elctrica en movimiento mecnico.
Los dos componentes bsicos de todo motor elctrico son el rotor y el estator.
El rotor es una pieza giratoria, un electroimn mvil, con varios salientes laterales, que llevan cada
uno a su alrededor un embobinado por el que pasa la corriente elctrica. El estator, situado alrededor del
rotor, es un electroimn fijo, cubierto con un aislante. Al igual que el rotor, dispone de una serie de
salientes con embobinados elctricos por los que circula la corriente.
A.2
encuentra dentro de un campo magntico, el circuito experimentar una fuerza en aquellas partes que se
encuentran en ngulo recto al campo magntico, haciendo que el circuito gire hasta alcanzar una posicin
vertical (Figura A1). Para que el circuito contine su giro, es necesario que la corriente que fluye a travs
de l invierta su flujo.
Apndice A
A.3
montadas en las ranuras de un material magntico cilndrico llamado armadura o rotor, (Figura A2).La
armadura, se coloca dentro del campo magntico producido por los polos del campo y se encuentra libre
para girar. Cada bobina de la armadura es conectada a travs de contactos elctricos a los segmentos
adyacentes de un anillo segmentado llamado conmutador.
Figura A2. Motor de cuatro polos, el campo magntico es producido por la corriente que fluye en las bobinas.
escobillas. El
conmutador invierte la corriente de cada bobina, segn la armadura se mueva entre los polos del campo,
esto para asegurar que la armadura sigua girando en la misma direccin. La direccin de rotacin de un
motor de C.D. se puede cambiar invirtiendo la corriente de la armadura o la corriente del campo.
ii
Apndice B
APNDICE B
Sensor
B.1
Definicin
Un sensor es un dispositivo elctrico y/o mecnico que transforma una magnitud fsica en un valor
B.2
distancia lineal o el ngulo que se ha movido un elemento de un sistema. Para ello cuentan con un sistema de
medicin que les permite convertir un desplazamiento, ya sea lineal o rotacional, a un nivel de tensin que
permitir evaluar la cantidad de desplazamiento.
iii
Apndice B
La polarizacin de cargas en los extremos del semiconductor genera una diferencia de potencial V,
cuyo valor est dado por la siguiente ecuacin.
V= KH
)( )
(B.1)
iv
Apndice C
APNDICE C
PWM, [7]
C.1
Definicin
La modulacin por anchura de pulsos (PWM, del ingls pulse width modulation) es una tcnica
de modulacin en la que se modifica el ciclo de trabajo de una seal peridica para, entre otras cosas,
variar la velocidad de un motor.
C.2
la corriente de alimentacin en forma de una onda cuadrada, la energa que recibe el motor disminuir de
manera proporcional a la relacin entre la parte alta (habilita corriente) y baja (cero corriente) del ciclo de
la onda cuadrada. Controlando esta relacin se logra variar la velocidad del motor de una manera bastante
aceptable.
Apndice D
APNDICE D
Control PID
D.1
P K pE p
Donde:
(D.1)
El controlador proporcional no puede eliminar completamente el error del proceso. Esto se debe a
que para mantener la seal de salida del controlador con un valor dado, se requiere un error de rgimen.
Generalmente, a este error se le llama desviacin proporcional o error en estado estacionario, y representa
la principal desventaja de los controladores proporcionales.
Se puede ayudar a hacer mnimo el error en estado estacionario, aumentando en lo posible la
ganancia proporcional. Lamentablemente, incrementando la ganancia proporcional, tambin se aumenta la
tendencia hacia la inestabilidad. En realidad, cuando la ganancia es muy elevada, el controlador presenta
oscilaciones alrededor de la referencia. Por lo tanto, aumentar la ganancia proporcional no es una
solucin ideal para eliminar el error de estabilidad de un proceso.
D.2
cuenta nicamente con un controlador proporcional, es agregando una desviacin en la salida del
controlador.
vi
Apndice D
Para que el error del proceso resulte nulo, el valor de esa desviacin se ajusta manualmente con el
valor nominal de la carga.
Este mtodo suele llamarse reposicin manual. Cuando se agrega una desviacin en la salida del
controlador, la forma de la ecuacin que relaciona el error del proceso y la seal de salida del controlador,
se transforma en:
(D.2)
P=KpEp +Po
Dnde: Po es la desviacin en la salida del controlador.
Este mtodo para eliminar el error del proceso funciona para una carga dada. Si sta cambia, ese
error ya no es cero. Por lo tanto, este mtodo se puede emplear en los sistemas de control de procesos en
que el valor medio de la carga es constante.
El mtodo por el cual conseguimos incluir un trmino que vare de acuerdo al tamao y duracin
del error en estado estacionario, es utilizar una accin integral, la cual permite acumular la diferencia
existente entre la variable de proceso y la referencia durante el tiempo que dura el error.
La accin integral nos permite corregir el error en estado estacionario, con ciertas limitantes, tales
como la tendencia a oscilaciones o inestabilidad.
D.3
significativa antes de que la magnitud real del error sea grande. Por esta razn se dice que el control
derivativo se anticipa al error e inicia una prematura correccin del error, sin embargo, a pesar de su
utilidad no puede usarse solo, porque no responde a un error en estado estable, por lo tanto, debe usarse
en combinacin con otras acciones de control.
Accin Derivativa= k d
donde:
( )
Kd
( )
(D.3)
es un cambio en el error.
es la ganancia del control derivativo.
Algunas de sus caractersticas principales son que tiene efecto nicamente en la parte transitoria,
por eso disminuye las oscilaciones, estabilizndose ms rpido; se basa en la pendiente del error; en
estado estable nunca acta y por eso nunca se encuentra un control derivativo solo; entre otras.
vii
D.4
Apndice D
cerrado, basado en un regulador de acciones proporcional, integral y derivativo o PID, de tal forma que se
logran caractersticas dinmicas estables, o dicho de otra forma se logra que el sistema responda a
cambios en sus variables en una forma estable.
En el regulador PD, es reducido el sobrepaso inicial, y se consiguen buenas caractersticas en
cuanto a tiempo de respuesta, pero se sigue, teniendo problemas en reducir el error en estado estacionario.
Con el regulador PI, se consigue corregir el error en estado estacionario, pero el efecto integral
puede provocar un sobrepaso an ms elevado que el producido por un regulador P solamente,
aunque con la sintona adecuada se pueden obtener buenas caractersticas de respuesta.
En el caso del regulador PID, se logra un equilibrio entre tiempo de respuesta, correccin del error
en estado estacionario y un aceptable grado de sobrepaso inicial, por lo que el regulador PID, combina las
buenas caractersticas de cada una de las acciones de regulacin.
u(k)
PID
Planta
y(k)
viii
Apndice E
APNDICE E
Imgenes del sistema fsico utilizado
En las siguientes imgenes se ilustra el sistema fsico construido as como todos las partes que lo
conforman.
1. Alimentacin: Batera Kapton recargable de 12 V a 4 A.
2.- Adquisicin de Datos: DAQ NI-USB 6008
3.- Planta a Controlar: Motorreductor 131:1 con Encoder Marca Pololu, Mod.1447
4.- Circuitera: Conformada por 2 Microcontroladores Texas MSP430G2553 programados y electrnica
discreta convencional para el correcto funcionamiento del sistema.
5.- Grfica: Display genrico 16X2 caracteres
PC para visualizacin del comportamiento del sistema y anlisis de grficas mediante el software
MatLab Simulink (No se muestra en las imgenes).
ix
Apndice E
Apndice F
APNDICE F
Diagramas de flujo de los programas en los microcontroladores
Frecuencmetro y LCD
o
LETRA APUNTADO
R15
DATO = 0
No
Si
CALL
#DATO_LCD
CALL #IMP_LET
RET
RS = 1 (P1.0 = 1)
CALL
#ENVIO_4BITS
ESPERA 40s
RET
xi
Apndice F
MANDARLO A P1OUT
(LCD)
DAR PULSO A LINEA E
(P1.3)
TOMAR BYTE BAJO R15
MANDARLO A P1OUT
(LCD)
DAR PULSO A LINEA E
(P1.3)
RET
PULSOS =
PULSOS <
Si
No
CLR
PULSOS
PULSOS2 =
PULSOS2 + 1
BORRAR BANDERA
P1IFG
RET
xii
Apndice F
INT_CCR0
INICIO
DETENER INT P1
PARA EL TIMER
PULSOS2
DATO
PULSOS2 = 2 x PULSOS2
PULSOS2
DAC (P2OUT)
CALL
#BIN_A_BCD
CALL
#IMP_DATOS
CLR
PULSOS2
RET
xiii
Apndice F
INICIO
#2
#CMD_LCD
#LETRERO2
R4
CALL #IMP_LET
#C6
Contina
DECENA
R15
CALL #DATO_LCD
UNIDAD
R15
CALL #DATO_LCD
CMD_LCD
, R15
CALL #DATO_LCD
, R15
CALL #DATO_LCD
R A R15
CALL #DATO_LCD
DMILAR
R15
CALL #DATO_LCD
P A
R15
CALL #DATO_LCD
UMILAR
R15
CALL #DATO_LCD
M A R15
CALL #DATO_LCD
CENTENA
R15
CALL #DATO_LCD
RET
Contina
xiv
Apndice F
#30h
#30h
#30h
#30h
#30h
UNIDAD
DECENA
CENTENA
UMILLAR
DMILLAR
#10000
No
DATO
DATO > 0?
Si
DMILLAR =DMILLAR +1
No
#10000
DATO
DATO > 0?
Si
UMILLAR =UMILLAR +1
No
#10000
DATO
Si
CENTENA =CENTENA +1
DATO > 0?
No
#10000
DATO
DATO > 0?
Si
UNIDAD =UNIDAD +1
No
DATO + UNIDAD = UNIDAD
QUITA CEROS A LA
IZQUIERDA EXCEPTO LA
UNIDAD
RETI
xv
Apndice G
APNDICE G
Manuales de Referencia y hojas de especificaciones
xvi
Apndice G
xvii
Apndice G
xviii
Apndice G
xix
Apndice G
xx
Apndice G
xxi
Apndice G
LCD 16X2
xxii
Apndice G
xxiii
Apndice G
xxiv
Apndice G
xxv
Apndice G
xxvi
Apndice G
xxvii
Apndice G
xxviii
Apndice G
xxix
Apndice G
xxx