Sunteți pe pagina 1din 8

Diseño de un controlador neuronal y su implantación en

un microcontrolador
Alfonso Noriega P.*.Agustín Barrera N.*
Antonio Ordaz H.*

Instituto Tecnológico de Querétaro, Av. Tecnológico esq. Con Mariano


Escobedo, 76010, Querétaro, Qro., México, ( e-mail: anoriega@uaq.mx)

Resumen: En este trabajo se presentan el desarrollo de un controlador neuronal auto-ajustable inspirado, en


las ideas de [2], con la característica particular que el entrenamiento previo se sustituye por un ajuste
permanente de los coeficientes de peso basado en el error de control. Situación que permite obtener un
controlador neuronal auto-ajustable directo. El ensayo incluye un estudio sobre la influencia de los
parámetros de la red neuronal en el desempeño del controlador. Se realiza el análisis de estabilidad y
convergencia del controlador. Finalmente se muestra la implantación del controlador en un
microcontrolador de propósito general y el desempeño del controlador en el control de sistemas dinámicos.

del valor del coeficiente de aprendizaje sobre la dinámica en


1. INTRODUCCIÓN
lazo cerrado del sistema y, se dan criterios de cómo puede
El uso de redes neuronales artificiales (RNA) para ajustarse este parámetro. Con base en una función de
identificación y control de sistemas es actualmente objeto de Lyapunov discreta, la cual se elige como una función del
numerosas investigaciones, se puede mencionar como error de control y el error de los pesos durante el proceso de
ejemplo el trabajo [7] en el que se proponen varias entrenamiento de la red neuronal, se realiza el análisis de
estructuras posibles del controlador neuronal que suponen un estabilidad y convergencia del controlador. Finalmente, se
conocimiento a priori de la estructura de la planta [1]. En [2] presenta la implantación práctica del algoritmo de control
proponen un esquema basado en una red que modela la neuronal en un microcontrolador de propósito general y se
dinámica inversa del proceso. En los trabajos mencionados y muestran ejemplos para mostrar el desempeño del
en otros muchos, se requiere un entrenamiento previo de la controlador.
red, a veces exhaustivo, que resulta un impedimento práctico
para la implantación de las soluciones propuestas en
aplicaciones industriales. 2. CONTROLADOR NEURONAL AUTO-AJUSTABLE

Una contribución importante para acercar la potencialidad de


las RNA a la solución de problemas prácticos, es la propuesta
[2] en la que se propone un esquema de control neuronal
directo y se demuestra que para la mayoría de los casos
prácticos, la red se puede entrenar directamente retro-
propagando el error de control en lugar de utilizar el error de
salida de la red, como se hace generalmente. No obstante, en
este artículo no se discute la influencia de los parámetros de
la red, en particular el coeficiente de aprendizaje sobre la
Figura 1. Controlador neuronal auto-ajustable.
dinámica de lazo cerrado; además, no se destaca el hecho de
que prácticamente con un esquema de control neuronal
En la figura 1 se muestra el esquema propuesto para el
directo, se puede omitir la etapa de entrenamiento y
controlador neuronal auto-ajustable. La red neuronal que
sustituirla por una adaptación permanente en tiempo real de
hace las funciones del controlador, es un perceptrón de 3
los coeficientes de peso de la red.
capas de neuronas (una capa oculta) cuyos coeficientes de
peso se ajustan al utilizar el algoritmo de retro-propagación
En el presente trabajo se propone un controlador neuronal
del error. En este caso, sin embargo, en lugar del error de
auto-ajustable, inspirado en la propuesta de [2] con la
salida de la red:
particularidad de que el entrenamiento previo se sustituye por
un ajuste permanente de los coeficientes de peso de la red
neuronal, es decir, se trata de un controlador adaptable en el eu (t ) = ud (t ) − u (t ) (1)
que se utiliza el error de control para el ajuste de dichos
coeficientes. Asimismo, en el trabajo se muestra la influencia Se utiliza el error de control o de salida del proceso:
3
e y (t ) = yr (t ) − y (t )
r = ∑ v j hj
(2)
(7)
j =1
Para ajustar los coeficientes de peso del controlador neuronal.
Definimos como criterio a minimizar, la función:
e(t) wij
1 t

e(t −1)
vj
u(t)
E (t ) =
2
∑ e (k )
k =1
2
y (8)

El procedimiento de minimización consiste, como es


e(t − 2)
conocido, en moverse en la dirección del negativo del
gradiente de la función E (t ) con respecto a los coeficientes
Figura 2. Estructura del controlador neuronal. de peso v j y w ji . El gradiente de E (t ) es un vector
En la figura 2 se presenta la estructura de la red que hace las multidimensional cuyas componentes son las derivadas
funciones de controlador. La capa de salida tiene una sola ∂ E( t ) ∂ E( t )
neurona, ya que en este trabajo se limita el análisis al caso de parciales y , es decir:
∂ vj ∂ w ji
procesos de una entrada y una salida. En la capa de entrada se
introducen el valor actual y algunos valores anteriores del
error de control, es decir: ⎡ ∂ E (t ) ⎤
⎢ ∂v ⎥
x(t ) = [e y (t ) e y (t − 1) L e y (t − n)] ∇ E (t ) = ⎢ ⎥
j
(3) (9)
⎢ ∂ E (t ) ⎥
⎢ ⎥
En los casos simulados hasta el momento, el valor de n = 2 ⎣ ∂ w ji ⎦
resulta suficiente para obtener un comportamiento adecuado
del sistema en lazo cerrado. Esto implica que el número de
Se obtienen, en primer lugar, las derivadas parciales de la
neuronas en la capa de entrada puede ser de 3. Un número
función de error con respecto a los coeficientes de peso de la
semejante de neuronas en la capa oculta ha sido igualmente
neurona de salida:
satisfactorio.

∂ E (t ) ∂ E (t ) ∂ ey ∂ eu ∂ u (t ) ∂ r
En la figura 2 se muestran los coeficientes de peso w ji y vj = (10)
de las conexiones de entrada a la capa oculta y a la capa de ∂ vj ∂ ey ∂ eu ∂ u (t ) ∂ r ∂ v j
.
salida respectivamente. En lo que sigue se detalla el
algoritmo de actualización de esos coeficientes, se parte del Agora se define:
criterio de minimizar el error de control e y ( t) .
δ 1= ey u (t ) (1 − u (t ) ) (11)
La salida de la neurona j de la capa escondida se calcula
mediante:
Entonces:

1 ∂ ey
hj = , j = 1, 2,3,K (4) ∂ E (t )
1 + exp(− S j ) = −δ 1 h j (12)
∂ vj ∂ eu
La derivada parcial de la función E (t ) con respecto a los
Donde:
coeficientes w ji se obtiene al aplicar de nuevo la regla de la
3
S j = ∑ w ji xi (5)
cadena:
i =1
La salida de la capa de salida con una sola neurona, será: ∂ E (t ) ∂ E (t ) ∂ e y ∂ eu ∂ u (t ) ∂ r
=
∂ w ji ∂ ey ∂ eu ∂ u (t ) ∂ r ∂ h j
1 (13)
u (t ) = (6) ∂ hj ∂ S j
1 + exp(− r )
∂ S j ∂ w ji
Donde:
Se define ahora: ∂ ey 1
v j (t + 1) = v j (t ) + η sign( ) δ hj
δ j2 = δ 1 v j h j (1 − h j ) (14)
∂ eu

Y entonces: ∂ ey 2
w ji (t + 1) = w ji (t ) + η sign( )δ x
∂ eu j i
∂ E (t ) ∂ ey
= − δ j2 xi (15)
∂ w ji ∂ eu El valor adecuado del coeficiente de aprendizaje η puede
determinarse experimentalmente a partir de la observación
del comportamiento en lazo cerrado del sistema cuando se
Al hacer uso de (12) y (15), el ajuste de los coeficientes de
realizan algunos cambios en el valor de referencia de la
peso v j y w ji se realiza mediante las expresiones: salida.

∂ ey 1 Las expresiones anteriores pueden interpretarse como las


v j (t + 1) = v j (t ) + η δ hj (16) ecuaciones de adaptación del regulador neuronal en lugar de
∂ eu como ecuaciones de entrenamiento, tal como se hace
habitualmente. En efecto, los estudios de simulación y
aplicaciones en tiempo real realizados utilizando el esquema
∂ ey 2 de la figura 1 y ajustando en forma permanente los
w ji (t + 1) = w ji (t ) + η δ x (17)
∂ eu j i coeficientes de peso v j y w ji , mediante las ecuaciones de
aprendizaje se puede arribar a las siguientes conclusiones:
∂ ey
Donde η es el coeficiente de aprendizaje y es la No se requiere generalmente, un entrenamiento previo de la
∂ eu red neuronal y una vez que se cierra el lazo de control, los
ganancia equivalente de la planta. coeficientes de peso se ajustan en unos pocos períodos de
control, llevando el error de control e y ( t) a cero.
El obstáculo principal para aplicar las ecuaciones de ajuste
(16) y (17) es que en general se desconoce la ganancia
El comportamiento dinámico en lazo cerrado depende
∂ ey exclusivamente de la magnitud del coeficiente de
equivalente de la planta . No obstante, en el trabajo
∂ eu aprendizaje; correspondiendo a mayores valores de η , una
mencionado de Cui y Shin, se demuestra que es suficiente respuesta más rápida que puede presentar un sobrepaso
conocer el signo de dicho término para asegurar la considerable. Por el contrario, al disminuir el valor de η , el
convergencia de los coeficientes de peso, porque su magnitud sistema se amortigua hasta que se logre el tipo de respuesta
puede incorporarse en el coeficiente de aprendizaje η si se deseado. El sistema en lazo cerrado tiene, en general, un
cumple la condición que no es muy restrictiva de que comportamiento estable para un amplio rango de valores de
η.
∂ ey
< ∞. Resulta muy conveniente utilizar un coeficiente de
∂ eu aprendizaje variable al usar, por ejemplo, la siguiente
expresión:
∂ ey
Por otra parte, el signo de puede, en la mayoría de los
∂ eu η ′ = η + α ey
casos, determinarse fácilmente mediante un simple
experimento auxiliar, por ejemplo, la aplicación de una
función escalón a la entrada del proceso. Por último, la De esta forma puede utilizarse un valor básico pequeño de
suposición de que el signo de la ganancia permanece η , por ejemplo η = 0.1 y el valor efectivo η ′ se
constante en un entorno del punto de operación del proceso incrementa en dependencia de la magnitud del error de
no es muy fuerte y en cualquier caso, la estimación en tiempo regulación. El coeficiente α puede ajustarse
real del signo de la ganancia podría incorporarse, sin grandes experimentalmente sin grandes dificultades. El uso de la
dificultades, en el algoritmo de control. ecuación anterior permite que el sistema presente una
respuesta rápida cuando el error de control es grande y
Al tomar en cuenta las consideraciones anteriores, las converger lentamente al valor de referencia. Un
expresiones (16) y (17) pueden escribirse en la forma comportamiento tal es, sin duda, muy conveniente en la
siguiente: práctica.
3. ANÁLISIS DE ESTABILIDAD Y CONVERGENCIA
(
fˆ ( x) = Vˆ T σ Wˆ T x ) (21)

La salida de control para una red neuronal con función de Donde Ŵ y Vˆ son los pesos ideales estimados de la red
activación lineal en la capa de salida es: neuronal.

Considere la función de Lyapunov de tiempo discreto:


p
⎡ ⎛ n
⎞⎤
u = ∑ ⎢v jσ j ⎜ ∑ w ji xi ⎟ ⎥ (18)
j =1 ⎣ ⎝ i =1 ⎠⎦ 1
VL ( t ) = e 2 (t ) + Vˆ T (t )Vˆ (t ) + tr (Wˆ T (t )Wˆ (t ))
2 (22)
= V1 (t ) + V2 (t ) + V3 (t )
Donde σj( ) son las funciones de activación de la capa
oculta y p el número de neuronas en la capa oculta, n es
Donde e(t ) representa el error durante el proceso de
el número de entradas, w ji son los pesos de la capa de
aprendizaje y Vˆ (t ) = V (t ) − V , Wˆ (t ) = W (t ) − W , se
* *

entrada a la capa oculta y v j son los pesos de la capa oculta


supone que lim V (t ) = V y lim W (t ) = W . El cambio
* *

a la capa de salida; en este análisis no se considera el umbral t →∞ t →∞

de cada una de las neuronas, sin embargo esto no le resta en la función de Lyapunov debido al proceso de
generalidad. entrenamiento se obtiene de la siguiente forma:

Al representar las entradas como un vector x , los pesos w ji


∆V (t ) = ⎡⎣V1(t +1) −V1(t ) ⎤⎦ + ⎡⎣V2 (t +1) −V2 (t ) ⎤⎦ +
como una matriz W y los pesos v j como el vector V , se
puede expresar la ecuación de control como: ⎡V (t +1) −V (t ) ⎤
⎣ 3 3 ⎦

u = f ( x ) = V T σ (W T x ) (19)
1⎡ 2
∆V (t ) = e (t +1) − e2 (t ) ⎤ +
2 ⎢
⎣ ⎦⎥
Con el vector de funciones de activación definido como
⎡Vˆ T (t +1)Vˆ (t +1) −Vˆ T (t )Vˆ (t ) ⎤ +
σ ( z ) = ⎡⎣σ ( z1 )Lσ ( z p ) ⎤⎦
T
Para un vector z ∈
p
. ⎣⎢ ⎦⎥ (23)

tr ⎡Wˆ T (t +1)Wˆ (t +1) −Wˆ T (t )Wˆ (t ) ⎤


La principal propiedad de las redes neuronales para ⎢⎣ ⎥⎦
propósitos de control es la propiedad de aproximación de = ∆V (t ) + ∆V (t ) + ∆V (t )
funciones [3]-[6]. Las redes neuronales multicapa son 1 2 3
capaces de desempeñar cualquier mapeo no lineal entre dos
espacios de dimensión finita con cualquier grado de
precisión, con tal que exista el suficiente número de neuronas La diferencia de error debida al proceso de aprendizaje de la
en la capa escondida. red neuronal que constituye el controlador, se puede expresar
como:
Para propósitos de control, todo lo que necesitamos es
conocer que, para un valor especificado de ε M , existen los e(t + 1) = e(t ) + ∆e(t )
T
pesos ideales para la aproximación de la red. Y se asume que ⎡ ∂e(t ) ⎤
los pesos ideales de la red W y V están acotados por un = e(t ) + ⎢ ⎥ ∆V (t − 1) + (24)
valor positivo conocido tal que ⎣ ∂V (t − 1) ⎦
⎧⎪ ⎡ ∂e(t ) ⎤T ⎫⎪
tr ⎨ ⎢ ⎥ ∆W (t − 1) ⎬
W ≤ WM y V ≤ VM (20) ⎪⎩ ⎣ ∂W (t − 1) ⎦ ⎭⎪

Al utilizar ∆V1 de (22) y (23) se obtiene el incremento de


Con WM y VM conocidos. Entonces, un estimado de f ( x )
∆V (t )
se puede expresar por: 1
⎡ 1 ⎤ 1
∆V (t ) = ∆e(t ) ⎢e(t )+ ∆e(t ) ⎥
1 ⎣ ⎦ 0 <ηe < (28)
(D )
2 2

⎧⎪⎡ ∂e(t ) ⎤T ⎪⎧⎡ ∂e(t ) ⎤


T ⎫⎫
⎪⎪
e ,max
=⎨ ⎢ ⎥ ∆V ( t −1) + tr ⎨ ⎢ ⎥ ∆W ( t −1) ⎬⎬
⎪⎩⎣ ∂V (t −1) ⎦ ⎪⎩⎣ ∂W (t −1) ⎦ ⎪⎪
⎭⎭

⎪⎧ ⎧⎡ ∂e(t ) ⎤T ⎫⎫ Ds ,max y De ,max


T Donde están definidas como
1 ⎡ ∂e(t ) ⎤ 1 ⎪ ⎪⎪
⎨e(t )+ ⎢ ⎥ ∆V ( t −1) + tr ⎨ ⎢ ⎥ ∆W (t −1) ⎬⎬
2 ⎣ ∂V (t −1) ⎦ 2 ⎪⎣ ∂W (t −1) ⎦
⎪⎩ ⎩ ⎪⎪
⎭⎭ Ds ,max = max Ds (t ) y De ,max = max De (t ) F
.
t t
⎧⎪⎡ ∂e(t ) ⎤ T ⎫⎧ T ⎫⎪
⎪⎪ 1 ⎡ ∂e(t ) ⎤ ∂u (t ) ∂u (t )
=⎨ ⎢ ⎥ ∆V (t −1) ⎬⎨e(t )+ ⎢ ⎥ ∆V (t −1) ⎬+
Donde Ds (t ) = y De (t ) = , es
⎪⎩⎣ ∂V (t −1) ⎦ ⎪⎪
⎭⎩
2 ⎣ ∂V (t −1) ⎦ ⎪⎭ ∂V (t − 1) ∂W (t − 1)
⎧⎪ ⎪⎧⎡ ∂e(t ) ⎤T ⎫⎫⎧
⎪⎪⎪ 1 ⎪ ⎧⎡ ∂e(t ) ⎤T ⎫⎫
⎪⎪ la norma euclidiana usual y es la norma de Frobenius.
⎨tr ⎨⎢ ⎥ ∆W (t −1) ⎬⎬⎨e(t )+ tr ⎨⎢ ⎥ ∆W (t −1) ⎬⎬+ F
∂W (t −1) ⎦ 2 ⎪⎣ ∂W (t −1) ⎦
⎩⎪ ⎪⎩⎣ ⎪⎪⎪
⎭⎭⎩ ⎩ ⎪⎪
⎭⎭

⎡ ∂e(t ) ⎤
T ⎧⎪ ⎪⎧⎡ ∂e(t ) ⎤T ⎫⎫
⎪⎪
⎢ ∂V (t −1) ⎥ ∆V (t −1)⎨tr ⎨⎢ ∂W (t −1) ⎥ ∆W (t −1) ⎬⎬ Prueba: de (26) y de la expresión para ∆V (t ) , se
⎣ ⎦ ⎩⎪ ⎪⎩⎣ ⎦ ⎪⎪
⎭⎭
1
determinan las condiciones para que ∆V1a , ∆V1b y ∆V1c
= ∆V (t ) + ∆V (t ) + ∆V (t )
1a 1b 1c sean siempre definidas negativas de manera que se garantice
la convergencia y estabilidad del controlador.
En las ecuaciones de adaptación o aprendizaje si se incluye
∂ ey (t )
sign( ) en un nuevo coeficiente de aprendizaje, las
∂ eu (t ) 4. ARQUITECTURA DEL SISTEMA DE CONTROL
ecuaciones de adaptación se pueden expresar como: NEURONAL

La topología del sistema diseñado, se implantó dentro de un


v j (t + 1) = v j (t ) + η s δ 1 h j (t ) Microcontrolador AVR (ATMEGA168) como se puede
(25)
w ji (t + 1) = w ji (t ) + η e δ j2 xi (t ) observar Figura 3. El ambiente de programación empleado,
es el AVR STUDIO 4, se ha utilizando la modalidad de
simulación para observar el comportamiento del sistema. El
proceso controlado se encuentra programado como una
De (25) y con ∆V (t ) se obtiene: ecuación en diferencias en el microcontrolador, la salida del
1 proceso se obtiene directamente de los puertos C y D
∂u (t − 1) manejando decenas y unidades respectivamente. La
∆V (t − 1) = η s e(t ) . De la misma forma se
∂V (t − 1) Estructura que se empleo para interpretar la salida es: Puerto
C= Decenas, Puerto D= Unidades, Yt= Salida del Sistema. Se
∂u (t − 1) ha utilizado Matlab para comprobar los resultados.
puede expresar a ∆W (t − 1) = η e(t )
e
. Por otro
∂W (t − 1)
lado, Tener en cuenta el error de salida de la red neuronal y la
ecuación que constituye el controlador, se puede expresar:

∂e(t ) ∂e(t ) ∂u (t −1) ∂u (t −1)


= =−
∂V (t −1) ∂u (t −1) ∂V (t −1) ∂V (t −1)
(26)
∂e(t ) ∂e(t ) ∂u (t −1) ∂u (t −1)
= =−
∂W (t −1) ∂u (t −1) ∂W (t −1) ∂W (t −1)

Teorema 1 Sea η y η el coeficiente de aprendizaje de la


e s

capa escondida y de salida respectivamente. Para garantizar


la convergencia y estabilidad, es suficiente con elegir el
valor de los coeficientes de aprendizaje de la siguiente
forma:
1
0 <ηs < (27)
(D )
2
s ,max Figura 3. Topología del sistema
4. APLICACIONES DEL CONTROLADOR PRUEBA DE VARIACIÓN DE GANANCIA
NEURONAL AUTO-AJUSTABLE PROPUESTO yr = 0.7, η = 0.5
En esta sección vamos a mostrar los resultados obtenidos en La ganancia inicial es K p = 1 , en T = 200 la ganancia
la simulación del algoritmo de control neuronal. cambia a K p = 1.1 .
La Planta Controlada fue la siguiente:
▀=Salida y ▀=Entrada yr ▀=Control u
Y ( z) 1.1
=
U ( z ) z + 0.3 0.6

Donde la ecuación en diferencias para la programación fue:


0.5
y (k ) = −0.3 y (k − 1) + 1.1u ( k − 1)

SIMULACIÓN 1 0.4
yr = 0.7, η = 0.5

0.3
▀=Salida y ▀=Referencia yr ▀=Control u 0 200 400 600 800

1 Figura 6. Desempeño del controlador ante cambios en la


ganancia de la planta.
0.8 Es importante indicar que la simulación en el AVR Studio,
correspondería a la operación del Microcontrolador.
0.6
A continuación se presenta el sistema de control para
controlar la velocidad de un motor en un conjunto MOTOR-
0.4 GENERADOR y se auxilia de algunos elementos como
Amplificadores y atenuadores [1] para el acondicionamiento
0.2 de señales en un MODULO DE ENTRENAMIENTO
0 200 400 600 800 DIGIAC 1750, dicho modulo que se muestra en la figura 7,
se utilizo debido a la facilidad y rapidez que brinda para
Figura 4. Simulación 1 del controlador neuronal
realizar la interface confeccionada.

Ante estas condiciones tenemos los siguientes resultados


Figura 5:

Figura 7. Esquema de control del grupo motor-generador

Figura 5. Ventana para mostrar los puertos Pruebas Realizadas Y resultados:


En las figuras 8 y 9 se muestra el desempeño del controlador
En la parte derecha de la ventana, la salida de la planta se neuronal cuando se presentan cambios en la referencia y se
encuentra en los puertos PORTC y PORTD, el procesamiento aplica una perturbación tipo carga mecánica en la flecha del
se realizo con números en punto flotante motor.
Figura 8. Respuesta del sistema con cambios en la referencia.
Figura 10. Desempeño del controlador ante perturbaciones.

LA notación de Rev./seg. Se utiliza debido a que este es el


formato de despliegue del modulo de Prueba DIGIAC 1750.

El principal problema en la programación de esta red, se


presentó en las funciones de activación que tienen una forma
exponencial, para resolver el problema, se opto por
aproximar las funciones exponenciales por una serie de 4
términos, de tal forma que se reduce la carga aritmética y las
posibilidades de error.

5. CONCLUSIONES

El algoritmo de control neuronal desarrollado en el presente


Figura 9. Respuesta del sistema con perturbación. trabajo constituye una opción práctica importante para el caso
en que se requiere controlar procesos con dinámica difícil, en
Se observo un comportamiento satisfactorio, ya que la red particular con fuertes no linealidades y cambios en los
logra igualar la señal de Set-point y la señal de salida del parámetros, lo cual se presenta con mucha frecuencia.
sistema en un tiempo muy breve (<10 segundos), además, al También hemos experimentado con el control de procesos
aplicar una carga mecánica (perturbación), la señal de control con fuerte retardo por transporte con resultados igualmente
se incrementa para mantener el control de velocidad. satisfactorios. En el futuro inmediato, se investigará la
Los datos de la operación del control fueron registrados en un posibilidad de incluir redes neuronales recurrentes, lo cual
osciloscopio Tecktronix, donde el CANAL 1 representa la ampliaría la aplicación del método propuesto al caso de
salida del sistema (Yt) y el CANAL 2 representa la señal de sistemas más complicados y la aplicación en tiempo real.
control (Ut). Set Point= 3V=14rev/seg.

En la figura 10, se observa que inicialmente, en T1 el motor REFERENCIAS


opera con una carga aplicada, después de un tiempo T2, dicha 1. Bhat N. y T. J. McAvoy, “Use of Neural Nets
carga es retirada, lo que causa un aumento momentáneo de for Dynamic Modelling and Control of
velocidad y de inmediato la señal de control se reduce para Chemical Process Systems”, Computers on
llevar a la velocidad al punto de control. Chem. Engng., Vol. 14, No. 4/5, pp. 573-583,
1990
Durante T3, nuevamente es aplicada una carga, lo que trae
como consecuencia una reducción de la velocidad, como se 2. Cui X. y K. G. Shin, “Direct Control and
observa en la figura 10, la señal de control en ese punto se Coordination Using Neural Networks”, IEEE
incrementa para llevar a la velocidad al valor de control Transactions on Systems, Man and Cybernetics,
prefijado (3V=14rev/seg. ). Vol. 23, No.3, pp. 686-697, 1993.

Se realizaron pruebas adicionales con diferentes valores de 3. Cybenko G., “Approximations by


Referencia Set point y los resultados obtenidos fueron superpositions of a sigmoidal functions”, Math.
similares.
of Contr. Sig. And Sys., Vol. 2, No. 4, pp. 303-
314, 1989.

4. Chen T. y H. Chen, “Approximation of


continuous functionals by neural networks with
applications to dynamic systems”, IEEE Trans.
Neural Networks, Vol. 4, No. 6, pp. 910-918,
1993.

5. Funahashi K., “On the approximate realization


of continuous mappings by de neural networks”,
IEEE Trans. Neural Networks, Vol. 2, pp. 183-
192, 1989.

6. Hornik K., M. Stinchombe y H. White, “Multi-


layer feed-forward networks are universal
approximators”, IEEE Trans. Neural Networks,
Vol. 2, pp. 359-366, 1989.

7. Narendra K.S. y K.
Parthasaraty, “Identification and Control of
Dynamical Systems using Neural Networks”,
IEEE Transactions on Neural Networks, Vol. 1,
No. 1, 1990.

S-ar putea să vă placă și