Documente Academic
Documente Profesional
Documente Cultură
un microcontrolador
Alfonso Noriega P.*.Agustín Barrera N.*
Antonio Ordaz H.*
e(t −1)
vj
u(t)
E (t ) =
2
∑ e (k )
k =1
2
y (8)
∂ E (t ) ∂ E (t ) ∂ ey ∂ eu ∂ u (t ) ∂ r
En la figura 2 se muestran los coeficientes de peso w ji y vj = (10)
de las conexiones de entrada a la capa oculta y a la capa de ∂ vj ∂ ey ∂ eu ∂ u (t ) ∂ r ∂ v j
.
salida respectivamente. En lo que sigue se detalla el
algoritmo de actualización de esos coeficientes, se parte del Agora se define:
criterio de minimizar el error de control e y ( t) .
δ 1= ey u (t ) (1 − u (t ) ) (11)
La salida de la neurona j de la capa escondida se calcula
mediante:
Entonces:
1 ∂ ey
hj = , j = 1, 2,3,K (4) ∂ E (t )
1 + exp(− S j ) = −δ 1 h j (12)
∂ vj ∂ eu
La derivada parcial de la función E (t ) con respecto a los
Donde:
coeficientes w ji se obtiene al aplicar de nuevo la regla de la
3
S j = ∑ w ji xi (5)
cadena:
i =1
La salida de la capa de salida con una sola neurona, será: ∂ E (t ) ∂ E (t ) ∂ e y ∂ eu ∂ u (t ) ∂ r
=
∂ w ji ∂ ey ∂ eu ∂ u (t ) ∂ r ∂ h j
1 (13)
u (t ) = (6) ∂ hj ∂ S j
1 + exp(− r )
∂ S j ∂ w ji
Donde:
Se define ahora: ∂ ey 1
v j (t + 1) = v j (t ) + η sign( ) δ hj
δ j2 = δ 1 v j h j (1 − h j ) (14)
∂ eu
Y entonces: ∂ ey 2
w ji (t + 1) = w ji (t ) + η sign( )δ x
∂ eu j i
∂ E (t ) ∂ ey
= − δ j2 xi (15)
∂ w ji ∂ eu El valor adecuado del coeficiente de aprendizaje η puede
determinarse experimentalmente a partir de la observación
del comportamiento en lazo cerrado del sistema cuando se
Al hacer uso de (12) y (15), el ajuste de los coeficientes de
realizan algunos cambios en el valor de referencia de la
peso v j y w ji se realiza mediante las expresiones: salida.
La salida de control para una red neuronal con función de Donde Ŵ y Vˆ son los pesos ideales estimados de la red
activación lineal en la capa de salida es: neuronal.
de cada una de las neuronas, sin embargo esto no le resta en la función de Lyapunov debido al proceso de
generalidad. entrenamiento se obtiene de la siguiente forma:
u = f ( x ) = V T σ (W T x ) (19)
1⎡ 2
∆V (t ) = e (t +1) − e2 (t ) ⎤ +
2 ⎢
⎣ ⎦⎥
Con el vector de funciones de activación definido como
⎡Vˆ T (t +1)Vˆ (t +1) −Vˆ T (t )Vˆ (t ) ⎤ +
σ ( z ) = ⎡⎣σ ( z1 )Lσ ( z p ) ⎤⎦
T
Para un vector z ∈
p
. ⎣⎢ ⎦⎥ (23)
⎡ ∂e(t ) ⎤
T ⎧⎪ ⎪⎧⎡ ∂e(t ) ⎤T ⎫⎫
⎪⎪
⎢ ∂V (t −1) ⎥ ∆V (t −1)⎨tr ⎨⎢ ∂W (t −1) ⎥ ∆W (t −1) ⎬⎬ Prueba: de (26) y de la expresión para ∆V (t ) , se
⎣ ⎦ ⎩⎪ ⎪⎩⎣ ⎦ ⎪⎪
⎭⎭
1
determinan las condiciones para que ∆V1a , ∆V1b y ∆V1c
= ∆V (t ) + ∆V (t ) + ∆V (t )
1a 1b 1c sean siempre definidas negativas de manera que se garantice
la convergencia y estabilidad del controlador.
En las ecuaciones de adaptación o aprendizaje si se incluye
∂ ey (t )
sign( ) en un nuevo coeficiente de aprendizaje, las
∂ eu (t ) 4. ARQUITECTURA DEL SISTEMA DE CONTROL
ecuaciones de adaptación se pueden expresar como: NEURONAL
SIMULACIÓN 1 0.4
yr = 0.7, η = 0.5
0.3
▀=Salida y ▀=Referencia yr ▀=Control u 0 200 400 600 800
5. CONCLUSIONES
7. Narendra K.S. y K.
Parthasaraty, “Identification and Control of
Dynamical Systems using Neural Networks”,
IEEE Transactions on Neural Networks, Vol. 1,
No. 1, 1990.