Sunteți pe pagina 1din 7

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/255652583

Commande neuronale inverse des systmes


non linaires
Article

CITATIONS

READS

10

119

3 authors, including:
Salem Mohammed

Djamel Eddine Chaouch

Mascara Universit

Mascara Universit

15 PUBLICATIONS 18 CITATIONS

6 PUBLICATIONS 21 CITATIONS

SEE PROFILE

All in-text references underlined in blue are linked to publications on ResearchGate,


letting you access and read them immediately.

SEE PROFILE

Available from: Salem Mohammed


Retrieved on: 13 October 2016

4th International Conference on Computer Integrated Manufacturing CIP2007

03-04 November 2007

Commande neuronale inverse des systmes non


linaires
Mohammed Salem1, Djamel Eddine Chaouch1, M. Fayal Khelfi2
1
Centre Universitaire Mustapha Stambouli, Mascara, Algrie
2
Universit dOran Es-Senia, Algrie
salemohammed@gmail.com, dj_chaouch@yahoo.fr, mf_khelfi@yahoo.fr
Abstract- Le prsent article relevant du domaine de
lAutomatique en gnral, et de lIntelligence Artificielle en
particulier, est consacr lutilisation des rseaux de neurones
pour la commande dun systme dynamique non-linaire. Il
constitue une contribution de lIntelligence Artificielle pour
lanalyse et la commande des systmes dynamiques. Lapproche
propose passe par lidentification dun modle neuronal inverse,
dont lapprentissage est effectu avec la rtro-propagation
standard et modification des poids au moyen de lalgorithme de
Levenberg-Marquardt. Le modle est utilis dans une premire
approche, comme contrleur en boucle ouverte avec le systme,
(Direct inverse control) pour un objectif de rgulation. Dans la
deuxime approche le modle inverse est utilis conjointement
avec un contrleur PID classique dans une structure de
commande hybride pour amliorer ses performances. Il contribue
au rejet des perturbations. La dernire section prsente une
application de ces structures sur un systme non-linaire
didactique : masse ressort. Les travaux sont valids par des
simulations sous lenvironnement MATLAB.
Mots cls : Rseaux de neurone, Apprentissage, Commande
neuronal, Systme non-linaire, Intelligence artificielle.
Levenberg-Marquardt, Modle inverse

I.

INTRODUCTION

Les principales difficults dans la thorie de la commande


des systmes dynamiques rels sont les non-linarits et les
incertitudes. Or la commande passe par llaboration dun
modle mathmatique du systme en trouvant une relation
entre les entres et les sorties, ce qui suppose une bonne
connaissance de la dynamique du systme et ses proprits.
Dans le cas des systmes non-linaires, les techniques
conventionnelles ont montr souvent leur insuffisance surtout
quand les systmes tudier prsentent de fortes nonlinarits. Le manque de connaissances priori ncessaire pour
llaboration du modle mathmatique tait en quelque sorte
dans cet chec.
Face ce problme, le recours aux mthodes de commandes
par apprentissage est devenu une ncessit car les systme de
commande obtenus ainsi procdent par collecter des donnes
empiriques, stocker et extraire les connaissance contenues dans
celle-ci et utiliser ces connaissances pour ragir de nouvelles
situations : on est pass la commande intelligente (intelligent
control)[1].
Parmi les techniques dapprentissage, les rseaux de
neurones, par le faite quils sont des approximateurs universels
et parcimonieux [10] [4] et par leur capacit de sadapter une
dynamique voluant au cours du temps, sont de bons candidats,

de plus, en tant que systmes multi-entres multi-sorties, ils


peuvent tre utiliss dans le cadre de la commande des
systmes multi-variables.
Un rseau de neurones non boucl ralise une ou plusieurs
fonctions algbriques de ses entres, par composition des
fonctions ralises par chacun de ses neurones.[3]. Ceux-ci
sont organiss en couches et interconnects par des connexions
synaptiques pondres. Lapprentissage supervis dun rseau
N sortie, consiste modifier les poids w pour avoir un
comportement donn en minimisant une fonction de cot
reprsente souvent par lerreur quadratique [2]
N
1
(1)
E ( w) = ( ydi yi ) 2 .
i =1 2
O yd est la sortie dsire du rseau, yi est la sortie
calcule.
Plusieurs chercheurs ont essay dexploiter les avantages des
rseaux de neurones pour commander un systme dynamique,
et plus prcisment, dans le domaine de la robotique [6] [20] et
pour la commande dun moteur asynchrone [21] [24]. On peut
trouver plus de dtails sur les structures de commandes avec
modle neuronal dans [18] [19].
Le prsent travail est une mise en exergue des capacits des
rseaux de neurones multicouches reproduire la dynamique
inverse des systmes non-linaires et lutilisation du modle
neuronal inverse ainsi reproduit dans la conception des
structures de commande neuronale dun systme non-linaire
La premire section est consacre llaboration du modle
neuronal inverse et la prsentation des architectures utilises
pour lapprentissage de ce modle. Ensuite, en section 2, deux
structures de commande sont tayes : une, base sur
lutilisation du modle inverse comme contrleur (Direct
inverse control), et dans lautre, le modle inverse intervient
cot dun contrleur PID classique dans une structure de
commande hybride.
La dernire section prsente une application de ces
structures sur un systme non-linaire masse ressort et les
rsultats sont valides par des simulations MATLAB.
II. LE MODELE NEURONAL INVERSE
Bien que le modle inverse de systme joue un rle important
dans la thorie de la commande, l'accomplissement de sa
forme analytique est assez laborieuse. Plusieurs mthodes de

03-04 November 2007

4th International Conference on Computer Integrated Manufacturing CIP2007

modlisation des systmes ont t prsentes dans la littrature


[5] .Un systme dynamique peut tre dcrit par l'quation (2)
reliant ces entres aux sorties :
y (k + 1) = f ( y (k ),..., y (k n + 1), u ( k ),..., u ( k m + 1)) .
(2)
o la sortie du systme y(k+1) dpend des n valeurs
prcdentes de la sortie et les m valeurs passes de lentre. En
gnral, le modle inverse de ce systme peut tre prsent
sous la forme suivante (3):
u (k ) = f -1 ( y (k + 1), y (k )..., y (k - n + 1), u (k -1),..., u (k - m)) . (3)
Les rseaux de perceptrons multicouches peuvent tre
utilises pour laborer le modle neuronal inverse du systme.
Cependant, dautre types de rseaux ont t utilises [25], les
rseaux MLP statiques prsentent la solution la plus simple,
toutefois la reprsentation de laspect dynamique du systme
reste une problmatiques. L'application des retards vers la
couche dentre ce type de rseau peut prsenter la solution
pour palier ce manque et remdier laspect statique des MLP.
Cette solution prsente l'avantage de permettre lapplication
de lalgorithme traditionnel de rtropropagation du gradient
pour lapprentissage des rseaux multicouche.
Le rseau correspondant (3) est :
(4)
(k ) = g ( x(k ), w) .

rseau de neurone est en, lerreur rtropropage travers le


rseau et qui va servir pour l'apprentissage hors ligne du rseau
[26]. On tente de minimiser le critre E(w):
N
1
(5)
E ( w) = (u (k ) (k , w)) 2 .
k =1 2
O w est un vecteur contenant les poids du rseau inverse.

systme

(k
)

y(k)

u(k)

+
en
-

Fig. 2. Architecture gnrale dapprentissage

Cette mthode prsente plusieurs inconvnients [7] [8] :


Les sorties y du systme utilises dans lapprentissage ne
garantissent pas que les sorties du modle neuronal vont tre
dans des rgions voulues pour le succs de son utilisation dans
la commande.
Si le systme commander est multi- variable, le modle
ainsi retenu peut ne pas imiter le systme rel.

B. Architecture Indirecte dApprentissage


La fonction g va tre approxime par un rseau de neurone
en modifiant ses poids w. Le rseau a un vecteur dentre x(k)
compos de la sortie k+1 et des valeurs des sorties et entres
passes et ayant pour sortie le signal qui va servir
commander le systme (Fig. 1)
Lidentification du modle neuronal inverse commence par
la dtermination du vecteur dentre, savoir le nombre des
retards en sorties et entres, ceci est li lordre du systme.
La deuxime tape est larchitecture du rseau (nombre de
couches caches et nombre de neurones). La dtermination des
paramtres du modle est effectue par un apprentissage du
rseau selon trois architectures

A. Architecture Gnrale dApprentissage


Dans la premire architecture (Fig.2), le signal u est appliqu
l'entre de systme, produisant une sortie y qui est fournie au
rseau. La diffrence entre le signal dentre u et la sortie du

Cette approche est une mise en oeuvre particulire de


larchitecture prcdente dans laquelle, le modle inverse en
cours dapprentissage sert aussi commander le systme. La
consigne r est fournie au premier rseau qui produit une
commande au systme, la sortie de celui-ci est passe comme
consigne la seconde copie du modle inverse, qui produit
alors une commande . La diffrence entre u et sert de
signal derreur afin deffectuer lapprentissage des paramtres
du modle par rtropropagation. Cette architecture, propose
par [17] est prsente sur la (Fig.3).
Lide derrire cette architecture est que la minimisation de
lerreur commise sur la commande entranera une minimisation
de lerreur en sortie du systme. Cependant, une erreur nulle
sur la commande ne provoque pas ncessairement lannulation
de lerreur totale en sortie du systme

y(k+1)
(k)

r(k)

y(k)

ec
y(k-n+1)

(k)

+
-

u(k-1)
u(k-m+1)
Fig. 1. Rseau de neurone pour identifier le modle inverse

Fig. 3. Architecture indirecte dapprentissage

y(k)
Systme

03-04 November 2007

4th International Conference on Computer Integrated Manufacturing CIP2007

C. Architecture spcialis dapprentissage


Contrairement aux deux prcdentes architectures,
larchitecture spcialise, utilise par [6], procde par
lutilisation de lerreur ec Eq(6), la diffrence entre la sortie
dsire r et la sortie relle du systme, pour apprendre au
modle neuronal suivre la dynamique inverse du systme
Fig.4.
(6)
ec (k ) = r (k ) y (k ) .
Une mthode de gradient peut tre utilise :
1

ec2 ( k )
2

.
w ( k ) = w ( k 1)
w

(7)

Ou est le pas dapprentissage, le gradient scrit :


1

e c2 ( k )
2
= e ( k ) ( y ( k ) ) = e ( k ) ( y ( k ) ) ( u ( k 1) )
c
c
w
w
( u ( k 1))
w

(k)

Systme

. (8)

y(k)

ec

Fig. 4. Architecture spcialise dapprentissage

III. COMMANDE

Systme

y(k
)

Fig. 5. Commande directe par modle inverse

La valeur de y(k+1) Dans (3) est substitue par la sortie


dsire r(k+1) et on alimente le rseau par les valeurs retardes
de u(k) et y(k). Si le modle neuronal est exactement linverse
du systme alors il conduit la sortie suivre la consigne. Cette
commande a t utilise par [17] et [23]. [22]. On utilisait cette
commande pour contrler la direction dun bateau.

B. Commande neuronal hybride

Ce calcul requiert la connaissance du jacobien du systme,


cette fin, plusieurs mthodes ont t envisages pour
lapproximer [27].
On peut remarquer que la valeur utilise pour lapprentissage
des paramtres du modle inverse est lerreur en sortie du
procd. Une utilisation adquate de la rtropropagation
imposerait pourtant que lon rtropropage lerreur en sortie du
modle, qui est naturellement inconnue. Quoiquil en soit,
lexprience montre quen gnral, cette approche est
inefficace. De plus, le modle connexionniste tant utilis ds
linitialisation pour commander le procd, il est conseill de
disposer au dpart dun modle relativement cohrent pour que
cette architecture puisse fonctionner [9].

r(k)

u(k)

r(k+1)

La deuxime approche de commande est celle qui fait


intervenir le rseau de neurone au sein dune structure de
commande lequel participe aussi un contrleur classique
existant. Elle est prsente dans [11] dans le cadre de la
manipulation dun bras de robot. Elles consistent globalement
faire fonctionner simultanment un contrleur feedback
conventionnel et un modle connexionniste Cette approche ne
vise plus apprendre la dynamique inverse du systme, mais
effectuer une rgulation consistante de celui-ci. On fournit au
rgulateur feedback classique ainsi quau rseau de neurone
lerreur es commise en sortie du systme. Le rseau dispose de
plus de la consigne r(k) Le signal de commande total est
constitu de la somme des sorties des deux dispositifs.
Lapprentissage des poids synaptiques est quant lui ralis
par rtropropagation de la sortie du rgulateur classique. Cette
structure est reprsente sur fig.6
Lapproche est justifie par le fait que lorsque la rgulation
opre est consistante, la sortie du rgulateur classique est
nulle, confiant ainsi la tache de rgulation au rseau de
neurone. Il sagit dune optimisation du fonctionnement du
modle neuronal par dautres techniques. Citons ce titre. [12],
o un rgulateur PID est utilis pour raliser la commande
neuronale dun procd non linaire simple. Jorgensen et al
[13] utilisent cette mthode pour raliser la commande dun
modle davion en phase datterrissage.

NEURONALE

Parmi les structures de commande neuronales utilisant le


modle inverse, deux sont prsentes dans les paragraphes qui
suivent

ec

r
+

A. Commande neuronale directe par modle inverse :


Comme son nom lindique, le modle neuronal inverse plac
en amant du systme, est utilis comme contrleur pour
commander le systme en boucle ouverte (Fig.5).

Contrleur

uc

+
u

Fig. 6. Structure de commande neuronale hybride

Systme

03-04 November 2007

4th International Conference on Computer Integrated Manufacturing CIP2007

IV. EXPERIMENTATION
Pour les simulations, on a choisi un systme minimum de
phase, stable en boucle ouverte et possdant une non-linarit.
Le systme est compos dune masse, un amortisseur et un
ressort rigide [28]. Lquation du mouvement est donne
par (9):
y '' (t ) + y ' (t ) + y (t ) + y 3 (t ) = u (t ) .
(9)

-4

x 10

E
rreurdeprdictione(k)

3
2
1
0
-1
-2
-3
-4
-5

200

400

600

800
1000
1200
temps d'echant k

1400

1600

1800

2000

Fig. 9. Erreur de prdiction du modle inverse

Pour lapplication du modle inverse pour la commande


directe ( 3.1) on a test le modle pour deux consignes, lune
est un signal alatoire yd (Fig.10), lautre est un signal
sinusodal yd1 (Fig.11)
1
0.8
0.6
0.4

C
onsignealatoireyd(k)

Lapprentissage de la dynamique dun bras articul par une


mthode de ce type est voqu dans [14]. Pour la commande
dune colonne distiller, Steck et al [15] proposent de copier
un rgulateur existant.
En ce qui concerne la coopration des modles feedback
classiques avec des modles neuronaux, Gomi et al [11]
procdent des tests sur le problme classique du pendule
invers. Enfin, Psaltis et al [16] prsentent un autre exemple de
coopration dans laquelle le modle neuronal utilise des
informations issues dun PID lors de son initialisation.

0.2
0
-0.2
-0.4
-0.6
-0.8
-1

200

400

600

800
1000
1200
temps d'echant k

1400

1600

1800

2000

1600

1800

2000

Fig. 10. Consigne yd


2
1.5
1

C
onsignesinusoidaleyd1(k)

En premier lieu, On a labor le modle inverse du systme


ensuite on la utiliser dans les deux structures de commande
pour commander le systme sans et avec bruit.
Pour gnrer les donnes dapprentissage et de validation ,
on a excit le systme (9) par un signal u(k) qui est une
squence alatoire dont lamplitude est une distribution
uniforme dans lintervalle [-5 5] pour avoir une entre riche
(Fig.7) et la sortie y(k) correspondante est en Fig.8. La moiti
des donnes est utilise pour lapprentissage et lautre moiti
est rserve la validation.

0.5
0
-0.5
-1
-1.5
-2

200

400

600

800
1000
1200
Temps d'echant k

1400

Fig. 11. Consigne yd1

5
4

On prsente lerreur entre la consigne yd et la sortie du


systme command par modle inverse dans (Fig.12) et celle
entre la consigne yd1 et la sortie du systme (Fig.13)

S
ignal entreu(k)

2
1
0
-1

-5

-2

x 10

-3

0.8
-4

100

200

300

400
500
600
Temps d'echant k

700

800

900

1000

Fig. 7. Signal dentre u(k) (0-1000 : lapprentissage, 1001-2000 : validation


1.5

0.6

E
rreurdecom
m
andeinverseeyd(k)

-5

0.4
0.2
0
-0.2
-0.4
-0.6
-0.8

S
ignal sortiey(k)

-1
0

200

400

600

0.5

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 12. Erreur commise lors de la commande directe (Consigne yd)

-4

-0.5
1

x 10

-1.5

200

400

600

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 8. Sortie y(k) (0-1000 : lapprentissage, 1001-2000 : validation

Aprs plusieurs essais, un rseau de neurone dune seule


couche cache avec 7 neurones a t retenu avec des tangentes
hyperbolique (tansig) comme fonction dactivation et une
sortie linaire, {y(k+1), y(k),y(k-1),y(k-2),u(k-1) et u(k-2)}
sont ses entres. Lapprentissage
a t effectu par
lalgorithme de Levenberg-Marquardt.
Lerreur de prdiction est prsente dans Fig.9

E
rreurdecom
m
andeinverseeyd1(k)

-1

-1
0

200

400

600

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 13. Erreur commise lors de la commande directe (Consigne yd1)

Quant la commande hybride directe ( 3.2) on a obtenu des


rsultats satisfaisants dont lerreur entre la consigne yd et la

03-04 November 2007

4th International Conference on Computer Integrated Manufacturing CIP2007

sortie y est prsente en Fig.14 et celle entre la consigne yd1 et


la sortie relle est en Fig.15
-3

x 10

1.5
E
rreurdecom
m
andehybrideeyd(k)

1
0.5
0
-0.5
-1
-1.5
-2
-2.5
-3

200

400

600

800
1000
1200
temps d'echant k

1400

1600

1800

2000

Fig. 14. Erreur commise lors de la commande hybride (Consigne yd)


-3

x 10

E
rreurdecom
m
andehybrideeyd1(k)

0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1

200

400

600

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 15. Erreur commise lors de la commande hybride (Consigne yd1)

On remarque des pics au dbut de la squence, ceci est d au


fait que le rseau au dbut na pas assez dinformations passes
pour suivre la consigne. Lorsque le temps passe et le rseau
acqurait les informations ncessaires, lerreur de poursuite est
trs rduite.
En dernier, on introduit un bruit blanc (Fig.16) dans le
systme et on applique la commande hybride utilise dans la
simulation prcdente. Les erreurs pour les consignes yd et yd1
sont en Fig.17 et Fig.18
1
0.8
0.6

B
ruit blancb(k)

0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0

100

200

300

400
500
600
Temps d'echant k

700

800

900

1000

Fig. 16. Bruit blanc introduit dans le systme (9)


-3

E
rreurdecom
m
andehybridebruiteyd(k)

x 10

6
4
2
0
-2
-4
-6
-8

200

400

600

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 17. Erreur commise lors de la commande hybride avec bruit (Consigne yd)
-3

x 10

E
rreurdecom
m
andehybridebruiteyd1(k)

8
6
4
2
0
-2
-4
-6
0

200

400

600

800
1000
1200
Temps d'echant k

1400

1600

1800

2000

Fig. 18. Erreur commise lors de la commande hybride avec bruit (Consigne
yd1)

V. CONCLUSION
Nous avons prsent, dans ce papier, deux structures de
commande par rseaux de neurones bases sur le modle
neuronal inverse, lapprentissage de ce modle a t fait aprs
plusieurs tentatives pour arriver une architecture optimale et
minimiser le nombre de paramtres du modle. Larchitecture
retenue tait avec une couche cache de 7 neurones. En
utilisant lalgorithme de Levenberg-Marquardt, Lerreur de
prdiction obtenue est trs rduite. Le modle retenu a t
utilis ensuite dans une structure de commande directe en
boucle ouverte mais ceci suppose que le modle inverse est
presque parfait et le systme est non bruit, ce qui est loin de la
ralit. Pour essayer dy remdier, nous avons utilis le modle
inverse dans une structure hybride avec un PID classique, et
nous sommes arrivs des rsultats trs concluants. Pour
valider la structure hybride, nous avons inject un bruit dans le
modle. Ceci na pas trop affect le systme command.
Les rsultats obtenus montrent quun modle neuronal avec
un bon apprentissage, sadapte parfaitement la dynamique
dun systme avec rejet des perturbations.
REFERENCES
[1]. J.Panos, K.Antsaklis and M.Passino, Introduction to Intelligent and
Autonomous Control, Kluwer Academic Publishers, ISBN: 0-7923-92671, 1993.
[2]. M.T.Hagan and H.B.Demuth, Neural network design,Thomson Asia Pte
Ltd,2nd ed 1996.
[3]. G. Dreyfus, Rseaux de neurones : mthodologies et applications, ditions
Eyrolles, 2002.
[4]. I. Rivals, L. Personnaz and G. Dreyfus, Modlisation, classification et
commande, Par rseaux de neurones : principes fondamentaux,
Mthodologie de conception et illustrations industrielles, 1995.
[5]. L. Ljung, System Identification; Theory for the User, Prentice Hall, 1987.
[6]. T. Yabuta and T. Yamada, Possibility of neural networks controller for
robot manipulators, Robotics and Automation, Proceedings, IEEE
International Conference, vol.3, 1990, pp. 1686-1691
[7]. G. Karsai, learning to control, some practical experiments with neural
networks, In International Joint Conference on Neural Networks, vol.
II, Seattle, 1991, pp. 701-707
[8]. B. Widrow, Adaptive inverse control, In Proceedings of the IFAC
Adaptive Systems in Control and Signal Processing Conference, Lund,
1988, pp.1-5
[9]. C. Goutte and C. Ledoux, Synthse des techniques de commande
connexionniste, IBP-Laforia 1995/02: Rapport de Recherche Laforia,
1995.
[10]. G. Cybenko, Approximation by superposition of a sigmoidal function,
Math. In: Control Signals System 2nd ed, 1989, pp.303-314.
[11]. H. Gomi and M. Kawato, Neural network control for a closed loop
system using feedback error learning, Neural Networks, vol.5, 1993,
pp.933-946.
[12]. H. Bleuler, D. Diez, G. Lauber, U. Meyer and D. Zlatnik, Nonlinear
neural network control with application example, In International
Neural Networks Conference, vol.1, Paris, 1990, pp.201-204
[13]. C.C. Jorgensen and C.Schley, A neural network baseline problem for
control of aircraft flare and touchdown, Neural networks for Control,
1990, pp.423-425
[14]. A. Guez and I. Bar-Kana, Two degree of freedom robot adaptative
controller, In American Conference on Control, San Diego, 1990, pp.
3001-3006.
[15]. J. Steck, B. Krishnamurthy, B. McMillin and G. Leininger, Neural
modeling and control of a distillation column, In International Joint
Conference on Neural Networks, vol.II, Seattle, 1991, pp. 771-773.

4th International Conference on Computer Integrated Manufacturing CIP2007

[16]. G.M. Scott, J.W. Shavlik and J.W.Harmon Ray, Refining PID
controllers using neural networks, NIPS 4, Advances in Neural
Information Processing Systems, 1991, pp. 555-562
[17]. D. Psaltis, A.Sideris and A. Yamamura, Neural controllers, In
International Neural Networks Conference, vol.IV, 1987, pp.551-558
[18]. E. Ronco and, P.J. Gawthrop, Neural networks for modelling and
control, Techncal Report CSC-97008, Center for Systems and Control,
Glasgow, 1997.
[19]. P. Tai, H.A. Ryaciotaki-Boussalis and T. Kim, the application of neural
networks to control systems: a survey, Signals, systems and Computers,
Record Twenty-Fourth Asilomar Conference on Vol.1, 1990.
[20]. S. Yildirim, New neural networks for adaptive control of robot
manipulators, Neural Networks, International Conference, vol.3, 1997,
pp.1727 - 1731
[21]. P. Brantetter and M. Skotnica, Application of artificial neural network
for speed control of asynchronous motor with vector control,
Proceedings of International Conference of Koice, EPE-PEMC, (2000,
pp. 6-157-6-159
[22]. G.A. Pugh, Ship directional control by synthetic neural network, Proc
of the American Control conference ACC90, San Diego, 1990, pp.30283029
[23]. Y. Ichikawa and T.Sawa, neural network application for direct
feedforward controller, IEEE Trans on Neural Networks, vol.3 No2,
1992, pp.224-231.
[24]. M.T. Wishart and R.G. Harley, Identification and Control of Induction
Machines Using Artificial Neural Networks. IEEE Transaction on
Industry Applications, Vol. 31, No 3, 1995.
[25]. L. Yan and C.J. Li, Robot Learning Control Based on Recurrent Neural
Network Inverse Model, Journal. of Robotic Systems, Vol. 14, 1997,
pp.199-212.
[26]. G.W. Ng, Application of neural networks to adaptive control of
nonlinear systems, Research Studies Press, Taunton, Somerset,
England, (1997.
[27]. C.T. Chen, W.D. Chang and J. Hwu, Direct control of nonlinear
dynamical systems using an adaptive single neuron, IEEE Trans on
Neural Networks, vol.2, No 10, 1997, pp.33-40
[28]. M. Norgaard, System identification and control with neural networks,
Thesis, Institute of automation, Technical University of Denmark, 1996.

03-04 November 2007

S-ar putea să vă placă și