Sunteți pe pagina 1din 41

Commande adaptative non-

linéaire par l’approche back-


stepping

1 Introduction:

L’approche backstepping [Krstic et al., 1995 ] est


une méthode de synthèse permettant d’élaborer des
régulateurs adaptatifs pour une classe de systèmes
non-linéaires, en l’occurrence ceux dits linéarisables
par feedback.

Ces systèmes sont non-linéaires par rapport à l’état,


mais sont linéaires par rapport à la commande et aux
paramètres du procédé.
La linéarisation par feedback d’un système non-linéaire,
consiste à réecrire le modèle de ce dernier sous forme
d’un ensemble d’intégrateurs en série.

Cette représentation se prête à une synthèse du régu-


lateur par l’approche backstepping. Une telle syn-
thèse se fait en autant d’étapes qu’il en faut de déri-
vations du premier état du système pour faire appa-
raître l’entrée de commande.

2 Exemples

2.1 1.système non adaptatif:

Considérons le système non-linéaire suivant:


x_ 1 = x2 + '(x1)
x_ 2 = u (1)

est un paramètre connu,

x1 et x2 sont deux grandeurs d’état mesurables, u


est la variable de commande et ' est une fonction
C 1 non linéaire connue.

On se propose de ramener l’état x1 à 0 quelque


soient les conditions initiales.

Puisque, la commande apparaît aprés deux dériva-


tions de x1; la loi de commande sera élaboré en deux
étapes:
Etape 1.

On examine la dérivée de x1 dans le système d’équation


(1) :

L’idée du backstepping est de prendre x2 comme


une commande virtuelle pour asservir x1 à 0. Si x2
était la commande e¤ective, alors la loi de commande
serait x2 = 1; avec

1 = c1z1 '(z1); (2)


où z1 = x1 et c1 est une constante de synthèse positive:

En e¤et, compte tenu de (1) ; (2) implique

z_1 = c1 z 1 ; (3)
ce qui aurait assuré que x1 tend exponentiellement vers
zéro.

Comme x2 n’est pas la commande e¤ective, 1 sera


considéré uniquement comme une première fonction sta-
bilisante.
Pour atteindre l’objectif de la poursuite escompté, nous
dé…nissons une deuxième variable z2 = x2 1 et es-
sayerons de la ramener à zéro au même titre que z1: et
on passe à l’étape suivante

Etape2

Etant donné ce changement de variables, le système (1)


devient

z_1 = c1z1 + z2
@ 1
z_2 = x_ 2 _1 = u (x2 + '(x1)): (4)
@z1
Introduisons la fonction de Lyapunov suivante

1 1
V2 = z12 + z22: (5)
2 2
que nous utilisons pour stabiliser le système (4) :
Utilisant (4), la dérivée de V2 est

V_ 2 = z1z_1 + z2z_2
= c1z12 c2z22 + z2(u + z1 + c2z2
@ 1
(x2 + '(x1))) (6)
@z1
En choisissant
@ 1
u = z 1 c2 z 2 + (x2 + '(x1)); (7)
@z1
la dérivée de V2 devient

V_ 2 = c1z12 c2z22;
ce qui implique en particulier que z1 tend vers z ero:

2.2 2. Système adaptatif

Nous reconsidérons le système

x_ 1 = x2 + '(x1)
x_ 2 = u (8)
en supposant cette fois que est un paramètre inconnu.

L’objectif de la commande est toujours de ramener l’état


x1 à zéro. L’analyse se fait en deux étapes:

Etape 1 .

On examine la dérivée de x1 dans le système d’équation


(8) :

L’idée est la même: prendre x2 comme une commande


virtuelle dans l’équation (8) pour ramener x1 à 0.

Si était connu et si x2 était notre commande ef-


fective alors la loi de commande serait x2 = 1; avec

1 = c1z1 '(z1); (9)


où z1 = x1: Comme x2 n’est pas la commande e¤ective,
1 sera considéré comme une première fonction stabil-
isante. D’autre part, le paramètre étant inconnu, il
ne peut être utilisé dans l’équation (9). On le remplace,
donc, par une estimée à determiner (dans la prochaine
étape). Il s’en suit, donc, la fonction stabilisante, que
voici

1 = c1 z 1 ^'(z1) (10)
En notant z2 = x2 1; l’équation (8) se réecrit

z_1 = c1 z 1 + z 2 + ( ^)'(z1) (11)


L’équation (1.5) suggère la fonction de Lyapunov
1 1
V1 = z12 + ( ^)2; (12)
2 2
où est une constante positive de synthèse, que nous
utilisons pour stabiliser le système (z1; ~ = ^). La
dérivée de la fonction de Lyaounov V1 le long de la solu-
tion de (11) est
:
1 ^)^
V_ 1 = z1z_1 ( (13)
:
= z1z2 c1z12 + ( ^)( '(z1)z1 ^)
Si x2 était la commande e¤ective ( z2 = 0) on aurait pu
prendre
:
^ = 1 = '(z1)z1 (14)
comme loi d’adaptation des paramètres, ce qui aurait
donné:
V_ 1 = c1z12: (15)
Mais puisque x2 n’est pas la commande e¤ective, z2 6=
0 , alors 1 sera dit la première fonction de réglage
et ne sera pas utilisée en tant que loi d’adaptation des
paramètres. Cette dernière sera déterminée à l’étape suiv-
ante.

Etape 2.

Examinons la dérivée de z2

z_2 = x_ 2 _1
@ 1 @ 1 ^:
= u x_ 1 (16)
@x1 @^
En reportant la première équation de (8) dans l’équation
précédente, on obtient:
@ 1 @ 1 ^:
z_2 = u (x2 + ')
@x1 @^
@ 1 @ 1 ^: @ 1
= u x2 ' (17)
@x1 @ ^ @x 1
En ajoutant ^ @@x 1 ' ^ @@x 1 ' au second membre de (17) ;
1 1
il vient:
@ 1 @ 1 ^: ^ @ 1 @
z_2 = u x2 ' ( ^) 1 ': (18)
@x1 @^ @x1 @x1
Pour analyser la stabilité de ce système dont l’état est
(z1; z2; ~) nous proposons la fonction de Lyapunov suiv-
ante
1
V2 = V1 + z22: (19)
2
En combinant (18) et (13), la dérivée de V2 est
V_ 2 = V_ 1 + z2z_2 " #
:
@ 1 @ 1^ ^@ 1 '
= c1z12 + z2 z1 + u x2
@x1 @^ @x1
:!
1 @
+ ( ^) 1 z2 1 ' ^ (20)
@x1
Le second membre de cette équation suggère les lois
d’adaptation et de commande que voici
:
^ = @ 1
1 z2 '= 2
@x1
@ 1 @ 1 ^: ^ @ 1
u = z1 c2z2 + x2 + + '(21)
@x1 @ ^ @x1
où c2 est une constante positive de synthèse. En e¤et
moyennant ce choix, la dérivée de V2 devient

V_ 2 = c1z12 c2z22;
ce qui implique en particulier que le.point d’équilibre est
asymptotiquement globalement stable
3 Commande adaptative d’un sys-
tème à rétroaction stricte.

Nous généralisons la méthode de synthèse donnée dans


les exepmles précédents à un système non-linéaire d’ordre
n:

3.1 Système de commande

Considérons le système non-linéaire décrit par le modèle


suivant:

x_ 1 = x2 + '1(x1)T
x_ 2 = x3 + '2(x1; x2)T
...
x_ n 1 = xn + 'n 1(x1; :::; xn 1)T
x_ n = (x)u + 'T
n (x) (22)
u 2 R est l’entrée de commande,

x = (x1; :::; xn)T est le vecteur d’état,

2 Rp est le vecteur des paramètres inconnus. Ce


système est soumis aux hypothèses suivantes:

Hypotheses:

H1: 'i; (i = 1; :::; n) sont des fonctions appartenant à


C 1 non-linéaires et connus

H2: est une fonction non-linéaire 2 C 1 et telle que


(x) 6= 0; 8x 2IRn:

Objectif de la commande:
Assurer la stabilité globale asymptotique d’un point d’équilibre
d’une part et la poursuite asymptotique d’un signal de
référence d’autre part.
3.1.1 La procédure de synthèse de la loi de com-
mande.

Une procédure en n étapes, où n est l’ordre du système.

La première étape consiste à stabiliser le premier sous-


système de (22) en considérant x2 comme une commande
virtuelle.

Etape 1.

Introduisons les erreurs suivantes

z 1 = x1 y
z 2 = x2 1

ou y est la valeur de référence de x1: y est supposée


constante

z1 étant l’erreur de poursuite,


L’erreur z2 constitue l’écart entre la commande virtuelle
et la fonction stabilisante.

Réecrivons la première équation, x_ 1 = x2 + '1(x1)T ;


du système (22) sous la forme

z_1 = z2 + 1 + w1(x1)T (23)


où l’on a dé…ni le premier vecteur de regression, soit

w1(x1) = '1(x1):
Dans le but de stabiliser le système (23) ; prenons comme
fonction de Lyapunov
1 1 T
V1 = z12 + ~ 1~:
2 2

où = T est une matrice strictement positive

La dérivée de cette dernière le long de la solution de (23)


est
:
V_ 1 = z1(z2 + T^
1 + w1 )
~T 1 (^ w1z1): (24)
Si x2 était notre commande e¤ective on aurait z2 = 0;

auquel cas,

il su¢ rait de prendre


:
^ = w1z1 = 1 (x1 )
et choisir

1 = c1z1 w1T ^; (25)


c1 est une constante de synthèse positive

pour obtenir
V_ 1 c1z12
Puisque x2 n’est pas notre commande e¤ective,

:
on ne peut pas prendre ^ = 1 (x1 ) comme loi
de mise à jour des paramètres.
Néanmoins, nous retenons 1 comme notre pre-
mière fonction de réglage

T
Le terme en ~ dans V_ 1 …gure toujours

: En reportant (25) dans (23) ; il vient:

z_1 = c1z1 + z2 + w1(x1)T ~: (26)


Ainsi se termine la première étape

Etape 2.

Nous considérons ici que x3 est la commande du deux-


ième sous-système de (22) :

Comme dans l’étape 1, introduisons comme troisième


variable erreur
z3 = x3 2; (27)
C’est l’erreur entre la commande virtuelle x3 et la fonc-
tion stabilisante 2 à déterminer.
L’équation x_ 2 = x3 + '2(x1; x2)T peut se réécrire en
terme de z2 et z3 comme suit
@ 1 @ 1 ^:
z_2 = z3 + 2 x2 + w2(x1; x2; ^)T ; (28)
@x1 @ ^

@ 1
w2(x1; x2; ^) = '2 '1:
@x1
désigne la deuxième variable de regression.

Le système d’équation en (z1; z2; ~) suggère la fonction


de Lyapunov suivante
1 2
V2 = V1 + z2
2
dont la dérivée le long des solutions de (26)-(28) est
" :#
@ 1 @ 1^
V_ 2 = c1z12 + z2 z1 + z3 + 2 x2 + w2T ^
@x1 @^
:
+~T 1 + w2z2 1^ : (29)
T
Nous pouvons éliminer ~ de l’équation (29) en prenant
la loi de mise à jour
:
^= 2

" #
^ z1
2 (x1 ; x2 ; ) = 1 + w2 z2 = [w1 ; w2 ] : (30)
z2
Si x3 était notre commande e¤ective (z3 = 0);

nous aurions pu atteindre le but de la commande en choi-


sissant la fonction stabilisante que voici
@ 1 @ 1
^
2 (x1 ; x2 ; ) = z1 c2 z 2 + x2 w2T ^ + 2:
@x1 @^
En e¤et, dans ce cas

V_ 2 = c1z12 c2z22
Bien que x3 n’est pas la commande e¤ective,

nous retenons quand même 2 comme deuxième fonc-


tion de réglage mais
:
nous n’utilisons pas ^ = 2 en tant que loi de mise
à jour des paramètres.

Il s’en suit que


:
@
V_ 2 = c1z12 c2z22 + z2z3 + z2 1 2
^
:
@^
T 1^ :
+~ 2 (31)

Les deux premiers termes de V_ 2 sont négatifs, les autres


termes seront pris en compte et compensés au cours des
étapes suivantes:

Etape 3 .

Considérons le troisième sous-système de (22) ; et intro-


duisons
z4 = x4 3; (32)
où 3 est une fonction stabilisante de cette éqution et z4
étant l’erreur commise en prenant x4 comme loi de com-
mande virtuelle. Nous réécrivons x_ 3 = x4+'3(x1; x2; x3)T
sous la forme
@ 2 @ 2
z_3 = z4 + 3 x2 x3
@x1 @x2
:
T @ 2
+w3(x1; x2; x3; ^) ^; (33)
@^

@ 2 @ 2
w3(x1; x2; x3; ^) = '3 '1 '2: (34)
@x1 @x2
est le troisième vecteur de regression. L’objectif, main-
tenant, est de stabiliser le système (z1; z2; z3) et pour
cela on prend comme fonction de Lyapunov
1
V3 = V2 + z32:
2
La dérivée de celle-ci le long de la solution de (26) ; (28)
et (33) est donnée par
:
@ 1
V_ 3 = c1z12 c2z22 + z2 2
^
@^
@ 2 @ 2
+z3[z2 + z4 + 4 x2 x3
@x1 @x2
:
@ 2^
+w2T ^ ]
@ ^
:
+ ~T 2 + w3z3 1^ : (35)

Nous pouvons éliminer ~ de l’équation (35) en prenant


:
comme loi de mise à jour ^ = 3 où 3 est la fonction
de réglage

3 (x1 ; x2 ; x3 ;
^) = 2 + w3z3
2 3
z1
6 7
= [w1; w2; w3] 4 z2 5 (36)
z3
Si x3 était la commande e¤ective, nous aurions
z4 = 0
et nous aurons assuré que
V_ 3 = c1z12 c2z22 c3z32
en choisissant
^ @ 2
3 (x1 ; x2 ; x3 ; ) = z2 c3z3 + x2
@x1
@ 2
+ x3 w2T ^
@x2
@
+ 1 2 + v3 (37)
@^
où v3 est un terme correcteur à déterminer ultérieure-
ment.

Substituons (37) dans (35) et notons que


: :
^ 2 = ^ 3 + 3 2
:
= ^ 3 + w3z3; (38)
l’équation (35) est réécrite sous la forme
@ 1
V_ 3 = c1z12 c2z22 c3z32 + z3 v3 w3z2
@ ^
:
@ 1 @ 2 ^
+z3z4 + z2 + z3 3
^
@: @^
T 1^ ;
+~ 3 (39)
et le sous-système (z1; z2; z3) devient
2 3 2 32 3 2 3
z_1 c1 1 0 z1 w1
6 7 6 76 7 6 7
4 z_2 5 = 4 1 c2 1 5 4 z2 5 + 4 w2 5 ~
z_3 0 1 c3 z3 w3
2 3
0
6 @ 1 7
+6
4 ^ w3z3 7
5
@
v3
2 3
0
6 : 7
6 @ 1 ^) 7
+6 ( 3 7: (40)
6 @^ : 7
4 5
z4 + @ ^2 ( 3 ^)
@
Si x3 était notre commande:
e¤ective, c’est à dire z4 = 0;
alors la loi d’adaptation ^ = 3 garantirait que le dernier
vecteur de l’égalité (40) est nul: Par ailleurs, même dans
ce cas, le terme destabilisant @ ^1 w3z3 demeurera.
@
Comme le montre (39) ; ce terme peut être entièrement
éliminé par un choix approprié du terme correcteur v3; en
l’occurence:
@ 1
v3(x1; x2; x3; ^) = w3z2
@ ^
Encore
:
une fois, nous reportons la décision du choix
:
de
^ aux étapes ultérieures et nous n’utilisons pas ^ = 3
comme une loi d’adaptation. Compte tenu de ces remar-
ques, les équations (39) (40) deviennent successivement

V_ 3 = c1z12 c2z22 c3z32 + z3z4


: :
@ 1 @ 2 ^ ~T 1(41)
^ ;
+ z2 + z3 3 + 3
@^ @^
et
2 3
2 3 c1 1 0 2 3
z_1 6 @ 1 7 z1
6 7 6 1 c2 1 w3 76 7
4 z_2 5 = 6 @^ 7 4 z2 5
4 5
z_3 0 1 + @ ^1 w3 c3 z3
2 3 @
w1
6 7
+ 4 w2 5 ~
w3
2 3
2 3 0
0 6 @ 7 :
6 7 6 1 7 ^):
+ 4 0 5 + 6 @^ 7( 3 (42)
4 @ 5
z4 2
@^

Etape i (i = 4; :::; n 1)
On s’intéresse ici à la ième équation de (22) : Pour cette
dernière, l’état xi+1 est une entrée virtuelle. Dé…nissons

zi+1 = xi+1 i; (43)


l’erreur entre la commande virtuelle et la fonction stabil-
isante i à déterminer. l’équation x_ i = xi+1+'i(x1; :::; xi)T
peut alors se réecrire sous la forme
iX1
@ i 1 @ i 1 ^:
z_i = zi+1+ i xk+1+wi(x1; :::; xi; ^)T ;
@xk @ ^
k=1
(44)

iX1
@ i 1
wi(x1; :::; xi; ^) = 'i 'k : (45)
k=1
@x k
désigne le ième vecteur de regression. Pour stabiliser le
système (z1; :::; zi) prenons la fonction de Lyapunov suiv-
ante
1 2
Vi = Vi 1 + zi :
2
La dérivée de celle-ci le long des solutions de (42) (44)
est
0 1
iX1 iX2 :
@
V_ i = ck zk2 +@ zk+1 k A ( i 1
^)
k=1 k=1 @^
2
iX1
@ i 1 @ i 1
+zi 4zi 1 + zi+1 + i xk+1wiT ^
k=1
@xk @^
:
T 1^ :
+~ i 1 + wizi (

Le terme en ~ de V_ i peut être annulé par la loi d’adaptation


:
^ = i; où

i (x1 ; :::; xi ;
^) = i + wizi
2 3
z1
6 .. 7
= [w1; :::; wi] 4 . 5 : (47)
zi
Dans ce cas, oubliant momentanément le terme zi+1;
iP1
_
l’équation (46) peut être rendue égale à Vi = ck z 2 k
k=1
moyennant le choix suivant de i
iX1
@ i 1
i (x1 ; :::; xi ;
^) = zi 1 cizi + xk+1 wiT ^
k=1
@xk
@ i 1
+ i + vi ;
@ ^
où vi est un terme correcteur à choisir ultérieurement.
En outre, en remarquant que
: :
^ i 1 = ^ i + i i 1
:
= ^ i + wizi; (48)
il découle de (46) que
iX1 :
2 @ i 1
V_ i = ck zk + zi zi+1 + vi ( i ^)
k=1 @^
0 1
iX2 : :
@ k ^) + ~ T 1^ :
+@ zk+1 A( i 1 i
k=1 @^
2 3
iX1 iX2
@
= ck zk2 + zi 4zi+1 + vi zk+1 k wi5
k=1 k=1 @^
0 1
iX1 : :
@ k ^) + ~ T 1 ^ : (49)
+@ A( i 1 i
^
k=1 @
De même le système (z1; :::; zi) prend la forme que voici
2
c1 1 0
2 3 6
6 1 c2 1 + 23
z_1 6 ... ...
6 .. 7 6 0 1 23
4 . 5 = 6
6 ... ... ... ...
6 1+
z_i 6
4 0 2;i 1 1 i 2;i 1
0 0 0
2 3 2 3
0 2 3 0
2 3 6 7 0
w1T 6 z 7 6 7
2;i i 7 6 ... 7 6 @ 1 7
6 7~ 6 7+6 7 6 @^ 7
+ 4 ... 5 +6
6
...
7 6 7+6 . 7
6 7 4 0 5 6 .. 7
wiT 4 i 1;i zi 5 4
i 1
5
zi+1
vi @^

^ @ j 1
jk (x; ) = wk : (51)
@ ^
Par ailleurs, (49) suggère pour le terme correcteur le
choix que voici
iX2 iX1
^ @ k
vi(x1; :::; xi; ) = zk+1 wi = k;izk ;
@ ^
k=1 k=2
(52)
impliquant à son tour que
0 1
iX1 iX2 :
@
V_ i = ck zk2 + zizi+1 + @ zk+1 k A ( i 1
^)
k=1 k=1 @^
:
T 1^ ;
+~ i (53)
et
2
2 3 c1 1 0 0
6
z_1 6 1 c2 1 + 23 2;i
6 .. 7 6 ... ... ...
4 . 5 = 6
6 0 1 23
z_i 6 ... ... ... ... 1+ i
4
0 2;i 1 i 1;i ci
2 3
2 3 0
2 3 0
w1 T 6 7
6 . 7 6 @ 1 7 :
6 .. 7 ~ 6 .. 7 6 @^ 7 ^);
+4 . 5 + 6 7+6 . 7( i
T 4 0 5 6 .. 7
wi 4 5
zi+1 i 1
@^

Etape n.

On s’intéresse à la dernière équation de (22) ; soit x_ n =


(x)u + 'T n (x) : Comme dans les étapes précédentes,
nous introduisons la variable

zn = xn n 1; (55)
qui représente l’erreur entre la commande virtuelle et la
fonction stabilisante n 1: la dernière équation de (22)
peut être réecrite, en terme de zn; comme suit
nX1
@ n 1 @ n 1 ^:
z_n = u+'T
n xk+1 + 'T
k ;
@xk @ ^
k=1
(56)

nX1
@ n 1 T
wn(x; ^) = 'n 'k (57)
k=1
@xk
est le vecteur de regression. Nous remarquons l’apparition,
pour la première fois, de la vraie commande u du système.
Le problème de stabilisation de (56) peut être appréhendé
par la fonction de Lyapunov suivante
1 2
Vn = Vn 1 + zn
2
1 T 1~:
= zT z + ~ (58)
2
Sa dérivée le long de (54) et (56):
0 1
nX1 nX2 :
@
V_ n = ck zk2 +@ zk+1 k A ( n 1
^)
k=1 k=1 @^
2
nX1
@ n 1 T^ @ n 1 ^:
+zn 4zn 1 + u xk+1wn
k=1
@xk @^
:
+~T n 1 + wnzn 1^ : (59

Dans cette dernière équation, le terme en ~ peut être


annulé, moyennant le choix suivant de la loi d’adaptation
:
^ = n (z; ^) = n 1 + wnzn
= W (z; ^)z; (60)
où la matrice de regression W (z; ^) est composée des
vecteurs de regression w1; :::; wn :

W (z; ^) = [w1; :::; wn] : (61)


Nous choisissons la commande u de façon à rendre le
terme entre crochets multiplié par zn; de l’égalité (59) ;
égale à -cnzn :
0
nX1
1@ @ n 1 @ n 1
T^ +
u= zn 1 cn z n + xk+1 wn
k=1
@xk @^
(62)
où vn est un terme correcteur à déterminer. L’expression
(52) suggère à prendre
nX2 iX1
@
vn(x1; :::; xn; ^) = zk+1 k wn = k;nzk :
k=1 @^ k=2
(63)
En utilisant (60) ; (62)et (63) il découle de (59)que
nX1
V_ n = ck zk2; (64)
k=1
ce qui implique la bornitude des états zk : Le système en
boucle fermée global devient

z_ = Az (z; ^)z + W (z; ^)T ~ (65)


:
^ = W (z; ^)z; (66)

2
c1 1 0 0
6
6 1 c2 1 + 23 2;
6 ... ... ...
^
Az (z; ) = 6 0 1
6 23
6 ... ... ... ... 1+ n
4
0 2;n 1 n 1;n cn
(67)
Parce que z est un vecteur erreur, Le système (65) sera
appelé le système erreur dont un point d’équilibre est en
z; ~ = (0; 0) : Les propriétés de stabilité de ce point
d’équilibre feront l’objet du sous paragraphe suivant.

3.1.2 Propriétés de stabilité et de convergence:

La stabilité globale du point d’équilibre provient du fait


que la dérivée V_ n de la fonction de Lyapunov Vn le long
des solutions des équations (65)-(66) est donnée par
l’équation (64) : Le théorème d’invariance de Lasalle im-
plique que l’état z; ~ de dimension (n + p) converge
à un domaine invariant M de (65) (66) contenu dans
n o
l’ensemble E = (z; ) 2 IRn+p jz = 0 ; c’est à dire
au domaine où V_ n = 0: Cela signi…e en particulier que
z (t) ! 0 quand t ! 0: Nous nous proposons main-
tenant de déterminer l’ensemble M . Dans ce domaine
invariant, nous avons z 0: Posons z = 0 dans (65) ;
:
nous obtenons ^ = 0 et

W (z; ^)( ^) = 0; 8(z; ) 2 M: (68)


A la lumière de (45) et (60) on peut voir que
2 3
1 0 0
6 @ 1 ... 7
6 7 4
T 6 @x1 7
W (z; ^) = 6 ... 7 F (x)T = N (z; ^)F
6 0 7
4 @ n 1 @ n 1 5
@x1 @xn 1 1
(69)
Comme N (z; ^) est nonsingulière quelque soit la valeur
de (z; ^) 2 M; alors (68) et (69) impliquent

F (x)T ( ^) = 0 dans M: (70)


Maintenant nous allons démontrer que x = xe dans M:
Puisque z1 = x1 ys alors x1 = ys dans M: Utilisant
(70) ; on obtient
( ^)T '1(xe ) = 0 dans M: (71)
1
T
Retenons de l’équation (25) que 1 = c1z1 ^ '1(xe1):
T
Alors, dans M , 1 = ^ '1(xe1) = T ' (xe ):
1 1
Combinons cela avec le fait que z2 = 0 = x2 1 ,
nous obtenons x2 = xe2: En Continuant le même raison-
nement, nous pouvons démontrer que xi = xei et que
~T 'i(xe ; :::; xe) = 0 dans M . Alors le domaine d’invariance
1 i
M est donnée par
n o
M = (z; ) 2 IRn+p z = 0; FeT ~ =0
n o
= (z; ) 2 IRn+p z = 0; FeT ^ = FeT ;(72)
où Fe = F (xe): L’aspect important de M est sa di-
mension, p rang (Fe): Quand rang (Fe) = p; M se
réduit au point d’équilibre x = xe; ^ = : Cela implique
que le point d’équilibre est globalement asymptotique-
ment sable. Le théorème suivant ( Krstic et al. 1995)
résume les résultats de ce paragraphe

Théorème 2.1. Considérons le système adaptatif com-


posé du procédé (22) en boucle fermée avec le régula-
teur adaptatif constitué de la loi de commande (62) et
la loi d’adaptation des paramètres (60) : Alors le point
d’équilibre (x; ^) = (xe; ) est globalement stable : En
plus l’état x(t); ^(t) converge vers un domaine d’équilibre
de dimension (p rang (Fe)) donné par l’équation (72) ;
ce qui implique en particulier que

lim x(t) = xe:


t!1
Dans le cas où ys = 0 et F (0) = 0; on a lim x(t) = 0:
t!1
En…n, le point d’équilibre (x; ^) = (xe; ) est globale-
ment asymptotiquement stable si et seulement si rang fFeg =
p

3.2 Poursuite d’un trajectoire de référence

Notre but dans cette partie est de forcer la sortie y =


x1 du système (22) à poursuivre asymptotiquement un
signal de référence yr quelconque dont les n premières
dérivées sont supposées connues, bornées, et continues
par morceaux.
Table 2.1: les fonctions de réglage et de stabilisation

(i 1)
zi = xi yr i 1
^ (i 1) = zi 1
i (xi ; ; yr ci z i w T^
!i
iP1 @ i 1 @ i 1 (k)
+ @xk xk+1 + (k 1) yr
k=1 @yr
@ iP1 @
+ i^ 1 i+
k 1
^ wizk ;
@ k=2 @
^ (i 1)
i (xi ; ; yr ) = i 1 + wizi
(i 2) iP1 @
^
wi(xi; ; yr ) = 'i i 1
@xk 'k :; i = 1; :::; n
k=1
(i) (i)
xi = (x1; :::; xi); yr = (yr ; :::; yr )
Loi de commande adaptative
(n 1) (n)
u= 1 (x) n (x; ^; yr ) + yr
loi de mise à jour des paramètres
:
^ = n(x; ^; yr(n 1)) = W z

La procédure d’élaboration de la loi de commande non-


linéaire présentée précédemment pour le problème de sta-
bilité d’un point d’équilibre …xe peut être facilement éten-
due, moyennant une petite modi…cation, au problème de
poursuite d’un signal de référence variant dans le temps.
Comme dans la section précédente, la première variable
de l’état z à construire est l’erreur de poursuite z1 =
y yr : Etant donné que yr est variant dans le temps, ses
dérivées apparaîteront dans la dé…nition de l’erreur d’état
zi; i = 1; :::; n: Le seul changement que cela implique
dans la synthèse de la loi de commande est l’apparition
Pi 1 @ i 1 (k)
de k=1 (k 1) yr dans la dé…nition de i: Cela ex-
@yr
plique pourquoi la classe des signaux de référence consid-
éré doit être incluse dans l’ensemble des fonctions réelles
n fois dérivables avec des dérivées bornées et continus
par morceaux.

Compte tenu de ce changement mineur, nous ne reprenons


pas en détail la synthèse du régulateur et nous nous con-
tenterons de résumer celle-ci dans la table 2.1.

Le théorème suivant (Krstic et al. 1995) décrit les per-


formances du régulateur
Théorème 2.2. Considérons le système adaptatif com-
posé du procédé (22) et du régulateur adaptatif décrit
par la table 2.1. Alors le point d’équilibre (z; ^) = (0; )
est globalement stable et lim [y (t) yr (t)] = 0:
t!1

3.3 Conclusion:

Dans ce paragraphe, nous avons abordé le problème de


commande d’un procédé non-linéaire dont les paramètres
sont inconnus. Nous avons appréhendé le problème à
l’aide d’un régulateur adaptatif élaboré par l’approche
backstepping. Le régulateur ainsi obtenu stabilise glob-
alement et asymptotiquement le procédé commandé et
force la sortie de ce dernier à suivre sa trajectoire de
référence. L’approche exposé ci-haut sou¤re, malheureuse-
ment, d’une limitation due au fait qu’elle a besoin des
mesures de l’état du système à commander qui s’avèrent
en général di¢ ciles ou trés coûteux à réaliser.

S-ar putea să vă placă și