Sunteți pe pagina 1din 27

Une introduction à la théorie du contrôle

Farid Ammar Khodja


IUFM et Université de Franche-Comté
Assia Benabdallah
LATP, Université de Provence

Septembre 2005
ii
Contents

I Contrôlabilité en dimension finie 1


1 Contrôlabilité et observabilité 3
1.1 Un exemple: La commande d’un four électrique . . . . . . . . 3
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Le Gramien de contrôlabilité . . . . . . . . . . . . . . . . . . . . 5


1.3.1 L’opérateur adjoint de LT . . . . . . . . . . . . . . . . . 5
1.3.2 CNS de Contrôlabilité . . . . . . . . . . . . . . . . . . . . 6
1.3.3 Matrice de contrôlabilité - Gramien de contrôlabilité . . . 7
1.3.4 Caractérisation d’un contrôle optimal . . . . . . . . . . . 7
1.4 Contrôlabilité et inégalité d’observabilité . . . . . . . . . . . . . . 9
1.5 Systèmes linéaires constants. . . . . . . . . . . . . . . . . . . . . 12
1.5.1 Le critère de Kalman. . . . . . . . . . . . . . . . . . . . . 12
1.5.2 Optimalité et coût du contrôle. . . . . . . . . . . . . . . . 13
1.5.3 Exemple: Contrôle de systèmes couplés. . . . . . . . . . 17
1.6 Systèmes linéaires non autonomes: généralisation du critère de
Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Annexe: Systèmes différentiels 21

iii
iv CONTENTS
Part I

Contrôlabilité en dimension
finie

1
Chapter 1

Contrôlabilité et
observabilité

1.1 Un exemple: La commande d’un four électrique


La modélisation:
c1 T10 (t) = −a1 r1 (T1 − T2 )(t) − a2 r2 (T2 − T0 )(t) + u(t)


c2 T20 (t) = a1 r1 (T1 − T2 )(t)

où

T0 = température extérieure,
T1 = température dans la ”jacket” du four,
T2 = température de l’intérieur du four,

u = intensité de la chaleur produite par la bobine,

ai = les surfaces,

ci = les capacités de chaleur,

ri = les coefficients de radiation.

Le problème du four: Peut-on ”s’arranger” pour que quelque soit la


température du four à l’instant initial, t = 0, la température intérieure du four
soit égale, à l’instant t = t0 donné, à une valeur désirée T2 (t0 ) = T2 ?
Le problème mathématique: Peut-on trouver, pour toutes les valeurs
de (T1 (0), T2 (0)), u pour que la solution du système d’équations différentielles
ci-dessus satisfasse T2 (t0 ) = T2 ?

3
4 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

La réponse mathématique: Oui, on peut. Il y a même plusieurs choix


possibles. L’un d’entre eux est le ”meilleur” (en un certain sens). On sait le
calculer et on connait la dépendance du ”coût” du contrôle pour des petites
−3
valeurs de t0 ∼ t0 2 .
La suite va nous permettre de démontrer cette affirmation. On peut com-
mencer par remarquer qu’on peut écrire le système d’équations sous forme d’un
système différentiel. Pour cela, faisons un changement de variables

y1 = T1 − T0,
y2 = T2 − T0 .

Comme les coefficients ci sont non nuls, on peut définir les matrices A et B par:
 a1 r1 +a2 r2 r1 a1   −1 
− c c c1
A= 1
r1 a1
1
r1 a1 ,B = ,
c2 − c2 0

et le système s’écrit
y 0 (t) = A y(t) + B u(t).

1.2 Définitions

Soit T > 0 considérons un système différentiel linéaire défini sur [0, T ] :


 0
y = A(t) y + B (t)u(t)
, (1.1)
y(0) = y 0

où l’état y(t) et la condition initiale y 0 sont dans H = Rn , A ∈ Cm 0


([0, T ], L(Rn ))
et B ∈ Cm ([0, T ], L(R , R )) ( ), la fonction u ∈ L (0, T ; U ) avec U := Rm est
0 m n 1 2

appelée contrôle, stratégie ou entrée du système (1.1). La solution du système


différentiel dépend de la donnée initiale et du second membre et peut s’exprimer
par la formule:
Z t
y(t; y 0 , u) = S(t, 0) y 0 + S(t, s) B(s) u(s) ds , t ∈ [0, T ]
0

où S est la matrice résolvante(2 ) du système


dS
(
(t, s) = A(t)S(t, s)
dt
S(s, s) = I = matrice unité
Définition 1.2.1 On dira que le contrôle u transfère un état a à un état b au
temps T > 0 si
y(T ; a, u) = b .
On dit aussi que l’état b est atteignable à partir de a au temps T .
1 C 0 désigne l’ensemble des fonctions continues par morceaux.
m
2 voir l’annexe pour le rappel des principales propriétés de cette matrice.
1.3. LE GRAMIEN DE CONTRÔLABILITÉ 5

Définition 1.2.2 On dira que le système (1.1) est contrôlable au temps T > 0,
si pour tout a ∈ H et tout b ∈ H, il existe une fonction de contrôle u ∈
L2 (0, T ; U ) telle que:
y(T ; a, u) = b .
On dit aussi que la paire (A, B) est contrôlable au temps T > O.

Considérons sur (0, T ) le système différentiel suivant


 0
y = A (t)y + B u(t)
. (1.2)
y(0) = 0

La solution peut s’écrire pout tout t ∈ [0, T ] :

y(t, u) = Lt u,

où Lt est l’opérateur linéaire borné défini par:

L2 (0, t; U ) → H

Lt : Rt (1.3)
u → 0 S(t, s) B (s)u(s) ds

Proposition 1.2.3 Le système (1.1) est contrôlable au temps T > 0 si et seule-


ment si l’opérateur LT est surjectif.

Démonstration:
Soit a, b ∈ H deux états quelconques. L’équation en u :

y(T, a, u) = b (1.4)

a une solution dans L2 (0, T ; U ) si et seulement si l’équation

LT u = b − S(T, 0)a, (1.5)

a une solution dans L2 (0, T ; U ).


L’équivalence des équations (1.4) et (1.5) entraine la proposition. 

1.3 Le Gramien de contrôlabilité


1.3.1 L’opérateur adjoint de LT
L’opérateur LT est défini de l’espace de Hilbert L2 ([0, T ], U ) dans l’espace de
Hilbert H . C’est un opérateur borné. On a

H → L2 (0, T ; U )

L∗T : ,
x → L∗T x = v

où v est défini par:

hL∗T x, ui = (x, LT u) , ∀u ∈ L2 (0, T ; U ), ∀x ∈ H


6 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

où h , i désigne le produit scalaire dans L2 (0, T ; U ) et ( , ) désigne le produit


scalaire dans H. Or
!
Z T
(x, LT u) = x, S(T, s) B (s)u(s) ds
0
Z T
= (x, S(T, s) B (s)u(s) ) ds
0
Z T
= (B ∗ (s)S ∗ (T, s)x, u(s) ) ds
0

= hB ∗ (.)S ∗ (T, .)x, ui .

où B ∗ (t) (resp. S ∗ (t, s) ) est la matrice adjointe de B(t) (resp. S(t, s)). Donc:

L∗T = B ∗ (.)S ∗ (T, .).

Précisons le mode de calcul de L∗T x, x ∈ H, que cette formule induit. D’abord


on calcule S ∗ (T, s)x = w(s) qui est, par définition de S ∗ , la solution du système
différentiel  0
w = −A∗ (s)w, s ∈ (0, T )
.
w(T ) = x
Ainsi:
v = B ∗ (.)w (0, T )

 
v = L∗T x ⇐⇒ w = −A∗ (s)w s ∈ (0, T )
0
. (1.6)
w(T ) = x

1.3.2 CNS de Contrôlabilité


L’opérateur LT sera surjectif si et seulement si son adjoint est injectif (puisque:
dim H < +∞ ⇒ ker L∗T = R(LT )⊥ ). Donc:

Proposition 1.3.1 La paire (A, B) est contrôlable au temps T > 0 si et seule-


ment si  0
w = −A∗ (t)w t ∈ (0, T )
⇒ w ≡ 0 dans (0, T ).
B ∗ (t)w (t) = 0, ∀t ∈ [0, T ]

Démonstration:
Il suffit de remarquer que L∗T est injectif si et seulement si

  B ∗ w = 0 dans (0, T )

w0 = −A∗ w dans (0, T ) ⇒ y = 0.


w(T ) = y


1.3. LE GRAMIEN DE CONTRÔLABILITÉ 7

1.3.3 Matrice de contrôlabilité - Gramien de contrôlabilité


Posons

QT := LT L∗T
Z T
= S(T, s) B(s) B ∗ (s) S ∗ (T, s) ds , T >0 (1.7)
0

QT ∈ L(Rn ) et
Z T
2
hQT v , vi = |B ∗ (s) S ∗ (T, s) x|2 ds = kL∗T xk ≥ 0 , ∀x ∈ Rn .
0

Définition 1.3.2 QT := LT L∗T s’appelle matrice de contrôlabilité ou Gramien


de contrôlabilité.

L’application fT qui à (v, v 0 ) associe hQT v , v 0 i définit une forme bilinéaire


symétrique positive et on a le résultat (Kalman [3]):

Théorème 1.3.3 Les propriétés suivantes sont équivalentes

(i) (A, B) contrôlable au temps T > 0,


(ii) LT surjectif,
(iii) L∗T est injectif
(iv) QT est inversibe,
(v) fT est un produit scalaire sur H = Rn .

1.3.4 Caractérisation d’un contrôle optimal


Dans le cas où la paire (A, B) est contrôlable, il existe une infinité de contrôles. Il
est intéressant de pouvoir en construire un qui ” consomme le moins d’énergie”.
La fonctionnelle d’énergie que l’on choisit ici est
Z T
2
J(u) = ku(s)kU ds, u ∈ U (1.8)
0

On notera
Uad (a, b) = {u ∈ U, y(T, a, u) = b} .
Le théorème suivant établit l’existence d’un u ∈ Uad (a, b) qui minimise la fonc-
tionnelle J sur Uad (a, b).

Théorème 1.3.4 Si la paire (A, B) est contrôlable, l’application PT qui à (a, b) ∈


H 2 associe
PT (a, b) = −L∗T Q−1
T (S(T, 0)a − b),
8 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

vérifie
y(T, a, PT (a, b)) = b.
De plus,
Z T
2
kPT (a, b)(s)kU ds = min J(u)
0 u∈Uad (a,b)

2
−1

= QT 2 (S(T, 0)a − b) .

Preuve.

(i) Montrons que PT (a, b) ∈ Uad (a, b). Calculons y(T, a, PT (a, b)).

y(T, a, PT (a, b)) = S(T, 0)a − LT L∗T (Q−1


T (S(T, 0)a − b))
−1
= S(T, 0)a − QT QT (S(T, 0)a − b)
= b

(ii) Par ailleurs


Z T Z T
2
L∗T Q−1 ∗ −1


kPT (a, b)(s)kU ds = T (S(T, 0)a − b), LT QT (S(T, 0)a − b) U ds
0 0

Q−1 −1

= T (S(T, 0)a − b), QT QT (S(T, 0)a − b)
= Q−1

T (S(T, 0)a − b)), S(T, 0)a − b)
2
−1

= QT 2 (S(T, 0)a − b)) .

(iii) Montrons maintenant l’optimalité. Soit u un autre contrôle. Alors: b =


S(T, 0)a + LT u
Z T Z T
L∗T Q−1


hPT (a, b)(s), u(s)iU ds = − T (S(T, 0)a − b)), u(s) U ds
0 0

= − Q−1

T (S(T, 0)a − b)), LT u

Q−1

= T (S(T, 0)a − b)), S(T, 0)a − b

2
−1

= QT 2 (S(T, 0)a − b)

Z T
2
= kPT (a, b)(s)kU ds.
0
1.4. CONTRÔLABILITÉ ET INÉGALITÉ D’OBSERVABILITÉ 9

Donc
Z T Z T Z T
2 2 2
ku(s)kU ds = kPT (a, b)(s)kU ds + ku(s) − PT (a, b)(s)kU ds
0 0 0
Z T
2
≤ kPT (a, b)(s)kU ds.
0

l’inégalité étant stricte si u 6= PT (a, b). Ceci achève la démonstration du


théorème. 

1.4 Contrôlabilité et inégalité d’observabilité


On note dans ce paragraphe C = Rk .

Définition 1.4.1 Le système défini dans (0, T ) par


 0
 z = A(t)z
z(0) = a ,
w = C(t)z

où A(t) ∈ L(H), C(t) ∈ L(H, C) pour tout t ∈ (0, T ) est dit observable si pour
tout a ∈ H, a 6= 0, il existe t > 0 tel que

w(t) = Cz(t, a) 6= 0,

ou, de manière équivalente,

C(t)z(t, a) = 0, ∀t ∈ (0, T ) ⇒ a = 0.

S’il existe T > 0 tel que pour tout a ∈ H\ {0} , il existe t ∈ [0, T ] tel que
w(t) = Cz(t, a) 6= 0, alors le système est dit observable au temps T > 0. On dit
aussi que la paire (A, C) est observable au temps T > 0.
On définit la matrice d’observabilité par
Z T
RT = S ∗ (s, 0)C ∗ (s)C(s)S(s, 0)ds.
0

On peut définir l’application

H → L2 ([0, T ]; C)

FT : .
a → Cz(., a)

L’observabilité revient à l’injectivité de FT et donc à l’existence d’une con-


stante c > 0 telle que
Z T
2 2
|a| ≤ c kCS(t, 0)akC dt.
0
10 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

Ceci revient à
Z T
2 2
|z(0| ≤ c kCz(t)kC dt, où z est solution de z 0 = A(t)z.
0

C’est ”l’inégalité d’observabilité”.


Ainsi:

Proposition 1.4.2 Inégalité d’observabilité


(A, B) est contrôlable au temps T > 0 si et seulement si il existe c > 0 telle
que pour toute solution z du système z 0 = −A∗ z, on a
Z T
2 2
|z(0| ≤ c kB ∗ (t)z(t)kU dt .
0

Remarque 1.4.3 Cette inégalité d’observabilité s’écrit aussi


2 2
|a| ≤ c kL∗T akL2 ([0,T ];U ) ∀a ∈ H

Application: Contrôlabilité du ”four électrique”.


On va démontrer la contrôlabilité de ce système en établissant une inégalité
d’observabilité pour le système adjoint:
 a1 r1 +a2 r2 r1 a1 
− c c
zt = 1
r1 a1
2 z.
c1 − r1ca2 1
Il s’agit de prouver qu’il existe CT > 0 tel que
Z T
2 2 2
|z1 (0)| + |z2 (0)| ≤ CT |z1 (s)| ds.
0

On introduit la fonctionnelle

H(t) = βt2 z12 (t) + αt3 z1 (t)z2 (t) + t4 z22 (t).

On calcule la dérivée en temps de H en tenant compte que z est solution du


système:
d
H(t) = 2βtz12 (t) + 3αt2 z1 (t)z2 (t)
dt
a1 r1 + a2 r2 r1 a1
+4t3 z22 (t) + 2βt2 z1 (t)(− z1 (t) + z2 (t))
c1 c2
r1 a1 r1 a1
+αt3 z1 (t)( z1 (t) − z2 (t))
c1 c2
a1 r1 + a2 r2 r1 a1
+αt3 z2 (t)(− z1 (t) + z2 (t))
c1 c2
r1 a1 r1 a1
+2t4 z2 (t)( z1 (t) − z2 (t)).
c1 c2
1.4. CONTRÔLABILITÉ ET INÉGALITÉ D’OBSERVABILITÉ 11

On intègre sur (0, T ), en tenant compte que H(0) = 0.


H(T ) ≤ I1 + I2 + I3 ,
où
Z T
a1 r1 + a2 r2 r1 a1
I1 = z12 (t)(2βt2 − 2βt2 + αt3 )dt,
0 c1 c1
Z T
r1 a1 r1 a1
I2 = z22 (t)(4t3 − 2t4 + αt3 )dt,
0 c2 c2
Z T  
r1 a1 r1 a1 a1 r1 + a2 r2 r1 a1
I3 = z1 (t)z2 (t) 3αt2 + 2βt2 − αt3 ( +− ) + 2t4 dt
0 c2 c2 c1 c1
On choisit alors α pour ”éliminer” z2 :
Z T Z T
r1 a1 r1 a1 r1 a1
z22 (t)(4t3 − 2t4 + αt3 )dt ≤ T 3 (4 + a ) z22 (t)dt ≤ 0
0 c2 c2 c2 0
si
r1 a1 4c2
(4 + a )≤0⇔α≤− .
c2 r1 a1
Z T  
r1 a1 r1 a1 a1 r1 + a2 r2 r1 a1
z1 (t)z2 (t) 3αt2 + 2βt2 − αt3 ( +− ) + 2t4 dt
0 c2 c2 c1 c1
Z T Z T
≤ ε z22 (t)dt + c(ε) z12 (t)dt.
0 0
On obtient alors Z T
2
H(T ) ≤ CT |z1 (s)| ds.
0
Mais
H(T ) = βT 2 z12 (T ) + αT 3 z1 (T )z2 (T ) + T 4 z22 (T ),
est une forme quadratique en (|z1 (T )| , |z2 (T )|). Elle est définie positive si et ssi
α2 − 4β < 0.
Donc, on choisit (
α ≤ − r4c 2
1 a1
2 ,
β > α4
on en déduit, en changeant la constante CT ,
Z T
2 2 2
|z1 (T )| + |z2 (T )| ≤ CT |z1 (s)| ds.
0
Mais
2 2 2
|z1 (0)| + |z2 (0)| = kS(−T )z(T )k ,
donc Z T
2 2 2 2
|z1 (0)| + |z2 (0)| ≤ kS(−T )k CT |z1 (s)| ds.
0
12 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

1.5 Systèmes linéaires constants.


1.5.1 Le critère de Kalman.
Le Théorème 1.3.3 n’est pas toujours commode à appliquer. Dans ce para-
graphe, on démontre un critère de contrôlabilité complètement algébrique et,
en général, facilement applicable. On suppose que A(t) = A et B(t) = B sont
des matrices constantes sur (0, T ) et on note [A |B ] := [B, AB, ..., An−1 B] ∈
Mn,nm (R) la matrice dont les colonnes sont constituées par celles de B, ...,
An−1 B.

Théorème 1.5.1 Critère de Kalman


La paire (A, B) est contrôlable si et seulement si

rg[A |B ] = n. (1.9)

Remarque 1.5.2 Si rg B = j alors ( [3, Corollary 3.6]) peut être remplacée,


dans l’énoncé du théorème, par

rg[B, AB, ..., An−j B] = n.

Démonstration: Pi=n−1
Une remarque préliminaire: Si p(λ) = det(λI − A) = λn − i=0 αi λi ,
d’après le théorème de Cayley-Hamilton, on a p(A) = 0. D’où
i=n−1
X
An = αi Ai ,
i=0

On en déduit que pour tout k ∈ N, An+k est une combinaison linéaire de


(A )i∈{0,...n−1} . Donc, pour tout vecteur v ∈ H, Al v appartient à l’espace
i

engendré par {Ai v, i < n}. D’où

V ect{Ai v, i ≥ n} ⊂ V ect{Ai v, i < n}.

Appliquant cette propriété aux vecteurs colonnes de la matrice B, on en déduit


que la condition rg[A |B ] = n tombe en défaut si et seulement si il existe un
vecteur ligne ρ 6= 0 ∈ Rn tel que ρ.Ai B = 0, ∀i ≥ 0. Rappelons que dans ce cas,
S(t, s) = e(t−s)A . On a alors:

• La condition est suffisante: Soit x ∈ ker L∗T . Alors on a (cf. (1.6))


  0
 w = −A∗ w, [0, T ]
w(T ) = x (1.10)
B ∗ w = 0 , [0, T ]

1.5. SYSTÈMES LINÉAIRES CONSTANTS. 13

En posant v(t) = w(T − t) pour tout t ∈ [0, T ], on a donc

  B ∗ v = 0 , [0, T ]

v 0 = A∗ v, [0, T ]
v(0) = x

En faisant tendre t = 0, on obtient B ∗ x = 0 et en dérivant n − 1 fois en t


dans (??) et en faisant tendre à chaque étape t vers 0, on obtient
i
B ∗ (A∗ ) x = 0 i = 0, 1, ..., n − 1

Compte tenu de la remarque préliminaire de cette démonstration, on en


déduit que x = 0 et ker L∗T = {0} .

• La condition est nécessaire: Si rg[A |B ] < n, d’après la remarque



préliminaire, il existe x∗ ∈ (Rn ) \ {0} tel que

x∗ .Ai B = 0 ∀i ∈ N.

On en déduit que
x∗ .etA B = 0 ∀t ∈ (0, T )
puis que le système (1.10) admet une solution non triviale avec la donnée
finale x(= x∗∗ ). 

Exemple 1.5.3 : Commandabilité ”du four électrique”.

Le critère de Kalman donne:


!
c−1
1 − a1 r1c+a
2
2 r2

rg 1
a1 = 2 ⇔ r1 a1 6= 0
0 r1 c2 c1

Donc, le système est contrôlable si et seulement si r1 a1 6= 0.

1.5.2 Optimalité et coût du contrôle.


Soit (A, B) une paire contrôlable. On vient de voir qu’il est possible de choisir,
de manière unique, un contrôle optimal. On peut alors définir une application

CT : H → L2 ([0, T ]; U )
(1.11)
b 7−→ PT (0, b) = L∗T Q−1
T b

Définition 1.5.4 On appelle coût du contrôle au temps T de la paire (A, B) la


quantité kCT kL(H,L2 ([0,T ];U )) .

L’objet de ce paragraphe est de déterminer le comportement de ce coût (i.


e. kCT kL(H,L2 ([0,T ];U )) ) lorsque le temps de contrôle est de plus en plus petit.
14 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

Théorème 1.5.5 ([2]) On a l’estimation


γ
kCT kL(H,L2 ([0,T ];U )) ∼ 1 , (1.12)
T =0 T k+ 2

où k est l’exposant minimal tel que rg[B, AB, ..., Ak B] = n et γ une constante
réelle positive.

Preuve. Pour établir ce théorème, nous aurons besoin de quelques résultats


intermédiaires.

Lemme 1.5.6
2
kCT k = Q−1

.
T

Preuve. Il suffit de tenir compte de CT b = PT (0, b) = L∗T Q−1


T . Du fait que,
QT = LT L∗T , on obtient:
2
kCT bk = Q−1

T b , b ,

et on en déduit que
2
kCT k = Q−1

.
T


Considérons la suite de sous-espaces vectoriels:

Si = Si−1 + R(Ai B), i ≥ 0



.
S−1 = {0}

Par construction, on a S0 = R(B), S1 = R(B) + R(AB). Pour chaque i ≥


0, Si est l’image de la matrice [B, AB, ..., Ai B]. La condition de Kalman im-
plique qu’il existe i tel que rgSi = rg[B, AB, ..., Ai B] = n. Soit k = min{i ∈

N; rg[B, AB, ..., Ai B] = n}. Pour 0 ≤ i ≤ k, Si−1 6= {0}. Soit Ei la projection
⊥ j
orthogonale sur Si−1 . Mais si j < i, alors R(A B) ⊂ Si−1 ⊂ ker Ei . Donc

Ei Aj B = 0, ∀j < i ≤ k.

De plus

I = E0 + ... + Ek
H = Rn = ⊕j=kj=0 R(Ej ),

Sk = ⊕j=k
j=0 R(Ej ).

On pose alors
i=k
X
Γ = ΓT = i!T k−i Ei .
i=0

On a
Z 1
T −(2k+1) ΓQT Γ = [T −k ΓS(T s)B][T −k ΓS(T s)B]∗ ds.
0
1.5. SYSTÈMES LINÉAIRES CONSTANTS. 15

Tenant compte de la définition de Γ,


i=k
X X sj
−k
T ΓS(T s)B = i!T −i T j Ei Aj B,
i=0
j!
j≥0

i=k X
X sj
= i!T j−i Ei Aj B,
i=0 j≥0
j!
j
Mais, en utilisant Ek A B = 0, ∀j < i ≤ k, on déduit
i=k X
X sj
T −k ΓS(T s)B = i!T j−i Ei Aj B.
i=0 j≥i
j!

On renomme les indices, on en déduit


i=k i=k X
X X sj+i
T −k ΓS(T s)B = si Ei Ai B + T i!T j−1 Ei Aj B
i=0 i=0 j≥1
(j + i)!
| {z } | {z }
=P (s) =R1 (T,s)

Comme on cherche une estimation au voisinage de T = 0, on suppose T < 1.


On en déduit
i=k X
X 1 j
kR1 (T, s)k ≤ i! kAk kBk
i=0 j≥1
j!

i=k
X
≤ kBk (ekAk − 1) i!.
i=0

Donc,
T −k ΓS(T s)B = P (s) + O(T ).
D’où,
[T −k ΓS(T s)B][T −k ΓS(T s)B]∗ = [P (s) + T R1 (T, s)][P (s) + T R1 (T, s)]∗
= P (s)P ∗ (s) + T R2 (T, s),
où
R2 (T, s) = R1 (T, s)P (s)∗ + P (s)R1 (T, s)∗ + T R1 (T, s) R1 (T, s)∗ .
Cet opérateur est borné, donc
T −(2k+1) ΓQT Γ = W + O(T ),
R1
où O(T ) = T 0
R2 (T, s)ds = T R3 (T ) et
Z 1
W = P (s)P ∗ (s)ds
0

k
X 1
W = Ej Aj BB ∗ A∗i Ei∗ .
j,i=0
j+i
16 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

Lemme 1.5.7 B ∗ A∗i Ei∗ x = 0 ⇒ Ei x = 0.

Preuve:
Pour x ∈ Rn , on a Ei x ∈ Si = Si−1 + R(Ai B). Donc

Ei x = Ai By + x0 , x0 ∈ Si−1 .

Donc, si B ∗ A∗i Ei∗ x = 0, alors


2
Ei x, Ai By + x0 = B ∗ A∗i Ei∗ x, y + (x, Ei x0 )
 
|Ei x| =

= 0,

puisque Ei x0 = 0 car x0 ∈ Si−1 et Si−1 ⊂ ker Ei . 


Donc
Z 1
(x, W x) = (P ∗ (s)x, P ∗ (s)x) ds
0
Z 1
2
= |P ∗ (s)x| ds.
0

Lemme 1.5.8 W est inversible.

En effet, W x = 0 implique P ∗ (s)x = 0 pour tout s ∈ [0, 1]. De la définition


de P , il suit
i=k
X
si B ∗ A∗i Ei x = 0 ∀s ∈ [0, 1].
i=0

Donc B ∗ A∗i Ei x = 0 pour tout i ∈ {0, ..., k} et le lemme ci-dessus permet de


conclure que x ∈ ∩i=0,...,k ker Ei = {0}. 
Revenons à
T −(2k+1) ΓQT Γ = W + T R3 (T ).
Comme R3 (T ) est borné, pour T suffisamment petit, on obtient:

(W + T R3 (T ))−1 = W −1 (I + T W −1 R3 (T ))−1
= W −1 + T R4 (T ).

où

≤ W −1 W −1 R3 (I + T W −1 R3 )−1

|R4 (T )|
−1
W R3
≤ W −1

(I − T |W −1 R3 |)
2
≤ c W −1 .

1.5. SYSTÈMES LINÉAIRES CONSTANTS. 17

D’où
T (2k+1) Γ−1 Q−1
T Γ
−1
= W −1 + T R4 (T ).
Donc
T (2k+1) Q−1
T = ΓW
−1
Γ + T R5 (T ),
où R5 (T ) est borné pour T suffisamment petit.
Donc
2
kCT k = T −(2k+1) Γ0 W −1 Γ0 + O(T ).

Des calculs précédents, on déduit que


1 1
Γ0 W −1 Γ0 2 = k! Ek W −1 Ek 2 .

Mais
Ek W −1 Ek = max{ x, Ek W −1 Ek x ; |x| = 1}


= max{ x, W −1 x ; Ek x = x}


−1
= W|R(E .

k)


−1
comme R(Ek ) 6= {0}, du fait de la minimalité de k, W|R(E =6 0. Posant

k)
−1

γ = Γ0 W Γ0 , on trouve (1.12).


1.5.3 Exemple: Contrôle de systèmes couplés.


Soit A ∈ Mn (R) et B ∈ Mn,1 (R). On note (aij )1≤i,j≤n , (bi )1≤i≤n les coefficients
de A et B. Le système est contrôlable si et seulement si rg[A |B ] = n. Or,
[A |B ] ∈ Mn (R). Donc, la condition de Kalman sera satisfaite si et seulement si

det[A |B ] 6= 0.

Examinons quelques cas particuliers:


n = 2, b1 = 0.  
0 a12 b2
[A |B ] = .
b2 a22 b2
Donc
det[A |B ] = −a12 b22 6= 0 ⇔ a12 6= 0 et b2 6= 0.
Analysons ces conditions.
(i) b2 6= 0 exprime la possibilité d’action sur le système via un contrôle.
(ii) a12 6= 0 est due au fait que le contrôle agit ”indirectement”, d’abord sur
la seconde composante, puis celle-ci agit, comme un contrôle, sur la pemière
composante. Cette action n’est possible que si le coefficient de couplage a12 est
non nul.
Évaluons maintenant le coût du contrôle. Ici k = 1 et donc
3
kCT kL(H,L2 ([0,T ];U )) ∼ γT − 2 .
T =0
18 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ

Si maintenant on contrôle ce système par deux forces, c’est-à-dire si B ∈ M2,2 (R)


et si det B 6= 0, alors
rg[B] = 2,
et donc k = 0. Dans ce cas, le coût de contrôle est moindre:
1
kCT kL(H,L2 ([0,T ];U )) ∼ γT − 2 .
T =0

On peut remarquer que même si B ∈ M1,2 avec b1 b2 6= 0, le coût du contrôle


3
reste de l’ordre de T − 2 .
n = 3, b1 = b2 = 0.
 
0 a13 b3 (a11 a13 + a12 a23 + a13 a33 ) b3
[A |B ] =  0 a23 b3 (a21 a13 + a22 a23 + a23 a33 ) b3  ,
b3 a33 b3 a31 a13 + a32 a23 + a233 b3

det[A |B ] = b33 a213 a21 + a13 a22 a23 − a23 a11 a13 − a223 a12 .


Et la condition de Kalman est satisfaite si et seulement si



b3 6= 0, 
a213 a21 + a13 a22 a23 − a23 a11 a13 − a223 a12 6= 0.

On peut remarquer que cette dernière condition ne porte pas sur les coefficients
de la troisième ligne de la matrice A.

1.6 Systèmes linéaires non autonomes: généralisation


du critère de Kalman
On considère de nouveau le système
 0
y = A(t) y + B (t)u(t), (0, T )
, (1.13)
y(0) = y 0

avec la préoccupation de trouver un critère algébrique de contrôlabilité de type


Kalman. Pour cela, on introduit la suite

B0 = B
d
Bi = ABi−1 − Bi−1 , i ≥ 1.
dt
qui est définie tant que les matrices sont dérivables.

Théorème 1.6.1 Soit A ∈ C n−2 ([0, T ], L(Rn )) et B ∈ C n−1 ([0, T ], L(Rm , Rn )) .


On suppose qu’il existe un intervalle [a, b] ⊂ [0, T ] (a < b) tel que

rg[B0 (t), ..., Bn−1 (t)] = n ∀t ∈ [a, b] (1.14)

Alors le système (1.13) est contrôlable au temps T .


1.6. SYSTÈMES LINÉAIRES NON AUTONOMES: GÉNÉRALISATION DU CRITÈRE DE KALMAN19

Preuve: D’après le Théorème 1.3.3, il suffit de montrer que l’opérateur L∗T


est injectif . Soit x ∈ Rn tel que L∗T x = 0 et considérons la solution w du
problème (cf. 1.6)
 B ∗ (s)w(s) = 0 ∀s ∈ (0, T )

w0 = −A∗ (s)w ∀s ∈ (0, T ) (1.15)


w(T ) = x

Comme B ∗ et w sont C n sur (0, T ), dérivant la première équation dans (1.15),


on obtient
0 dB ∗
(B ∗ (s)w(s) ) = (s)w(s) + B ∗ (s)w0 (s)
ds
= −B1∗ (s)w(s) ∀s ∈ (0, T )
puis par récurrence
(i)
(B ∗ (s)w(s) ) = (−1)i Bi∗ (s)w(s), ∀s ∈ (0, T ), i = 0, 1, ..., n − 1
D’où
Bi∗ (s)w(s) = 0, ∀s ∈ (0, T ), i = 0, 1, ..., n − 1.
En particulier pour s ∈ [a, b]
Bi∗ (s)w(s) = 0, i = 0, 1, ..., n − 1.
Mais grâce à l’hypothèse (1.14), on en déduit que
w(s) = 0 ∀s ∈ [a, b].
qui par unicité de la solution du problème de Cauchy implique que x = 0. Donc
ker L∗T = {0} . 

Sous les mêmes hypothèses, la réciproque de ce théorème reste un problème


ouvert. Signalons cependant, sans démonstration, le résultat suivant (cf. J-M.
Coron [1]):
Théorème 1.6.2 ([1, Thorm 1.9]) Si A et B sont analytiques, le système
(1.13) est contrôlable au temps T si et seulement si
vect {Bi (t)v; v ∈ Rm , i ∈ N} = Rn ∀t ∈ [0, T ]. (1.16)
Exemple 1.6.3 Considérons le système
 0
y = tu dans (0, T )
y(0) = y0 ∈ R.
RT
Il est clair que QT = 0 t2 dt 6= 0 pour tout T > 0. Le système est donc
contrôlable. Sur cet exemple simple, on note que la condition (1.16) ne peut
pas être remplacée par la condition
rg[B0 (t), ..., Bn−1 (t)] = n ∀t ∈ [0, T ]
qui , puisque n = 1, s’écrirait ici B(t) 6= 0 pour tout t ∈ [0, T ] et qui n’est
visiblement pas satisfaite par B(t) = t. 
20 CHAPTER 1. CONTRÔLABILITÉ ET OBSERVABILITÉ
Annexe: Systèmes
différentiels
 
f1 (t)
Soit T > 0 et A(t) = (aij (t))1≤i,j≤n une matrice, f (t) =  ...  ∈ Rn pour
 

fn (t)
tout t ∈ [0, T ]. On considère le système différentiel
 0
y = A(t)y + f (t), t ∈ (0, T )
(17)
y(t0 ) = y0 ∈ Rn , t0 ∈ [0, T ).
On a
Théorème .0.4 Supposons que aij , fk ∈ L1loc (0, t). Alors il existe une unique
fonction M ∈ AC([0, T ], L(Rn )) (3 ) telle que
dM
(
(t) = A(t)M (t) p. p. [0, T ]
dt
M (0) = I.
De plus,
1. Pour tout t ∈ [0, T ], M (t) est inversible.
2. L’unique solution (absolument) continue de (17) est donnée par la formule:
Z t
y(t) = M (t)M (t0 )−1 y0 + M (t)M (s)−1 f (s)ds, t ∈ [0, T ].
t0

La fonction définie par


S(t, s) = M (t)M (s)−1 , ( t, s) ∈ [0, T ]2 ,
est la matrice résolvante du système
y 0 = A(t)y,

t ∈ (0, T )
y(t0 ) = y0 ∈ Rn , t0 ∈ [0, T ).
3 Espace des fonction absolument continue de [0, T ] dans L(Rn ).

21
22 ANNEXE: SYSTÈMES DIFFÉRENTIELS

Par définition de S, on a:

S(t, t) = I ∀ t ∈ [0, T ]
S(t, r)S(r, s) = S(t, s) ∀ (t, r, s) ∈ [0, T ]3
S(t, r) = S(r, t)−1 ∀ (t, r) ∈ [0, T ]2 .
∗
On peut enfin établir que S(s, t)∗ = M (t)−1 M (s)∗ est la matrice résolvante
du système adjoint

ϕ0 = −A(t)∗ ϕ,

t ∈ (0, T )
ϕ(t0 ) = ϕ0 ∈ Rn , t0 ∈ [0, T ).

Dans le cas particulier où A est une matrice à coefficients constants, il est
bien connu que
S(t, s) = e(t−s)A , ( t, s) ∈ [0, T ]2 .
Bibliography

[1] J. M. Coron. Quelques résultats sur la commandabilité


et la stabilisation des systèmes non linéaires, (1999).
http://www.math.polytechnique.fr/xups/xups99.02.ps.gz
[2] T. I. Seidman. How violent are fast controls? Math. Control Signals Systems
1 (1988), no. 1, 89–95.
[3] R. E. Kalman, P. L. Falb, M. A. Arbib. Topics in mathematical system
theory. McGraw-Hill (1969)
[4] J. Zabczyk, Mathematical control theory: an introduction. Birkhäuser
(1995).

23

S-ar putea să vă placă și