Documente Academic
Documente Profesional
Documente Cultură
2e` me annee
Cours dAutomatique
Representations
detat
lineaires
`
des systemes
monovariables
Olivier BACHELIER
Courriel : Olivier.Bachelier@univ-poitiers.fr
Tel : 05-49-45-36-79 ; Fax : 05-49-45-40-34
Introduction
1.1 Notion de syst`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Notion de mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Grandes lignes du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
2
3
2.1 Equations
preliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Linearite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Mod`ele entree/sortie : lequation differentielle . . . . . . . . . . . . . . . . .
2.1.3 Transformee de Laplace : de lequation differentielle a` la fonction de transfert
2.2 Fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Comment obtenir la fonction de transfert ? . . . . . . . . . . . . . . . . . . .
2.2.2 Interet de la fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
6
8
8
8
La representation detat
3.1 Principe general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 De la non-linearite a` la linearite . . . . . . . . . . . . . . . . . . . . . .
3.3 Historique de la representation detat . . . . . . . . . . . . . . . . . . .
3.4 Comment obtenir un mod`ele detat ? . . . . . . . . . . . . . . . . . . .
3.4.1 Par le jeu dequations . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Par lequation differentielle unique . . . . . . . . . . . . . . . .
3.5 De la fonction de transfert a` la representation detat . . . . . . . . . . .
3.5.1 Cas dune fonction de transfert strictement propre (m < n) . . .
3.5.1.1 Realisation diagonale ou quasi diagonale de Jordan .
3.5.1.2 Realisation de forme compagne . . . . . . . . . . . .
3.5.2 Cas dune fonction de transfert non strictement propre (m = n)
3.6 De la representation detat a` la fonction de transfert . . . . . . . . . . .
3.7 Dune realisation a` lautre . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Obtention dune forme compagne (horizontale) . . . . . . . . .
3.7.3 Obtention dune forme de Jordan . . . . . . . . . . . . . . . .
3.7.3.1 Les valeurs propres i de A sont distinctes . . . . . .
3.7.3.2 Les valeurs propres i de A sont multiples . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
12
15
15
16
16
17
17
17
19
20
21
21
21
22
22
23
23
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
26
26
27
27
28
29
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
TABLE DES MATIERES
4.4
4.5
4.6
4.7
5
`
TABLE DES MATIERES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
31
32
33
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
35
36
36
36
36
37
37
38
38
39
39
40
40
Commandabilite et observabilite
6.1 Definitions . . . . . . . . . . . . . . . . . . . . .
6.1.1 Commandabilite ou gouvernabilite . . . .
6.1.2 Observabilite . . . . . . . . . . . . . . .
6.2 Crit`ere de Kalman . . . . . . . . . . . . . . . . .
6.2.1 Commandabilite . . . . . . . . . . . . .
6.2.2 Observabilite . . . . . . . . . . . . . . .
6.2.3 Dualite des deux concepts . . . . . . . .
6.3 Crit`eres sappliquant aux formes de Jordan . . . .
6.3.1 A diagonalisable . . . . . . . . . . . . .
6.3.2 A non diagonalisable . . . . . . . . . . .
6.4 Grammiens de commandabilite et dobservabilite
6.4.1 Definition des grammiens . . . . . . . .
6.4.2 Interpretation des grammiens . . . . . . .
6.4.3 Calcul des grammiens . . . . . . . . . .
6.5 Mod`eles et structures . . . . . . . . . . . . . . .
6.5.1 Difference entre les mod`eles . . . . . . .
6.5.2 Syst`emes composites . . . . . . . . . . .
6.6 Realisation minimale . . . . . . . . . . . . . . .
6.6.1 Definition . . . . . . . . . . . . . . . . .
6.6.2 Realisation minimale et notion de poles .
6.6.3 Realisation minimale et stabilite . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
43
43
44
44
44
46
47
47
47
48
48
48
49
49
49
51
53
53
53
54
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
56
57
57
58
58
58
58
60
61
61
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
TABLE DES MATIERES
7.4.2
8
`
TABLE DES MATIERES
Seconde approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
69
70
70
71
71
71
71
72
74
75
76
77
9.1.2.1 Echantillonnage
. . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2.2 Quantification . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2.3 Blocage . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Syst`emes discrets lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Mod`eles externes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2.1 Equation
recurrente . . . . . . . . . . . . . . . . . . . . . . .
9.2.2.2 Transformation en z . . . . . . . . . . . . . . . . . . . . . . .
9.2.2.3 Fonction de transfert en z . . . . . . . . . . . . . . . . . . . .
9.2.3 Representation detat . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.4 Lien entre les mod`eles . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.4.1 Dune realisation a` lautre . . . . . . . . . . . . . . . . . . . .
9.2.4.2 De lequation detat a` la fonction de transfert en z . . . . . . .
9.2.4.3 De la fonction de transfert en z a` lequation detat . . . . . . .
9.3 Syst`emes e chantillonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1 Pourquoi e tudier les mod`eles discrets ? (notion de syst`eme e chantillonne)
9.3.2 La commande numerique . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.3 Echantillonnage
et theor`eme de Shannon . . . . . . . . . . . . . . . . .
9.3.4 Obtention dun mod`ele e chantillonne . . . . . . . . . . . . . . . . . . .
9.3.4.1 Calcul de G(z) . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.4.2 Mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Reponse dun syst`eme discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1 Reponse du mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1.1 Reponse par resolution de lequation detat . . . . . . . . . . .
9.4.1.2 Calcul de Ak . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1.3 Reponse dun syst`eme e chantillonne. . . . . . . . . . . . . . .
9.4.2 Analyse de la reponse : e tude des modes . . . . . . . . . . . . . . . . . .
9.5 Stabilite dun syst`eme discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.1 Stabilite BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.2 Stabilite interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.2.1 Definition et recherche dun e tat dequilibre . . . . . . . . . .
9.5.2.2 Stabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.3 Crit`ere des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.3.1 Resultat general . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
81
83
83
83
83
84
85
85
85
85
86
86
87
87
87
88
88
88
88
89
90
90
91
92
92
92
93
94
94
95
95
96
96
96
96
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
TABLE DES MATIERES
9.6
9.7
9.8
`
TABLE DES MATIERES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
97
97
97
98
99
99
99
99
100
100
100
100
100
100
101
101
101
101
102
102
102
102
103
103
103
104
104
104
105
10 Conclusion
107
10.1 Resume du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
10.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Annexes
109
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
111
111
111
112
112
112
113
114
114
115
115
115
115
115
115
116
116
116
`
TABLE DES MATIERES
`
TABLE DES MATIERES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
117
117
118
118
118
118
119
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
121
122
122
123
123
124
124
124
124
131
131
132
132
139
139
143
150
H Biographies
153
H.1 Alexandr Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
H.2 Rudolf Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
References bibliographiques
159
vii
Chapitre 1
Introduction
LAutomatique est une discipline scientifique qui vise a` conferer a` un dispositif donne, appele syst`eme, des proprietes souhaitees et ce, sans necessite dune intervention humaine. Une telle discipline requiert dattribuer un
mod`ele au comportement du dit syst`eme (phase de modelisation) et de lutiliser afin, dune part, de mieux comprendre ce comportement (phase danalyse) et dautre part, dagir sur le syst`eme dans le but dameliorer ses proprietes (phase de commande).
Sans revenir trop longuement dans cette introduction sur des concepts e tudies lors des cours relatifs a` lapproche
dite frequentielle, il convient de rappeler quelques notions de base.
dr
...
y1
u1
u2
.
.
.
um
Syst`eme
y2
.
.
.
yp
Dans le cadre de ce cours, seuls seront e tudies les syst`emes monovariables pour lesquels m = p = 1, cest-`a-dire
ne comportant quune seule entree et une seule sortie.
Notion de mod`ele
Il est rappele que lautomaticien est souvent amene a` reintroduire linformation presente au niveau de la sortie
sur lentree afin de modifier les performances du syst`eme. Ce dernier est alors dit boucle. La notion de boucle e tant
dej`a connue des e tudiants, elle nest pas detaillee dans cette introduction. Une partie de ce cours consacree a` la
commande y reviendra. Il va de soi que les performances attendues sont les memes que celles envisagees lors de
letude de lapproche frequentielle, a` savoir la stabilite, la forme des regimes transitoires, la precision et le rejet de
perturbations.
+ Syst`eme
a 2 u2
+ lineaire
y= a 1 y1 + a 2 y2
En resume, ce cours concerne les syst`emes lineaires monovariables (continus et discrets), cest-`a-dire ceux qui
peuvent e tre decrits par une fonction de transfert.
Chapitre
2.1 Equations
preliminaires
Il faut dabord noter que le syst`eme e voluant avec le temps, les grandeurs impliquees peuvent e tre assimilees a` des
signaux temporels, cest-`a-dire, mathematiquement, des fonctions du temps. Lors de la phase de modelisation, lon
essaie generalement de decrire le comportement du syst`eme par un jeu dequations, de relations mathematiques
entre les signaux, qui parat correspondre fid`element a` ce quest le syst`eme. Dans le cas dun syst`eme physique,
lon sappuie sur les lois de la physique (electricite, mecanique, etc...) pour determiner plusieurs e quations reliant
les differentes grandeurs en jeu, en essayant de prendre en compte tous les phenom`enes afin de decrire lintegralite
du syst`eme. Tr`es souvent, ce dernier fait apparatre un comportement dynamique (et pas seulement statique) de
sorte que les e quations obtenues sont non seulement algebriques mais aussi differentielles.
Prenons comme exemple un circuit RLC comme celui de la figure 2.1
i(t)
+
C
u(t)
y(t)
di(t)
u(t) = Ri(t) + L
+ y(t)
dt
Z t
1
dy(t)
1
y(t) =
i( )d
= i(t).
C 0
dt
C
(2.1)
2.1.1 Linearite
La premi`ere constatation souvent facheuse est que ces e quations algebro-differentielles ne sont pas lineaires en
fonction des grandeurs impliquees ou de leurs derivees successives. Or, les mod`eles non lineaires sont par essence
difficiles a` manipuler. Cela signifie en pratique quils rendent ardues lanalyse du comportement du syst`eme et,
5
Equations
preliminaires
plus encore, sa commande. Par consequent, meme si cest une entorse au principe de description fid`ele de la dynamique du syst`eme, lon decide bien souvent de travailler dans une gamme de valeurs des grandeurs se situant
autour de valeurs centrales constituant ce quil est convenu dappeler un point de fonctionnement. Sous reserve
de ne pas trop seloigner de ce point de fonctionnement, lon peut approcher les e quations non lineaires par des
e quations certes approximatives mais lineaires. Sans revenir sur ces notions connues, lon peut utiliser pour ce faire
des developpements limites ou de Taylor au premier ordre de certaines fonctions mathematiques en jeu. Lon parle
alors du syst`eme non lineaire et de son linearise tangent qui est lineaire. Lon sarrange e galement pour que
les coefficients intervenant dans les e quations soient independants du temps. Lon parle alors de mod`ele lineaire
invariant dans le temps.
Dans le cas des e quations (2.1), elles sont dej`a lineaires a` coefficients constants donc il est inutile de recourir
a` une approximation.
an
dn y(t)
dn1 y(t)
dm u(t)
dm1 u(t)
+ an1
+ ... + a1 y(t)
+ a0 y(t) = bm
+ bm1
+ ... + b1 u(t)
+ b0 u(t). (2.2)
n
n1
m
dt
dt
dt
dtm1
(NB : le point sur une lettre designant un signal correspond a` la derivation par rapport au temps ; exemple : y(t)
signifie dy(t)
.)
dt
Il sagit l`a dun mod`ele de comportement entree/sortie, cest-`a-dire qui traduit levolution de la sortie en fonction de celle de lentree et ce, en e ludant la dynamique interne du syst`eme.
Physiquement, il est inconcevable que m soit strictement superieur a` n. Lon peut toujours imaginer un mod`ele
mathematique correspondant a` ce cas mais en pratique, cela signifierait que la sortie du syst`eme a` un instant donne
depend de la valeur de lentree a` un instant ulterieur. Cest pourquoi, lon suppose que m n. Un tel syst`eme est
dit causal.
Si lon revient a` lexemple du circuit RLC, en regroupant les deux e quations donnees en (2.1), lon obtient, par
e limination de i(t) :
u(t) = LC
d2 y(t)
+ RC y(t)
+ y(t).
dt2
(2.3)
Cette e quation differentielle unique constitue bien un mod`ele du lien existant entre lentree u(t) et la sortie y(t).
En outre, il est clair que des valeurs e levees de m et n rendent difficile la determination analytique de lexpression du signal y(t). En dautres termes, il est fastidieux, sinon impossible, de resoudre une e quation differentielle
dordre e leve. Aussi a-t-on ressenti le besoin dintroduire un nouvel outil de modelisation, plus aise a` manipuler, et
plus a` meme daider lautomaticien dans les phases danalyse et de commande : il sagit de la fonction de transfert.
Equations
preliminaires
Chaque signal temporel f (t) causal , cest-`a-dire pour lequel f (t) = 0, t < 0, peut subir une transformation
dite de Laplace , notee L et ainsi definie :
Z
L
f (t) 7 F (p) =
f (t)ept dt.
0
F (p), si elle existe, cest-`a-dire si lintegrale est calculable, est appelee transformee de Laplace de f (t) et la variable complexe p = + j (notee s dans les ouvrages de culture anglo-saxonne) est connue sous le nom de variable
de Laplace. Cet operateur poss`ede les proprietes suivantes :
1. linearite :
L
df l1 (0)
dl f (t) L l
7 p F (p) pl1 f (0) pl2 f(0) ...
l
dt
dtl
p correspond donc, en presence de conditions initiales nulles, a` une derivation dans le domaine de Laplace.
3. theor`eme de lintegration :
R t0
0
f ( )d 7
F (p)
p
f (t ) 7 ep F (p)
5. theor`eme du decalage frequentiel :
L
f (t)et 7 F (p + )
6. theor`eme de la valeur initiale :
lim f (t) = lim pF (p)
t0
p0
Fonction de transfert
(2.4)
Lequation (2.4) constitue un lien entre la transformee de Laplace du signal dentree et celle du signal de sortie.
N (p)
bm pm + bm1 pm1 + . . . + b1 p + b0
Y (p)
.
= G(p) =
=
U (p)
D(p)
an pn + an1 pn1 + . . . + a1 p + a0
(2.5)
G(p) est une fraction rationnelle dependant de la variable de Laplace, de numerateur N (p) et de denominateur
D(p). Elle est appelee fonction de transfert et se rev`ele tr`es utile pour letude des syst`emes lineaires monovariables.
G(p) est dite dordre n et selon la r`egle de causalite, lon aura generalement m n.
Lon note que les racines de N (p) sont appelees zeros du syst`eme et celles de D(p) sont appelees poles du syst`eme.
Bien que les zeros aient une influence difficile a` estimer sur le comportement du syst`eme, il convient surtout de
se souvenir que les poles ont une influence encore plus grande en termes de stabilite et de regime transitoire de
la reponse du syst`eme. Cette influence des poles est beaucoup plus facile a` prevoir (voir cours sur la fonction de
transfert).
Dans le cas du circuit RLC, lapplication de L conduit a` :
Y (p) =
Y (p) =
1
LCp2 + RCp + 1
N (p)
D(p)
| {z }
G(p)
U (p) +
LCpy(0) + LC y(0)
+ RCy(0)
LCp2 + RCp + 1
U (p) +
I(p)
.
D(p)
(2.6)
G(p) permet de determiner le terme de Y (p) dependant seulement de U (p) et non des conditions initiales, ici
presentes au niveau du numerateur I(p).
Fonction de transfert
Dans le cas o`u u(t) est un signal sinusodal (reponse harmonique), lon peut tracer, par exemple, le diagramme
de Bode du mod`ele grace a` G(p) (voir cours sur la fonction de transfert). Ce diagramme est particuli`erement utile
pour comprendre la reaction du syst`eme a` des signaux et ce, selon la frequence de ces signaux. La fonction de
transfert permet donc une analyse frequentielle du comportement du syst`eme par lintermediaire du diagramme de
Bode.
En outre, de G(p), lon deduit facilement des lois de commande (par exemple de type regulateur PID), basees
sur lobtention de certaines marges de gain ou marges de phase, determinables grace au diagramme de Bode. De
meme, G(p) peut-etre utilisee pour calculer une loi de commande placant les poles du syst`eme en boucle fermee.
Dans les deux cas, cest la manipulation de G(p) qui conduit a` letablissement de la loi de commande, ce qui
demontre la pertinence dun tel outil.
Concernant le circuit RLC, lon peut par exemple calculer les racines de D(p) pour savoir si le signal y(t) comportera une forte oscillation ou pas. Lon peut aussi e crire G(p) sous la forme dite canonique de deuxi`eme ordre
(voir cours sur la fonction de transfert)
G(p) =
1
,
1 2
2m
p+
p
1+
0
0
Chapitre 3
La representation detat
Devant la complexite croissante des syst`emes, la fonction de transfert peut parfois sembler ne pas e tre le mod`ele le
plus approprie pour decrire les comportements consideres. La recherche de performances toujours plus fines peut
conduire a` la meme conclusion. Ceci est particuli`erement vrai si lon sort du cadre ce ce cours et si lon envisage
letude de syst`emes multivariables. Pour cette raison, dautres mod`eles sont utilises et apparaissent comme une
alternative a` la fonction de transfert. Le plus cel`ebre dentre eux est la representation detat ou e quation detat
ou encore mod`ele detat. Il fut popularise dans les annees 1960 meme si son origine est plus lointaine. Il sagit
dun mod`ele qui prend en compte la dynamique interne du syst`eme et ne se limite pas a` la description dun
comportement de type entree/sortie. Ce chapitre presente les principes de base dun tel mod`ele en se restreignant
neanmoins, comme pour la fonction de transfert, au cas lineaire monovariable continu.
De la non-linearite a` la linearite
x1 (t)
xi (t)
xn (t)
t0
F IGURE 3.1 Levolution des composantes de x(t) apr`es t0 (trait plein) est independante de leur e volution avant
t0 (pointilles)
Lon dit souvent de la representation detat que cest une modelisation dans lespace detat.
Pour un syst`eme dynamique, le vecteur detat nest pas unique. Plusieurs choix sont possibles. Mais pour que
x soit effectivement vecteur detat, il importe que chacune des variables detat apparaissent, de mani`ere explicite
ou implicite, sous forme derivee dans le jeu dequations decrivant le syst`eme. Dans le cas contraire, il sera difficile de se servir de cette variable pour prevoir levolution du syst`eme. Cette constatation conduit a` un syst`eme
dequations differentielles auquel sajoute une e quation algebrique :
x 1 (t)
f1 (x(t), u(t), t)
..
..
=
x(t)
= f (x(t), u(t), t) =
.
.
x n (t)
fn (x(t), u(t), t)
De la non-linearite a` la linearite
et lon fait lhypoth`ese que toutes les variations autour de ce point sont faibles. Ainsi, en supposant que ce point
dequilibre est caracterise par les valeurs xe et ue , lon peut considerer la variation detat (t) = x(t) xe , celle
dentree v(t) = u(t) ue et celle de sortie z(t) = y(t) g(xe , ue , t). Si les valeurs de v(t) et des composantes
i (t) de (t) restent faibles (donc assimilables aux differentielles correspondantes), lon peut calculer les matrices
jacobiennes suivantes
f1
f1
f1
(xe , ue , t) . . .
(xe , ue , t)
(x
,
u
,
t)
u e e
x1
xn
.
.
.
.
..
..
..
..
A(t) =
; B(t) =
f
fn
n
n
(xe , ue , t) . . .
(xe , ue , t)
(xe , ue , t)
x1
xn
u
g
g
g
; D(t) =
(xe , ue , t).
C(t) =
(xe , ue , t) . . .
(xe , ue , t)
u
x1
xn
;
(3.2)
Ainsi, si lon consid`ere que (t) et v(t) sont respectivement le nouveau vecteur detat et la nouvelle entree du
mod`ele linearise tangent autour du point dequilibre, il vient :
= A(t)(t) + B(t)v(t)
(t)
z(t) = C(t)(t) + D(t)v(t).
(3.3)
Lapproximation lineaire au premier ordre consiste donc a` supposer que (t) et v(t) restent faibles et a` decrire le
comportement du syst`eme par (3.3). Comme x(t), u(t) et y(t) sont les notations habituelles de letat, de lentree
et de la sortie, lon e crira plutot
x(t)
= A(t)x(t) + B(t)u(t)
(3.4)
y(t) = C(t)x(t) + D(t)u(t),
dautant plus quil nest pas rare que lorigine soit le point dequilibre ( = x), que lon sinteresse au syst`eme
autonome, voire que le mod`ele soit obtenu directement sous forme lineaire, sans avoir a` recourir a` une approximation. Par ailleurs, les signaux u(t), y(t) et xi (t) sont de toute e vidence des signaux temporels. De plus, il est assez
frequent, comme il a dej`a e te mentionne, que les fonctions non-lineaires f et g ne dependent pas explicitement
du temps. Lon peut alors tr`es souvent omettre la dependance en t de mani`ere a` obtenir la representation detat
suivante, qui correspond a` un syst`eme differentiel lineaire a` coefficients constants :
x = Ax + Bu
y = Cx + Du.
(3.5)
Les relations donnees en (3.5) constituent une representation detat lineaire invariante dans le temps dun syst`eme.
Par abus de langage, lon parle souvent de syst`eme LTI (acronyme anglais pour Linear Time-Ivariant, cest-`a-dire
lineaire invariant dans le temps). Cest ce type de mod`ele qui fait lobjet de ce cours.
La matrice A est appelee matrice detat ou devolution. On la nomme aussi parfois matrice dynamique. B est
appelee vecteur dentree ou de commande (d`ou une ambigute avec le vecteur u). C est le vecteur de sortie, dobservation ou de mesure (d`ou une ambigute avec le vecteur y). Quant a` D, cest un scalaire dit de transmission
directe, qui est nul sil nexiste aucun lien statique direct entre le signal dentree et celui de sortie.
Remarque 3.1 Dans le cas o`u f et g dependent explicitement de t, alors A, B, C et D sont des fonctions de t et le
mod`ele est dit lineaire variant dans le temps. Il est souhaitable, si possible de recourir aussi a` une approximation
pour considerer ces matrices comme constantes. Lon retrouve alors un mod`ele LTI.
La representation detat peut-etre associee au schema-bloc donne par la figure 3.2.
13
De la non-linearite a` la linearite
+ + x
Exemple :
Lon consid`ere le mouvement du pendule autonome represente sur la figure 3.3.
Lapplication de la relation fondamentale de la dynamique et le choix dun vecteur detat x tel que x = [ ]
conduit a` instancier lequation (3.1) ainsi :
= f1 (x1 , x2 )
x 1 = x2
g
k
sin(x1 ) x2 = f2 (x1 , x2 ).
l
m
o`u g est la constante gravitionnelle, l la longueur du pendule, m sa masse et k sa raideur. Le syst`eme e tant autonome, les fonctions f1 et f2 ne dependent pas dune entree u. Le point de fonctionnement considere est le seul
des deux points dequilibre (c.-`a-d. x = 0) physiquement atteignable, a` savoir xe = [0 0], lautre e tant xe = [ 0].
Il vient :
f1
f1
(xe ) = 0
;
(xe ) = 1
;
x1
x2
x 2
g
f2
(xe ) = cos(xe1 )
x1
l
k
f2
(xe ) =
x2
m
l
m
14
1
1
R
x 1 = L x1 L x2 + L u
x = 1 x .
2
1
C
A =
R
L
1
C
1
L
B= L
C=
D = 0.
(3.6)
x2 = y
x3 = y ;
...
xn =
dn1 y
.
dtn1
A=
0
0
..
.
1
0
..
.
0
1
..
.
...
...
..
.
0
a0
0
a1
0
a2
0
0
..
.
...
1
. . . an1
0
0
..
.
B=
0
b0
C=
0 0
... 0
D = 0.
(3.7)
La technique ci-dessus appliquee a` lequation (2.3) conduit a` recrire cette derni`ere ainsi :
y +
R
1
1
y +
y=
u.
L
LC
LC
A=
B=
C=
1 0
; D = 0.
(3.8)
1
R
1
LC
LC
L
qui est un quadruplet de matrices different de celui trouve precedemment et donne en (3.6). Ceci permet de constater que le mod`ele detat obtenu depend du choix des variables detat. Il nest donc pas unique, contrairement
a` la fonction de transfert. En effet, cette derni`ere est un mod`ele externe et non interne, cest-`a-dire un mod`ele
entree/sortie. Or, la sortie et lentree e tant uniques, il nexiste quune fonction de transfert.
Dans le cas o`u m 6= 0, la procedure est un peu plus complexe mais repond au meme principe. Lon suppose
que m = n sans perte de generalite (il suffit de considerer bj = 0 j | m < j n). Le coefficient an est toujours
suppose e gal a` 1. Lon definit :
16
n = b n ,
j1
anj+k nk
=
b
nj
nj
j {1, . . . , n}.
k=0
x1 = y n u
x2 = x 1 n1 u
x3 = x 2 n2 u
xn = x n1 1 u
Il vient
A=
0
0
..
.
1
0
..
.
0
1
..
.
0
a0
0
a1
0
a2
...
...
..
.
0
0
..
.
...
1
. . . an1
B=
n1
n2
..
.
1
0
C=
1 0
... 0
D = n ,
(3.9)
N (p)
N (p)
N (p)
= n
= n
.
n1
Y
D(p)
p + an1 p
+ . . . + a1 p + a0
(p i )
i=1
Lexpression ci-dessus fait apparatre les poles du syst`eme, cest-`a-dire les racines du denominateur D(p).
Poles
distincts
Dans le cas ou tous les poles i , i = 1, ..., n sont distincts, il est facile de realiser la decomposition en e lements
simples de Y (p) = G(p)U (p) et il vient :
n
X
i
U (p) .
Y (p) =
p i
i=1
|
{z
}
Xi (p)
17
Si lon focalise son intention sur chaque terme Xi (p), lon deduit que
pXi (p) = i U (p) + i Xi (p),
ce qui se traduit dans le domaine temporel, par application de L 1 , par
x i = i u + i xi .
En choisissant le vecteur detat x = x1 . . . xn , il vient aisement la realisation suivante, dite diagonale :
1
1 0 . . . 0
2
0 2 . . . 0
x + . u
x = ..
.
..
.
.
.
.
.
.
.
.
.
(3.10)
0
.
.
.
.
.
.
n
n
1 1 . . . 1 x,
y =
laquelle peut e galement e tre modifiee en remplacant B par C et C par B . De mani`ere plus generale, dans une
realisation diagonale, B = [1 . . . n ] et C = [1 . . . n ] doivent e tre telles que i i = i , i {1, ..., n}. Une
realisation de la forme (3.10) est dite diagonale car la matrice devolution A est diagonale.
1
1
1
1
= +
+
p(p + 1)(p 1)
p 2(p + 1) 2(p 1)
Poles
multiples
0
0
0
0 0
1 0 x
0 1
1 1
1
+ 1/2 u
1/4
x.
Dans le cas o`u G(p) poss`ede un pole dordre de multiplicite superieur a` 1, la diagonalisation de A nest pas
forcement possible. Pour comprendre ce qui peut e tre envisage dans cette situation, lon peut tout simplement
considerer une fonction de transfert G(p) ne possedant quun seul pole de multiplicite n. Lon a alors :
Y (p) = G(p)U (p)
n
X
i=1
Lon voit bien sur cette expression que le premier terme est tel que
Xn (p) =
U (p)
.
(p )i
| {z }
Xn+1i (p)
U (p) L 1
x n = xn + u.
p
Xj (p) L 1
U (p)
x j1 = xj1 + xj , j {2, ..., n}.
=
(p )j
p
... ... 0
.
0
..
.. . .
.
..
.
. ..
.
.
0 . . . .. 1
0 ... ...
0
..
.
0
0
n1
n1
. . . 2
0
1
0
0
..
.
(3.11)
x.
Dans la realisation ci-dessus, lon constate que la matrice devolution A est quasi diagonale c.-`a-d. constitue un
bloc de Jordan.
Pour le cas o`u G(p) contient des poles dordre de multiplicite divers, il suffit dassocier les deux cas repertories
precedemment comme le montre lexemple ci-apr`es :
G(p) =
1
1
1
2p2 + 4p + 1
= +
.
+
p(p + 1)2
p p + 1 (p + 1)2
Il apparat un pole simple nul et un pole double de Jordan e gal a` -1. Ceci conduit a` la realisation suivante :
0
= 0
0
0
0
1
1 x +
0 1
1 1
1
0 u
1
x.
Remarque 3.2 Il est clair que ces formes de Jordan font apparatre les poles de G(p) sur la diagonale de A.
Ainsi, ces poles sont aussi les valeurs propres de A. Lorsque les poles sont multiples, la matrice peut ne peut e tre
diagonale, mais ce nest pas systematique. En effet, il est possible quune matrice carree ayant des valeurs propres
multiples puissent e tre diagonalisee (voir cours de mathematiques).
x =
0
..
.
0
..
.
0
a0
0
a1
b0
b1
... ...
0
..
.
0
..
..
..
.
.
.
..
.
1
...
. . . . . . an1
. . . bm
0 ... 0
19
x.
0
0
..
.
0
1
(3.12)
an1
an2
..
=
.
a1
a0
1 ... ... 0
.
0
0 ..
. x
.. . .
..
.
. ..
.
..
. 1
0 ...
0 ... ... 0
0
..
.
u
+
bm
.
..
b0
(3.13)
1 0 . . . . . . . . . 0 x.
y =
Aucune justification rigoureuse nest apportee ici mais lon peut comprendre que ces formes compagnes sont liees
aux formes issues de lequation differentielle.
Reprenant le dernier exemple de fonction de transfert, il vient
G(p) =
2p2 + 4p + 1
2p2 + 4p + 1
= 3
,
2
p(p + 1)
p + 2p2 + p
0
1
0
0
x = 0
0
1 x + 0 u
0 1 2
1
1 4 2 x.
y =
(3.14)
Dans le cas o`u m = n, il est impossible dappliquer directement les techniques presentees ci-avant pour obtenir
une realisation du syst`eme. Cependant, lon peut se ramener au cas dune fonction de transfert strictement propre
en operant une division polynomiale de la facon suivante :
G(p) =
N (p)
b0 + b1 p + . . . + bn p n
R(p)
b 0 + b 1 p + . . . + b n pn
=
=
+ Q = Gpr (p) + Q =
+ Q. (3.15)
D(p)
D(p)
D(p)
D(p)
Comme m = n, le quotient Q est une constante et le reste R(p) est un polynome de degre strictement inferieur a`
celui du diviseur D(p). Ainsi, Gpr (p) est une fonction de transfert strictement propre.
Les coefficients du numerateur N (p) de la fonction de transfert globale G(p) sont notes bi pour les distinguer des
coefficients bi du numerateur R(p) du transfert strictement propre Gpr (p) extrait de G(p).
Par ailleurs, lon a Y (p) = G(p)U (p) = Gpr U (p) + QU (p) = Ypr (p) + QU (p). Donc, si lon prend ypr
comme sortie, la fonction de transfert associee au syst`eme obtenu est Gpr dont on peut determiner une realisation
(A, B, C). Il vient alors :
x
= Ax + Bu
ypr = Cx.
En posant D = Q et en realisant le changement de variable inverse (dans le domaine temporel cette fois-ci)
y = ypr + Du, il vient :
x = Ax + Bu
y = Cx + Du.
Par exemple, soit la fonction de transfert :
G(p) =
Gpr (p) correspond a` la fonction de transfert du dernier cas traite. Il suffit donc de conserver les matrices A, B et
C donnees en (3.14) en y ajoutant la transmission directe D = 1.
20
(3.16)
Le denominateur D(p) de la fonction de transfert est souvent appele polynome caracteristique. Il est facile de
voir quil est, dans lexpression ci-dessus, engendre par linversion matricielle et e gal a` (cf. A.1.5 et A.1.8.1 en
annexe A) :
(3.17)
1
|M {zAM} x
A
CM
|{z} x
C
+
+
1
|M {z B} u
B
Du.
(3.18)
B,
C,
D)
= (M 1 AM, M 1 B, CM, D). Comme il existe une
Le quadruplet de matrices obtenu est donc (A,
infinite de matrices de passage M utilisables, il existe aussi une infinite de realisations e quivalentes qui correspondent toutes a` la meme fonction de transfert. En effet,
G(p)
= CM (pIM 1 AM )1 M 1 B+D = CM (M 1 (pIA)M )1 M 1 B+D = C(pIA)1 B+D = G(p).
21
En outre, puisque M 1 AM est semblable a` A, les valeurs propres de A sont les memes quelle que soit la realisation
consideree. De ce fait, ce sont toujours les poles de G(p) cest-`a-dire les racines du polynome caracteristique
(meme si lon sera plus tard amene a` porter une nuance a` ce propos).
Les racines du polynome caracteristique D(p), cest-`a-dire les poles du syst`eme, sont valeurs propres de la
matrice detat A quelle que soit la realisation choisie.
Il est possible de passer dune realisation a` une autre ce qui peut se reveler utile quand la seconde a une forme
particuli`ere. Le principe est de determiner la matrice de passage.
n1
X
(ai i ).
i=0
Am1
= a0 mn
colonne 1
Am
=
v
a
m
colonne
2
2
1
1 n
..
..
.
.
Am
=
m
a
m
colonne
n1
n1
n2
n2
n
Amn
= mn1 an1 mn
colonne n.
(3.19)
..
m1
= (An1 + an1 An2 + . . . + a2 A + a1 I)mn
Lon constate que M est fonction de mn . Comment determiner mn ?
Compte tenu de Am1 = a0 mn , il vient :
(3.20)
ce qui signifie que legalite precedente est verifiee quelle que soit A et quel que soit mn .
Procedure pratique :
Il est donc possible de fixer arbitrairement mn 6= 0 et de determiner la matrice de changement de base M grace
a` (3.19).
0
..
.
AV = A[v1 , . . . , vn ] = V J = [v1 , . . . , vn ]
0
0
Av1
=
Av
=
..
.
Av
=
p1
Avp
=
..
.
0
1
..
.
...
...
..
.
0
0
...
...
0
0
..
.
v1
v1 + v2
vp2 + vp1
vp1 + vp .
Il faut donc proceder a` une resolution sequentielle de toutes ces e quations lineaires en sassurant toujours que les
vi sont bien lineairement independants.
q =n:
Dans ce cas, lon determine simplement n vecteurs vi lineairement independants tels que
Avi = vi
i {1, ..., n}
q 6= n et q 6= 1 :
Dans ce cas l`a, il y a plusieurs blocs de Jordan et il convient dassocier les deux techniques expliquees ci-avant.
Remarque 3.3 Il peut exister une ambigute sur la taille des blocs de Jordan ; si cela se produit, lon peut envisager tous les cas possibles sachant quun seul conduira a` une solution. Ainsi, la premi`ere solution rencontree est
recevable.
Dans le cas o`u il y a plusieurs valeurs propres multiples, il faut proceder comme ci-dessus, mais ce, pour chaque
valeur propre.
Exemple :
23
1 0
A = 1 1
1 0
Lon a :
1
0
1 1
P () = det
1
0
0
1 .
0
0
1 = ( 1)2
1 = 0 est une valeur propre simple. En resolvant Av1 = 1 v1 , lon peut voir que v1 = [0 1 1] est une solution.
2 = 1 est valeur propre double. Or, q = n rang(I A) = 3 1 = 2 donc lon saitque A est diagonalisable. En resolvant Av = v, lon trouve
1
0
v = 0 a + 1 b
1
0
o`u a et b sont deux degres de liberte. En choisissant [a b] = [0 1] et [a b] =
vecteurs propres et
0
0 0
1
0 = V 1 AV = 0
V = 1 1
1 0 1
0
0
0 .
1
Remarque 3.4 Dans lexemple ci-avant, la matrice A est diagonalisable malgre la presence dune valeur propre
multiple, a` savoir 1. Il sagit l`a dune distinction entre multiplicite algebrique et multiplicite geometrique (voir
cours de mathematiques).
24
Chapitre 4
x(t0 ) = x0 .
(4.1)
Le vecteur x0 constitue lensemble des conditions initiales a` linstant t0 . Il sagit ici de voir comment le syst`eme
reagit librement, en labsence dentree, a` cette condition initiale.
t0 ) = A(t, t0 )
(t,
(t0 , t0 ) = I.
(4.2)
= (t2 , t1 )x(t1 )
= (t3 , t2 )x(t2 )
(t3 , t1 ) = (t3 , t2 )(t2 , t1 ) {t1 ; t2 ; t3 } IR3
= (t3 , t1 )x(t1 )
x(t1 ) =
x(t1 ) =
(t1 , t2 )x(t2 )
1 (t2 , t1 )x(t2 )
1 (t2 , t1 ) = (t1 , t2 )
25
{t1 ; t2 ; } IR2 .
(4.3)
(4.4)
(4.5)
A3 (t t0 )2
d(eA(tt0 ) )
= A + A2 (t t0 ) +
+ ...
dt
2!
d(eA(tt0 ) )
A2 (t t0 )2
A3 (t t0 )3
= A(I + A(t t0 ) +
+
+ . . .) = AeA(tt0 ) ,
dt
2!
3!
ce qui montre bien que eA(tt0 ) est solution de (4.2). La reponse du syst`eme autonome a` une condition initiale x0
est donc :
x(t) = eA(tt0 ) x0 .
(4.6)
= (t,
(t0 , )Bu( )d
t0
t0
26
(t0 , )Bu( )d
Calcul de eAt
t0
x(t) = eA(tt0 ) x0 +
(4.7)
t0
Bien entendu, lexpression de x(t) depend ensuite de celle u(t). Si lon donne la solution en y de lequation detat,
legalite (4.7) am`ene :
y(t) = CeA(tt0 ) x0 + C
Z
eA(t ) Bu( )d
t0
+ Du(t).
(4.8)
Dans legalite ci-dessus, lon peut faire une distinction utile (dej`a e tudie dans le cours sur lapproche frequentielle)
dans le membre de droite et faire apparatre deux regimes dans la reponse :
Le regime libre : il correspond au premier terme et ne depend que du mod`ele du syst`eme et de la condition
initiale. Il ne depend pas de laction de lenvironnement exterieur pendant la reponse.
Le regime force : il est associe aux deux derniers termes et correspond en fait a` la reaction du syst`eme a` lexcitation u(t). Il depend du mod`ele du syst`eme mais aussi de la nature du signal u(t).
En outre, lorsque la reponse tend asymptotiquement vers une valeur constante de y(t) ou vers un comportement
periodique de ce signal, lon peut distinguer
Le regime transitoire qui est le temps durant lequel y(t) subit une e volution avant de se rapprocher dune valeur
constante ou dun comportement periodique. La duree du regime transitoire correspond a` un temps appele temps
de reponse et note tr .
Le regime permanent qui succ`ede au regime transitoire, qui commence donc a` tr et qui correspond a` lintervalle
de temps durant lequel y(t) est considere comme restant toujours proche de sa valeur finale (generalement a`
moins de 5% de la variation totale de y(t)) ou comme ayant un comportement periodique.
Calcul de eAt
P (A) =
n
X
ai Ai = 0 avec
an = 1
i=1
An =
n1
X
ai Ai
i=1
An+k =
n+k1
X
aik Ai .
i=1+k
Exemple :
Soit la matrice
A=
0
1
2 3
0
1
A=
2 3
p
1
pI A =
.
2 p+3
Linversion de la matrice ci-dessus am`ene a`
(pI A)1 =
1
2
p + 3p + 2
p+3 1
2 p
Calcul de eAt
(pI A)
2
1
p+1 p+2
2
2
+
p+1 p+2
1
1
p+1 p+2
1
2
+
p+1 p+2
2et e2t
2et + 2e2t
et e2t
et + 2e2t
k 0.
1
..
J == .
0
... 0
..
..
.
.
. . . n
est une forme strictement diagonale alors il est facile de voir que
eAt
...
0
.. M 1 .
..
.
.
. . . en t
e1 t
..
=M .
0
Si lon reprend lexemple du paragraphe precedent, la matrice de passage a` la forme diagonale est
1 1
2 1
M=
M 1 =
1
2
1 1
ce qui permet de retrouver la meme expression de eAt .
Dans le cas o`u J est une forme de Jordan non strictement diagonale et comportant p blocs de Jordan,
J = blocdiag{J1 ; . . . ; Jp }
avec Jk =
0
..
.
k
..
.
0
0
0
0
... ... 0
..
.
0
..
..
..
.
.
.
..
. 1
...
. . . . . . k
avec eJk t
k t
=e
t2
2!
...
tnk 1
(nk 1)!
tnk
nk !
nk 2
nk 1
...
t
(nk 2)!
t
(nk 1)!
...
tnk 3
(nk 3)!
tnk 2
(nk 2)!
..
.
0
0
..
.
0
0
..
.
0
0
..
..
.
1
0
..
.
t
1
.
...
...
Il existe e galement une quatri`eme methode dite de Cayley-Hamilton qui nest pas detaillee ici.
o`u le premier terme constitue le regime libre de la reponse ne dependant que des conditions initiales et o`u le
second terme est le regime force dependant du signal dentree u(t). Ces deux termes font tous deux apparatre eAt .
Cette exponentielle de matrice est donc fondamentale pour comprendre lallure de la reponse du syst`eme. Elle peut
secrire, sous lhypoth`ese de n valeurs propres distinctes
eAt =
n
X
Ni ei t
i=1
o`u les scalaires i sont les valeurs propres de A et o`u Ni = wi vi , les vecteurs vi et wi e tant respectivement la
ie` me colonne de la matrice de passage diagonalisante M et la ie` me ligne de son inverse M 1 . Si les coefficients
Ni ont bien entendu une influence sur la forme de y(t), ce sont surtout les facteurs ei t qui en determinent les
caracteristiques principales.
Remarque 4.1 On appelle mode dun syst`eme un terme de son regime libre. Chaque mode est donc lie a` une
valeur propre. Aussi, par abus de langage, parle-t-on parfois du mode i .
Ainsi, lorsquune valeur de i est a` partie reelle strictement negative, le terme correspondant est e vanescent et
disparat asymptotiquement. Si tous les i sont ainsi, et si u(t) converge vers une valeur finie avec le temps, alors
la reponse de y(t) converge elle aussi vers une valeur finie. Il est alors possible de mesurer tr , le temps de reponse,
et de distinguer clairement le regime transitoire et le regime permanent.
Lorsque i nest pas a` partie reelle strictement negative, il est impossible que lexponentielle correspondante
disparaisse. Elle peut meme crotre avec le temps si la partie reelle de i est strictement positive. Il est alors impossible que y(t) converge vers une valeur finie, meme si u(t) est fini. y(t) peut meme diverger infiniment. Dans
ce dernier cas, il est impropre de parler de regime permanent.
Par ailleurs, si i et j sont des valeurs propres complexes conjuguees non reelles, leurs parties imaginaires
vont engendrer des termes sinusodaux dans lexpression de y(t) ce qui est susceptible de generer des oscillations
dans la reponse.
Lorsque les termes exponentiels sont convergents (Re(i ) < 0), la convergence est dautant plus rapide que
|Re(i )| est grande, ce qui correspond donc a` une diminution du temps de reponse tr .
30
Reponse impulsionnelle
En resume :
Cest le plus ou moins grand ratio entre partie imaginaire et partie reelle dun pole qui caracterise
le comportement oscillatoire lie a` ce pole ;
Ce sont les poles dominants (ceux dont la partie reelle est la plus grande au sens algebrique) qui
ont le plus dinfluence sur la forme de la reponse.
Linfluence des valeurs propres de A sur le regime libre de y(t) est illustree sur la figure 4.1.
Im(p)
Re(p)
(4.10)
Cest dans ce cas-ci que linfluence des valeurs propres de A apparat clairement telle quelle est illustree par la
figure 4.1.
31
Reponse indicielle
(4.11)
ce qui suppose ici que A est inversible. Cest le cas si la reponse est convergente (Re(i ) < 0 i {1, ..., n}).
Lon voit clairement que le regime permanent est e gal a` CA1 B. Ceci est coherent avec la definition du gain
statique dune fonction de transfert :
G(0) = C(0 I A)1 B (+D) = CA1 B (+D).
Soit lexemple du circuit RC de la figure 4.2.
i(t)
R
C
u(t)
y(t)
Z t
dy(t)
i(t)
y(t) =
i( )d
=
,
dt
C
0
x =
1
x
RC
1
u
RC
x.
Lapplication de (4.11) pour un syst`eme initialement au repos conduit a` lequation bien connue :
y(t) = 1 et/RC .
Les resultats obtenus sont e videmment les memes que ceux issus de lapproche frequentielle et le lecteur est invite
a` se reporter aux formes de reponses des syst`emes de premier et deuxi`eme ordre donnees dans le cours sur la
fonction de transfert.
32
Reponse harmonique
Cest le regime permanent qui importe dans une reponse harmonique. Or si Re(i ) < 0 i {1, ..., n}, alors
le premier terme de lexpression de y(t) ci-dessus tend asymptotiquement vers zero et constitue le regime transitoire. Le second terme correspond alors a` ce quil est convenu dappeler le regime permanent et est ici note y (t).
(4.12)
(4.13)
Ce signal sinusodal conserve la meme pulsation que le signal dentree mais poss`ede une amplitude et un dephasage
qui sont fonctions de cette pulsation. Ils peuvent e tre determines grace a` la fonction de transfert.
Comme il est impossible de representer toutes les reponses (cest-`a-dire y (t) pour toutes les valeurs de ),
lon pref`ere donner une representation graphique de levolution de () et de () en fonction de . Il existe
plusieurs facons de representer cette dependance. Les plus cel`ebres sont le lieu de Nyquist, celui de Black, ainsi
que les diagrammes de Bode. Tous les resultats bien connus de lapproche frequentielle sont donc ici retrouves par
resolution de lequation detat.
33
Chapitre 5
Un mod`ele BIBO-stable peut donc e tre interpete, dans cette seconde definition, comme un mod`ele dont la reponse
impulsionnelle est un signal denergie finie. Il nest pas facile dexploiter directement cette derni`ere formulation.
Aussi a-t-on recours, en particulier dans lespace detat, a` letude de stabilite dun syst`eme au travers de la notion
de stabilite des e tats dequilibre.
Remarque 5.1 La stabilite BIBO est une mani`ere denvisager la stabilite dun syst`eme au sens de son comportement entree/sortie cest-`a-dire dans ses interactions avec lenvironnement exterieur. Lon parle donc de stabilite
externe. Dans les developpements qui suivent, la stabilite est e tudiee au travers du mod`ele interne que constitue la
representation detat. La stabilite est-elle alors qualifiee dinterne.
Exemple : un moteur a` courant continu est excite par une tension dentree u(t). La sortie consideree est la vitesse
angulaire de larbre du moteur. Si lon impose un signal borne sur linduit du moteur, lon sait que la vitesse reste
35
Crit`eres de stabilite
bornee donc le moteur est BIBO-stable au sens de la premi`ere definition. De meme, toute impulsion au niveau ce
cette tension dinduit entrane une e volution de la vitesse telle que celle-ci augmente transitoirement pour sannuler
ensuite, son integrale e tant ainsi finie. Le moteur est donc BIBO-stable au sens de la definition alternative.
Lon suppose maintenant que la sortie est la position angulaire de larbre. Un e chelon applique sur linduit du
moteur engendre, en regime permanent, une vitesse constante, donc la position angulaire augmente indefiniment.
Le moteur (associe a` cette nouvelle sortie) est alors BIBO-instable. Si une impulsion intervient sur linduit, larbre
va tourner et ne reviendra pas a` sa position angulaire initiale donc lintegrale de la position dans ce cas nest pas
finie. Le moteur est BIBO-instable.
(5.1)
De cette e quation, lon comprend quil peut exister un seul ou plusieurs e tats dequilibre selon le rang de A. Soit
rang(A) = n det(A) 6= 0 (ceci signifie que A na pas de valeur propre nulle) et le seul point dequilibre est
lorigine xe = 0. Soit rang(A) < n det(A) = 0 (ceci implique lexistence dau moins une valeur propre nulle
de A) alors il existe une infinite detats dequilibre.
Remarque 5.2 Meme sil est plus rigoureux de parler de stabilite dun e tat dequilibre, il sav`ere que, quel que
soit letat dequilibre dun syst`eme lineaire, sa stabilite depend de la matrice A. Ainsi parle-t-on toujours de la
stabilite du syst`eme.
5.2.2 Stabilite
Un e tat dequilibre est dit asymptotiquement stable si, lorsque le syst`eme est e carte de cet e tat sous leffet
dune perturbation, il y revient (en un temps infini).
Letat dequilibre est dit instable, si apr`es perturbation, le syst`eme sen e loigne davantage.
Letat dequilibre est dit simplement stable si apr`es perturbation, le syst`eme reste dans un voisinage du
point dequilibre.
Pour illustrer ces trois cas, lon proc`ede tr`es souvent a` une analogie mecanique. Cette derni`ere consiste a` decrire
letat dequilibre dune bille dans trois positions differentes comme le montre la figure 5.1.
Crit`eres de stabilite
Equilibre
asymptotiquement stable
Equilibre instable
w1
; M 1 = ... ,
M = v1 . . . vn
wn
alors on peut exprimer x(t) de deux facons, selon lordre de multiplicite des valeurs propres de A.
x(t) =
n
X
i=1
n
X
Ni ei t )x0 .
vi wi x0 ei t = (
i=1
Lon a alors, en supposant que J fait apparatre r valeurs propres differentes et p r blocs de Jordan :
2
nk 1
tnk
1 t t2! . . . (nt k 1)!
nk !
tnk 1
0 1 t . . . tnk 2
(nk 2)!
(nk 1)!
Jt
Jk t
Jk t
k t
tnk 2
tnk 3
e = blocdiag{e } avec e
= e 0 0 1 . . . (nk 3)! (nk 2)! , k.
..
..
.. .. .. . .
. . .
.
.
.
0 0 0 ...
1
t
0 0 0 ...
0
1
(5.2)
r
X
Ni (t)ei t )x0
x(t) = M eJt M 1 = (
(5.3)
i=1
5.3.1.1 rang(A) = n
Dans ce cas, il nexiste quun point dequilibre : lorigine de lespace detat. Lon parle donc indifferemment de
stabilite de lorigine ou de stabilite du syst`eme. En analysant les formes (5.2) et (5.3), lon deduit que trois cas se
37
Crit`eres de stabilite
presentent.
Re(i ) < 0 i : le syst`eme est asymptotiquement stable ;
j | Re(j ) > 0 : le syst`eme est instable ;
j | Re(j ) = 0 et Re(i ) 0 i :
j = 0 (impossible par hypoth`ese) ;
j,l = j comportement oscillatoire damplitude constante syst`eme simplement stable.
En realite, la propriete souvent recherchee est la stabilite asymptotique. La condition necessaire et suffisante de
stabilite asymptotique dun syst`eme et les proprietes associees se resument a` ceci :
Soit le syst`eme modelise par (3.5). Ce dernier est dit asymptotiquement stable si et seulement si le syst`eme
autonome associe x = Ax est asymptotiquement stable, cest-`a-dire si et seulement si toutes les valeurs
propres de A sont a` partie reelle strictement negative.
38
Crit`eres de stabilite
Marge de stabilite absolue : distance minimale, dans le plan complexe, entre un point dont laffixe est une
valeur propre de A et laxe imaginaire. Mathematiquement, elle sexprime
= min |Re(i )|.
i
(5.4)
Marge de stabilite relative : angle minimal, dans le plan complexe, forme par laxe imaginaire et par laxe
reliant lorigine et un point dont laffixe est une valeur propre de A. Mathematiquement, elle sexprime
Re(i )
.
(5.5)
= min Atan
i
Im(i )
La marge absolue quantifie la stabilite asymptotique alors que la marge relative est liee aux poles complexes donc
permet de quantifier le caract`ere plus ou moins oscillatoire induit par les poles et est, a` ce titre, reliee au coefficient
damortissement. Ces marges sont illustrees sur la figure 5.2.
39
Crit`eres de stabilite
Im(p)
Re(p)
n
n
X
V dxi X V
fi (x) < 0 x , x 6= 0
=
xi dt
xi
i=1
i=1
alors le mod`ele detat non lineaire est asymptotiquement stable pour des conditions initiales dans un voisinage
de 0.
Si lon sinteresse a` la stabilite asymptotique dun syst`eme lineaire autonome
x = Ax,
la seconde methode permet de voir quun tel syst`eme est asymptotiquement stable si et seulement s il existe une
fonction de Lyapunov (quadratique) V = x P x > 0 ( P = P > 0) telle que V (x) < 0, x 6= 0
x (A P + P A)x < 0 x IRn , x 6= 0
40
Crit`eres de stabilite
A P + P A < 0
(5.6)
Q = Q < 0 et P = P > 0 | A P + P A = Q.
(5.7)
Plusieurs points sont notables dans ce resultat. En premier lieu, il nest plus question de faire reference a` lorigine de IRn qui est de toute facon lunique point dequilibre. En deuxi`eme lieu, la condition devient necessaire et
suffisante. En troisi`eme lieu, il nest pas restrictif de supposer que V (x) est une fonction quadratique de x ce qui
permet daboutir, soit a` une inegalite matricielle donnee en (5.6), soit a` une e galite matricielle donnee en (5.7),
dont linconnue est, dans les deux cas, une matrice symetrique strictement definie positive.
Resoudre une inegalite matricielle lineaire telle que (5.6) est possible depuis le debut des annees 1990 grace a`
des outils numeriques. Toutefois, lon pref`ere, lorsquaucun outil numerique sophistique nest disponible, manipuler legalite (5.7). La difficulte peut sembler a priori de choisir Q = Q < 0 pour que la solution P = P existe
et soit definie positive. En fait, en 1974, E. I. Jury et S. M. Ahn prouv`erent quun choix arbitraire de la matrice Q
e tait possible. Lon peut donc resumer lapplication de la theorie de Lyapunov a` ceci :
Un mod`ele detat lineaire (3.5) est asymptotiquement stable si et seulement si, quelle que soit la matrice
symetrique definie negative Q, lunique solution de lequation
A P + P A = Q
(5.8)
En conclusion, il faut noter que tous ces crit`eres de stabilite ne font intervenir que A. Ainsi, seule la
matrice devolution determine la stabilite du syst`eme.
41
Chapitre 6
Commandabilite et observabilite
Ce chapitre introduit des concepts necessaires pour e tablir des lois de commande telles que celles qui seront
e tudiees dans les chapitres suivants. Ces concepts sont ceux de commandabilite et dobservabilite. Il furent introduits par Kalman.
6.1 Definitions
6.1.1 Commandabilite ou gouvernabilite
Soit le mod`ele detat (3.5) dun syst`eme lineaire dont letat initial est a` une valeur quelconque x0 = x(t0 ). Lon
peut supposer sans restriction que la transmission directe est nulle (D = 0).
Le mod`ele est commandable ou gouvernable si pour toute instance x1 du vecteur detat, il existe un signal
dentree u(t) denergie finie qui permet au syst`eme de passer de letat x0 a` letat x1 en un temps fini.
Il est possible que, si la commandabilite nest pas verifiee sur tout le vecteur detat, elle puisse neanmoins letre sur
une partie de ses composantes. Lon dit alors des variables detat concernees que ce sont les e tats commandables
du syst`eme.
La commandabilite peut e tre vue comme la possibilite de modifier les dynamiques dun mod`ele en agissant sur ses
` ce titre cette propriete ne se ref`ere qu`a letat et a` lentree du syst`eme. Il est donc clair quelle ne depend
entrees. A
que des matrices A et B.
6.1.2 Observabilite
Lon sinteresse toujours au meme mod`ele que dans la partie precedente.
Le mod`ele est observable si, quel que soit t0 , il existe un intervalle de temps fini [t0 , t1 ] tel que la connaissance de lentree u(t) et de la sortie y(t) sur cet intervalle permet de reconstituer x(t0 ).
Encore une fois, il est possible que cette propriete ne se verifie que pour une partie du vecteur detat que constituent
alors les e tats observables du syst`eme.
La definition de lobservabilite ne fait pas dhypoth`ese particuli`ere sur la nature de lentree. Cette propriete peut
e tre interpretee comme la capacite dun syst`eme a` reveler lhistorique de son vecteur detat au travers de celui de
ses sorties. Elle ne depend en fait que des matrices A et C.
43
Crit`ere de Kalman
6.2.1 Commandabilite
La paire de matrices (A, B) (ou le syst`eme (3.5)) est commandable si et seulement si
rang(Qc ) = n
o`u Qc =
AB
. . . An1 B
(6.1)
Ce resultat est base sur linterpolation de Sylvester qui permet daffirmer que eA peut secrire ainsi :
eA =
n1
X
k ( )Ak
o`u k ( ) IR.
(6.2)
k=1
En effet, si lon revient a` la definition de la commandabilite, lon peut, sans perte de generalite, considerer que x1
est lorigine de IRn et que t0 est nul. D`es lors, la solution de lequation detat secrit
Z t
At
x(t) = e x0 +
eA(t )Bu( )d
0
et conduit a`
x1 = x(t1 ) = 0 = eAt1 x0 +
t1
eA(t1 ) Bu( )d x0 =
t1
eA Bu( )d.
n1
X
Ak B
k =
t1
k ( )u( )d.
(6.3)
k=1
En posant
t1
k ( )u( )d,
x0 = Qc
0
1
..
.
n1
(6.4)
Le syst`eme est commandable si et seulement si le syst`eme (6.4) peut e tre resolu quel que soit x0 cest-`a-dire si et
seulement si rang(Qc ) = n.
6.2.2 Observabilite
Lon sinteresse maintenant a` lobservabilite du syst`eme (3.5) qui se resume a` lobservabilite de
x = Ax, y = Cx.
(6.5)
En effet, si lon regarde la solution compl`ete de lequation detat (4.7), connaissant A, B, C, D ainsi que u(t), les
deux derniers termes du membre de droite sont connus et peuvent e tre soustraits de la valeur mesuree de y(t), ce
qui revient a` considerer le syst`eme (6.5). La sortie secrit alors
44
Crit`ere de Kalman
y(t) = CeAt x0
ce qui, en tenant compte de (6.2), donne
y(t) =
n1
X
k=1
C
CA
..
.
k (t)CAk x0 = blocdiag{k I}
CAn1
x0 .
Lon voit clairement que la determination de x0 en fonction de y(t) ne sera possible que si le syst`eme dequations
ci-dessus ne presente pas de deficience de rang ce qui conduit au crit`ere dobservabilite de Kalman :
La paire de matrices (A, C) (ou le syst`eme (3.5)) est observable si et seulement si
C
CA
rang(Qo ) = n o`u Qo =
.
..
(6.6)
CAn1
x
La matrice de commandabilite est
=
=
Qc =
0
2
1
3
0 1
0 1
1 3
0 1
2 3
0
1
x.
AB
C
CA
R
C
1 1
R C
x + 1 1 u
x =
1
(6.7)
0
0
R
C
2
2
1 1 x.
y =
45
Crit`ere de Kalman
R1
v1
C1
2R +
R
vs1
vs
R2
vref
C2
vs2
1
(R1 C1 )2
et comme elle est de rang 1, le syst`eme nest pas compl`etement commandable. Ceci traduit le fait que, dans ce
montage e lectronique, v1 ne peut influer sur vs2 .
La matrice dobservabilite de Kalman est
1
1
Qo =
1
1
R1 C1 R2 C2
Elle est de rang plein donc le syst`eme est observable.
Si lon decide de considerer vs1 comme la sortie du syst`eme, alors la matrice de mesure devient C = [1 0] et celle
dobservabilite devient :
1
0
Qo =
.
1
0
R1 C1
Elle est de rang 1 et le syst`eme nest donc plus observable. Ceci traduit le fait que lon ne peut deduire vs2 de vs1
car vs2 nagit en rien sur vs1 .
Les crit`eres de Kalman ont un grand interet theorique et permettent de comprendre un peu mieux ces notions
fondamentales de commandabilite et dobservabilite. Cependant, lorsquils ne sont pas satisfaits (rang(Qc ) < n
ou rang(Qo ) < n), ils ne donnent aucune information sur les composantes du vecteur detat qui sont commandables
et/ou observables.
6.3.1 A diagonalisable
Dans ce cas, il existe une matrice de passage M
x = ..
.
c1
y =
b1
0 ... 0
b2
2 . . . 0
.. x + .. u
.. . .
.
.
.
.
0
. . . n
c2
. . . cn
bn
Du.
Dans ce cas, lon peut assimiler la commandabilite dun mode i a` celle de la composante xi du vecteur detat
associe. Il en est de meme pour lobservabilite. Clairement, sur cette forme diagonale simple, lon voit que lon
peut agir sur xi lorsque la composante bi est non nulle de meme que lon peut constater une e volution de xi si la
composante ci est non nulle.
Le mode i est commandable (respectivement observable) si et seulement si bi 6= 0 (resp. ci 6= 0 par
dualite).
1 ... ... 0
b1
0 ..
b2
.
.
.
+ ... u
.. .. . . . . . . .. x
x =
bn1
..
. 1
0 0 ...
bn
0
0
.
.
.
.
.
.
c1 c2 c3 . . . cn1 cn x +
Du.
y =
Le mode associe a` un unique bloc de Jordan est commandable (respectivement observable) si et seulement
si bn 6= 0 (resp. c1 6= 0). Dans le cas o`u plusieurs blocs de Jordan lui sont associes, il ne peut e tre ni
commandable, ni observable.
If faut noter que la derni`ere affirmation concernant les modes multiples associes a` plusieurs blocs de Jordan nest
pas forcement vraie pour un syst`eme multivariable.
Exemple :
Lon reconsid`ere lexemple e lectronique de la figure 6.1. La representation detat en est donnee en (6.7). Elle
47
Chapitre 9
definie soient reguli`erement espaces, faisant apparatre une periode, comme dans les cas (e) et (f) de la figure 9.1.
Par ailleurs, lon peut noter quun signal quantifie est tel quil existe toujours un intervalle minimal entre deux
valeurs admissibles de lamplitude f . Cet intervalle minimal est appele quantum.
Remarque 9.1 En toute rigueur, cette acception du mot numerique nest pas tout a` fait conforme au sens
habituel que lon en a. Un signal numerique est plus souvent vu comme un signal certes discret, mais pour lequel
les valeurs definies de f sont reguli`erement espacees dans le temps. De plus, son amplitude peut e tre codee de
facon binaire et est alors manipulable par un calculateur. De ce fait, un signal numerique au sens pratique du
terme ne peut avoir une amplitude rigoureusement reelle.
Lobjet de ce chapitre est de sinteresser aux signaux discrets et aux syst`emes associes. Si les signaux continus
sont bien modelises par des fonctions mathematiques, les signaux discrets le seraient plutot par des distributions.
Cependant, il est plus facile de saffranchir du temps en definissant un signal discret par une suite de valeurs
successives que lon indice. Ainsi les valeurs f (t0 ), f (t1 ), etc., en supposant que t0 est lorigine du temps, sont
notees f0 , f1 et appelees e chantillons (voir figure 9.1.(e)). La sequence dechantillons caracterisant le signal discret
est notee {fk }. Lindice k est alors un entier relatif qui peut, si on le souhaite, faire reference au temps.
Remarque 9.2 Un mod`ele de signal discret sous forme dune sequence dechantillons est en realite plus general
quun mod`ele de signal un temps discret puisque la reference au temps nest plus necessaire. Il est donc possible
de faire une nuance entre signaux discrets et signaux a` temps discret meme si cette nuance ne sera pas vraiment
utile dans la suite de ce document.
f (t)
f (t)
t
f (t)
(a)
00
11
1
0
0
0 1
1
0
1
00
11
0
1
0
1
0
1
0
1
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
0
1
0 1
01
1
01
1
0
(c)
f (t)
1
0
00
11
1
1
0
0
0
1
0
1
00
11
1
0
1
0
0
1
0
1
0
1
0
1
f00
11
11
00
0
1
0
1
0
1
0
0
1
0
1
1
0
0
1
0
1
0
1
0
1
0
1
1
0
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
0
1
0
01
1
0
1
0
0 1
01
0
1
01
01
1
01
1
f (t)
(b)
0
1
1
0
0
1
11
00
11111111
00000000
0
1
11111
00000
11111
00000
11
00
0
1
00
11
0
1
0
1
1111
0000
11111
00000
00
11
0
1
0
1
0
1
0
1
0
1
0
1
111
0
0
1
0
1
0
1
111111
000000
1111
0000
00
0
1
0
1
0
1
0
1
0
1
00
11
0
1
0
1
0
1
0
1
11111111
00000000
1
0
0
1
0
1
0
1
0
1
0
1
0 t
1
0
0
0 1
1
01
1
f (t)
(d)
0
1
11
00
000000000
111111111
0
1
00
11
00
11
0
1
1
1
0
0
0
1
00
11
00
11
1
0
111111111
000000000
0
1
0
1
0
1
0
1
111111111
000000000
0
1
11
0
1
0
11
0
0
0
1
0
1
0
0
1
0
1
0
1
0
1
0
1
0
1
111111111
000000000
0
1
11
00
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
1
0
0
1
0
1
0
0
1
0
1
0
1
01
1
0
1
0
1
0
1
0
1
0
0
0
01
0 1
1
01
0 1
01
1
0 t
1
01
1
f1
(e)
(f)
82
9.1.2.1 Echantillonnage
Il est possible de transformer un signal continu en un signal discret. Ce processus est appele e chantillonnage
ou discretisation. Il est represente sur la figure 9.2. Le signal est dit discretise ou e chantilonne. Les instants
dechantillonnage ne sont pas necessairement reguli`erement espaces dans le temps. Toutefois, generalement, les
e chantillons sont preleves a` intervalles reguliers. La duree entre deux instants dechantillonnage, notee T sur
la figure 9.2, est appelee periode dechantillonnage.
f (t)
0
11
0
11
00
0
1
0
1
0
1
0
1 1
0
0
1
0
1
0
1
0
1
0
1
00
11
1
0
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
111
000
T
fk
0
11
00 1
0
1
0
1
0
1
1
0
Echantillonnage
0
1
0
1
1
0
0
0 1
1
0
1
0
1
0
1
0
1
1111
0000
11
00
0
0 1
1
0
1
00
11
0
1
0
1
0
1
0
1
0
0 1
1
0
1
0
1
t
0
0 1
0
1
0 1
1
(a)
0
1
0
1
0
1
0
1
0
1
0
1
t
0
1
(b)
9.1.2.2 Quantification
Lon peut aussi envisager le passage dun signal non quantifie a` un signal quantifie. Il sagit de la quantification.
Ceci consiste, par exemple, a` forcer les valeurs non admissibles de f (t) aux valeurs quantiques admissibles les
plus proches. Ce processus est illustre pour un signal continu par la figure 9.3 (Lon peut aussi quantifier un signal
discret).
fq (t)
f (t)
Quantification
0000
1111
0
1
t
0
1
11
00
(a)
(b)
Les valeurs admissibles dun signal quantifie ne sont pas necessairement reguli`erement espacees. Toutefois, elles
le sont generalement et lecart entre deux valeurs, note q sur le figure 9.3, est un donc un quantum appele quantum
de conversion.
Il est possible de recourir a` lechantillonnage et a` la quantification a` la fois. Lon parle alors de numerisation.
9.1.2.3 Blocage
Il est possible de definir la transformation dun signal discret en un signal continu. Le principe consiste a` faire en
sorte quentre deux e chantillons, lamplitude du signal f reste bloquee sur les valeurs dune fonction mathematique.
Cette transformation est ici appelee blocage. La technique de blocage la plus classique consiste, entre deux
e chantillons fk et fk+1 , a` bloquer la valeur du signal a` fk . Lon parle alors de bloqueur dordre zero. Leffet
dun tel bloqueur est illustre par la figure 9.4 o`u lon voit que le signal continu est alors un signal en escalier .
83
fb (t)
fk
00
11
0
01
1
0 1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
01
1
0
1
0
01
0
01
1
0
1
0
1
0
1
0
1
0
0 1
1
0
1
0
1
0
1
0
1
111
000
0
1
0
1
0
1
0
1
11
000
1
0
1
0
1
0
1
1
0
0
01
1
0
1
0
1
0
01
1
0 t
01
1
B0 (p)
0
1
11
00
0
1
0
1
0
00 1
11
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
011
1
0
1
00
0
1
0
1
1
0
0
01
1
0
1
00
0
1
0 11
0
1
01
1
0
1
0
1
0
1
1
0
0
1
1
0
0
1
0
1
01
1
0
0
1
0
1
0
1
0
1
01
1
t
0
1
00
1
Si lon interprete le bloqueur dordre zero comme un mod`ele continu associe a` la fonction de transfert de B0 (p),
lon peut determiner cette fonction de transfert B0 (p) en analysant la reponse impulsionelle de ce bloc (cf. figure 9.5).
(t)
1
1
B0 (p)
0
0
La reponse dun bloqueur dordre zero a` une impulsion de Dirac (t) est la somme de deux e chelons unitaires :
y(t) = (t) (t T ).
((t) represente la fonction de Heaviside). Lapplication de L permet de deduire B0 (p) :
B0 (p) =
1 eT p
1 eT p
=
.
p
p
p
(9.1)
Il est aussi possible denvisager dautres types de blocage tels que le blocage dordre 1 pour lequel le bloqueur utilise lechantillon courant ainsi que le precedent pour bloquer lamplitude f sur la droite definis par ces
deux points. Lon peut aussi considerer toutes sortes dinterpolations plus ou moins sophistiquees a` partir des
e chantillons. Ces cas de figure ne sont pas detailles ici.
9.2.1 Definition
Un syst`eme discret est un syst`eme qui transforme une sequence dechantillons dentree {uk } en une sequence
dechantillons de sortie {yk }, comme le montre la figure 9.6.
{uk }
{yk }
Syst`eme
Un syst`eme discret lineaire est un syst`eme discret qui respecte le principe de superposition cest-`a-dire, a` linstar
des mod`eles continus (cf. 1.2), qui verifie
{uk }i {yk }i
i {uk } =
n
n
X
X
(i {yk }i ),
(i {uk }i ) {yk } =
{i } IRn .
(9.2)
i=1
i=1
recurrente
9.2.2.1 Equation
De meme que le comportement dun syst`eme continu peut-etre caracterise par une equation differentielle telle que
(2.2), un syst`eme discret peut e tre modelise par une e quation recurrente impliquant lentree u et la sortie y, et qui
prend la forme suivante :
an yk+n + an1 yk+n1 + ... + a1 yk+1 + a0 yk = bm uk+m + bm1 yk+m1 + ... + b1 yk+1 + b0 uk .
(9.3)
Cette e quation recurrente est lineaire a` coefficients constants. Lon peut donc parler de syst`emes discrets LTI.
Si lon precise les conditions initiales sur {uk } et {yk } (`a savoir y0 , y1 , . . ., yn1 , u0 , u1 , . . ., um1 ), le syst`eme
est alors compl`etement defini.
Lequation recurrente est un mod`ele particuli`erement indique pour une loi de commande car, d`es lors que le
syst`eme est causal (m n), elle constitue un algorithme tr`es facilement implantable dans un processeur. En
effet, si lon connat enti`erement {uk } ainsi que les conditions initiales, il est facile de faire reconstruire {yk } par
un calculateur.
9.2.2.2 Transformation en z
Soit une sequence {fk }kIN (k est defini toujours positif ou nul (signal causal)). La transformation en z (operateur
symbolise par Z ) de {fk } est definie par la serie enti`ere :
85
F (z) = Z [{fk }] =
fk z k .
(9.4)
k=0
Limage F (z) de {fk } est appelee transformee en z de {fk }. Les proprietes de loperateur Z sont donnees en
annexe D.
Loperateur Z est donc pour les signaux discrets ce quest loperateur L pour les signaux continus. De meme, la
variable z Cl represente pour les signaux discrets ce que la variable de Laplace p represente pour les signaux
continus, quoique linterpretation frequentielle de z soit plus difficile a` apprehender.
Comme pour la transformation de Laplace, il est possible de calculer la transformee en z de fonctions usuelles. Un
tableau de transformees est disponible en annexe D.
9.2.2.3 Fonction de transfert en z
De meme que pour les signaux continus, lon peut raisonner dans le domaine de Laplace, pour les signaux discrets,
lon peut raisonner dans le plan en z. Il sagit alors dappliquer Z a` lequation recurrente (9.3). Compte tenu des
proprietes de Z (cf. annexe D), il vient :
(a0 + a1 z + . . . + an1 z n1 + an z n )Y (z)
(a1 z + . . . + an1 z n1 + an z n )y0 . . . an zyn1 =
(b0 + b1 z + . . . + bm1 z m1 + bm z m )U (z)
(b1 z + . . . + bm1 z m1 + bm z m )u0 . . . bn zum1 ,
N (z)
U (z) +
D(z)
| {z }
G(z)
I(z)
D(z)
et, sachant que le polynome I(z) regroupe les conditions initiales, de definir la fonction de transfert en z :
G(z) =
N (z)
b0 + b1 z + . . . + bm1 z m1 + bm z m
.
=
G(z)
a0 + a1 z + . . . + an1 z n1 + an z z
(9.5)
G(z) est donc un mod`ele de comportement entree/sortie qui caracterise le syst`eme independamment des conditions
initiales (voir figure 9.7).
Comme dans le cas dune fonction de transfert en p, le denominateur D(z) est appele polynome caracteristisque
et ses racines sont les poles du syst`eme discret. De meme, les racines de N (z) sont les zeros du syst`eme discret.
86
{uk }
Equation
recurrente
{yk }
G(z)
U (z)
Y (z)
xk+1
yk
=
=
Axk
Cxk
+
+
Buk
Duk
(9.6)
Il sagit dune representation detat du syst`eme discret qui est donc une mod`ele interne du syst`eme. Les matrices A, B, C et D portent le meme nom que pour une representation detat continue et jouent le meme role (cf. 3.2).
La representation detat dun syst`eme discret nest pas unique. Il suffit de changer la vecteur detat xk pour obtenir
un autre mod`ele. Chaque choix correspond, comme en continu, a` ce que lon appelle une realisation.
(9.7)
G(z) est definie pour toute valeur de z assurant linversibilite de (zIn A). En realite cette matrice est inversible
pour tout z verifiant
D(z) = det(zIn A) 6= 0.
En effet, le polynome caracteristique D(z), comme en continu, se deduit de A.
Les valeurs propres de A sont les poles de G(z).
87
Syst`emes e chantillonnes
Controleur
discret
{uk }
Bloqueur
u(t)
Procede
continu
y(t)
{yk }
Echantillonneur
Organe de commande complet
Syst`eme e chantillonne
Syst`emes e chantillonnes
Processeur
{yk }
{uk }
u(t)
CNA
Procede
continu
y(t)
CAN
Commande numerique
F IGURE 9.9 Schema de principe de la commande numerique
un signal continu (non analogique !). Ce blocage est inherent au decodage des valeurs binaires de {uk } par le CNA.
Le processeur e xecutant lalgorithme de commande est un controleur discret et meme numerique car il recoit
un signal numerique {yk } et restitue un signal numerique {uk }.
Il faut noter que puisquun processeur est cadence a` une certaine frequence, les signaux numeriques font apparatre
une periode dechantillonnage T qui depend de la frequence dutilisation du processeur mais aussi des converstisseurs. En outre, le CAN implique un quantum de conversion q dont leffet est sans doute parfois perceptible bien
quil ne soit que tr`es rarement considere dans les cours sur les syst`emes e chantillonnes.
Quoi quil en soit, cette commande numerique nest quun cas particulier de la commande discr`ete schematisee sur
la figure 9.8. Cest pourquoi letude des mod`eles discrets, leur analyse et leur commande se rev`elent utiles.
et theor`eme de Shannon
9.3.3 Echantillonnage
Lon sinteresse ici a` leffet de la conversion analogique numerique. Comme souvent dans letude des syst`emes
e chantillonnees, leffet de la quantification est negligee de sorte que la conversion se resume a` lechantillonnage.
Cette prise dechantillons est assimilable a` la modulation du signal continu de sortie y(t) par un un peigne de
Dirac, cest-`a-dire un train dimpulsions unitaires. Ainsi, lon construit un signal decrit par
y (t) = y(t)
(t kT ),
k=0
o`u T est toujours la periode dechantillonnage et (.) represente limpulsion de Dirac. Il vient :
y (t) =
yk (t kT ),
k=0
Syst`emes e chantillonnes
Theor`eme de Shannon pratique. La frequence dechantillonnage doit e tre au moins dix fois superieure a`
la plus grande frequence de cassure du mod`ele du procede.
Il est bien sur tentant dechantillonner le plus rapidement possible pour que le mod`ele e chantillonne se rev`ele le
plus proche possible du mod`ele continu. Idealement, une periode nulle (T = 0) ne trahit en rien la dynamique
du syst`eme. Mais ceci est utopique. Il subsiste toujours un temps dechantillonnage. Bien que ce dernier soit
modelise selon une modulation par un peigne de Dirac, chaque e chantillon nest pas obtenu instantanement. Le
CAN presente toujours un temps de conversion. Par ailleurs, il est necessaire que le processeur dispose de temps
pour e xecuter lalgorithme et actualiser la commande uk a` chaque periode. Il faut aussi que le CNA ait le temps de
bloquer uk . Cest pourquoi, malgre les progr`es realises dans le domaine des circuits microelectroniques permettant
des e chantillonnages toujours plus rapides, il reste utile de formaliser un mod`ele e chantillonne.
T
u (t)
u(t)
B0 (p)
Gc (p)
y(t)
y (t)
Cependant, il existe aussi un resultat obtenu par letude des proprietes de la transformee en z (voir cours sur les
signaux e chantillonnes) :
G(z) = (1 z
)Z
Gc (p)
Gc (p)
z1
Z
=
.
p
z
p
Exemple :
Soit la fonction de transfert continue :
90
(9.9)
Syst`emes e chantillonnes
Gc (p) =
1
p(p + 2)
(9.10)
Z
+
G(z) =
z
p2
p
p+2
soit, en utilisant les tableaux donnes en annexe D,
z1
0, 5z
0, 25z
0, 25z
G(z) =
+
z
(z 1)2
z1
z 0, 1353
0, 2838z + 0, 1485
.
(z 1)(z 0, 1353)
G(z) =
(9.11)
= Ac x(t) + Bc u(t)
x(t)
(9.12)
Pour une condition initiale x0 sur letat, la solution de lequation ci-dessus se deduit de la relation (4.7). En outre, si
lon applique cette relation sur lhorizon [kT ; (k + 1)T ], alors le bloqueur dordre zero maintient le signal dentree
a` u(t) = uk , x0 devient xk et letat final est xk+1 . Lon obtient :
xk+1 = e
Ac T
xk +
(k+1)T
eAc ((k+1)T ) Bc uk d,
kT
xk+1 = eAc T xk +
eAc d Bc uk .
(9.13)
De plus, lequation de sortie est verifiee a` tout instant, donc en particulier lorsque t = kT . De fait il vient
yk = Cc xk + Dc uk .
(9.14)
(Ceci traduit simplement le fait que Z est un operateur lineaire). Lidentification de (9.13) et (9.14) dune part,
avec (9.6) dautre part, permet de deduire les formules de dechantillonages suivantes :
A = e Ac T
; B=
eAc Bc d ;
C = Cc
(9.15)
D = Dc .
Remarque 9.4 Si la matrice dynamique Ac est non singuli`ere, il est possible de calculer la matrice B en utilisant
une relation plus simple :
Ac T
B = A1
I)Bc .
c (e
91
(9.16)
Il est important de noter que la relation unissant Ac a` A se verifie aussi sur les valeurs propres de ces derni`eres.
i valeurs propres de Ac , i = 1, ..., n
m
i = ei T valeurs propres de A, i = 1, ..., n
Exemple :
Lon reprend lexemple du paragraphe 9.3.4.1. Une realisation compagne verticale est donnee par
0
1
0
x +
u
x = Ac x + Bc u =
0 2
1
1 0 x.
y = Cc x
Il sagit de determiner une realisation pour le syst`eme e chantillonne associe. En utilisant (9.15), il est facile de voir
que C = Cc et D = 0. Pour une periode T , (9.15) conduit a`
1 21 (1 e2T )
A = e Ac T =
0
e2T
et
B=
1
0
1
2 (1
e2 )
e2T
!
1
0
"
1
2
#
2T
T + e 2 1
.
1
2T
)
2 (1 e
A
C
B
D
1
= 0
1
0, 4323
0, 1353
0
0, 2838
0, 4323 .
0
xk = Ak x0 +
k1
X
Akj1 Buj .
(9.17)
j=0
En utilisant lequation de sortie, la reponse dun mod`ele discret est donnee par
yk = CAk x0 +
k1
X
(9.18)
j=0
Lon voit clairement que, dans cette reponse, la matrice A est e levee a` differentes puissances. Il est donc essentiel
de pouvoir calculer Ak .
9.4.1.2 Calcul de Ak
Trois methodes sont ici proposees :
Calcul direct : il sagit tout simplement denchaner de facon recurrente de calcul de A0 = I, A, A2 = A.A,
A3 = A2 .A, etc., jusqu`a Ak = Ak1 .A. Pour simplifier ce calcul, il est possible de saider du theor`eme de
Cayley-Hamilton, comme il est explique au paragraphe 4.3.1.
Methode modale : il sagit de passer par la forme canonique de Jordan. Ainsi, si M est telle que A = M JM 1 ,
o`u J est une matrice de Jordan, il est facile de verifer que Ak = M J k M . Une fois M determinee, il faut calculer
J k et deduire M . Pour un bloc diagonal de J, lon a
h
..
.
0
k k
h
...
0
.. = ..
..
.
.
.
0
. . . h+l
h
0
..
.
..
.
0
1
h
..
.
..
.
0
0
1
..
.
..
.
0
...
...
..
.
0
0
..
.
..
..
.
.
. . . h
kh
0
..
.
..
.
0
Cn2 hk1
kh
..
.
..
.
0
...
0
.. .
..
.
.
. . . kh+l
Cn2 hk2
Cn2 hk1
..
.
..
.
0
...
Cnm km+1
h
. . . Cnm1 km+2
h
..
..
.
.
..
..
.
.
...
kh
o`u les scalaires Cij sont les coefficients de la formule du binome de Newton correspondant aux combinaisons :
Cij =
i
.
(i j)!j!
Etude
en boucle ouverte : ce cas ne pose generalement pas trop de probl`eme. Lapplication pratique du
theor`eme de Shannon (cf. 9.3.3) dans le choix de T permet souvent dobtenir un signal discret {yk } qui rend
bien compte des dynamiques contenues dans le signal continu y(t). Une interpolation des e chantillons yk doit
donner une bonne idee de la forme de y(t) ;
Etude
en boucle fermee : Malgre un choix pertinent de T en boucle ouverte, la commande numerique peut
introduire des dynamiques plus rapides dans le syst`eme de sorte que T devient inappropriee en boucle fermee.
Il faut alors envisager deux options :
recourir a` un outil de calcul numerique pour reconstituer y(t), la sortie du mod`ele continu excite par une
commande discr`ete ;
diminuer T pour rendre lechantillonnage de y(t) representatif de sa forme.
V =
v1
. . . vn
et V 1
w1
= ... .
wn
i {1, . . . , n},
n
X
i=1
Ni ki x0 +
k1
X
j=0
(kj1
Buj ) .
i
Une telle reponse fait apparatre n termes impliquant des puissances de i . Chaque terme associe a` une valeur
propre i est appele mode du syst`eme discret. Par abus de langage, lon appelle parfois i mode, assimilant ainsi
mode, pole et valeur propre.
Bien que les matrices Ni , qui sont de mani`ere non triviale liees aux zeros du syst`eme, aient une influence certaine sur la forme de {xk } (donc {yk }), ce sont surtout les valeurs propres i elles-meme qui determinent lallure
du mode associe. Les differents cas possibles peuvent se resumer par le tableau 9.1.
94
Valeur propre
|i | > 1
|i | < 1
|i | = 1
Im(i ) 6= 0
Re(i ) < 0
Im(i ) = 0 et Re(i ) 0
Mode divergent
Mode convergent
Mode entretenu
Oscillation du mode
Changement de signe a` chaque e chantillon
Pas doscillation du mode
Re(z)
Tous les comportements des differents modes sont repartis sur {xk } et sur {yk } par les matrices Ni , B et C. Quoi
quil en soit, les comportement possibles sont resumes sur la figure 9.11.
Il existe deux sources doscillation dun syst`eme discret :
la presence de modes complexes (qui peut e tre liee a` un mode complexe du procede continu si lon a
affaire a` un syst`eme e chantillonne) ;
la presence de modes a` partie reelle negative (cette oscillation est due uniquement a` la discretisation dans
le cas dun syst`eme e chantillonne).
(9.19)
Deux cas se presentent alors. Soit la matrice (A I) est reguli`ere et seule lorgine de lespace detat (xe = 0)
est un point dequilibre. Soit (A I) est singuli`ere et il faut resoudre (9.19) pour determiner linfinite des points
dequilibre.
9.5.2.2 Stabilite
Le stabilite dun point dequilibre se definit, comme dans le cas des mod`eles continus, de la facon suivante :
Un e tat dequilibre est dit asymptotiquement stable si, lorsque le syst`eme est e carte de cet e tat sous leffet
dune perturbation, il y revient (en un temps infini).
Letat dequilibre est dit instable, si apr`es perturbation, le syst`eme sen e loigne davantage.
Letat dequilibre est dit simplement stable si apr`es perturbation, le syst`eme reste dans un voisinage du point
dequilibre.
Comme pour les mod`eles continus, quel que soit le point dequilibre xe considere, la stabilite de ce dernier depend
de A donc il est logique dassocier la stabilite du syst`eme autonome lui-meme a` la stabilite de son ou ses points
dequilibre.
(9.20)
Une e tude tout a` fait similaire a` celle qui est realisee en continu, sappuyant sur les valeurs propres de A (cf.
5.3.1), consiste a` e tudier la convergence des modes libres de xk (voir 9.4.2), et conduit au resultat suivant :
96
x = Ax asymptotiquement stable
(9.21)
En revanche, lon ne definit pas (en tout cas de facon triviale) la marge de stabilite relative.
Il sagit l`a dun mod`ele de syst`eme autonome qui poss`ede lorigine pour e tat dequilibre. f est une fonction
vectorielle non lineaire a` plusieurs variables. Ladaptation de la seconde methode de Lyapunov induit une condition
suffisante pour verifier la stabilite de cet e tat dequilibre. Plutot que de considerer la decroissance dune fonction
e nergetique au travers de sa derivee, lon sinteresse a` un decrement de cette fonction e nergetique. Sil existe une
fonction V telle que V (xk ) > 0 xk IRn , 0 , (V (0) = 0) et telle que
V (xk ) = V (xk+1 ) V (xk ) < 0 xk , xk 6= 0
alors le mod`ele detat discret non lineaire est asymptotiquement stable pour des conditions initiales dans un voisinage de 0.
Si lon sinteresse a` la stabilite asymptotique dun syst`eme lineaire autonome
xk+1 = Ax,
la seconde methode permet de voir quun tel syst`eme est asymptotiquement stable si et seulement s il existe une
fonction de Lyapunov (quadratique) V (xk ) = xk P xk > 0 ( P = P > 0) telle que (xk ) < 0, xk 6= 0
xk (A P A P )xk < 0 xk IRn , x 6= 0
A P A P < 0
(9.22)
Q = Q < 0 et P = P > 0 | A P A P = Q
(9.23)
L`a encore, il nest plus question de faire reference a` lorigine de IR qui est de toute facon lunique point dequilibre.
La condition devient necessaire et suffisante. Enfin, il nest pas restrictif de supposer que V (xk ) est une fonction
quadratique de xk ce qui permet daboutir, soit a` une inegalite matricielle donnee en (9.22), soit a` une e galite
matricielle donnee en (9.23), dont linconnue est, dans les deux cas, une matrice symetrique strictement definie
positive. Ce sont, comme dans le cas continu, E. I. Jury et S. M. Ahn qui prouv`erent quun choix arbitraire de la
matrice Q e tait possible. Lon peut donc resumer lapplication de la theorie de Lyapunov aux mod`eles lineaires
discrets a` ceci :
Un mod`ele detat discret lineaire (9.6) est asymptotiquement stable si et seulement si, quelle que soit la
matrice symetrique definie negative Q, lunique solution de lequation
P + A P A = Q
(9.24)
En conclusion, il faut noter que tous ces crit`eres de stabilite ne font intervenir que A. Ainsi, seule la
matrice devolution determine la stabilite du syst`eme.
98
i {1, . . . , n},
u(t)
B0 (p)
y(t)
Gc (p)
{yk }
T
!
!
Z T
Z T
yk
sous reserve que D 6= 1. Lon constate que la matrice dynamique en boucle fermee est grandement dependante de
T et a` ce titre, T a une grande influence sur la stabilite de ce syst`eme discret boucle. Il nest donc pas question
dassocier cette stabilite e ventuelle a` la stabilite e ventuelle dun quelconque syst`eme continu. Ceci rejoint lidee
formulee dans la remarque 9.3.
9.6.1 Definitions
9.6.1.1 Commandabilite
Soit le mod`ele detat (9.6) dun syst`eme lineaire dont letat initial est a` une valeur quelconque x0 .
Le mod`ele est commandable si pour toute instance xf du vecteur detat, il existe une sequence finie
dechantillons dentree uk (k < ) denergie bornee qui permet au syst`eme de passer de letat x0 a`
letat xf .
9.6.1.2 Observabilite
Lon sinteresse toujours au meme mod`ele que dans la partie precedente.
Le mod`ele est observable si, quel que soit letat initial x0 , il existe dune sequence finie dechantillons de
sortie yk (et e ventuellement des e chantillons dentree correspondants uk ) qui permet de retrouver x0 .
o`u Qc =
AB
. . . An1 B
(9.25)
A AB . . . Ai1 B
est-il possible quil existe une valeur de i telle que limage de Qi concide avec IRn . Le theor`eme de Cayley
Hamilton montre que, quel que soit i, la matrice Ai B peut sexprimer comme une combinaison lineaire de B, AB,
. . ., An1 B. Ainsi le rang de Qi ne peut exceder celui de Qc et donc il existe des vecteurs dans IRn qui ne peuvent
e tre atteints. QED
Remarque 9.5 Tout e tat xf peut e tre atteint en partant de x0 grace a` une sequence dentree dau plus n
e chantillons.
9.6.2.2 Observabilite
La paire de matrices (A, C) (ou le syst`eme (9.6)) est observable si et seulement si
C
CA
rang(Qo ) = n o`u Qo =
...
CAn1
100
(9.26)
y0
y1
..
.
yn1
= Qo x0 .
9.6.4 Grammiens
Il sagit ici dapporter une analogie discr`ete aux notions presentees au paragraphe 6.4. Soit le mod`ele LTI discret
donne en (9.6) et suppose asymptotiquement stable. Lon se propose ici de presenter un crit`ere de commandabilite
et dobservabilite qui repose sur les notions de grammiens.
9.6.4.1 Definition des grammiens
Le grammien de commandabilite Wc et le grammien dobservabilite Wo , e galement appeles matrices grammiennes, sont respectivement definies par
Wc = lim Ak BB (A )k ,
(9.27)
Wo = lim (A )k C CAk ,
(9.28)
do`u lon retrouve bien que les deux proprietes sont duales lune de lautre.
101
(9.29)
Wo + A Wc A = C C.
(9.30)
A NNEXES
Dans ces annexes, sont presentes quelques concepts qui permettent soit dapprehender un peu mieux le contenu du
cours, soit dobtenir quelques complements dinformation de nature scientifique ou culturelle.
109
Annexe A
A.1
Lon donne ici quelques definitions et proprietes des matrices. Une matrice M Cl mn peut e tre vue comme un
tableau de m n scalaires complexes mij a
` m lignes et n colonnes o`u mij est lelement situe en ie` me ligne et
`
e
me
en j
colonne. Une telle matrice est en realite une representation dune application lineaire de Cl n dans Cl m .
Exemple :
M=
m11
m21
m12
m22
m13
m23
=M =
1
4
2 + 3i
6
7
5+i
1
3
6
M =
2 4 + 5i 7
1
2
M = 3 4 + 5i
6
7
1
3
6
M =
2 4 5i 7
Dans le cas de matrices reelles (M IRmn ), les deux operateurs peuvent e tre confondus.
{i; j}.
A + B = B + A (commutativite) ;
A + (B + C) = (A + B) + C (associativite) ;
s(A + B) = sA + sB, s Cl ;
C | A + C = B et C est notee C = A B (difference) ;
A + 0 = A (element neutre) ;
(A + B)T = AT + B T (transposition de la somme) ;
(A + B) = A + B (transposition-conjugaison de la somme).
Exemple :
1 1 2
3
2 4
1 3 2
3 4
0
2 2 0
6 6 4
< v, w >=
n
X
i=1
112
vi wi .
` partir de ce produit scalaire de deux vecteurs, lon peut definir le produit de deux matrices. Si lon suppose que
A
M Cl mn et N Cl nq sont respectivement la concatenation en colonne de m vecteurs lignes v [i] , i = 1, ..., m
et la concatenation en ligne de q vecteur colonnes w[j] , j = 1, ..., q,
v [1]
M = ...
v [m]
et N =
w[1]
. . . w[q]
n
X
[i]
[j]
vk wk
k=1
Exemple :
1 1 2
3
2 4
1 1
3
2 =
0
1
1
0
3
7
Lon note que la multiplication deux matrices M et N nest definie que si le nombre de colonnes de M est e gal au
nombre de lignes de N .
Le produit de deux matrices correspond a` la composition de deux applications lineaires.
Les proprietes de la multiplication de matrices sont :
Remarque A.1 Une matrice A carree peut e tre e levee a` une puissance k en definissant Ak = Ak1 A et A0 = I.
Une matrice qui devient nulle pour une valeur de k est qualifiee de nilpotente.
a11
a21
a12
a22
Exemple :
det
2
4
1
3
= 1 4 (2) 3 = 10
a+
11
A = a
21
a+
31
a+
13
.
a
23
a+
33
a
12
a+
22
a
23
Il suffit alors de raisonner par rapport a` la ligne (ou la colonne) k. Lon calcule :
det(A) =
n
X
j=1
n
X
j=1
det(A) =
n
X
j=1
n
X
j=1
jk
(A.1)
Exemple :
Lon raisonne, dans lexemple ci-apr`es, par rapport a` la premi`ere ligne :
2+
det
1
2+
3
0+
1
5+
0 1
1 1
1 0
= 2 det
3 det
+ 5 det
=9
1
1 0
2 0
2 1
0+
La technique de calcul presentee ci-avant peut setendre a` des matrices de dimension plus e levee cest-`a-dire que
la formule (A.1) est valable pour n > 3.
114
det(A ) = (det(A)).
Ligne ou colonne multipliee par s Cl det(A) multpliplie par s.
Si B est obtenue a` partie de A en ajoutant a` la ie` me ligne (colonne) le produit dun scalaire par une autre ligne
(colonne) alors det(B) = det(A).
det(Im + M N ) = det(In + N M ) (Attention aux dimensions de M et N : M N et N M doivent e tre carrees).
n
X
akj kj =
j=1
n
X
ajk jk .
j=1
En outre, la matrice adjointe de A, notee adj(A), est definie par la transposee des cofacteurs, a` savoir
A = [aij ] adj(A) = [ji ].
P () = det(I A).
Par ailleurs, P (A) = 0 (theor`eme de Cayley-Hamilton : toute matrice carree verifie son propre polynome caracteristique).
115
1
adj(A).
det(A)
Exemple :
a
c
b
d
1
1
=
ad bc
d
c
b
a
P () = det(In A) = 0
(A.2)
Une matrice de dimension n a necessairement n valeurs propres i , i = 1, ..., n. Pour simplifier, lon supposera
que celles-ci sont distinctes. Lorsque A est reelle, les valeurs propres constituent un ensemble auto-conjugue.
Autrement dit, si est valeur propre de A, sa quantite conjuguee lest aussi. Tous ces scalaires constituent un
ensemble de cardinal n appele spectre de A et parfois note (A).
Il existe n vecteurs vi Cl n , i = 1, ...n non nuls, appeles vecteurs propres a` droite, tels que :
i {1, ..., n}
Avi = i vi
(A.3)
116
(A.4)
= V 1 AV
(A.5)
(A.6)
La determination de passe par celle de V . Lon parle de diagonalisation de matrice. Cette diagonalisation nest
pas toujours possible lorsque les valeurs propres ne sont pas distinctes. Des formes canoniques de Jordan peuvent
neanmoins e tre calculees mais ceci nest pas explicite ici.
Lon peut aussi definir les vecteurs propres a` gauche ui (egalement definis a` un facteur multiplicatif pr`es) par
la relation
ui A = i ui
(A.7)
(A.8)
il apparat, entre les matrices U et V , pour des choix de ui et vi convenablement mis a` lechelle, la condition
dorthogonalite :
U V = I.
(A.9)
Lensemble constitue des valeurs propres et des vecteurs propres a` gauche et a` droite est appele structure propre.
A.1.9.2 Proprietes des valeurs propres
Il est a` noter que les valeurs propres dune matrice carree A verifient les proprietes suivantes :
(A) = (AT ) ;
i (A) i (A) ;
i (A )
i (A)
i (A) ki (Ak ) ;
i (A) s + i (sI + A), s Cl ;
les e lements diagonaux dune matrice triangulaire sont ses valeurs propres.
Les valeurs propres dune matrice symetrique ou Hermitienne sont reelles.
n
X
i vi vi .
i=1
Ces proprietes sont aussi vraies pour les vecteurs propres a` gauche.
117
trace(A) =
n
X
aii
i=1
La trace de A est donc la somme de ses e lements diagonaux. Lon peut par ailleurs montrer que cest la somme de
ses valeurs propres c.-`a-d. :
trace(A) =
n
X
i=1
De ce fait, toutes les matrices semblables ont la meme trace. La trace est un scalaire complexe, e galement reel si A
est reelle ou si A est complexe mais Hermitienne. En outre, sous reserve de compatibilite des dimensions, lon a :
A.2
trace(AB) = trace(BA)
(A.10)
(A.11)
x P x > 0 (resp.) x P x 0,
x 6= 0
Si la propriete est verifiee, alors la matrice Hermitienne P est definie (resp. semi-definie) negative.
La definition en signe dune matrice Hermitienne est par definition e quivalente a` celle de la forme quadratique
associee.
Quelques proprietes :
P
P
P
P
P
P
= P
= P
= P
= P
= P
= P
> 0 (P ) IR+ ;
0 0 (P ) {IR+ 0} ;
> 0 P 1 = (P 1 ) > 0 ;
> 0 det(P ) 6= 0 ;
0 det(P ) = 0 ;
> 0 P admet une racine carree notee P 1/2 telle que
P = (P 1/2 )2 ;
P 1/2 > 0 ;
((P 1/2 )1 )2 = P 1 ;
M Cl nn et det(M ) 6= 0 P = M M > 0 ;
M Cl nn et det(M ) = 0 P = M M 0 ;
P > 0 (resp. 0) P admet une decomposition dite de Cholesky : P = S S avec det(S) 6= 0 (resp.
det(S) = 0).
119
Annexe B
n
X
vi ei t ui x0 .
(B.1)
i=1
Or, la decomposition de x0 dans la base constituee par les vecteurs propres a` droite de A peut sexprimer par la
combinaison lineaire suivante :
x0 =
n
X
j vj .
j=1
n
X
i=1
n
X
j vj .
vi ei t ui
j=1
Compte tenu de la condition (A.9) qui am`ene ui vj = 0, {i, j 6= 0} {1, ..., n}2 et ui vi = 1, i {1, ..., n},
lon a
x(t) =
n
X
i ei t vi .
i=1
121
(B.2)
Lon appelle mode reel la quantite ei t vi lorsque i est reel et mode complexe la quantite (ei t vi + ej t vj ) IR
lorque i = j {Cl IR}. Cette expression est essentielle car lon constate que tous les termes de la reponse
convergent vers zero (donc le syst`eme est BIBO-stable) si et seulement si toutes les valeurs propres de A (parfois
e galement appelees abusivement modes ) sont a` partie reelle negative. Plus precisement, lon voit bien que le
syst`eme retrouve dautant plus vite sa position dequilibre a` lorigine que les parties reelles des valeurs propres de
A sont tr`es negatives (lon parle de modes lents ou dominants et de modes rapides ou domines). La rapidite de la
reponse depend de toute e vidence des modes les plus lents. Bien entendu, la valeur de letat initial x0 conditionne
aussi la forme de la reponse par le biais de {i , i {1, ..., n}}.
De plus, lon remarque que lexistence de valeurs propres complexes conjuguees induit un comportement oscillatoire dans la reponse du syst`eme. En effet, un mode complexe fait apparatre un sinus dans cette reponse. Le
caract`ere oscillatoire dun mode complexe est dautant plus marque que le rapport (en valeur absolue) entre la
partie imaginaire et la partie reelle des valeurs propres correspondantes est e leve. Pour des syst`emes de deuxi`eme
ordre (n = 2), ces considerations sont prises en compte pour definir un coefficient damortissement et une
pulsation propre non amortie e
galement definis dans le cadre du cours sur lapproche frequentielle. Selon les
valeurs de ces indicateurs, la nature de la reponse peut varier dune absence doscillation a` une tr`es forte oscillation en passant par un leger depassement. Lon se ref`ere souvent a` ces indicateurs pour caracteriser la dynamique
dominante dun syst`eme dordre plus e leve (n > 2) et donc ses performances en termes de temps de reponse,
depassement maximal, etc. Neanmoins, il importe de savoir que linfluence de chaque mode nest pas toujours
simplement dictee par la position de la (ou des) valeur(s) propre(s) associee(s).
Ce quil convient de retenir est que la localisation des valeurs propres de A dans le plan complexe (en particulier
les modes dominants) est extremement utile pour caracteriser le comportement dun syst`eme ou pour specifier les
performances souhaitees dun procede a` commander. Le spectre de A revet donc une importance capitale dans le
comportement du syst`eme. Les vecteurs propres associes ont e galement une influence puisquils apparaissent dans
(B.2). Leur influence est un peu mieux explicitee dans le paragraphe suivant.
Couplage modes/sortie
Dans la reponse du syst`eme en regime libre (B.2), lon voit clairement apparatre les vecteurs propres a` droite de
A. Cette relation peut e tre ainsi detaillee :
x1 (t)
v11
vn1
..
.
.
t
t
= 1 e 1 .. + . . . + n e n .. .
.
xn (t)
v1n
vnn
(B.3)
Lon constate en examinant la relation (B.3) que la composante vij distribue leffet du mode i sur letat xj . Ainsi,
annuler vij revient a` e liminer linfluence de i sur xj . Lon en deduit que :
Les vecteurs propres a` droite sont significatifs du couplage entre existant entre le spectre de A et le vecteur
detat.
Lorsque lon sinteresse a` la sortie y, la matrice C exprime alors le couplage entre x et y donc plutot que les vecteurs
propres, ce sont les scalaires Cvi quil convient detudier. Lon peut alors analyser le decouplage modes/sortie.
Les scalaires Cvi sont significatifs du couplage entre le spectre de A et la sortie y.
Cette assertion est vraie pour un syst`eme en boucle ouverte (il faut alors regarder les vecteurs propres a` droite de
la matrice A) mais aussi pour un syst`eme boucle (il faut alors e tudier les vecteurs propres a` droite de la matrice
Af = A + BK).
Remarque B.1 Lorsquun scalaire Cvi est nul, cest-`a-dire lorsque la sortie nest pas affectee par le mode i ,
ceci signifie que ce mode devient non observable.
122
B.2.2
Lon rappelle quune loi de commande de type retour detat est de la forme
u(t) = Kx(t).
Pour les besoins de lexplication, le terme de precommande est omis cest-`a-dire que le syst`eme boucle est considere en regime libre. Compte tenu de lexpresson de x(t), il vient
u(t) =
n
X
i Kvi =
i=1
n X
n
X
i ei t kj vij .
(B.4)
i=1 j=1
La relation (B.4) pemet de comprendre comment les vecteurs propres interviennent dans la repartition de leffet
des modes sur la commande du syst`eme boucle 1 . Il va de soi quen cas de bouclage comme ci-dessus, les scalaires
i designent les valeurs propres de Af et les vi designent leurs vecteurs propres a` droite associes.
Dans le cas dun mod`ele LTI boucle par retour detat u(t) = Kx(t), les vecteurs Kvi sont significatifs du
couplage entre existant entre le spectre de A et la commande u.
B.2.3
Cette fois-ci, la precommande est presente de sorte que le syst`eme nest pas en regime libre et la loi de commande
est :
u(t) = Kx(t) + Hyc (t).
La reponse du syst`eme au niveau de son vecteur detat est
x(t) =
eAf (t ) BHyc ( )d
x(t) = V
x(t) =
n
X
i
vi
ei (t ) ui BHyc ( )d =
n X
n
X
i
j=1
vi
(B.5)
Grace a` (B.5), lon comprend que le produit ui B est significatif de linteraction entre le signal de consigne et
le mode i . Ainsi, si ce produit est nul (ui et B sont alors orthogonaux), le mode i de la matrice dynamique
Af = A + BK nest pas excite par la consigne.
Les vecteurs propres a` gauche ont une influence preponderante sur la repartition de lexcitation en consigne
sur les modes.
Remarque B.2 Lorsque le scalaire ui B est nul et quainsi le signal de consigne nexcite pas le mode i , alors le
mode i est non commandable.
1. et non pas sur la consigne du syst`eme boucle
123
B.2.4
Il apparat que leffet du monde exterieur sur la dynamique interne dun syst`eme LTI est decrit par la
structure propre a` gauche alors que la repartition de cette dynamique sur les sorties est essentiellement
decrite par la structure propre a` droite.
Il est possible de definir les zeros dun syst`eme dans lespace detat. Dans le cadre des syst`emes multivariables,
les definitions sont multiples et conduisent a` quatre, voire cinq types de zeros dont les caracterisations ne sont pas
e quivalentes. En monovariable, de mani`ere un peu simpliste, lon peut definir les zeros dun syst`eme comme les
valeurs de z Cl telles que la matrice
zI A B
M (z) =
C
D
presente une deficience de rang. Lon note quil nest pas aise de determiner les zeros dune realisation mais cette
definition a lavantage dutiliser une representation detat.
Si la realisation est minimale (enti`erement commandable et observable) alors, les zeros sont les racines du polynome
N (p), le numerateur de la fonction de transfert G(p). Dans le cas dune realisation non minimale, il peut exister
des valeurs des zeros de la realisation qui ne sont pas racines de N (p). Ceci resulte dune compensation dans G(p)
du facteur (p z) de N (p) avec un facteur (p z) du denominateur D(p) (compensation pole/zero caracteristique
des mod`eles non-commandables ou non observables (cf. paragraphe 6.5)).
Les zeros a` partie reelle negative sont qualifies de stables et ceux a` partie reelle positive sont qualifies dinstables.
B.3.2
Meme si les zeros ne determinent pas la stabilite du syst`eme LTI, il va de soi quils ont une influence sur le
comportment transitoire du syst`eme. En effet, si lon e crit la fonction de transfert
G(p) =
m
Y
(p zj )
j=1
n
Y
(p i )
i=1
n
X
i=1
ri
.
(p i )
(B.6)
Lon comprend en appliquant la transformee de Laplace inverse sur (B.6) et par une comparaison avec (B.1) (qui
nest pas detaillee ici) que les residus ri , qui sont dependants de la valeur des zeros zi , sont e troitement lies mais
` ce titre, ils ont donc une importance sur le comportement
de mani`ere non triviale, aux vecteurs propres vi et ui . A
transitoire du syst`eme. De meme par comparaison avec (B.5).
Mais il est assez difficile et souvent peu rigoureux dapprecier correctement leffet dun zero sur le regime transitoire. Pour resumer tr`es grossi`erement cet effet :
les zeros compenses par des poles non commandables et non observables nont aucun effet sur le regime transitoire dune reponse sur la sortie y ;
124
les zeros proches dun pole dans le plan complexe sont faiblement influents ;
les zeros instables ont tendance a` generer un depassement de la reponse indicielle vers le bas alors que les zeros
stables contribuent a` leventuel depassement vers le haut.
125
Annexe C
C.1
Rappel du probl`eme
x IRn ,
u IR.
(C.1)
Lon rappelle que le probl`eme du placement de poles consiste a` trouver un vecteur K, associee a` la loi de commande
u = Kx, de sorte que
det(pI Af ) = Dd (p) =
n
Y
(p i ).
i=1
(C.2)
Le polynome Dd (p) est le polynome caracteristique desire pour ce syst`eme boucle. Les scalaires i , i = 1, ..., n,
sont les racines de ce polynome, cest-`a-dire les poles desires. La paire de matrices (A, B) est supposee commandable.
C.2
(C.3)
0
Af
A1f
A3f
Af
A4f
n
Af
=
=
=
=
=
I
A + BK
A1f (A + BK)
A2f (A + BK)
A3f (A + BK)
Afn1 (A + BK) =
=
=
=
A2 + ABK + BKAf
A3 + A2 BK + ABKAf + BKAf
A4 + A3 BK + A2 BKAf + ABKA2f + BKA3f
..
.
An + An1 BK + An2 BKAf + . . . + ABKAfn2 + BKAfn1
.
K
Dd (Af )
Dd (A) +
AB
. . . An1 B
=0
qui est inversible puisque la paire (A, B) est supposee commandable. Ainsi, par inversion de Qc , lon obtient
.
..
K=
... 0 1
128
= Q1
c Dd (A).
Q1
c Dd (A).
(C.4)
Annexe D
` propos de Z
A
D.1 Proprietes de Z
Linearite
Z[
n
X
(i {fk }i )] =
(i Z [{fk }])
i=1
i=1
Multiplication par k
n
X
Z [k {fk })] = F (1 z)
Multiplication par ekT
Z [ekT {fk })] = F (zeT )
(Ici, T designe la periode dechantillonnage si elle est definie).
Produit de convolution
Z [{f g}k ] = F (z)G(z)
o`u loperateur symbolise le produit de convolution {f }k {gk } = {hk } defini par
hk =
fl gkl =
l=
Theor`eme du retard
fkl gl
k IN.
l=
Theor`eme de lavance
Z [{fk+l }] = z l
Z [{fk }]
l1
X
fi z i
i=0
= zl
F (z)
f0 = lim F (z)
z
k
1
zto1
(1 z 1 )F (z) ,
129
l1
X
i=0
fi z i
Tableau de transformees
Signal continu
f (t), t 0
Transformee de Laplace
F (p)
Signal e chantillonne
fk , k IN
Transformee en z
F (z)
f0 = 1, fk = 0, k 6= 0
Echelon
damplitude E c.-`a-d. E(t)
E
p
fk = E
Ez
z1
b
p2
fk = bT
bT z
(z 1)2
eat
1
p+a
fk = eakT
z
z eaT
teat
1
(p + a)2
fk = kT eakT
T zeaT
(z eaT )2
sin(t)
p2 + 2
z sin(T )
z 2 2z cos(T ) + 1
cos(t)
p
p2 + 2
z(z cos(T ))
z 2 2z cos(T ) + 1
1 eaT
a
p(p + a)
z(1 eaT )
(z 1)(z eaT )
ehT p G(p)
130
ak
z
za
fk = gkh
z h G(z)
Annexe E
(E.1)
i {1, . . . , n}
M = + < 0,
o`u
= diag {i }.
i=1,...,n
(E.2)
Le cas e chantillonne
(E.3)
i {1, . . . , n}
M = In + + < 0,
avec (E.2). Soit V la matrice modale de A, il vient
M = In + (V 1 ) A V V AV 1 < 0
V M V = V V + A V V A < 0,
qui nest autre que (E.3) avec le choix P = V V . QED
(E.4)
et par consequent, si lon consid`ere la fonction de Lyapunov quadratique V (x(t)) = x (t)P x(t), sa derivee temporelle V (x(t)) = x (t)(A P + P A)x(t) est strictement negative. Ainsi, V (x(t)) est strictement decroissante par
rapport au temps et lon a donc, pour deux instants dechantillonnage successifs kT et (k +1)T (o`u T est la periode
dechantillonnage),
V (x(k + 1)T ) < V (x(kT )),
qui se recrit
x ((k + 1)T )P x((k + 1)T ) = x(kT )eAc T P eAc T x(kT ) < x (kT )P x(kT ).
Puisque A = eAc T , de cette derni`ere inegalite lon deduit
132
Le cas e chantillonne
Md = P + A P A < 0,
(E.5)
Toute matrice de Lyapunov du mod`ele lineaire continu dun procede est aussi matrice de Lyapunov du
mod`ele discret lineaire du syst`eme e chantillonne associe.
Remarque E.1 Pour demontrer que lon peut choisir arbitrairement Q < 0 telle que Mc = Q (respectivement
Md = Q) admette une solution unique P > 0, la technique consiste a` montrer que resoudre cette e quation revient
a` resoudre un syst`eme lineaire dequations scalaires possedant une unique solution. Cet aspect nest cependant
pas detaille ici car toute la subtilite est de montrer que le syst`eme est bien pose.
133
Le cas e chantillonne
134
Annexe F
xk+1
yk
Axk
Cxk
Buk
Lon atteste ou non de la commandabilite de ce syst`eme selon le rang de la matrice de commandabilite (voir
9.6.2) :
Qc
[B AB ... An1 B]
Lon rappelle que letat final souhaite peut e tre atteint en n coups ou plus (cf. Remarque 9.5). Il faut aussi noter
que, partant de lorigine :
xf
xf
Qc Un
o`u
Un
[un1
... ,
u0 ].
La solution Un de la commande necessaire pour atteindre letat xf , du point de vue de la norme minimale est
(resolution dun probl`eme doptimisation classique) :
Un
Qc (Qc Qc )1 xf .
Ceci veut dire que, pour atteindre letat final xf a` partir de x0 = 0, il faut une e nergie minimale de commande :
n1
X
uk uk
xf (Qc Qc )1 xf
k=0
Wc (n)
Qc QTc
n1
X
Ak BB T (Ak )T .
(F.1)
k=0
Wc (n) est une matrice definie positive, donc il existe une transformation de matrice U unitaire telle que
Wc (n)
U DU .
Soit la transformation xk = U xk (qui preserve la norme de x). Dans la nouvelle base, lenergie minimale de
commande necessaire pour atteindre ei = [0, ..., 0, 1, 0, ..., 0] est donnee par di1 . Si di est nul, la ie` me composante de letat nest pas commandable (energie infinie) en n coups. D apparat donc, dans la nouvelle base,
comme la matrice de ponderation dun crit`ere denergie de commande (en partant de zero).
Si lon ne sinteresse pas a` la commande en n coups mais en un nombre infini de coups, lon peut definir :
Wc = lim Wc (n)
(F.2)
Sur un horizon de temps infini, lon obtient le grammien de commandabilite Wc (6.8) verifiant (6.10).
Remarque F.1 Rappel : pour traiter le grammien dobservabilite, lon raisonne par dualite.
T 1
RT = {T 1AT , T 1 B , CT }
et, si lon definit respectivement Qc et Qo comme les matrices de commandabilite et dobservabilite sur un
horizon de temps ou dechantillons infini, c.-`a-d.,
Qc = lim B AB . . . Ak1 B
k
Qo = lim C A C . . . (A )k1 C ,
k
alors il vient
Qc
T 1
T 1 Qc
et Qo
136
T 1
Qo T.
T 1 Wc T T
Wc
Wo
T 1
T T Wo T.
Finalement :
Wc Wo
T 1
Wc Wo
(T 1 Wc T T )(T T Wo T )
T 1
T 1 Wc Wo T
Le produit des grammiens est transforme en une matrice semblable, donc ses valeurs propres sont conservees. QED.
La demonstration dans le cas continu est quelque peu differente. Soit toujours la matrice de changement de base
T . Il vient :
Z
T 1
T 1 eA T T 1BB (T )1 T eA (T )1 d = T 1 Wc (T )1 .
7
Wc
0
et
Wo
T 1
T eA (T )1 T C CT T 1eA T d = T Wo T.
137
Annexe G
Le premi`ere ligne avec le prompt >> correspond a` linstruction et les autres correspondent au resultat affiche
par M ATLAB. La variables v est alors enregistree dans lenvironnement et disponible a` tout moment. La liste des
variables actives est donnee par linstruction who.
Un vecteur colonne peut e tre genere de deux facons :
>> v=[1;2;3]
v =
1
2
3
139
1.0000 - 1.0000i
2
4
1
2
3
4
>> M
ans =
Certaines matrices particuli`eres peuvent e tre saisies par des fonctions speciale telles que
>> I2=eye(2)
I2 =
1
0
0
1
>> zeros(3,2)
140
ans =
0
0
0
0
0
0
>> ones(3,2)
ans =
1
1
1
1
1
1
eye permet de construire une matrice identite, zeros une matrice nulle et ones une matrice emplie de composantes unitaires.
De meme, il est facile dextraire des sous-matrices :
>> I2(:,2)
ans =
0
1
>> I2(2,2)
ans =
1
>> M(1:2,2)
ans =
2
4
Entre parenth`eses apparaissent les lignes et les colonnes conservees. Les deux points seuls indiquent que toutes les
lignes ou toutes le colonnes de la matrice sont prises en compte. x:y correspond aux lignes ou colonnes de x a` y.
M ATLAB propose e videmment quantite de fonctions danalyse matricielle parmi lesquelles rank et det qui
permettent de calculer le rang ou le determinant dune matrice :
>> rank(M)
ans =
2
>> det(M)
ans =
-2
141
Lon peut bien sur calculer la somme de deux matrices (ou plus) ou meme le produit :
>> M+M
ans =
2
6
4
8
>> M*M
ans =
7
15
10
22
10
22
Lexposant qui suit loperateur peut e tre non entier de sorte que (1/2) correspond a` la racine carree matricielle.
Il existe aussi la fonction exp qui calcule lexponentielle dune matrice.
Pour calculer linverse dune matrice, lon utilise la fonction inv :
>> inv(M)
ans =
-2.0000
1.5000
1.0000
-0.5000
142
-0.8246
0.5658
-0.4160
-0.9094
-0.3723
0
0
5.3723
L =
Enfin, pour tester le definition en signe dune matrice Hermitienne, lon peut tester le signe de ses valeurs propres :
>> Z=M*M;
>> eig(Z)
ans =
0.1339
29.8661
Dans le cas de Z, elles sont positives donc la matrice est definie positive, ce qui est e vident e tant donnee la mani`ere
dont Z est construite.
Remarque G.1 A` toute fonction M ATLAB est associee une aide en ligne obtenue grace a` linstruction help.
Exemple :
>> help lsim
syst`eme
Ensuite, lon peut tout faire a` laide de cette variable sys. Ainsi, lon peut obtenir la fonction de transfert :
>> [Num,Den]=tfdata(sys)
Num =
[1x3 double]
Den =
[1x3 double]
Un syst`eme e tant e ventuellement multivariable, il est possible quil existe plusieurs numerateurs et denominateurs
pour une ce qui est alors une matrice de transfert. Cest pouquoi M ATLAB fournit une cellule de numerateurs
et une cellule de denominateurs. Dans le cas monovariable ci-dessus, les cellules ne contiennent quun e lement
que lon peut extraire.
>> Num{1}
ans =
0
1.0000
-15.0000
4.0000
5.0000
>> Den{1}
ans =
1.0000
Les vecteurs obtenus contiennent les coefficients du numerateur N (p) et du denominateur D(p) de la fonction de
transfert G(p) dans lordre des puissances decroissantes cest-`a-dire que lon obtient en fait :
G(p) =
p2
p 15
.
+ 4p + 5
-5.0000
0
B =
1
0
144
C =
1.0000
-15.0000
D =
0
et la realisation fournie est de type compagne. Les instructions
>> roots(Num{1})
ans =
15.0000
>> roots(Den{1})
ans =
-2.0000 + 1.0000i
-2.0000 - 1.0000i
permettent respectivement de calculer les racines de N (p) et D(p), cest-`a-dire les zeros et les poles de la fonction
de transfert. Le syst`eme est donc asymptotiquement stable et lon peut le verifier par resolution de lequation de
Lyapunov avec Q = I2 :
>> Q=eye(2);
>> P=lyap(A,Q)
P =
0.7500
-0.5000
-0.5000
0.5500
>> eig(P)
ans =
0.1401
1.1599
La derni`ere instruction permet de verifier que les valeurs propres de la matrice de Lyapunov P sont positives et
donc que cette matrice est definie positive.
Les reponses impulsionnelles se tracent grace aux fonctions impulse et step :
>> impulse(sys)
>> step(sys)
Les resultats sont donnes par les figures G.1 et G.2
Il est possible dajouter une grille a` une figure avec la fonction grid, de modifier les e chelles grace a` la fonction
axis, de tracer plusieurs courbes sur une meme figure grace a` hold on et hold off. Lediteur de figures
permet de nombreuses modifications de legendes, etc et lon peut cliquer sur toute courbe pour connatre les coordonnees du point indique.
145
Impulse Response
1
0.5
Amplitude
0.5
1.5
2.5
0.5
1.5
2.5
Time (sec)
0.5
Amplitude
1.5
2.5
3.5
0.5
1.5
2.5
Time (sec)
bode(sys)
grid
nyquist(sys)
grid
nichols(sys)
grid
Bode Diagram
10
Magnitude (dB)
10
20
30
40
180
Phase (deg)
135
90
45
0
45
90
1
10
10
10
10
Frequency (rad/sec)
Nyquist Diagram
0 dB
2 dB
2 dB
1.5
4 dB
4 dB
1
6 dB
6 dB
Imaginary Axis
0.5
10 dB
10 dB
20 dB
20 dB
0.5
1.5
2.5
1.5
0.5
0.5
Real Axis
0.25 dB
0.5 dB
20
10
1 dB
1 dB
3 dB
3 dB
6 dB
6 dB
10
12 dB
20
20 dB
30
40 dB
40
50
60
180
60 dB
135
90
45
45
90
135
180
Pm =
-129.4032
Wcg =
0
Wcp =
3.4438
Dans lodre, sont obtenus la marge de gain, celle de phase et les pulsations auxquelles elles peuvent respectivement
e tre mesurees. Des marges infinies ou des syst`emes instables en boucle fermee (comme celui-ci) peuvent generer
des messages davertissement.
Si lon sinteresse a` la commandabilite et a` lobservabilite du syst`eme, lon peut tester ces derni`eres a` laide
des crit`eres de Kalman :
>> Qc=ctrb(sys)
147
Qc =
1
1
-19
10
>> rank(Qc)
ans =
2
>> Qo=obsv(sys)
Qo =
1
-9
0
-10
>> rank(Qo)
ans =
2
Les matrices de commandabilite et dobservabilite Qc et Qo sont construites ci-dessus et lon verifie quelles sont
de rang plein pour attester des proprietes. Lon peut aussi passer par les grammiens de commandabilite Wc et
dobservabilite Wo si le syst`eme est asymptotiquement stable. Ces derniers sont les solutions dune e quation de
Lyapunov mais plutot que dutiliser lyap, lon peut utiliser directement la fonction gram :
>> Wc=gram(sys,c)
Wc =
5.7500
-5.1250
-5.1250
5.0250
>> eig(Wc)
ans =
0.2497
10.5253
>> Wo=gram(sys,o)
Wo =
0.7500
1.2500
1.2500
2.5000
>> eig(Wo)
ans =
148
0.0992
3.1508
Il convient ensuite de verifier le signe des valeurs propres de ces deux grammiens. Ils sont ici definis positifs donc
le syst`eme est commandable et observable.
Remarque G.2 La fonction minreal permet de reduire une realisation a` une forme minimale cest-`a-dire
compl`etement commandable et observable (au cas o`u elle ne le serait dej`a).
Il existe au moins deux possibilites pour placer les poles du syst`eme. La fonction place est une fonction e crite
pour les syst`emes multivariables pour lesquels la solution du probl`eme de placement de poles nest pas unique. Elle
a des avantages quil nest pas facile dexpliquer ici mais pour le cas monovariable elle presente linconvenient de
ne placer que des poles disctincts. Ainsi peut-on sen servir pour placer les poles 5 et 4 et verifier a posteriori
que le placement est effectue :
>> K=place(A,B,[-5 -4])
K =
5.0000
15.0000
>> Af=A-B*K;
>> eig(Af)
ans =
-5.0000
-4.0000
En revanche la fonction Acker qui repose sur la formule dAckerman (cf. Annexe C), meme si elle ne presente
pas les memes avantages en multivariable, permet de lever lhypoth`ese des poles distincts.
>> K=acker(A,B,[-5 -5])
K =
6.0000
20.0000
>> Af=A-B*K;
>> eig(Af)
ans =
-5
-5
Remarque G.3 Attention ! les fonctions place et acker envisagent une loi de commande u(t) = Kx(t),
cest pourquoi, dans les instructions ci-avant, lon verifie le spectre de Af = A BK.
Remarque G.4 Il est a` noter que M ATLAB propose un outil de simulation avec interface graphique appele
S IMULINK qui permet entre autres de construire des schema-blocs et de simuler le comportement des mod`eles
associes, M ATLAB restant le noyau de calcul.
149
x1
x2
x2
0.4323
0.1353
b =
x1
x2
u1
0.2838
0.4323
c =
y1
x1
1
x2
0
d =
y1
u1
0
Sampling time: 1
Discrete-time model.
La variable sys contient les informations sur le syst`eme obtenu a` partir du syst`eme continu sysc par e chantillonnage
a` T = 1s. Largument zoh (Zero-order hold) stipule quun bloqueur dordre zero est considere. Par defaut, en
labsence de cet arguement, cest loption zoh qui est retenue. Toutefois, il existe dautres possibilites.
Les matrices de la realisation calculee peuvent e tre recuperees comme en continu.
>> [A,B,C,D]=ssdata(sys)
A =
1.0000
0
0.4323
0.1353
B =
0.2838
0.4323
C =
150
D =
0
De plus, il est possible dutiliser la fonction reciproque d2c pour retrouver le mod`ele continu :
>> sysc=d2c(sys)
a =
x1
x2
x1
0
0
x1
x2
u1
0
1
y1
x1
1
y1
u1
0
x2
1
-2
b =
c =
x2
0
d =
En ce qui concerne le trace des reponses, linstruction dimpulse permet de tracer la reponse impulsionnelle du
syst`eme discret. Ainsi lexecution de
>> dimpulse(A,B,C,D)
conduit, pour le syst`eme construit plus haut, a` la figure G.6, mais cette meme reponse est aussi obtenue par
>> impulse(sys)
En effet, la variable sys contient linformation selon laquelle il sagit dun mod`ele discret.
Lon peut noter que la reponse est en escalier mais il est possible de faire apparatre plus clairement les
e chantillons grace a` (voir figure G.7) :
>> impulse(sys,.)
De meme lon peut utiliser indifferemment
>> dstep(A,B,C,D)
ou
>> step(sys)
151
Impulse Response
0.7
0.6
0.5
Amplitude
0.4
0.3
0.2
0.1
10
15
20
25
30
35
40
45
50
Time (sec)
0.6
0.5
Amplitude
0.4
0.3
0.2
0.1
10
15
20
25
30
35
40
45
50
Time (sec)
Step Response
25
20
Amplitude
15
10
10
15
20
25
30
35
40
45
50
Time (sec)
Annexe H
Biographies
Sont presentees ici de br`eves biographies de deux scientifiques dont les travaux apparaissent comme essentiels aux
developpements de lapproche temporelle de type espace detat en Automatique.
Le premier, Alexandr Lyapunov, na pas a` proprement parler contribue a` lelaboration des representations detat
mais son travail a` la charni`ere des XIXe` me et XXe` me si`ecles fut un reservoir extra-ordinaire pour les multiples
developpements dans lespace detat. Ce reservoir nest sans doute pas encore e puise aujourdhui.
Le second, Rudolf Kalman, est quant a` lui celui qui peut sans doute e tre considere comme le p`ere de la representation
detat lineaire. Il a su non seulement jete les idees fondamentales mais aussi contribue de mani`ere intensive aux
developpements relatifs aux syst`emes lineaires.
Sa vie
Alexandr Mikhalovich Lyapunov nat a` Iaroslav (Empire russe) le 6 juin 1857 o`u son p`ere dirige un lycee.
Ce dernier dec`ede en 1868 ce qui contraint, en 1870, Madame Lyapunov-M`ere, accompagnee de ses trois enfants, a` demenager vers Nizhny-Novgorod (anciennment Gorki). Cest dans cette ville quAlexandr suit sa scolarite pour obtenir brillamment lequivalent du baccalureat (on lui attribue une medaille dor). Il e tudie alors les
153
Alexandr Lyapunov
154
Rudolf Kalman
ou dun obus, resultats qui ne sont pas sans consequence. De meme, A. I. Lure et A. M. Letov montrent, respectivment en 1957 et 1961, lapplicabilite de la methode directe a` certains probl`emes de commande des mod`eles non
lineaires.
Comme il a e te mentionne dans le paragraphe 3.3, Les Russes parviennent a` mettre Spoutnik en orbite en 1957, les
travaux de Lyapunov, Chetayev, Malkin et autres netant pas e trangers a` cette reussite (cest un euphemisme). Cest
pourquoi le professeur Solomon Lefschetz decide de creer au USA un groupe de recherche charge de promouvoir
en occident la theorie de Lyapunov, groupe parmi lequel figurent J.-P. La Salle, R. E. Kalman et J. E. Bertram. D`es
lors, lapproche temporelle connat un regain dinteret.
En juin 1960, au premier congr`es IFAC de Moscou, Kalman et Bertram font sensation et tout le monde (... ou
presque) souhaite la bienvenue aux representations detat lineaires. Au debut, lon pense quelles napprtent rien
de plus que de simples e quations differentielles mais lutilisation des outils de lalg`ebre lineaire va montrer la
pertinence de loutil et engendrer l automatique moderne . Cest a` partir de ce moment que lon sinteresse a`
nouveau au plan de phase (espace detat) donc aux travaux de Lyapunov.
En 1964, P. C. Parks retrouve, dans lespace detat, les resultats de Routh-Hurwitz. Lon applique la seconde
methode de Lyapunov aux syst`emes lineaires a` temps continu donnant naissance a` ce que lon appelle lequation
de Lyapunov (A P + P A = Q) et son e quivalent en temps discret (P + A P A = Q) dej`a determinee par
Stein en 1952. Elle permet aussi letablissement de crit`eres de stabilite (meme en non lineaire) tels celui de Popov
ou celui du cercle (contributions de Popov, Kalman, Brockett).
Les autres developpements consequents de la seconde methode sont nombreux : e tude des syst`emes dissipatifs,
commande optimale et tous les probl`emes de type Riccati (commande H2 , H , optimisation mixte), probl`eme
dencloisonnement des poles (equations de Lyapunov generalisees (A. G. Mazko en 1980, S. Gutman et E. I. Jury
en 1979 et 1981), un pan entier de la commane robuste, certaines approches detude des syst`emes non-lineaires
(techniques de mode de glissement), syst`emes a` param`etres repartis ou reseaux de neurones, etc.
Encore de nos jous, des conferences sont integralement dediees aux applications des travaux de Lyapunov (exemple : Irkoutsk, 1995) et susceptibles dinteresser les mathematiciens, les physiciens, les mecaniciens, les automaticiens et tant dautres.
Rudolf E. Kalman est ne a` Budapest le 19 mai 1930. Il decide de suivre les traces de son p`ere, ingenieur e lectricien.
Il e migre aux USA puis obtient son baccalaureat. Il recoit du MIT (Massachusetts Institute of Technology) son master en genie e lectrique en 1954. Il quitte le MIT pour continuer ses e tudes a` lUniversite de Colombia o`u il acc`ede
au doctorat es sciences en 1957, sous la direction du professeur John R. Ragazzini.
155
Rudolf Kalman
Ses e tudes au MIT et a` Colombia demontrent tr`es tot son interet pour la theorie des syst`emes et lAutomatique.
Ses premi`eres recherches sur la notion de variable detat sont a` la fois tr`es avancees sur le plan mathematique mais
e galement motivees par un vrai souci de resoudre des probl`emes pratiques.
En 1957 et 1958, Kalman est employe comme ingenieur dans un laboratoire de recherche dIBM a` Poughkeepsie,
e tat de New York. Pendant cette periode, il contribue activement a` la recherche dans la conception de lois de commande pour les syst`emes e chantillones, par lutilisation de crit`eres quadratiques caracterisant les performances de
ces derniers. Il exploite aussi la theorie de Lyapunov pour lanalyse et la commande des syst`emes en general. Il
comprend d`es cette e poque la pertinence de loutil numerique pour la commande des syst`emes a` large e chelle.
En 1958, Kalman rejoint le RIAS (Research Institute for Advanced Study), e quipe de recherche cree par le professeur Solomon Lefschetz (1884-1972) avec comme but, entre autres, de promouvoir davantage la theotie de
Lyapunov en occident. Il y debute en tant que chercheur en mathematiques et est vite promu Directeur Associe
de Recherche. Cest durant cette periode (1958-1964) quil realise ses contributions les plus significatives pour
lautomatique moderne. Ses conferences et publications sont symptomatiques de son incroyable creativite et de
sa volonte detablir une theorie unifiee de lautomatique. Larticle co-ecrit avec J. E. Bertram ou la representation
detat lineaire est rigoureusement introduite fait sensation lors de sa presentation au premier congr`es IFAC (International Federation of Automatic Control) a` Moscou en 1960. Sa recherche concernant des concepts aujourdhui
essentiels tels que la commandabilite et lobservabilite permet de consolider les bases theoriques de lingenierie
des syst`emes. Il unifie les outils danalyse et de conception de lois commande des syst`emes minimisant un crit`ere
quadratique et ce, en temps continu comme en temps discret. Il realise un travail crucial pour lexploitation des
resultats du mathematicien Constantin Caratheodory (1873-1950) en commande optimale, pour la clarification
des connexions entre le principe du maximum de Semenovich Pontryagin (1908-1988) et lequation dHamiltonJacobi-Bellman, de meme que pour le calcul variationnel en general. Non seulement sa recherche met laccent sur
les aspects de mathematiques generales mais elle inclut aussi des aspects tr`es pratiques comme la prise en compte
dun ordinateur comme partie integrante du syst`eme pour implanter la loi de commande.
Cest aussi au cours de son sejour au sein du RIAS que Kalman developpe ce qui est peut-etre sa contribution la
plus cel`ebre, le filtre de Kalman (grossi`erement, ce filtre permet de reconstruire letat du syst`eme en presence
de bruit). Il obtient des resultats relatifs a` la version discr`ete de ce probl`eme vers la fin de 1958 et au debut de 1959.
Sa solution au probl`eme discret lam`ene naturellement a` une solution en temps continu quil developpe en 1960-61
en collaboration avec Richard S. Bucy, inventant ainsi le filtre de Kalman-Bucy . Il transpose les travaux fondamentaux en filtrage de Norbert Wiener (1894-1964), Andrey N. Kolmogorov (1903-1987), Hendrick W. Bode
(1905-1982), Claude E. Shannon (1916-2001), V. S. Pugachev ( ?) et bien dautres dans lespace detat.
Le filtre de Kalman et ses extensions aux probl`emes non lineaires constituent peut-etre loutil le plus applique
de lautomatique moderne. Il est en effet utilise en navigation spatiale (par exemple, sur les engins Apollo ),
sur les radars, pour la commande de divers procedes et meme sur des mod`eles socio-economiques. Sa popularite
est due a` la prise en compte des aspects numeriques tant dans la conception que dans limplantation elle meme.
Dun point de vue strictement theorique, ce filtre e tablit un lien entre filtrage et commande et met en lumi`ere la
dualite des deux probl`emes.
En 1964, Kalman vient travailler au Departement de Genie Electrique, Mecanique et Recherche Operationnelle
de lUniversite de Stanford. Il sy interesse a` la theorie des realisations et la theorie algebrique des syst`emes. Une
fois encore, sa contribution est significative et il ouvre de nouvelles perspectives de recherche.
En 1971, Kalman est nomme graduate research professor de lUniversite de Floride a` Gainsville. Il devient directeur du centre de Theorie Mathematique des Syst`emes. Ses activites de recherche et denseignement sont liees
aux departements de genie e lectrique, de mathematiques et dingenierie pour lindustrie. Il intervient aussi comme
consultant en recherche pour lEcole des Mines de Paris.
Kalman ne modifie pas seulement la vision scientifique de lautomatique moderne mais il contribue aussi fortement
a` promouvoir lapplication des theories associees. Sa personnalite charismatique et ses nombreux cours, exposes,
156
Rudolf Kalman
tant a` lUniversite que dans le monde industriel, attirent un nombre incalculable de chercheurs qui sont grandement
influences par sa conception de lAutomatique. Il agit comme un catalyseur pour un e change international didees.
Kalman publie plus de cinquante articles techniques en revues de haut niveau. En 1962, il est e lu jeune e minent
chercheur de lannee par lAcademie des Sciences du Maryland. Il devient membre IEEE en 1964 et est par
ailleurs membre de plusieurs autres associations professionnelles ou savantes. Il est co-auteur de louvrage Topic
in Mathematical System Theory, Mc Graw-Hill, 1969. Il recoit la medaille dhonneur IEEE en 1974 pour ses
travaux pioniers sur les m
ethodes modernes en theorie des syst`emes, incluant les concepts de commandabilite,
observabilite, filtrage et structures algebriques .
157
Bibliographie
[1] K. Ogata. Modern control engineering - Fourth edition. Prentice Hall International Editions, 2001.
[2] K. Ogata. System dynamics - Third edition. Prentice Hall International Editions, 1994.
[3] K. Ogata. Discrete-time control systems- Second edition. Prentice Hall International Editions, 1995.
[4] B. Pradin. Polycopie de cours dAutomatique :
Toulouse, 3`eme annee specialite AEI. 1992
[5] B. Pradin. Polycopie de cours dAutomatique : Automatique lineaire - Syst`emes a` temps discret . INSA
de Toulouse, 4`eme annee specialite AEI. Edition 1995.
[6] B. Pradin. Polycopie de cours dAutomatique : Automatique lineaire . INSA de Toulouse. Departement
de Genie Electrique. Edition 2005.
[7] Ph. de Larminat. Automatique : Commande des syst`emes lineaires. Editions Hermes, 1993.
[8] A. Rachid and D. Mehdi. Realisation, reduction et commande des syst`emes lineaires. ScientifikA, 1993.
[9] G. F. Franklin, J. D. Powell and A. Emami-Naeini. Feedback Control of Dynamic Systems. Addison-Wesly
Publishing Company, Inc., New York 1994.
[10] E. I. Jury et S. M. Ahn. Remarks on the root-clustering of a polynomial in a certain region in the complex
plane. Quaterly of Applied Mathematics, pages 203-205, juillet 1974.
[11] J. L. Howland. Matrix equations and the separation of matrix eigenvalues. Journal of Mathematical Analysis
and Applications, Vol. 33, pages 683-691, 1971.
[12] M ATLAB users guide : Getting started with M ATLAB. The Math Works Inc.. Version 6.
http : //www.mathworks.com, 2000
[13] P. C. Parks. A. M. Lyapunovs stability theory - 100 years on. IMA journal of Mathematical Control and
Information, 1992, vol. 9, p 275-303.
[14] IEEE Center History - Legacies Rudolf E. Kalman.
http : //www.ieee.org/organizations/history center/legacies/kalman.html.
159