Documente Academic
Documente Profesional
Documente Cultură
Support de Cours
Théorie du signal
Cours & TD de deuxième année Licence
Filières : Electronique & Télécommunications
Réalisé par :
Dr. Mohamed LADJAL
Mai 2016
AVANT PROPOS
Merci à tous ceux, étudiants, enseignants ou lecteurs occasionnels, qui voudront bien
me signaler les erreurs, m'indiquer des lacunes ou me faire part de leurs remarques et
suggestions de tous genres.
Mohamed LADJAL
M’sila, Mai 2016
iii
Semestre : S4
Unité d’enseignement : UEF 2.2.2
Matière 2 : Théorie du signal (VHS: 45h00, Cours : 1h30, TD : 1h30)
Crédits : 02
Coefficient : 02
Objectifs de l’enseignement:
Acquérir les notions de base pour le traitement du signal et des processus aléatoires.
Connaissances préalables recommandées:
Cours de mathématiques de base
Contenu de la matière :
Mode d’évaluation :
Contrôle continu : 40 % ; Examen final : 60 %.
iv
Table des matières
Avant-Propos……………………..……………………………………………………. iii
Programme……………………………………………………………………………….. iv
CHAPITRE I
GENERALITES SUR LES SIGNAUX
Introduction……………………….……………………………………………….………. 01
1. De la théorie du signal au traitement du signal……………………………………….. 02
2. Signal et bruit ……………………….………………………………………..………... 04
2.1. Définition d’un signal ……………………..………………………….……...… 04
2.1. Définition d’un bruit ……………………..………………………….……...… 04
3. Principales fonctions du traitement de signal…………..………..…………. …………. 05
4. Domaines d’applications……………………………………………………………….. 06
5. Modèles et mesure des signaux………………………………………………………… 07
5.1. Modèle mathématique…………………………………………………………... 07
5.2. Modèle fonctionnel……………………………………………………………... 07
6. Classification des signaux……………………………………………………………… 08
6.1. Dimensionnalité………………..………………………………………………. 08
6.2. Caractéristique temporelles....……..……………………………………………. 09
6.3. Valeurs prises par le signal………...……………………………………………. 10
6.4. Prédictibilité des signaux………………………………………………………... 10
6.5. Signaux physiquement réalisables………………………………………………. 10
7. Modes de classification………………………………………………………………… 11
7.1. Classification phénoménologique………………………………………………. 11
7.2. Classification énergétique……………………………………………………….. 11
7.3. Classification morphologique…………………………………………………… 12
7.4. Classification spectrale…………………………………………………………. 13
7.5. Classification dimensionnelle…………………………………………………… 14
Table de matières
vi
Table de matières
CHAPITRE II
ANALYSE DE FOURIER
Introduction…………………………………………………………….………………….. 29
1. Les séries de Fourier ………………………………………………………………. 29
1.1. Série de Fourier complexe………………………………………………………. 29
1.2. Spectre fréquentiel…………………………………………...…………...…...... 30
1.3. Exemple : décomposition d'un train d'impulsions…………………….………… 30
1.4. Séries de Fourier réelles…………………………………………………………. 32
1.5. Séries de Fourier alternative…………………………………………………….. 33
1.6. Développement d’une fonction périodique en série de Fourier………………… 34
1.6.1. Série d’exponentielles imaginaires…………………………..………. 34
1.6.2. Série de sinus et de cosinus…………………………………………… 34
1.6.3. Egalité de Bessel–Parseval…………………………………………… 34
1.7. Développement d’une fonction de support fermé………………………………. 34
1.7.1. Exemple……………………………………………………………… 34
1.7.2. Fonction spatiale et temporelle……………………………………… 35
2. La transformation de Fourier………………………………………………………….. 35
2.1. Transformation de Fourier : définition…………………………………………. 35
2.2. Spectre d'amplitude et spectre de phase………………………………………… 36
2.3. Exemple…………………………………………………………………………. 36
2.4. Fonction de transfert…………………………………………………………….. 38
2.5. Principales propriétés de la transformée de Fourier……………………………. 40
2.6. Théorème de Parseval………………………………………………………….. 41
2.6.1. Energie, Valeur efficace par la série de Fourier – Formule de Paseval 41
vii
Table de matières
CHAPITRE III
TRANSFORMEE DE LAPLACE
Introduction……………………………………………………..……………………….... 45
1. Transformée de Laplace………………………………………………………………… 45
1.1. Définition………………………………………………………………………… 45
1.2. Ordre exponentiel………………………………………………………………… 46
1.3. Existence de la Transformation de Laplace……………………………………… 46
1.4. Unicité de la Transformation de Laplace………………………………………... 46
1.4.1. Transformée Bilatérale………….……………………………………... 46
1.5. Transformation de Laplace Inverse………………………………………………. 46
2. Propriétés de la Transformée de Laplace……………………………………………….. 47
3. Fonctions particulières…………………………………………………………………... 48
4. Méthode de Laplace (Calcul opérationnel)………………….…………………………. 50
5. Modélisation……………………………………………………………………………. 53
6. Transformées usuelles………………………………………………………………….. 54
7. Fonction de transfert……………………………………………………………………. 55
8. Opérations sur les transferts……………………………………………………………. 55
9. Diagramme de Bode……………………………………………………………………. 56
10. Plan de Nyquist – Abaque de Hall…………………………………………………… 56
11. Plan de Black (Nichols) – Abaque de Black…………………………………………. 57
12. Analyse temporelle et fréquentielle………………………………………………….. 57
CHAPITRE IV
PRODUIT DE CONVOLUTION
ET CORRELATION DES SIGNAUX
Introduction………………………………………………………………………………... 63
1. Produit de convolution ………………………………...…………………..………….... 63
1.1. Formulation du produit de convolution .……………………………..………….... 63
1.1.1. Définition du produit de convolution……………………………………... 64
viii
Table de matières
CHAPITRE V
ECHANTILLONNAGE ET SIGNAUX DISCRETS
Introduction………………………………………………………………………………... 72
1. Signaux discrets ……………………….……..……………………………………….... 73
1.1. Signaux élémentaires……………………………………………………………… 73
1.2. Energie et puissance des signaux discrets………………………………………… 74
2. Echantillonnage………………………………………………………………………... 74
3. Echantillonnage idéalisé……………………………………………………………….. 75
4. Echantillonnage réel ………………..………………………………………….…….. 76
5. Théorème d’échantillonnage ...…………………………..…………………………... 76
6. Conversion analogique - numérique et numérique – analogique……………………… 77
7. Quantification………………………………………………………………………….. 79
8. Classification des systèmes de traitement…………………………………………….. 79
8.1.Systèmes numériques……………………………………………………………… 79
ix
Table de matières
Travaux dirigés
Bibliographie et Webographie
x
CHAPITRE I
Introduction
Le traitement du signal est une discipline technique qui a pour objet l'élaboration, la détection
et l'interprétation des signaux porteurs d'informations. Cette discipline s'appuie sur la théorie du
signal qui donne une description mathématique des signaux. Cette théorie fait essentiellement
appel à l'algèbre linéaire, l'analyse fonctionnelle, l’électricité et l’étude des processus aléatoires.
- La protection d’information contre le bruit tel que les techniques pour réduire le taux
d’erreur ou pour contrer les effets du canal (technique d’égalisation).
Chapitre I Généralités sur les Signaux
- Le développement d’applications électroniques et l’évolution aisée vers de nouvelles
fonctionnalités telles que le filtrage sélectif, la mise en place de techniques variées de
modulation/démodulation, …
L'amélioration des performances des systèmes au cours des dernières années est due, pour une
grand part, à l'application des techniques de traitement du signal. C'est le cas notamment en
imagerie médicale, en téléphonie et télécommunication. Les structures matérielles sont
sensiblement les mêmes, mais les techniques de traitement de signal font appel à des traitements
numériques sophistiqués. Les implications en ce qui concerne un diagnostic médical, la
surveillance d'une zone aérienne ou sous-marine ou encore la localisation de pannes sont
immédiates. L'objectif du traitement du signal apparait alors comme un outil mathématique
employé pour extraire un maximum d'informations utiles sur un signal perturbé par du bruit. Les
signaux utiles sont souvent perturbés par des signaux parasites (le bruit) qui les masquent parfois
complètement. Pour atténuer, sinon supprimer ce bruit il faut en connaître les caractéristiques
ainsi que celles du signal utile. C'est pourquoi le traitement du signal est une discipline très
mathématique. Les techniques utilisées peuvent être appliquées à un signal analogique (continu)
mais compte tenu de leur complexité, un traitement numérique s'impose presque toujours. Il est
rendu possible grâce à la puissance des circuits de calculs et des ordinateurs modernes.
Les mots signal et information sont communs dans le langage courant. Dans le monde
scientifique, ces mots ont des significations bien précises : en particulier, théorie de
l’information, théorie du signal et traitement du signal correspondent à des notions différentes,
illustrées à la figure 1.1 dans le cadre d’une chaîne de communications. De façon encore plus
générale :
9 La théorie du signal représente l'ensemble des outils mathématiques décrivant les signaux
et les bruits émis par une source ou modifiés par un système de traitement, notamment : la
transformée de Fourier (TF), Analyse fonctionnelle, Analyse statistique et Méthode d’estimation
et qui permet de décrire les signaux et les bruits émis par une source, ou modifiés par un système
de traitement (figure 1.1). La théorie du signal a pour objectif fondamental la description
mathématique des signaux. Elle permet ainsi d'établir une représentation d'un signal en fonction
2
Chapitre I Généralités sur les Signaux
du temps ou de l'espace contenant une information à stocker, à transformer, à transmettre ou à
recevoir. La théorie du signal ne préjuge pas de la nature physique du signal,
9 La théorie de l’information est l’ensemble des outils mathématiques qui permet de décrire
la transmission de messages véhiculés d’une source vers un destinataire,
9 Le traitement du signal est l’ensemble des méthodes et des algorithmes qui permet
d’élaborer ou d’interpréter les signaux porteurs d’information. Plus précisément :
- élaboration : synthèse, analyse, régénération, codage, modulation, identification,
changement de fréquence,
- interprétation : décodage, démodulation, filtrage, détection, identification, mesure, etc.
Actuellement, les méthodes de traitement sont presqu’en totalité numériques, ce qui suppose :
Canal
Capteur Destinataire
Source Emetteur Récepteur Décodeur / Traitement
/Codeur
Systèmes physique
Bruit
Information utile
+ Bruit résiduel
Théorie du signal
Figure 1.1. Théorie de l’information et du signal dans une chaîne de transmission d’un signal analogique.
3
Chapitre I Généralités sur les Signaux
dans tous les domaines concernés par la perception, la transmission ou l’exploitation de ces
informations, dès qu’un capteur mesure une grandeur physique porteuse d’information, qui est
perturbée (par du bruit ou le système de mesures) et qui devra être traitée pour en extraire
l’information utile. Les méthodes de traitement du signal permettent d’imaginer des méthodes
plus sûres, plus fiables, plus rapides pour analyser et transmettre des signaux. Elle offre
également les moyens d’analyser la nature des altérations ou modifications subies par les
signaux lors de leur passage au travers de blocs fonctionnels (dispositifs généralement
électriques ou électroniques).La description mathématique des signaux permet de concevoir et de
caractériser des systèmes de traitement de l'information. Le bruit représentera tout « signal » ou
phénomène perturbateur.
2. Signal et bruit
2.1. Définition d’un Signal : vient du latin signum : signe ; variation d’une grandeur physique de
nature quelconque porteuse d’information.
Le mot signal est pratiquement toujours associé au mot bruit. Ce dernier est utilisé dans le
langage commun, mais il revêt, dans la théorie du signal, un sens bien particulier. On parle par
exemple de : signal électrique (téléphonie), onde électromagnétique (télécommunication), onde
acoustique (sonar), onde lumineuse (fibre optique), signal binaire (ordinateur). On parle
également de signal de mesure, de commande, de signaux vidéo, audio, etc...en fonction de la
nature de l'information transmise.
2.2. Définition d’un Bruit : vient du latin populaire brugere : braire et rugire : rugir ;
perturbation indésirable qui se superpose au signal et aux données utiles, dans un canal de
transmission ou dans un système de traitement de l’information et gênant la perception de ce
signal.
4
Chapitre I Généralités sur les Signaux
Un bruit correspond à tout phénomène perturbateur gênant la transmission ou l'interprétation d'un
signal.
Le rapport signal sur bruit mesure la quantité de bruit contenue dans le signal. Il s'exprime par le
rapport des puissances du signal (PS) et du bruit (PB). Il est souvent donné en décibels (dB).
; 10 (1.1)
Ainsi, il apparaît évident qu’un problème fondamental en traitement du signal sera d’extraire le
signal utile du bruit. La difficulté du problème dépend en particulier de la proportion entre signal
et bruit. Ceci est mesuré par le rapport signal à bruit (RSB, ou SNR en anglais pour Signal to
Noise Ratio).
Le RSB mesure donc la qualité du signal. C’est une mesure objective. Cependant, dans de
nombreux cas, en particulier ceux où l’opérateur humain intervient dans la chaîne de traitement,
cette mesure n’est pas très significative. Ceci est particulièrement vrai pour les signaux audio ou
les images et les vidéos. Des mesures subjectives, ou des mesures plus fines, prenant en compte
les propriétés de la perception humaine doivent être mises en œuvre.
· L’analyse : On cherche à isoler les composantes essentielles d'un signal de forme complexe, afin
d'en mieux comprendre la nature et les origines.
· La mesure : mesurer un signal, en particulier aléatoire, c'est essayer d'estimer la valeur d'une
grandeur caractéristique qui lui est associée avec un certain degré de confiance.
· Le filtrage : c'est une fonction qui consiste à éliminer certaines composantes indésirables du
signal.
· La régénération : c'est une opération par laquelle on tente de redonner sa forme initiale à un
signal ayant subis diverses distorsions.
5
Chapitre I Généralités sur les Signaux
· La détection : par cette opération on tente d'extraire un signal utile du bruit de fond qui lui est
superposé.
· Le codage : outre sa fonction de traduction en langage numérique, est utilisé soit pour lutter
contre le bruit de fond, soit pour tenter de réaliser des économies de largeur de bande ou de
mémoire d'ordinateur.
4. Domaines d'applications
6
Chapitre I Généralités sur les Signaux
la nature des strates du sous-sol. Cette technique est utilisée dans le domaine de la prospection
minière et dans la prédiction des tremblements de terre.
En imagerie : on trouve des applications dans le domaine médical (reconstruction
tomographique, imagerie par résonance magnétique - IRM), dans le spatial (traitement de photos
satellites ou d'images radar). Ce domaine inclut aussi les techniques de reconnaissance de formes
et de compressions.
Le traitement de séquences vidéo concerne la compression, la restauration, la réalisation
d'effets spéciaux, l'extraction de descripteurs (reconnaissance de formes et textures, suivi de
mouvements, caractérisation etc.) afin de produire des annotations automatiques dans une
perspective de bases de données (recherche par le contenu).
On peut aussi citer quelques domaines d’applications du traitement du signal :
Techniques de mesures, Etude des vibrations mécaniques, Surveillances de processus industriels,
Reconnaissance de formes, Analyses biomédicales, Géophysique, Séismologie, Astronomie,
Radar, Sonar, Acoustique, etc …
5. Modèles et mesure des signaux
5.1. Modèle mathématique
Le modèle mathématique d’un signal est une fonction d’une, deux ou trois variables : x(t) ;
x(i, j); x(i, j, t). Le premier cas est le plus courant : la variable t est usuellement le temps mais elle
peut aussi représenter une autre grandeur (une distance par exemple). La fonction représente
l’évolution d’une grandeur électrique ou traduite sous cette forme par un capteur approprié :
microphone : signal acoustique, caméra : signal vidéo…
. (1.2)
7
Chapitre I Généralités sur les Signaux
. (1.3)
Produit de convolution
(1.4)
, . (1.5)
Transformée de Fourier
. (1.6)
On rappelle qu’un signal est une fonction dépendant d’une ou de plusieurs variables. Par
exemple soit le signal : s(t), s est une quantité dépendant d’un paramètre t (par convention, on
utilisera la lettre t pour la variable temps).
Un signal peut être classé selon différents critères : sa dimensionnalité, ses caractéristiques
temporelles, les valeurs qu’il peut prendre, sa prédictibilité.
6.1. Dimensionnalité
On peut tenir compte de ce critère de deux manières différentes : la dimension du signal et les
dimensions des variables du signal.
Considérons tout d’abord ce critère de classification comme étant la dimension de l’espace des
valeurs prises par le signal (ou la fonction mathématique modélisant le signal). On distingue
alors:
– le signal scalaire, ou signal monocanal pouvant prendre des valeurs réelles ou complexes.
– le signal vectoriel, ou signal multi-canal pouvant prendre des valeurs réelles ou complexes.
Prenons par exemple un signal de Télévision (TV). Si on s’intéresse aux trois couleurs
constituant une image, ce signal TV prend des valeurs dans un espace à trois dimensions, une
première pour le rouge, une seconde pour le vert et enfin une troisième pour le bleu ;
8
Chapitre I Généralités sur les Signaux
Par contre, si on s’intéressé maintenant à la luminance, ce signal prend ses valeurs dans un espace
à une dimension ; [L] = TV (t).
– Le signal mono-dimensionnel qui correspond à des fonctions à un seul argument, comme par
exemple le temps.
Le signal TV correspondant à la luminance peut être fonction du temps mais aussi des variables
cartésiennes correspondant à un point de l’écran ; [I] = TV (t; x; y). Il s’agit d’un signal
tridimensionnel.
Les signaux abordés dans ce cours seront mono-dimensionnels fonction d’une variable que
l’on considérera comme le temps. Toutes les techniques de traitement du signal se généralisent
assez bien aux signaux vectoriels et multidimensionnels (voir le cours sur le traitement
d’images).
- Les signaux à temps discret : ces signaux sont définis pour certaines valeurs de la variable t.
On peut représenter un signal à temps discret par une séquence indicée de la variable t :
tn précise un instant pour lequel le signal est défini. Attention, cela ne veut pas dire que le signal
est nul entre deux instants ; il n’est tout simplement pas défini.
On s’intéressera ici à une répartition uniforme des instants tn que l’on peut noter tn = nT où T est
l’espace temporel entre deux échantillons consécutifs. On peut alors employer s(n) ou sn comme
notation simplifiée. On a alors les relations suivantes :
(1.8)
9
Chapitre I Généralités sur les Signaux
6.3. Valeurs prises par le signal
– Les signaux à valeurs continues pouvant prendre une valeur réelle dans un intervalle continue
(par exemple, une tension ou un courant électrique).
– Les signaux à valeurs discrètes prenant seulement des valeurs parmi un ensemble fini de
valeurs possibles.
Soit par exemple un convertisseur Analogique/Numérique traitant des mots de 8 bits ; un signal
quantifié par ce convertisseur prendra une valeur discrète parmi 256 possibles.
On peut distinguer deux grandes classes de signaux selon leur caractère de prédictibilité.
– Les signaux déterministes qui peuvent être représentés explicitement par une fonction
mathématique.
– Les signaux aléatoires qui évoluent dans le temps d’une manière imprédictible. Il est cependant
possible de décrire mathématiquement certaines caractéristiques statistiques de ces signaux.
10
Chapitre I Généralités sur les Signaux
7. Modes de classification
- Une classification énergétique : une distinction fondamentale peut être faite entre deux
catégories de signaux :
Les signaux à énergie finie ;
Les signaux à puissance moyenne finie non nulle ;
On met ainsi en évidence le type d’évolution du signal. Il peut être à caractère prédéterminé ou il
a un comportement non prévisible.
Un signal déterministe est un signal dont l’évolution en fonction du temps peut être parfaitement
prédite par un modèle mathématique approprié.
Au contraire, la plupart des signaux d’origine physique ont un caractère non reproductible. Les
signaux porteurs d’information (signaux de parole, d’image,…) présentent une certaine
imprévisibilité, ils seront modélisés par des signaux aléatoires.
On distingue ici les signaux satisfaisant à un condition d’énergie finie à ceux présentant une
puissance moyenne finie et une énergie infinie.
| | (1.9)
11
Chapitre I Généralités sur les Signaux
∞ | | (1.10)
La première catégorie comprend les signaux de type transitoire qu’ils soient déterministes ou
aléatoires (exemple une impulsion carré ou gaussienne) et la deuxième catégorie englobe les
signaux de type permanent, périodique, déterministe et les signaux aléatoires permanents.
Selon que le signal x(t) où la variable t est continue ou discrète ( tk =kT ) on distingue quatre
types de signaux (figure 1.2) :
12
Chapitre I Généralités sur les Signaux
L'analyse spectrale d'un signal (ou la répartition énergétique en fonction de la fréquence) conduit
à une classification :
La largeur de bande B d'un signal est le domaine principale des fréquences occupés par son
spectre. Elle est définie par la relation : f2 - f1 avec 0 ≤ f1 < f2, où f1 et f2 sont des fréquences
caractéristiques dénotant respectivement les limites inférieure et supérieure prises en compte.
Un signal dont le spectre est nul en dehors d'une bande de fréquences spécifiée B est appelé
signal à bande limité ou de spectre à support borné. On distingue aussi :
Les signaux dont l'amplitude s'annule en dehors d'un intervalle de temps T, x(t) = 0 pour t ∉T
sont appelés signaux de durée limitée ou à support borné.
C'est le cas de tous les signaux physiquement réalisable pour lesquels l'amplitude ne peut pas
dépasser une certaine valeur limite, souvent imposée par des dispositifs électronique de
traitement.
Un signal est pair si x(t) = x(-t); il est impair si : x(t) = - x(-t). Ce qui implique que tout signal réel
peut être décomposé en une partie paire et une partie impaire : x(t) = xp (t) + xi (t).
• Signaux causaux
13
Chapitre I Généralités sur les Signaux
Un signal est dit causal s'il est nul pour toute valeur négative du temps: x(t) ≡ 0 pour t<0.
Un signal est de durée finie s’ il est nul en dehors d’un certain intervalle : 0, . Ces
signaux sont appelés signaux de durée limitée ou à support borné.
Signaux
Déterministes Aléatoires
8.1. Signaux déterministes
14
Chapitre I Généralités sur les Signaux
Ils sont des signaux dont l’évolution, en fonction de la variable indépendante, peut être
prédite parfaitement par une représentation mathématique appropriée. Ils sont classés comme
suit :
‐ Les signaux périodiques, satisfaisant à la relation :
‐ Les signaux sinusoïdaux (figure 1.4) d’équation générale :
Qui forment le groupe le plus familier des signaux périodiques ;
‐ Les signaux périodiques composites (figure 1.3), d’équation générale :
- Les signaux pseudo‐aléatoires, sont des signaux périodiques; mais sur un période, ils se
comportent comme des signaux aléatoires. (figure 1.5).
Dans la deuxième classe, celle signaux non périodiques, on trouve :
- Les signaux quasi‐périodiques (figure 1.6), d’équation générale :
S (t ) = ∑ sin (ω i t + ϕ i ) (1.14)
i
- Les signaux transitoires (figure 1.7), d’équation générale :
S (t ) = e − at sin(ωt ) a réel (1.15)
Qui sont définis seulement sur un intervalle (signaux à support borné).
15
Chapitre I Généralités sur les Signaux
Figure 1.5 Signal pseudo‐aléatoire
Figure 1.6. Signal quasi‐périodique Figure 1.7. Signal transitoire
8.2. Signaux aléatoires
Il s’agit des signaux dont le modèle mathématique n’est pas connu, donc leur évolution en
fonction du temps est imprévisible. Leur description est sujette à des observations statistiques.
Ils obéissent à la loi du hasard, on les classe comme suit :
- les signaux aléatoires stationnaires, dont les caractéristiques statistiques sont invariantes dans
le temps ; (figure 1.8)
- les signaux aléatoires non stationnaires, qui ne jouissent pas de ces propriétés ; (figure 1.9)
- Les signaux ergodiques, si dont les moyennes statistiques et temporelles sont identiques ;
16
Chapitre I Généralités sur les Signaux
Figure 1.8. Signal aléatoire stationnaire
à large bande. Figure 1.9. Signal aléatoire non stationnaire.
9. Processus aléatoire
- Processus discret, dans lequel les valeurs possibles de la variable aléatoire sont discrètes.
- Processus continu, dans lequel les valeurs possibles de la variable aléatoire sont continues.
Les processus stochastiques ont pour but d’introduire la description des signaux aléatoires
porteurs d’informations à transmettre ou représentant des bruits générés par un phénomène
physique et essentiellement consacrés aux propriétés du second ordre qui sont généralement
décrites par la fonction de corrélation qui sera décrite par la suite.
9.1. Caractéristiques
En considérons k instants t1 ,..., tk on peut définir k variables aléatoires S (t1 ),..., S (tk ) dont la
description statistique passe pour la loi de probabilité (Fonction de répartition).
F ( S1 ,..., S k ; t1 ,..., tk ) = prob[ S (t1 ) ≤ S1 ,..., S (tk ) ≤ S k ; t1 ,..., tk ]. (1.16)
Où S1 ,..., S k sont les états pris pour la variable S (t ) aux instants t1 ,..., tk il s’agit‐ là de la
statistique d’ordre k .
17
Chapitre I Généralités sur les Signaux
9.1.1. La fonction de répartition
La fonction de répartition F ( Si ; ti ) est la probabilité d’obtenir par un prélèvement au
hasard, une valeur inférieure ou égale à ( Si ; ti ) .
∂FS ( S i ; t1 )
PS ( S i ; t1 ) = (1.20)
∂S
+∞
E [ S (t1 )] = S (t1 ) = m(t1 ) = ∫ S P( S ; t )dS
−∞
1 1 1 1 (1.21)
Cette définition est équivalente à celle de la moyenne d’ordre 1 et de degré 1.
18
Chapitre I Généralités sur les Signaux
9.1.4. Les moyennes
Les moyennes d’une ou plusieurs variables aléatoires sont définies comme les espérances
mathématiques des différentes puissances de ces variables aléatoires. Il s’agit de moyennes
statistiques et temporelles.
Le moment d’ordre 2 des variables S (t1 ) et S (t2 ) est appelé la fonction d’auto-corrélation
+∞ +∞
ΓSS (t1 , t 2 ) = E [ S (t1 ).S (t 2 )] = ∫ ∫ S S P( S , S ; t , t
−∞−∞
1 2 1 2 1 2 )dS1dS 2 (1.23)
Dans le cas de deux processus aléatoires S (t ), Y (t ) , le moment d’ordre 2et de degré 1 est la
+∞ +∞
ΓSY (t1 , t 2 ) = E (t1 , t 2 ) = E [ S (t1 ).Y (t 2 )] = ∫ ∫ S Y P( S , Y ; t , t
−∞ −∞
1 2 1 2 1 2 )dS1dY2 (1.24)
+∞
mn (t1 ) = S n (t1 ) = ∫S P ( S1 ; t1 )dS1 (1.25)
n
1
−∞
19
Chapitre I Généralités sur les Signaux
T
+
2
1
Si (t ) = S (t ) = lim
T →∞ T ∫ S (t )dt (1.26)
T
−
2
La FAC, qui est la valeur moyenne temporelle du produit de S (t ) par S (t + τ ) est
donnée par :
T
+
2
1
S (t ).S (t + τ) = lim
T →∞ T ∫ S (t ).S (t + τ)dt (1.27)
T
−
2
Dans le cas de deux processus aléatoires S (t ) et Y (t ) , la fonction d’inter corrélation
(cross‐ corrélation) est donnée par la relation :
T
+
2
1
S (t ).Y (t + τ) = lim
T →∞ T ∫ S (t ).Y (t + τ)dt (1.28)
T
−
2
Remarque : Deux signaux ayant des amplitudes différentes peuvent présenter dans le même
intervalle de temps des moyennes temporelles identiques.
9.2. Processus aléatoire complexe
Un processus aléatoire S (t ) à valeurs complexes est défini par la même manière que le
processus aléatoire réel que nous avons considéré précédemment, mais à deux dimensions
( R (t ) , I ( t ) ) comme suit :
S (t ) = R (t ) + jI (t ) (1.29)
20
Chapitre I Généralités sur les Signaux
Pour le moment du second ordre :
et
Où :
ΓSS
*
(t1 , t2 ) : est le conjugué de ΓSS (t1 , t2 ) .
T
2
1
S * (t )S (t + τ ) = lim ∫ S (t )S (t + τ )dt
*
(1.33)
T →∞ T T
−
2
9.3. Stationnarité
La notion de stationnarité joue un rôle essentiel dans l’étude des signaux aléatoires, on trouve :
9.3.1. Processus strictement stationnaire (au sens strict)
Un signal aléatoire S (t2 ) est strictement stationnaire si sa loi temporelle est invariante
àtout changement de l’origine du temps, cela peur s’exprimer par :
21
Chapitre I Généralités sur les Signaux
9.3.2. Processus faiblement stationnaire (au sens large)
Dans ce cas on a :
ΓSS (t1 , t2 ) = E[ S * (t1 ) S (t2 )] = E[ S * (t1 ) S (t1 + τ)] = ΓSS ( τ ) (Fonction uniquement
de τ = t 2 − t1 ).
ΓSS ( τ) est continue à l’origine.
Remarque :
D’où :
9.4. Ergodicité
Un processus est dit ergodique lorsque toutes ses moyennes temporelles (moments
temporels) sont identiques, on écrit :
S1 (t ) = S 2 (t ) = ... = S N (t ) (1.36)
E[ S (t )] = S (t ) (1.37)
22
Chapitre I Généralités sur les Signaux
Remarque : L’ergodicité et la stationnarité sont indépendantes.
Un système est une entité physique qui réalise une opération sur un signal. Un système définit
donc un signal d’entrée et un signal de sortie ; le signal de sortie correspond à la transformation
opérée par le système sur le signal d’entrée. Par exemple, l’oreille humaine est un système
transformant un signal correspondant à une variation de pression acoustique en des séquences
parallèles de signaux électriques sur le nerf auditif. Un microphone est un système un peu
analogue au précédent (en première approximation très réductrice...) dans la mesure où une
variation de pression acoustique est transformée en un signal électrique monodimensionnel.
L’étude de tels systèmes conduit à analyser les transformations entre signaux d’entrée et de sortie
pour des systèmes plus ou moins complexes ; cette activité est appelée traitement du signal. On
ne parlera ici que du traitement des signaux numériques.
L'impulsion de Dirac δ(t) (figure 1.10), aussi appelée impulsion unité ou distribution delta, est
définie par le produit scalaire :
0 , (1.38)
(1.39)
1 (1.40)
Figure 1.10. Impulsion de Dirac
23
Chapitre I Généralités sur les Signaux
Propriétés :
. 0 .
. .
• Identité :
• Translation :
• Changement de variable :
1
2
. .
24
Chapitre I Généralités sur les Signaux
Figure 1.11. Peigne de Dirac
11.2. Fonction signe
Sgn(t)
+1
1 0 0
0 t
1 0 | |
Par convention la valeur à l’origine est nulle. ‐1
1 1 0, 0
2 2 1, 1 0
. 0
25
Chapitre I Généralités sur les Signaux
1, | |
0, | |
)
De même : ) 0 t
τ‐T/2 τ τ+T/2
26
Chapitre I Généralités sur les Signaux
0 1
, | | (1.41)
Soit x(t) un signal quelconque (fonction complexe), la puissance moyenne sur [t1 , t2] est définie
par :
, | | (1.43)
∑ (1.44)
où xp(t) est le signal sur une période T0, alors la puissance moyenne sur une période est égale à :
lim | | | | (1.45)
27
Chapitre I Généralités sur les Signaux
12.3. Signaux à énergie finie
Un signal x(t) est dit à énergie finie s’il est de carré sommable, c’est –à-dire si :
| | ∞ (1.46)
lim | | ∞ (1.47)
| | ∞ (1.48)
Exemple :
Calculer dans chaque cas l’énergie totale et la puissance moyenne totale (a > 0).
⁄ ; ; ; ; ⁄
Solution :
, ; , ∞, , ∞; ∞, ∞; ,
28
CHAPITRE II
ANALYSE DE FOURIER
Introduction
Le but de ce chapitre est d'introduire l'analyse de Fourier dans le cadre des systèmes
électroniques linéaires. Cette analyse est une analyse de type fréquentielle, étendue à des
régimes qui ne sont pas forcément sinusoïdaux. L'analyse de Fourier est très utilisée en
électricité comme en physique. On introduit les séries de Fourier complexes et réelles. Les
termes des séries de Fourier sont des fonctions sinusoïdales et cosinusoïdales. A nouveau, on
aperçoit l'importance de l'analyse harmonique des systèmes, puisque la pertinence de ces
décompositions est garantie pour tout système linéaire (principe de superposition).
∑ (2.1)
Chapitre II L’analyse de Fourier
; cos (2.2)
(2.3)
, 0,1,2, … (2.4)
, (2.5)
Ce spectre fréquentiel est donc une manière de représenter un signal périodique, et cela reste
valable dans le cas général d'un signal non périodique (d'énergie finie), ce que nous verrons
avec la transformée de Fourier.
30
Chapitree II L’analyse dee Fourier
, 0,1,2, … (2.7)
F
Figure 2.2. Exxemple : Speectre fréquen
ntiel discret de
d l’impulsioon.
31
Chapitree II L’analyse dee Fourier
On a le développem
ment suivannt, pour les séries
s de Fo
ourier réelles :
∑ cos 2 s 2
sin (2.9)
c 2
cos
s 2
sin
∆ ∆ ∆
2 ∑ (2.10)
∆
32
Chapitre II L’analyse de Fourier
Remarquons que le spectre unilatéral n'est pas la version tronquée du spectre bilatéral : les
harmoniques ont le double d'amplitude par rapport à ce dernier, sauf cas particulier, celui de
la fréquence nulle . Il faut voir que le spectre bilatéral d'un signal sinusoïdal est donné par les
deux fréquences : la positive et la négative, et leur amplitude est la moitié de celle de la
fréquence du spectre unilatéral.
Exemple :
Soit un signal pair x(t) de période T défini sur 0, représenté par la figure ci-dessus :
x(t)
2 4 4 2
-x
∑ cos 2
et ∑
∑ cos 2 , A0 = a0 (2.11)
33
Chapitre II L’analyse de Fourier
• Théorème de Fourier :
et
• Cas général :
∑ cos sin
; cos ; sin
• Parité :
Si x(t) est paire, on aura ∀n ∈ N , bn = 0
Et donc ∑ cos
Le terme pour n = 1 s’appelle le fondamental ou la première harmonique.
Celui pour n = 2 s’appelle deuxième harmonique, etc.
| | ∑ | | | | ∑ | | | | (2.12)
1.7. Développement d’une fonction de support fermé
1.7.1. Exemple
34
Chapitre II L’analyse de Fourier
- Fonctions spatiales
x : abscisse, L : longueur (ou longueur d’onde), : pulsation spatiale.
On a: ∑
- Fonctions temporelles
, ,
: pulsation temporelle ; ∑ .
2. La transformation de Fourier
En électronique et en traitement de signal, les signaux ne sont pas tous périodiques, cela
représente même l'exception. Le développement en séries de Fourier ne représente donc pas
forcément l'outil d'analyse privilégié, puisqu'il est nécessaire pour cela d'avoir des signaux
périodiques.
(2.13)
Où :
(2.14)
On dit que x(t) et X(f) forment une paire de transformée de Fourier, c’est noté par :
(2.15)
La transformée de Fourier existe si les trois conditions de DIRICHLET sont vérifiées (il s’agit
de conditions suffisantes mais pas nécessaires) :
- x(t) possède un nombre fini de maxima et de minima sur tout intervalle fini,
35
Chapitree II L’analyse dee Fourier
| | ∞ (2.16)
Il est im
mportant de noter que toous les signnaux d’énerg
gie finie, c-àà-d tous les signaux dee L2.
∞ (2.17)
Exemplle :
On notee l
l’impulsion rectangulaiire définie par
p :
, ⁄2, ⁄2
(2.18)
0,
On cherrche alors de
d calculer laa transform
mée de Fourier (TF) de x(t).
x
⁄ ⁄
⁄ ⁄
Le spectre d'amplittude : ,| |
2.3. Exeemple :
Equatioon de l'impuulsion :
∆
36
Chapitree II L’analyse dee Fourier
∆
Tous caalculs faits,, on obtient pour sa transformée
t e de Fourier : .∆ . On
∆
Figu
ure 2.5. Exem
mple : Transfformée de Fo
ourier du siggnal rectanguulaire.
Remarq
ques
Contrairrement au développem
d ment en sériees de Fourier qui génèère une foncction périod
dique sur
tout l'axxe réel quellles que soieent les valeeurs prises par
p cette fonnction en ddehors de laa période
considérée, la transsformation de
d Fourier est
e appliquéée à la foncttion agissannt sur tout l'axe réel.
Il est aiinsi créé unne correspoondance entrre l'espace temporel où
o le signal évolue, et l'espace
fréquenntiel un peu plus abstraiit. Les électriciens appeellent cela la
l dualité teemps-fréqueence. Les
cristalloographes paarlent d'espaace direct et d'espace rééciproque, etc...
e
37
Chapitree II L’analyse dee Fourier
2.4. Fon
nction de trransfert
Si on réduit
r la traansformatioon de Laplaace à celle de Fourierr, on prendd comme vaariable :
2 . Ainsi, la
l fonction de transfertt de Laplacce se transfo
forme en ceelle de Fourrier avec
cette suubstitution. Et
E cette fonnction de traansfert de Fourier
F n'estt rien d'autrre que celle obtenue
avec less nombres complexes et qui corrrespond en fait à la foonction de transfert en
n régime
harmonnique.
Schémaa-bloc du syystème :
38
Chapitree II L’analyse dee Fourier
(2.19)
. (2.20)
Par le diviseur
d dee tension dans le dom
maine des p,
p on obtiennt la fonctiion de tran
nsfert de
Laplacee:
Signal d'entrée
d :
Signal de
d sortie :
39
Chapitre II L’analyse de Fourier
Déplacement fréquentiel
Modulation d’amplitude
2 . ; x(t) : le signal modulé en amplitude, m(t) : est le message
2
Moyennes
0 ; 0
Différentiation dans le domaine temporel
2 ; 2
Propriété de dualité
si alors,
Propriétés de conjugaison et symétrie
si alors, ; ;
On en déduit que, si x(t) est réels, alors : X(f) = X*(-f), et :
- La partie réelle de X(f) est paire,
- La partie imaginaire de X(f) est impaire,
- Le module de X(f), |X(f)| est pair,
- La phase de X(f), φ(f) est impaire.
40
Chapitre II L’analyse de Fourier
Parité
Pair :
Impair:
Impulsion du Dirac
0, 0
; 1
∞, 0
; 1, 1 ,
L'égalité de Parseval dite parfois théorème de Parseval est une formule fondamentale de
la théorie des séries de Fourier. Cette formule peut être interprétée comme une généralisation
du théorème de Pythagore pour les séries dans les espaces de Hilbert. Dans de nombreuses
applications physiques (courant électrique par exemple), cette formule peut s'interpréter
comme suit : l'énergie totale s'obtient en sommant les contributions des différents
harmoniques. L'énergie totale d'un signal ne dépend pas de la représentation choisie :
fréquentielle ou temporelle.
| | | | (2.21)
∑ (2.22)
,
41
CHAPITRE III
TRANSFORMEE DE LAPLACE
Introduction
La transformée de Laplace est une opération intégrale qui permet de transformer une
fonction d’une variable réelle en une fonction d’une variable complexe. Par cette transformation,
une équation différentielle linéaire peut être représentée par une équation algébrique. Elle
permet aussi de représenter des fonctions particulières (distribution de Heaviside, distribution de
Dirac, etc.) de manière très élégante. Ce sont ces possibilités qui rendent la transformation de
Laplace intéressante et populaire auprès des ingénieurs. Cette transformation a donné lieu à la
technique du calcul opérationnel ou calcul symbolique qui facilite la résolution des équations
différentielles linéaires qui représenteront les systèmes que nous allons étudier.
1. Transformée de Laplace
1.1. Définition
Soit f(t) une fonction a valeur réelle ou complexe de la variable réelle t définie de [ 0 à ∞ [ et
soit , une variable complexe; l’expression :
(3.1)
On dira qu’une fonction f(t) est d’ordre exponentiel à l’infini si et seulement si, il existe un
couple de nombres réels et M tel que :
| | , 0 (3.2)
Soit f(t) une fonction continue par morceau sur l’intervalle fermé [0, a] (pour tout a>0) et
ayant un ordre exponentiel à l’infini tel que | | , 0 ; alors, la transformation de
Laplace existe et est définie pour .
Alors f (t) = g(t) pour 0, , pour tout D > 0, sauf peut être en un nombre fini de points.
Exemple 1:
Si f (t) = 1, alors : 1
Il y’a convergence si Re{(p-a )}> 0 ou Re{p} > Re {a}. Tel que Re : représente la partie réelle.
On définit aussi une transformation de Laplace sur le domaine R des nombres réels:
(3.3)
Cette transformation n’est pas beaucoup utilisée dans le domaine de l’engineering car on
considère les signaux qui respectent la causalité et donc qui existent à partir d’un instant t0.
43
Chapitre III Transformée de Laplace
(3.4)
où le chemin d’intégration peut être choisi quelconque dans le plan complexe à condition de
rester dans le domaine de convergence de F(p).
2.4. Dérivées
La dérivée première est obtenue par : 0 0
"
La dérivée seconde : 0 0 0 0
La dérivée troisième :
" "
0 0 0 0 0 0
44
Chapitre III Transformée de Laplace
(3.10)
2.6. Théorème de la valeur finale
On peut déterminer la valeur de la fonction f(t) à l’infini si on connaît la limite pour sÆ0 de
sa transformée de Laplace.
∞
(3.11)
2.7. Retard ou délai ou règle de translation en t
Si alors . est appelé facteur de retard.
2.8. Règle de translation complexe en p
Exemple :
. .
(3.13)
3. Fonctions particulières
Dans l’étude des systèmes et des équations différentielles qui servent à les décrire, on utilise
une famille particulière de fonctions, les fonctions singulières qui sont des fonctions de
45
Chapitre III Transformée de Laplace
fonctions ou Distributions. Pour bien comprendre ces fonctions singulières, il faut les étudier
dans le cadre de la théorie des distributions qui est une théorie qui généralise la théorie des
fonctions.
Les Distributions qu’on utilise plus fréquemment sont la distribution échelon unité
(distribution de Heaviside). La distribution impulsion unité (Distribution de Dirac) et la
distribution pente unité.
1,
0,
On peut définir l’impulsion unité comme une fonction nulle partout sur sauf en un
seul point t0 ou elle prend une valeur infinie.
∞,
0,
La Distribution de Dirac peut être approchée par le signal représenté dans la figure 3.1 , si on fait
tendre ε vers 0, δ1 ne tend pas vers une limite au sens des fonctions, mais au sens des
distributions car δ1(t) n'est pas dérivable aux deux points de discontinuités. Cette limite est δ(t) ,
qui est appelée la distribution de Dirac.
. lim lim 1
(On utilise les développements limités ou la règle de l'Hospital). On observe que la surface est
égale à 1 quel que soit ε donc : 1
, 0
Soit : ; Calculons donc
0, 0
3)-On détermine la solution Y(p) dans le plan de Laplace que l’on développe en termes simples.
4)- Il reste à déterminer la solution y(p). Pour cela, on effectue la transformation inverse de Y(p)
en utilisant la table des transformations.
4.1. L’expansion de y(p) en fonctions simples
Pour pouvoir inverser la transformée de Laplace, qui est exprimée comme :
Y(p) = N(p)/D(p), on décompose l’équation obtenue en un produit de facteurs. Suivant la forme
de décomposition obtenue, on distingue trois cas.
4.1.1. Les pôles de Y(p) sont tous simples
Supposant que D(p) possède des pôles p0, p1, p2,...,pn on peut écrire Y(p) sous la forme :
47
Chapitre III Transformée de Laplace
(3.14)
- On connaît la réponse temporelle pour chaque terme de la somme, il suffit de déterminer les
coefficients A1, A2, An. Pour cela, on peut procéder par la méthode d’identification ou mieux
encore en faisant appel à des techniques de décomposition des résidus. Par la technique des
résidus, on procède de la manière suivante : pour déterminer A on multiplie les deux membres de
l'équation par p - p0 puis on fait tendre p vers p0. On procède de la même manière pour les
autres coefficients. Voici, un exemple d’illustration de cette technique.
Soit p1, p2 des pôles de Y(p)
Le coefficient que l’on veut déterminer A, on multiplie Y(p) par (p - p1) comme suit :
lim
lim
Exemple : Soit
lim
lim
De façon générale, si :
, alors, en décomposant, on a :
48
Chapitre III Transformée de Laplace
On aura alors
Pour t > 0 on a : u(t) = E = constante. On cherche le courant i (t) qui circule dans le circuit de la
figure ci-dessous :
. ⁄ ⁄
49
Chapitre III Transformée de Laplace
5. Modélisation
L’automatique est la science étudiant les automatismes et traitant de la substitution de
mécanismes automatiques à toutes les opérations susceptibles d’être exécutées par l’homme.
Cette science était anciennement dénommée cybernétique. Parmi les composantes de cette
science, nous allons plus particulièrement nous intéresser à la commande (automatique) des
procédés dynamiques continus.
Dans ce cadre, on distingue l’automatique linéaire ou non linéaire, continue (commande
analogique) ou à temps discret (commande numérique).
Il faut savoir que la commande (ou asservissement) d’un procédé physique nécessite :
- l’identification (modèle de comportement) ou la modélisation (modèle de connaissance) de
son comportement dynamique Æ mise en équation ;
- la synthèse d’une loi de commande Æ fonction de transfert et transformation de Laplace;
- l’implantation physique de cette loi de commande Æ correction.
1
Nulle sur ]− ∞ , 0[
50
Chapitre III Transformée de Laplace
Retard et Amortissement
- L’image de est .
- L’image de est .
Théorème des valeurs finales et initiales
- 0 lim lim
- lim lim
Convolution : L’image du produit de convolution est .
6. Transformées usuelles
1 Dirac
1
Rampe
p2
1
p+a e − at
w
p + w2
2 sin (wt )
w
p − w2
2 sinh (wt )
w
( p + a )2 + w 2 e − at sin (wt )
p
p + w2
2 cos(wt )
p
p − w2
2 cosh(wt )
p+a
( p + a )2 + w 2 e − at cos(wt )
n!
p n +1 tn
t
1 −
1− e τ
p (1 + τp )
1
( p + a )2 te − at
51
Chapitre III Transformée de Laplace
7. Fonction de transfert
E( p) + S ( p)
H1
–
H2
La transmittance s’écrit : .
Une réponse fréquentielle peut être caractérisée par son module et par son argument :
. Le gain peut être exprimé en décimal ou en décibel 20 .
52
Chapitre III Transformée de Laplace
9. Diagramme de Bode
log w
log w
en rd ou d°. Pour les tracer, on s’aide des diagrammes asymptotiques de Bode. Ils sont définis par
morceaux en étudiant localement (pour des bandes de fréquence données) le comportement
asymptotique de la réponse fréquentielle.
On se ramène, autant que l’on peut, à un produit de transferts du 1er et 2ème ordre, pour
lesquels on connaît bien les diagrammes asymptotiques ; et on procède par superposition pour
obtenir le diagramme de Bode final.
Im F ( jω )
Re F ( jω )
-1
0
53
Chapitre III Transformée de Laplace
relation suivante : .
F ( jω ) dB
Arg F ( jω )
-180°
0
12. Analyse temporelle et fréquentielle
On note F(p) la transformée de Laplace d'une fonction f(t) :
12.1 -Transformée d'une équation différentielle à coefficients constants, fonction de
transfert
On considère le système physique suivant
dans lequel e(t) et s(t) sont liés par une équation différentielle linéaire à coefficients constants
sans terme constant :
54
Chapitre III Transformée de Laplace
0 0 0
c'est à dire
n = ordre du système
K : Gain statique
τ : constante de temps
55
Chapitre III Transformée de Laplace
0,63.K.E0 Déphasage
logw
-45°
t
-90°
Tangente non τ 2.τ 3.τ
nulle à l'origine caractéristique des premiers ordres
56
Chapitre III Transformée de Laplace
Etude temporelle
E
Réponse à un échelon e(t)=E0.u(t) c'est-à-dire E(p)= 0
p
E
S(p)= K . 0
p2 p p
+2.z. +1
ω ω
0 0
Avec les théorèmes sur les limites, il vient :
s(0+)=0 ; s(∞)=K.E0 ; ds(0+) =0
dt
Expression de s(t) : Elle dépend de z ; ∆'=z2 −1
Si z > 1 : deux racines p1,2 =ω0(−z± ∆')=ω0(−z± z2 −1) . La réponse est apériodique (sans
dépassement)
K.p1.p2 K
et S(p)= = .E0
p.(p−p1).(p−p2) p p
p.( −1).( −1)
p1 p2
C'est-à-dire
S(p)= K .E = K .E
p(1+ T .p).(1+ T .p) 0 p(T .T .p2 +(T + T ).p+1) 0
1 2 1 2 1 2
Avec T1,2 =− 1 et
p
1,2
− t − t
1 T1 T
s(t)=K.E0.[1+ (T1.e − T2.e 2 )].u(t)
T2 − T1
57
Chapitre III Transformée de Laplace
Pseudo-pulsation réelle : . √1
.
Valeur relative du premier dépassement :
Temps de réponse tr à 5% tel que s(tr)=0,95.s(∞) . Il faut utiliser l'abaque des temps de réponse
réduits :
1000
tr.ωo
500
100
50
10
1
0.05 0.5 0.7 5 50
0.01 0.1 1 10 100
Coefficient d'amortissement z
Tracé de la réponse indicielle
s(t1)-K.E 0
D 1=
K.E 0
s(t)
z<1
K.E 0
z>1
t
π
t1 =
ω
0 1-z
2
Etude fréquentielle
H(j.ω)= K
2
1− ω +2.j.z. ω
ω2
0
ω0
Gain
G(u)= H(u) = K = K
ω 2 2 2 ω
(1−( ) ) +4.z .( ) 2 1+2.(2.z −1).( ω )2 +( ω )4
2
ω0 ω0 ω0 ω0
Gain en décibels
58
Chapitre III Transformée de Laplace
z<1/ 2
AdB(ω)
20.LogK -40dB/Déc
z>1/ 2
Log(ω)
ωr = ω 0 1-2.z 2 ω0
φ(ω)
Log(ω)
z décroissant
-90°
-180°
59
CHAPITRE IV
PRODUIT DE CONVOLUTION
ET CORRELATION DES SIGNAUX
Introduction
Le traitement du signal est une discipline en plein essor, elle consiste en un ensemble de
théories et de méthodes, relativement indépendantes du signal traité, permettant de créer,
d’analyser, de modifier, de classifier et finalement de reconnaître les signaux. Ses applications
sont nombreuses dans des domaines aussi variés que les télécommunications, le traitement du
son, le traitement de la parole, le radar, le sonar, le biomédical, l’imagerie,…etc. D’une manière
générale dans les domaines de l’électronique et de l’informatique.
1. Produit de Convolution
Le produit de convolution présente des propriétés très importantes. Le produit de convolution est
une opération qui associe, à deux fonctions h et e de la même variable, une fonction s de la
même variable sur un même domaine infini. Les fonctions peuvent prendre des valeurs
complexes et nous notons s = h * e. En choisissant t comme variable commune, l'opération est
définie par :
(4.1)
mathématique de la notion de filtre linéaire. Il s'applique aussi bien à des données temporelles
(en traitement du signal par exemple) qu'à des données spatiales (en traitement d'image). En
statistique, on utilise une formule très voisine pour définir la corrélation croisée.
Contexte : Soit un système Linéaire et Invariant dans le Temps (SLIT) définie par sa réponse à
une impulsion de Dirac, h(t).
Objectif : Déterminer le signal de sortie lorsque l’on applique un signal x(t) en entrée.
Solution : Il est possible de démontrer que l’opération réalisée par le système est un produit de
convolution.
Le produit de convolution de deux fonctions réelles ou complexes f et g, est une autre fonction,
qui se note généralement « » et qui est définie par :
On peut considérer cette formule comme une généralisation de l'idée de moyenne mobile.
Pour que cette définition ait un sens, il faut que f et g satisfassent certaines hypothèses ; par
exemple, si ces deux fonctions sont intégrables au sens de Lebesgue (c'est-à-dire que l'intégrale
de leur module est finie), leur produit de convolution est défini pour presque tout t et est lui-
même intégrable.
Exemple :
1 1, 0
⁄
1 0 , ⁄
1
61
Chapitre IV Produit de Convolution et Corrélation des Signaux
⁄
0 1 , ⁄
1
Commutativité :
Distributivité :
Associativité :
Dérivation :
. ; .
Le fait que la fonction de Dirac soit l’élément neutre du produit de convolution induit une
propriété intéressante concernant le produit d’une fonction continue f(t) par un peigne de Dirac
δTe(t). Le produit de convolution dans ce cas là est définie par :
∑ (4.2)
62
Chapitre IV Produit de Convolution et Corrélation des Signaux
Ainsi, le produit de convolution de f(t) par δTe(t) donne une fonction périodique qui s’obtient en
sommant, sur toutes les valeurs possibles de n, la fonction f(t) décalée de nTe, et en multipliant
le résultat par Te. On dit parfois que cette opération « périodise » f(t).
1.4. Déconvolution
On note ici par h un signal tel qu'il est acquis et f le signal que l'on désire estimer ou restaurer,
mais qui a été convolué par une réponse impulsionnelle g lors de l'acquisition. La réponse
impulsionnelle est souvent (surtout en traitement d'image) aussi nommée fonction d'étalement du
point (anglais: Point Spread Function ou PSF).
Lorsqu'on a affaire à un processus physique d'acquisition, la mesure h est souvent entachée d'un
bruit de mesure ε :
L'opération de déconvolution sera rendue plus difficile par la présence de « bruit ». L'application
de l'inverse analytique de déconvolution (en convoluant par la fonction de Green) donnera un
résultat de mauvaise qualité. Il est alors nécessaire d'inclure la connaissance statistique du bruit
et du signal pour améliorer le résultat, en utilisant par exemple le « filtrage de Wiener ».
Il existe donc en traitement du signal un grand nombre de méthodes de déconvolution basées sur
différents types d'a priori et donc adaptées à des applications variées.
2. Fonction de Corrélation
En traitement des signaux, il est souvent nécessaire de comparer deux signaux, ceci peut se faire
de plusieurs manières. Une méthode possible, dont on fait grand usage, est de décaler l’un des
signaux (stationnaire et ergodique), par rapport à l’autre, et de mesurer leur similitude en
fonction du décalage. C’est la fonction de corrélation (FAC).
63
Chapitre IV Produit de Convolution et Corrélation des Signaux
- La FIC remplacée parfois par corrélation mutuelle ou corrélation croisée (en anglais : Cross
corrélation) consiste à comparer deux fonctions différentes S (t ) et Y (t ) dont l’une est décalée
d’une certaine valeur τ .
On peut énumérer les différentes étapes et opérations intervenant dans le calcul d’une
fonction de corrélation de la manière suivante :
- L’un des signaux est décalé d’une certaine quantité τ .
- Le produit des deux signaux est effectué échantillon par échantillon pour toutes les valeurs
de la fonction de corrélation.
- Les valeurs ainsi obtenues sont additionnées pour obtenir une valeur de la fonction de
corrélation.
ΓSS (τ ) = Ε[ S (t ) S (t + τ )] (4.3)
Cette formule traduit le fait que dans le cas d’un processus stationnaire, la FAC statistique est
égale à la FAC temporelle ( C’est le cas d’ergodicité).
64
Chapitre IV Produit de Convolution et Corrélation des Signaux
5. La FAC d’un processus stationnaire atteint son maximum en τ = 0 , avec une valeur toujours
réelle et non négative, cette valeur est la borne supérieure en module de la FAC.
Selon SCHWARZ, on obtient l’inégalité suivante
2
ΓSS (τ ) ≤ ΓSS (0) ∀t (4.9)
∫ S (t )
2 2
ΓSS (0) = p S , Sτ f = S (t ) = dt (4.10)
−∞
6. La FAC de signaux périodiques ou continue, est également une fonction périodique de même
période ou continue.
7. Dans le cas où la fonction S (t ) est composée par la somme de deux fonctions U(t) et V(t), la
9. La FAC d’un signal aléatoire tend vers zéro lorsque le décalage τ augmente indéfiniment en
valeur absolue.
65
Chapitre IV Produit de Convolution et Corrélation des Signaux
La relation (4.14) n’est utilisable en pratique que si le signal est à durée limitée. Si N est la
durée de Sq(n ) , alors la durée de la FAC est de ( N − k ), donc la relation (4.14) pour des raisons
expérimentales devient :
1 N −1
⎧(1 ≤ n ≤ N − k )
ΓSS ( k ) = ∑ Sq(n) Sq(n + k ) ⎨ (4.15)
N −k n =1 ⎩(0 ≤ k ≤ M ≤ N )
Cette relation est connue sous le nom du théorème de PARSEVAL, qui permet de calculer
l’énergie du signal S (t )
ΓSY (τ ) = Ε[ S (t )Y (t + τ )] (4.17)
66
Chapitre IV Produit de Convolution et Corrélation des Signaux
Cas pratique :
1 N −1
⎧(1 ≤ n ≤ N − K )
ΓSY ( K ) = ∑ S (n)Y (n + K ) ⎨ (4.24)
N −K n=0 ⎩(0 ≤ K ≤ M p N )
Le nombre d’échantillons N de signal à traiter, le nombre M qui représente la fenêtre
d’observation de la fonction de corrélation et qui doit être inférieur à N, alors la durée de la FAC
est de ( N − K ).
Le coefficient de corrélation entre deux signaux S (t ) et y(t ) est le rapport entre leur
donnée par :
C Sy ( τ)
ρSy = (4.25)
δSδ y
Tel que :
C Sy ( τ) : La covariance définie par :
C Sy ( τ) = Ε [( S - µ S )( y − µ y )] = Γ Sy ( τ) - µ S µ y (4.26)
− 1 ≤ ρSy ≤ +1
Suivant les valeurs prises par le coefficient de corrélation on peut établir la classification
suivante :
1. Si ρSy = 0 , alors S et y sont indépendantes (pas de corrélation).
Où S = Y = Z = 0 et a = Cte
Remarque : la relation (4.25) devient pour un seul signal (cas de la fonction d’auto-corrélation)
C S ( τ)
ρS = (4.30)
δ 2S
2. 4. Théorème de Wiener- Khintchine
Ce théorème exprime que la transformée de Fourier de la fonction de corrélation est la
densité spectrale de puissance d'un processus stochastique stationnaire au sens large de ce signal.
+∞
n
ρ SY (n) = TF [ΓSY ( τ)] = ∑Γ
τ =-∞
SY ( τ)exp(-2πj
N
τ) = S (n)Y (n) (4.31)
Remarque : On notera que la valeur de la fonction de corrélation ne sera calculée que si, au
moins, l’un des deux signaux est à énergie finie.
68
CHAPITRE V
ECHANTILLONNAGE ET SIGNAUX DISCRETS
Introduction
On appelle signal toute manifestation sous forme d’une grandeur physiquement
observable d’un phénomène le plus souvent électrique, acoustique ou optique. Dans un sens
plus restrictif, un signal est la représentation physique de l’information qui est envoyée d’une
source vers un destinataire : c’est le véhicule de l’intelligence dans les systèmes. Il transporte
les ordres dans les équipements de contrôle et de télécommande. Il achemine sur les réseaux
l’information, la porte ou l’image. Il est particulièrement fragile et doit être manipulé avec
beaucoup de soin. Le traitement qu’il subit à pour but d’extraire les informations utiles
éventuellement masquées par des perturbations indésirables, de modifier le message qu’il
transporte ou de l’adapter aux moyens de transmission. Les techniques numériques
interviennent justement à ce stade là. Ceci a été largement motivé par l’avancée spectaculaire
réalisée dans le degré d’intégration des circuits , et dans la vitesse , de plus en plus rapide , de
ces composants , ce qui a de même permis de mettre au point des processeurs très performants
pour le traitement numérique de signal : lorsque le signal est numérisé , il se présente alors
comme une séquence de valeurs numériques et le traitement numérique de signal consiste en
une série d’opérations arithmétiques et logiques sur ces valeurs numériques.
Le signal analogique, dont la variable temps est continue, est d’abord échantillonné et
la variable temps devient discontinue, le signal est donc considéré seulement en des instants
particuliers qui sont des multiples entiers de la période d’échantillonnage.
Les avantages du traitement numérique du signal sont plus particulièrement la précision
et la fiabilité. Cette discipline a trouvé d’importantes applications dans une multitude de
domaine scientifiques et techniques comme les télécommunications, l’acoustique, la
géophysique, l’astrophysique, la biomédecine, l’automatique, et les processus industriels,
pour ne citer que quelques exemples.
Un des traitements de signal le plus principal est le filtrage. Le filtrage sélectif consiste
à sélectionner ou supprimer certaines composantes fréquentielle du signal. Il est utilisé pour
supprimer la partie du signal non désirée qu’on appelle bruit pour ne préserver que le signal
pertinent.
Chapitre V Echantillonnage et Signaux discrets.
1. Signaux discrets
Un signal discret est un signal obtenu par l’expression d’une information à des valeurs
ponctuelles du temps x(ti) ; il constitue donc une suite numérique. Dans la pratique, les
signaux discrets sont les plus souvent obtenus par l’opération appelée échantillonnage.
Signal analogique ; signal à temps et amplitude continues.
Signal quantifié ; signal à temps continu et amplitude discrète.
Signal échantillonné ; signal à temps discret et amplitude continue.
Signal numérique ou digital ; signal à temps et amplitudes discrètes.
On s’intéresse à une chaine de traitement numérique du signal (TNS) du type de la figure 5.2
1, 0
0,
1, 0
0,
71
Chapitre V Echantillonnage et Signaux discrets.
; 1
- Séquence sinusoïdale
; 1/
- Signal rectangulaire
1, 0 1
0,
- Signaux causals
, 0
0,
- Séquence périodique
; : é
Le traitement numérique du signal par ordinateur exige que le signal soit converti en une
suite de nombres (numérisation). Cette conversion se décompose, sur le plan théorique, en
trois opérations :
72
Chapitre V Echantillonnage et Signaux discrets.
2. la quantification transforme une valeur quelconque en une valeur prise dans une liste
finie de valeurs valides pour le système ;
3. le codage fait correspondre à chaque valeur valide pour le système un code numérique.
Figure 5.2. Illustration de l'échantillonnage d'un signal : on mesure la valeur du signal à des instants
qui sont des multiples de la période d'échantillonnage.
3. Echantillonnage idéalisé
. ∑ (5.1)
73
Chapitre V Echantillonnage et Signaux discrets.
On peut assimiler théoriquement la suite idéale d'échantillons prélevés avec une cadence fixe
fe = 1/Te à un signal Xei(t) obtenu par une fonction d'échantillonnage idéalisée (peigne du
Dirac).
4. Echantillonnage réel
La fonction d’échantillonnage réel e(t) est donnée par
∑ ; 1 (5.2)
∑ . . .
Φ Φ Φ ∑ . . .Φ
5. Théorème d’échantillonnage
Dans le cas général, le théorème d'échantillonnage énonce que l’échantillonnage d'un signal
exige un nombre d'échantillons par unité de temps supérieur au double de l'écart entre les
fréquences minimale et maximale qu'il contient. Dans le cas le plus courant, la fréquence
minimale du signal est négligeable par rapport à la fréquence maximale et le théorème affirme
simplement :
74
Chapitre V Echantillonnage et Signaux discrets.
La représentation discrète d'un signal ayant un spectre de type passe bas exige des
échantillons régulièrement espacés à une fréquence d'échantillonnage supérieure au double
de la fréquence maximale présente dans ce signal 2 .
La reconstitution du signal peut être faite en temps réel par un filtre passe bas de
fréquence de coupure fe / 2 et en temps différé par interpolation polynomial.
Le monde physique est par nature analogique (dans l a quasi-totalité des cas). Il est
perçu via des signaux analogiques (son, ondes visuelles, etc), qui peuvent être traités par des
systèmes analogiques. Depuis une vingtaine d’années, le traitement numérique des données
prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet
un stockage aisé de l’information, une excellente reproductibilité des traitements, la
possibilité de développer relativement aisément des fonctionnalités complexes, une réduction
des coûts de production, etc.
75
Chapitre V Echantillonnage et Signaux discrets.
2 (5.3)
. .
La pente ne dépasse pas donc en valeur absolue 3 . qu’avec une probabilité inférieure
à 3%. Donc :
3 . ;6
√
√ .
√
. .
√3 . .
1.73.
. .
(5.4)
76
Chapitre V Echantillonnage et Signaux discrets.
7. Quantification
Généralement, les signaux doivent être traités soit pour en extraire de l’information, soit
pour les rendre porteurs d’information. Ces traitements sont effectués à l’aide de systèmes que
l’on appelle systèmes de traitement de signaux. Un tel système agit sur un signal d’entrée et
produit, à sa sortie, un signal qui est sous une forme plus appropriée pour l’utilisation
envisagée.
On peut classer les systèmes de traitement selon la nature des signaux sur lesquels ils
opèrent. On parle ainsi : systèmes analogiques (opérant sur des signaux analogiques et
produisent des signaux analogiques), systèmes échantillonnés, systèmes numériques ou
digitaux (agissant sur des signaux numériques et produisant des signaux numériques) et
systèmes hybrides (convertisseurs analogique -numérique).
77
Chapitre V Echantillonnage et Signaux discrets.
Ces systèmes sont caractérisés par le fait que leur réponse ne précède jamais leur
excitation c'est-à-dire ;
Cette caractéristique traduit le fait que l’effet ne puisse jamais précéder la cause qui le
produit. Cette condition de causalité est nécessaire pour que le système soit physiquement
réalisable.
Un système est dit stable si sa réponse à toute entrée bornée est bornée. Comme la
causalité, la stabilité est un critère indispensable à la réalisation possible d’un système.
Cette restriction permet donc, de contrôler la dynamique des signaux de sortie. Une condition
nécessaire et suffisante de stabilité est donnée par l’inégalité :
∑ | | ∞ (5.5)
∑ (5.6)
x1 (k), x2 (k) deux entrées ou excitations. S est l’opérateur fonctionnel caractérisant le système.
Si la réponse à l’excitation x(k) est y(k), le système linéaire est dit invariant si la réponse
à x(k-k0 ) est y(k-k0 ) , ou k0 est un nombre entier quelconque.
Pour qu’un système numérique soit linéaire invariant dans le temps, deux conditions doivent
être satisfaisantes :
78
Chapitre V Echantillonnage et Signaux discrets.
Exemple
, 0 1
Soit :
0, 0
0 0
0 ∑
• Causalité :
Un système causal : 0 0 ; une séquence x(n) est causale : 0 0
• Stabilité : ∑ | | ∞
| |
∑ | | ∑ | | ; stable si : | | 1
| | | |
∑ ∑ , (5.8)
Une telle équation est appelée équation aux différences linéaire.
Exemple
Si 1
Système causal 0 0
1
1
0 1 0 1
1 0 1
2 1 2
….
79
Chapitre V Echantillonnage et Signaux discrets.
Dans un système linéaire invariant, un signal d’excitation x(k) est traité d’une manière
indépendante de l’origine de sa variable indépendante k. Par conséquent les coefficients an (k)
et bm(k) dans l’équation (5.8) sont des constantes indépendantes de k. Elle est appelée aussi
équation aux différences linéaire à coefficients constants d’ordre N.
Un système linéaire invariant dans le temps est caractérisé entièrement par sa réponse
impulsionnelle h(k) définie comme la réponse du système à l’instant k au signal d’entrée
impulsion unité δ(k), avec :
1, 0
0, 0
Et puisque tout signal d’entrée x(k) du système peut se décomposer comme une
combinaison linéaire de signaux δ(k-n) dont les coefficients sont x(n);
∑ ∑
Donc : ∑ ∑
Schématiquement ;
x(k) S.L.I.T à réponse y(k) = x(k)*h(k)
impulsionnelle
∑ (5.9)
80
Chapitre V Echantillonnage et Signaux discrets.
10. Transformée en Z
s * ( p ) = L( s * (t )) = ∑ s (nT )e − nTp
~ (5.10)
n ≥0
Par échantillonnage
̃. ∑ (5.11)
|∑
La variable n représente en général le temps discrétisé, la variable complexe z n'est qu'un être
mathématique. Lorsqu'on travaille sur s(nT) on dit que l'on est dans le domaine temporel,
lorsqu'on travaille sur s(z) le domaine est appelé fréquentiel par analogie avec la transformée
de Fourier.
81
Chapitre V Echantillonnage et Signaux discrets.
|∑ (5.12)
Le signal x(kTe) a une transformée en Z s’il existe z tel que la série complexe X(z) soit
convergente ; ce sera pour les signaux réellement rencontrée.
Exemple :
Quelque soit z, lim ∞ ; la série est divergente et y(k) n’a pas de transformée en Z.
• L’échantillon unité 0 1; 0; 0 . 1; 1.
• Signal rectangulaire
• Signal exponentiel , , ∑
82
Chapitre V Echantillonnage et Signaux discrets.
p+a
, s (nT ) = e − anT ⎯
⎯→
Z
∑ ( ze aT ) − n
1 z
qui converge vers −1 − aT = − aT si :
z > e − aT
1− z e z−e
Z[ e( n − k )] = z − k Z[ e( n )] .
Z
Théorèmes des valeurs initiale et finale : soit e( n ) ⎯
⎯→ E ( z )
z −1
Théorème de la Valeur Initiale : e( 0) = lim E ( z ) = lim E ( z )
z →∞ z z →∞
z −1
Théorème de la Valeur Finale : lim e( n ) = lim E( z )
n →∞ z →1 z
83
Chapitre V Echantillonnage et Signaux discrets.
h ( n ) = Z −1 [H ( z )] = ∑ Résidus( H ( z ) z n −1
)
pôles
H ( z ) z n −1
Soit y (n ) un signal discret à partir de mesures x (k ) opérées sur un signal x(t) et selon la
relation suivante, ou équation aux différences :
1 (5.13)
y ( n − 1) + x ( n − 1) Z z − 1 Y ( z ) + z −1 X ( z )
y(n) = ⎯⎯→ Y ( z ) =
2 2
Y (z ) z −1 1
On en tire ici = −1 = = T (z ) .
X (z ) 2 − z 2z − 1
T (z ) est la fonction de transfert associée, c’est une fraction rationnelle en z. La relation (5.13)
s’écrit encore sous la forme d’un produit de convolution discret puisque :
Z −1
Y ( z ) = T ( z ) X ( z ) ⎯⎯→ y ( n ) = ( h∗ x )( n )
84
Chapitre V Echantillonnage et Signaux discrets.
¾ Réponse impulsionnelle : X ( z ) = 1, Y ( z ) = F ( z ) , h( k ) = Z −1 [ F ( z )]
z ⎡ zF ( z ) ⎤
¾ Réponse indicielle : X ( z ) = donc y ( n ) = Z −1 ⎢
z −1 ⎣ z − 1 ⎥⎦
jωT
¾ Réponse harmonique : p → jω se traduit par z → e ,
d’où la réponse harmonique ou fréquencielle, Gain = F ( e jωT ) et Phase = ∠F ( e jωT ) .
¾ Gain statique : c’est lim T ( z )
z →1
(5.14)
Résidus de
!
Si p = 1 é ψ z
Exemple
| | | |
| | | |
/ 1 ∑
85
Chapitre V Echantillonnage et Signaux discrets.
Signal Transformée en Z
∞
x(t ) X (z ) = ∑ x(n.Te ).z −n
n = −∞
δ(t ) Non définie !…
⎧1, t = 0
⎨ X z (z ) = 1
⎩0, t ≠ 0
⎧1, t >= 0 z
u (t ) = ⎨
⎩ 0, t < 0 z −1
Te .z
t.u (t )
[z − 1]2
t2 Te2 .z.[z + 1]
.u (t )
2 2.[z − 1]3
z
e − a.t .u (t )
z − e −a.Te
Te .z.e − a.Te
t.e − a.t .u (t )
[z − e ] − a.Te 2
a.( z − 1).(z − e )
⎢t − −
⎢⎣ a ⎥⎦ (z − 1)2 − a.Te
Te2 .z
+
(a.Te − 2).Te .z
1 ⎡ 2 2.t 2
( )⎤⎥⎦.u(t ) (z − 1) 2.a.( z − 1)2
3
t − + . 1 − e − a.t
2 ⎢⎣ a a2 z z
+
a .( z − 1)
2
−
(
a . z − e − a.Te
2
)
z. sin (ω0 .Te )
sin (ω0 .t ).u (t )
z 2 − 2.z. cos(ω0 .Te ) + 1
z.[z − cos(ω0 .Te )]
cos(ω0 .t ).u (t )
z − 2.z. cos(ω0 .Te ) + 1
2
a.T .e − a.Te .z
[1 − (1 + a.t ).e ].u(t )
− a.t
z
−
z
z − 1 z − e − a.Te
− e
2
[ ]
z − e − a.Te
z.e − a.Te
. sin (ω0 .Te )
e − a.t . sin (ω0 .t ).u (t )
z − 2.z.e
2 − a.Te
. cos(ω0 .Te ) + e − 2.a.Te
86
Travaux Dirigées
Université Mohamed Boudiaf - M’sila ﺍﳌﺴــﻴﻠﺔ- ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ
Faculté de Technologie ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ
Département d’Electronique ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ
TD N°1
- Généralités sur les signaux -
Exercice 1
Exercice 2
X2
X1
X0
X3
t
t1 t2 t3
Exercice 3
⎛ T ⎞
⎜ t − t0 − 0 ⎟
1- Donner l’expression du signal x(t ) = A rect ⎜ 2 ⎟ = APT (t − t0 − T0 ) a l’aide des fonctions Echelon
⎜ T0 ⎟ 0
2
⎜ ⎟
⎝ ⎠
unitaires. Justifier graphiquement
2- Même question que « 1 » en utilisant les fonctions signes.
Université Mohamed Boudiaf - M’sila ﺍﳌﺴــﻴﻠﺔ- ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ
Faculté de Technologie ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ
Département d’Electronique ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ
TD N°1 (Suite)
- Généralités sur les signaux -
Exercice 4
Exercice 5
Exercice 6
Exercice 7
TD N°2
- L’analyse de Fourier -
Exercice 1
Réécrire les trois formes de la série de Fourier qui résultent de la décomposition d’un signal
périodique de période T0 et retrouver les relations entre différents coefficients.
Exercice 2
Exercice 3
Exercice 4 s1(t)
1
1. Déterminer les coefficients de la série de Fourier du signal
périodique s1(t). t
-T0 -τ/2 +τ/2 +T0
2. Déduire le développement en série de Fourier du signal s2(t)
périodique s2(t).
t
-T0 -τ/2 +τ/2 +T0
Exercice 5
Exercice 6
TD N°2 (Suite)
- L’analyse de Fourier -
Exercice 7
Exercice 8
Appliquer la propriété de la dérivation pour trouver les transformées de Fourier des signaux suivants :
1 1 1
Exercice 9
Exercice 10
t
-T0 -T0/2 T0/2 T0
2. Maintenant, on applique au signal s(t) un retard de T0/4, ce qui nous donne un nouveau signal g(t).
a. Déduire de (1.a) la série de Fourier exponentielle du nouveau signal g(t).
TD N°3
- Transformée de Laplace - Produit de convolution - Corrélation-
Exercice 1
Soit le système linéaire est invariant dans le temps de la figure suivante :
e(t) s(t)
h(t)
Calculer l’énergie du signal de sortie si ce système est excité par un signal d’entrée :
e ( t ) = 2 f 0 sinc ( 2π f 0t ) e − j 2π f0t .
Exercice 2
Trouver la convolution de deux signaux rectangulaires identiques de durée et d’amplitude unité.
h(t)
e(t) h(t)
1 1
2
1 2 3 4 1 2 3 4
TD N°3 (Suite)
- Transformée de Laplace - Produit de convolution - Corrélation-
Exercice 6
1. Soit la fonction du transfert suivant :
3. 5. 7
4. 6
Trouver | |
.
0
- Méthode directe.
- Méthode indirecte : est le produit d’un créneau par un exponentiel.
2. Déduire la transformée de Fourier des signaux et définis ainsi :
2 2
. 0 . 0
4 4 4 4
0 0
2
TD N°4
- Echantillonnage des signaux -
Exercice 1
Exercice 2
Un signal , dont la transformée de Fourier est représentée par la figure (1), est échantillonné à
une cadence .
Le signal échantillonné (idéalisé) possède la transformée de Fourier de la figure (2).
X(f) Xe(f)
6
f(kHz) f(kHz)
-4 4 -6 -4 -2 2 4 6
- Déterminer quelle est la fréquence d’échantillonnage utilisée et indiquer si ce choix est judicieux
pour permettrer une reconstitution du signal par filtrage idéal (justifier votre réponse).
Exercice 3
2
Peut-on reconstituer exactement le signal . s’il est échantillonné idéalement à une
cadence
Exercice 4 (TFD)
2 k
-3 -2 -1 1 2 3
2 Figure (3)
- Calculer la TFD de .
- Trouver à partir 1 2. cos 2 2. cos 4 .
Université Mohamed Boudiaf - M’sila ﺍﳌﺴــﻴﻠﺔ- ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ
Faculté de Technologie ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ
Département d’Electronique ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ
TD N°5
- Echantillonnage des signaux –Transformée en Z -
Exercice 1
Exercice 2
Exercice 3
Exercice 5
1- S. Haykin, Signals and systems, John Wiley & sons edition, 2 édition, 2003.
2- A.V. Oppenheim, Signals and systems, Prentice–Hall edition, 2004.
3- F. de Coulon, Théorie et traitement des signaux, Dunod, Paris, 1984.
4- R. E. Bekka, Fondements du traitement du signal, OPU, Alger, 2 édition, 1998.
5- A. Guerchaoui, Traitement du signal – Théorie et applications – Partie 3, OPU, 2010.
6- F. Cottet, Traitement des signaux et acquisition de données, 2 édition, Dunod, Paris, 2002.
7- F. Cottet, Traitement du signal, Dunod, Paris, 2000.
8- H. Egon, M. Marie, P. Porée, Traitement du signal et automatique, Hermann, Paris, 2000.
9- G. Blanchet and M. Charbit, Traitement numérique du signal, Hermès, Paris, 1998.
10- P. Duvaut, Traitement du signal, concepts et applications, Hermès, Paris, 1991.
11- J.Max and J.-L. Lacoume, Méthodes et techniques de traitement du signal et application
aux mesures physiques, Masson, Paris, 1996.
12- Ph. Réfrégier. Théorie du signal : signal, information. Masson, 1993.
13- A. Yger. Théorie et analyse du signal. Ellipses, 1999
14- M. Benidir. Théorie et Traitement du signal, tome 1 : Représentation des signaux et des
systèmes - Cours et exercices corrigées. Dunod, 2004.
15- M. Benidir. Théorie et Traitement du signal, tome 2 : Méthodes de base pour l'analyse et
le traitement du signal - Cours et exercices corrigés. Dunod, 2004.
16- Ph. Réfrégier. Théorie du bruit et applications en physique. Hermes (Lavoisier), 2002.
17- Christophe Doignon, Traitement Numérique du Signal Déterministe, Université Louis
Pasteur de Strasbourg, France, 2008-2009, http://eavr.u-
strasbg.fr/~christophe/cours/fip2/cours-tds-fip2a.pdf.
18- Olivier Sentieys, Traitement Numérique du Signal, ENSSAT Université de Rennes 1,
2014, http://people.rennes.inria.fr/Olivier.Sentieys/teach/MainPoly_TDDS.pdf.
19- Christian Jutten, Théorie du signal, Université Joseph Fourier - Polytech’ Grenoble,
2009, http://www.gipsa-lab.grenoble-inp.fr/~christian.jutten/mescours/Theorie_du_signal.pdf.
20- Steven T. Karris, Signals and Systems, Second Edition, Orchard Publications, USA,
2003.
21- Étienne Tisserand, Jean-François Pautex, Patrick Schweitzer, Analyse et traitement des
signaux : méthodes et applications au son et à l’image, 2 édition, Dunod, Paris, 2008.
22- Maurice Bellanger, Traitement numérique du signal : Théorie et pratique, 8 édition,
Dunod, Paris, 2006.