Sunteți pe pagina 1din 115

MÉTHODES MATHÉMATIQUES

DE LA PHYSIQUE

Xavier Bagnoud
UNIVERSITE DE FRIBOURG
(2010)
Avant-propos

L’enseignement des méthodes mathématiques de la physique se présente généralement


sous deux aspects différents :
- Utiliser les connaissances acquises dans les cours de mathématiques pour les adapter
aux besoins du physicien. Développer des méthodes utiles en physique, dans un cadre
mathématique spécifique, en utilisant le langage du physicien.
- Donner les règles de calcul et les formules mathématiques employées en physique.

Ce cours s’en tiendra surtout au premier aspect en tentant de comprendre, ce qui ne


signifie pas nécessairement démontrer, les concepts, méthodes, formules mathématiques
de la physique. Il s’efforcera de faire le pont entre les cours de mathématiques et les
mathématiques de la physique. On doit cependant faire la distinction entre les méthodes
mathématiques de la physique et la physique mathématique i.e. la formulation dans un
langage mathématique rigoureux des lois et des démarches de la physique théorique.

De nombreuses notions mathématiques sont indispensables au physicien. Pour ce cours,


un choix doit être fait. On développera avant tout les notions d’analyse hilbertienne utiles
en mécanique quantique. Le premier chapitre rappellera les éléments de base de l’algèbre
linéaire afin de donner un cadre précis au calcul tensoriel. Il servira aussi de point de
départ à la définition des espaces de Hilbert et à la construction des bases de Hilbert.
Les chapitres suivants présenteront la théorie des opérateurs linéaires sur les espaces de
Hilbert en l’appliquant aux équations différentielles linéaires. Enfin, les derniers chapitres
contiendront des exemples d’utilisation du calcul des distributions, des fonctions de Green
et du calcul variationnel dans les problèmes de la physique théorique.

Dans ce cours, on utilisera toujours la notation adoptée par la plupart des livres de
physique théorique.

2
Table des matières

1 Calcul tensoriel 1
1.1 Introduction : exemples de tenseurs en physique . . . . . . . . . . . . . . . 1
1.2 Rappels d’algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Définition des tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Grandeurs tensorielles typiques . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Opérations sur les tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Espaces de Hilbert et bases orthonormales 11


2.1 Introduction : équation de la chaleur . . . . . . . . . . . . . . . . . . . . . 11
2.2 Espace de Hilbert H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Espaces de Hilbert l2 et L2 (U ) . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Polynômes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Séries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Produit tensoriel de deux espaces de Hilbert . . . . . . . . . . . . . . . . . 27

3 Opérateurs sur un espace de Hilbert 29


3.1 Introduction : équations aux valeurs propres . . . . . . . . . . . . . . . . . 29
3.2 Opérateurs linéaires sur H . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 Spectre d’un opérateur linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 34

4 Problème de Sturm-Liouville 39
4.1 Introduction : opérateurs et équations . . . . . . . . . . . . . . . . . . . . . 39
4.2 Opérateur et équation de Sturm-Liouville . . . . . . . . . . . . . . . . . . . 40
4.3 Problème de Sturm-Liouville singulier . . . . . . . . . . . . . . . . . . . . . 45

5 Transformées de Fourier 49
5.1 Introduction : paquet d’ondes . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3 Utilisation des transformées de Fourier . . . . . . . . . . . . . . . . . . . . 53

6 Distributions √ 57
6.1 Introduction : transformée de Fourier de 1/ 2π . . . . . . . . . . . . . . . 57
6.2 Distribution de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.3 Distributions tempérées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4 Triplet de Gelfand ou triade hilbertienne . . . . . . . . . . . . . . . . . . . 64
6.5 Espace des états et notation de Dirac . . . . . . . . . . . . . . . . . . . . 65

3
7 Fonctions de Green 69
7.1 Introduction : dérivées d’une fonction de Green . . . . . . . . . . . . . . . 69
7.2 Fonction de Green relative à l’opérateur
de Sturm-Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Fonctions de Green relatives à ∇2 et à 2 . . . . . . . . . . . . . . . . . . . 73
7.3.1 Fonction de Green relative à l’opérateur de Laplace . . . . . . . . . 74
7.3.2 Problème de Dirichlet (Méthode des charges images) . . . . . . . . 75
7.3.3 Fonction de Green de l’équation de Helmholtz . . . . . . . . . . . . 77
7.3.4 Fonctions de Green relative à l’opérateur de d’Alembert . . . . . . . 80

8 Variation et dérivée fonctionnelle 83


8.1 Introduction : fonctions et fonctionnelles . . . . . . . . . . . . . . . . . . . 83
8.2 Variation par rapport à un paramètre . . . . . . . . . . . . . . . . . . . . . 85
8.3 Variations avec conditions . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.3.1 Variation soumise à une contrainte . . . . . . . . . . . . . . . . . . 89
8.3.2 Variation à bornes variables . . . . . . . . . . . . . . . . . . . . . . 90
8.4 Dérivée fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

9 Appendices i
A Convergence ponctuelle
et convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . i
B Une idée de l’intégrale de Lebesgue . . . . . . . . . . . . . . . . . . . . . . ii
C Phénomène de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv

10 Annexe : exercices 1

4
Chapitre 1

Calcul tensoriel

Le mot tenseur vient de tension. Le concept de tenseur devient indispensable dans


le cadre de la relativité. Dans ce chapitre, nous mettrons en relation la définition des
tenseurs donnée par le mathématicien avec celle utilisée par le physicien.

1.1 Introduction : exemples de tenseurs en physique


1) De la déformation d’un corps solide résultent les tensions internes τjk qui sont reliées
à la force par la formule
3
X
dFj = τjk dσk j = 1, 2, 3 (1.1)
k=1

où les dσk désignent les trois composantes du vecteur surface élémentaire sur laquelle
agissent les tensions. Les 9 composantes τjk forment une matrice 3 × 3 appelée tenseur
des tensions.
2) Dans le cadre de la mécanique du corps rigide, on montre que l’énergie cinétique de
rotation est donnée par l’expression
3
1 X
T = ωj Θjk ωk (1.2)
2 j,k=1
où la matrice (Θjk ) est appelée tenseur d’inertie et les ωj sont les composantes du
vecteur vitesse angulaire ω. En fait, T est une forme bilinéaire
1
T (ω, ω) = ω T Θ ω . (1.3)
2
3) La relativité restreinte est définie sur l’espace-temps muni de la forme bilinéaire
3
X 3
X
2 2 2 2 2 2 2 2 2 µ
S =c t −r =c t −x −y −z = x xµ = g µν xµ xν (1.4)
µ=0 µ,ν=0

où l’on a défini les composantes covariantes xµ , contravariantes xµ ainsi que celles du
tenseur métrique (g µν ) d’indices µ, ν = 0, 1, 2, 3
     
ct ct 1 0 0 0
 x   −x   0 −1 0 0 
     
[xµ ] =   [xµ ] =   [g µν ] =   .
 y   −y   0 0 −1 0 
z −z 0 0 0 −1

1
Quelle est la signification mathématique de Θjk , des xµ , des xµ et des g µν ? Nous allons
répondre à ces questions en apportant une unité mathématique. Pour l’essentiel, on verra
que le physicien qui travaille en coordonnées définit un vecteur, un tenseur par les pro-
priétés de transformation de ses composantes lors d’un changement de base et non pas en
tant qu’élément d’une structure mathématique.

1.2 Rappels d’algèbre linéaire


La définition d’un espace vectoriel V de dimension n postule les propriétés d’addition
des éléments de V , d’existence d’un élément neutre, d’un élément opposé ainsi que les
propriétés de multiplication avec un élément d’un corps qui dans notre cas est IR. Les
notions importantes qui nous concernent ici sont celles de base de V et de composantes
ou coordonnées.
Déf. 1.1 Un système {e1 , ..., en } de vecteurs de V s’appelle base de V si tout vecteur
v ∈ V s’exprime de manière unique comme combinaison linéaire1
n
X
v= xj ej . (1.5)
j=1

Les xj ∈ IR s’appellent composantes ou coordonnées de v par rapport à la base


{e1 , ..., en }. La notation avec des indices en haut et en bas deviendra claire par la suite.
Tout espace vectoriel de dimension finie possède une base.
Exemple : Combinaisons ("linéaires
# " #)
1 0
La base {e1 , e2 } = , donne la combinaison linéaire
0 1
r = x1 e1 + x2 e2 . (1.6)
(" # " #)
cos ϕ − sin ϕ
La base {e% , eϕ } = , donne la combinaison linéaire
sin ϕ cos ϕ
r = % e% + 0 eϕ . (1.7)
Les composantes cartésiennes sont x1 et x2 , les composantes polaires r et 0.
Déf. 1.2 Soient V, W des espaces vectoriels sur IR. Une application A : V −→ W est
linéaire si A(α1 v1 + α2 v2 ) = α1 A(v1 ) + α2 A(v2 ) pour v1 , v2 ∈ V, α1 , α2 ∈ IR.
Application linéaire, opérateur linéaire, transformation linéaire sont des dénominations
équivalentes. On parle de forme linéaire ou fonctionnelle linéaire si W = IR .
Déf. 1.3 Soient U, V, W des espaces vectoriels sur IR. L’application B : U × V −→ W
est bilinéaire si elle est linéaire en chaque argument
i) B(α1 u1 + α2 u2 , v) = α1 B(u1 , v) + α2 B(u2 , v)
ii) B(u, α1 v1 + α2 v2 ) = α1 B(u, v1 ) + α2 B(u, v2 ) .
On définit de même l’application multilinéaire M : V1 × · · · × Vp −→ W .
1
La notion de combinaison linéaire ou de développement dans une base est centrale pour le physicien.
Elle se retrouvera d’ailleurs tout au long de ce cours.

2
Exemples : Applications multilinéaires
a) Produit scalaire : IR3 × IR3 −→ IR

(u, v) 7−→ u · v = ux vx + uy vy + uz vz (1.8)

b) Produit vectoriel : IR3 × IR3 −→ IR3


 
uy v z − uz v y
7 → u×v =
(u, v) − 
 uz v x − ux v z  (1.9)
ux vy − uy vx

c) Produit mixte : IR3 × IR3 × IR3 −→ IR

(u, v, w) 7−→ [u × v] · w (1.10)

d) Produit tensoriel de formes linéaires f1 , f2 .

f1 ⊗ f2 : V1 × V2 −→ IR
(v1 , v2 ) 7−→ (f1 ⊗ f2 )(v1 , v2 ) = f1 (v1 )f2 (v2 ) (1.11)

Déf. 1.4 Soient V, W des espaces vectoriels sur IR. Un produit scalaire sur V est une
forme bilinéaire symétrique (· , ·) : V × V −→ IR dont la forme quadratique associée est
définie positive. Il satisfait donc les propriétés suivantes :
a) (α1 u1 + α2 u2 , v) = α1 (u1 , v) + α2 (u2 , v) αi ∈ IR
(u, α1 v1 + α2 v2 ) = α1 (u, v1 ) + α2 (u, v2 )
b) (u, v) = (v, u)
c) (u, u) ≥ 0 .

L’espace V muni du produit scalaire est appelé espace vectoriel euclidien. Une famille
de vecteurs {v1 , v2 , · · · , vn } est orthonormale si (vj , vk ) = δjk . Toute base peut être
orthonormalisée grâce au procédé de Gram-Schmidt. Enfin, on peut montrer (exercice)
que toute forme linéaire f sur V peut être représentée par un produit scalaire f (v) = (v, w)
où w ∈ V est uniquement déterminé par f .
Déf. 1.5 On appelle espace vectoriel dual V ∗ ou simplement dual de V , l’espace vec-
toriel formé de l’ensemble des formes linéaires sur V
n . o
V ∗ = f f : V −→ IR linéaire . (1.12)

Pour v ∈ V, α ∈ IR, on vérifie (exercice) que le dual V ∗ satisfait les propriétés d’un espace
vectoriel en définissant la structure linéaire

(f + g)(v) = f (v) + g(v) (1.13)


(αf )(v) = αf (v) . (1.14)

Appliquée sur v ∈ V , la forme linéaire f ∈ V ∗ donne


n
X n
X n
X
f (v) = f ( xj ej ) = xj f (ej ) = xj xj (1.15)
j=1 j=1 j=1

3
où l’on a défini les composantes de f avec un indice en bas
xj = f (ej ) . (1.16)
La représentation (1.15) de f ∈ V ∗ suggère de définir la base duale par les formes linéaires
qui font correspondre à tout vecteur v ses coordonnées xj .
Déf. 1.6 On appelle base duale {e1 , · · · , en } de V ∗ l’ensemble des formes ou fonction-
nelles coordonnées {ej (v) = xj , j = 1, ..., n} .
Alors, en vertu de la linéarité de la forme
à n ! n
X X
j j k
e (v) = e x ek = xk ej (ek )
k=1 k=1

les vecteurs de la base duale ont aussi la propriété


ej (ek ) = δkj . (1.17)
De (1.15), on tire l’égalité
n
X
f (v) = xj ej (v) (1.18)
j=1

valable pour tout v ∈ V et conduisant à la combinaison linéaire des vecteurs f ∈ V ∗


n
X
f= xj ej . (1.19)
j=1

On a aussi montré que dimV ∗ = dimV .


Le passage de la base {e1 , ..., en } à la base {e01 , ..., e0n } de V est décrit par la transfor-
mation linéaire n X
e0j = Aj k ek j = 1, ..., n (1.20)
k=1

de matrice de passage (Aj k ). La notation2 choisie permet de désigner par (Aj k ) la


matrice de la transformation inverse
n
X
ej = Ak j e0k j = 1, ..., n . (1.21)
k=1

Toutefois, en observant les positions de l’indice de sommation k et en se rappelant la règle


de multiplication ligne-colonne, on remarque que la matrice (Aj k ) est en fait l’inverse
transposée de la matrice (Aj k ) et donc
n
X
Ak l Aj l = δjk . (1.22)
l=1

A partir de ces définitions, on peut déduire toutes les propriétés de transformation des
vecteurs de base et des composantes des vecteurs de V et V ∗ . Pour le vecteur v ∈ V qui
reste le même dans la base {e1 , ..., en } ou dans la base {e01 , ..., e0n }, on obtient
n
X n
X n
X
v= xk ek = xk Aj k e0j = x0j e0j . (1.23)
k=1 k,j=1 j=1

2
Avec cette notation des indices décalés, il est possible d’introduire une écriture cohérente des com-
posantes et d’utiliser la position des indices pour définir la matrice inverse.

4
On en déduit les transformations directes et inverses des composantes du vecteur v
n
X
x0j = Aj k xk (1.24)
k=1
Xn
xj = Ak j x0k j = 1, ..., n . (1.25)
k=1

En raison de Déf. 1.6 de la base duale, tout changement de base dans V induit une
transformation dans V ∗ . Alors, avec ej (v) = xj , la relation (1.24) donne
n
X
e0j (v) = Aj k ek (v)
k=1

pour tout v ∈ V . D’où l’on tire les transformations directes et inverses de la base duale
n
X
e0j = Aj k ek (1.26)
k=1
Xn
ej = Ak j e0k j = 1, ..., n . (1.27)
k=1

Finalement, la forme linéaire f ∈ V ∗ qui reste la même lorsqu’elle est exprimée dans la
bases {e1 , ..., en } ou {e01 , ..., e0n }
n
X n
X n
X
f= xk ek = xk Aj k e0j = x0j e0j
k=1 j,k=1 j=1

fournit les transformations directes et inverses des composantes du vecteur dual


n
X
x0j = Aj k xk (1.28)
k=1
Xn
xj = Ak j x0k j = 1, ..., n . (1.29)
k=1

Les composantes xk sont appelées composantes covariantes parce qu’elles se trans-


forment comme les vecteurs de base ek . Les éléments de V ∗ sont appelés covecteurs et les
composantes xj sont appelées composantes contravariantes.

Exemple : Changement de base par rotation


Une rotation R d’axe ez et d’angle ϕ est une application linéaire donnée par
n
X
r0 = R(r) = xk R(ek )
k=1

où la rotation des vecteurs de base vaut


e01 = R(e1 ) = cos ϕ e1 + sin ϕ e2
e02 = R(e2 ) = − sin ϕ e1 + cos ϕ e2 .
La transformation des vecteurs de base est donc représentée par la matrice
" #
k cos ϕ sin ϕ
[Rj ] = (1.30)
− sin ϕ cos ϕ
et la transformation des composantes xj par la transposée.

5
1.3 Définition des tenseurs
Nous allons définir les tenseurs en partant des notions générales de l’algèbre linéaire
pour aboutir finalement aux concepts qu’utilisent les physiciens.
à !
p
Déf. 1.7 Un tenseur de type est une forme multilinéaire
q

t : V ∗ p × V q −→ IR .

Pour simplifier l’écriture, on se limitera à des formes bilinéaires sur V ∗ × V dont l’espace
vectoriel (vérification !) est donné par l’ensemble noté
n o
V ⊗ V ∗ = t/ t : V ∗ × V −→ IR . (1.31)

La généralisation à des formes multilinéaires est immédiate. Exprimée dans les bases {ej }
et {ej }, la forme t ∈ V ⊗ V ∗ fournit l’expression3

t(f, u) = t(xj ej , y k ek ) = xj y k t(ej , ek ) = xj y k T j k (1.33)

où les T j k sont appelées composantes mixtes du tenseur. Cette expression nous incite à
introduire la base de V ⊗ V ∗ en définissant la forme bilinéaire produit tensoriel4

(ej ⊗ ek )(f, u) = ej (f )ek (u) = xj y k (1.34)

où l’on a utilisé les notations (1.16) et (1.6) des composantes. Alors, l’expression (1.33)
prend la forme
t(f, u) = T j k (ej ⊗ ek )(f, u) (1.35)
valable pour tout f et tout u. On en déduit la représentation d’un tenseur t ∈ V ⊗ V ∗
sous forme de combinaison linéaire

t = T j k ej ⊗ ek . (1.36)

On peut, par exemple, définir le produit tensoriel de v ∈ V avec t ∈ V ⊗ V ∗ par la


combinaison linéaire
v ⊗ t = xl T j k el ⊗ ej ⊗ ek . (1.37)
Si l’on effectue un changement de base par la matrice (Aj k ), la forme bilinéaire t reste la
même. Par contre ses composantes T j k deviennent
j
T 0j k = t(e0 , e0 k ) = t(Aj m em , Ak n en ) = Aj m Ak n t(em , en ) = Aj m Ak n T m n .

Cette expression nous amène à formuler la définition utilisée par le physicien. Dans ce cas
on parlera de tenseur d’ordre plutôt que de tenseur de type
3
Convention de sommation d’Einstein : sommation implicite sur les indices répétés dans un produit
n
X
aj bj ≡ aj bj . (1.32)
j=1

4
La forme ej (f ) = xj doit être vue comme un élément de l’espace bidual V ∗∗ i.e. l’espace des formes
linéaires sur V ∗ . Dans V ∗∗ , la forme ej fait correspondre au vecteur f ∈ V ∗ sa j-ème composante xj . On
montre que V est isomorphe à V ∗∗ .

6
Déf. 1.8 Pour toute matrice de passage (Ak n ) et d’inverse transposée (Ak n ), on définit :
S scalaire ou tenseur d’ordre 0 si

S0 = S (1.38)

V j vecteur contravariant ou tenseur contravariant d’ordre 1 si

V 0j = Aj k V k (1.39)

Vj vecteur covariant ou tenseur covariant d’ordre 1 si

Vj0 = Aj k Vk (1.40)

T jk tenseur contravariant d’ordre 2 si :


jk
T0 = Aj m Ak n T mn (1.41)

Tjk tenseur covariant d’ordre 2 si


0
Tjk = Aj m Ak n Tmn (1.42)

T j k tenseur mixte d’ordre 2 si

T 0j k = Aj m Ak n T m n . (1.43)

La généralisation aux tenseurs d’ordres supérieurs est claire.


Si la base {e1 , · · · , en } de V n’est pas orthogonale, la forme bilinéaire définie par le
produit scalaire
(u, v) = y j xk (ej , ek ) = y j xk gjk (1.44)
fournit les composantes du tenseur métrique gjk = (ej , ek ). D’autre part, une forme
linéaire h peut toujours être représentée de manière unique par le produit scalaire

(u, v) = h(v) = h(xk ek ) = xk h(ek ) = xk yk . (1.45)

Alors, de (1.44) et (1.45), on déduit

yk = y j gjk . (1.46)

Cette opération est appelée abaissement d’indice. Comme det(gjk ) 6= 0, les composantes
y j sont déterminées par l’inversion5 du système d’équations linéaires (1.46). Ainsi, les y j
fixés de manière unique par les yk permettent de définir la matrice inverse g kj telle que

g jl glk = δkj (1.47)

et conduisent au relèvement d’indice

y j = yk g kj = yk (ek , ej ) = (h, ej ) . (1.48)

Enfin, si la base de V est orthonormale on a gjk = δjk et dans ce cas, les deux types de
composantes coı̈ncident.
5
Pour des vecteurs ej linéairement indépendants, on a det(ek , ej ) 6= 0.

7
1.4 Grandeurs tensorielles typiques
Nous énumérons ci-après quelques exemples de tenseurs.
a) Le produit scalaire en tant que forme bilinéaire est une scalaire. Cependant, les
composantes de cette forme bilinéaire représenten un tenseur d’ordre 2.
b) Les xj sont les composantes d’un tenseur contravariant d’ordre 1 puisque
j
x0 = A j k xk .

c) La matrice d’une application linéaire y j = M j k xk est un tenseur mixte d’ordre 2

M 0j k = Aj m Ak n M m n .

On le voit (exercice) en considérant la transformation des composantes y j et xk .


d) Le tenseur métrique gjk est un tenseur covariant d’ordre 2, puisqu’il est défini par
le produit scalaire qui est une forme bilinéaire symétrique

(u, v) = (xj ej , y k ek ) = xj y k (ej , ek ) = xj y k gjk .

e) Les produits de coordonnées xj y k , xj yk , xj yk sont des tenseurs d’ordre 2 définis par


les formes bilinéaires formées à partir des produit tensoriels

u⊗v u⊗h f ⊗h .

Par exemple le premier produit donne la combinaison linéaire u ⊗ h = xj yk ej ⊗ ek .


f) La dérivée partielle ∂j = ∂/∂xj par rapport aux coordonnées contravariantes est un
vecteur covariant (vérifier !)
∂j0 = Aj k ∂k .
De même ∂ j = ∂/∂xj est un vecteur contravariant.
g) En relativité restreinte, l’espace de Minkowski IR4 est muni d’un produit scalaire
pas nécessairement défini positif, mais cependant non dégénéré6

(x, y) = x0 y 0 − x1 y 1 − x2 y 2 − x3 y 3 .

La base {e0 , e1 , e2 , e3 } est orthogonale et l’on a


 
1 0 0 0
 0 −1 0 0 
 
(eµ , eν ) = gµν =   .
 0 0 −1 0 
0 0 0 −1

Ainsi les composantes covariantes d’un vecteur sont données par

x0 = g0µ xµ = x0 , xj = gjµ xµ = −xj , j = 1, 2, 3 .


6
Le produit scalaire est dit non dégénéré si (u, v) = 0 ∀v =⇒ u = 0.

8
h) A l’aide du symbole7

 +1
 (jkl) permutation paire de (123)
jkl
² =  −1 (jkl) permutation impaire de (123) (1.49)

0 au moins 2 indices égaux
n . o
et pour une disposition de lignes (1, 2, 3) de la matrice A ∈ O(3) = A AT A = I ,
on peut définir le déterminant det A = ²jkl A1 j A2 k A3 l . Pour une disposition de lignes
(r, s, t) quelconque on obtient ²rst det A = ²jkl Ar j As k At l . Mais comme (det A)2 = 1,
on peut écrire
²0rst = det A Ar j As k At l ²jkl . (1.50)
On voit donc que sous une transformation de O(3), ²jkl se transforme comme un
tenseur, au signe près. C’est un pseudotenseur. En algèbre linéaire, on parle de forme
multilinéaire alternée. Le produit vectoriel est un pseudotenseur qui s’écrit

pj = ²jkl xk yl j, k, l = 1, 2, 3 . (1.51)

En fait, les pj sont les trois composantes indépendantes d’un tenseur d’ordre 2
antisymétrique. De manière générale, on montre (exercice) que les 3 composantes
d’un tenseur antisymétrique Tjk peuvent s’écrire comme pseudovecteur
1 jkl
T̃ j = ² Tkl . (1.52)
2

1.5 Opérations sur les tenseurs


De la définition des tenseurs en tant que formes multilinéaires que nous illustrons ici
par l’exemple (1.36) d’une forme bilinéaire

t = T j k ej ⊗ ek , (1.53)

il en résulte les opérations essentielles suivantes :


a) Addition
Deux tenseurs de même type s’additionnent composantes par composantes

T jk l = Rjk l + S jk l . (1.54)

b) Multiplication
Le produit tensoriel de formes multilinéaires implique le produit des composantes
des tenseurs correspondants, comme par exemple

T jk l = Rj S k l . (1.55)

est un tenseur mixte d’ordre 3 puisque

T 0jk l = Aj m Rm Ak n Al p S n p = Aj m Ak n Al p T mn p . (1.56)

En particulier, on peut aussi considérer la multiplication par un scalaire.


7
Considéré comme symbole, ²jkl possède évidemment la propriété ²0jkl = ²jkl , i.e. le symbole garde la
même définition quel que soit le système de coordonnées que l’on utilise.

9
c) Contraction d’indices
Cette opération permet de diminuer l’ordre d’un tenseur. Elle n’est définie que pour
des tenseurs mixtes. On a par exemple le vecteur

V j = T jk k (1.57)

qui est tiré de la contraction d’un tenseur mixte d’ordre 3 en effectuant une som-
mation sur k. La grandeur V j est bien un vecteur puisque

V 0j = T 0jk k = Aj m Ak n Ak p T mn p = Aj m δnp T mn p = Aj m T mn n = Aj m V m . (1.58)

La trace du tenseur T j k est définie par la sommation T = T j j .


d) Multiplication contractée
C’est la multiplication de composantes de tenseurs suivie d’une contraction d’indices,
comme par exemple
m
T jk l n = Rjk l S m n −→ V j = Rjk m S m k . (1.59)

Enfin, mentionnons certaines propriétés particulières des tenseurs. Le tenseur T jk est


symétrique si T jk = T kj et antisymétrique si T jk = −T kj . Tout tenseur d’ordre 2 peut
s’exprimer comme somme d’un tenseur symétrique et d’un tenseur antisymétrique sous la
forme
1 1
T jk = (T jk + T kj ) + (T jk − T kj ) . (1.60)
2 2
Pour des tenseurs d’ordre plus élevé, on peut avoir des tenseurs complètement symétriques
ou complètement antisymétriques ou encore des tenseurs symétriques sur certains indices
et antisymétriques sur d’autres. Dans IR3 , un tenseur symétrique d’ordre 2 possède 6
composantes indépendantes, un tenseur antisymétriques 3 composantes indépendantes.
De manière générale, pour des tenseurs d’ordre r sur IRn , le nombre de composantes
indépendantes NS ou NA d’un tenseur symétrique respectivement antisymétrique est
donné par les formules combinatoires
à !
n+r−1
NS = (1.61)
r
à !
n n(n − 1) · · · (n − r + 1)
NA = = . (1.62)
r r!

Tous les tenseurs introduits ci-dessus peuvent être des fonctions des coordonnées xj . Ce-
pendant les propriétés de transformation ont un caractère global i.e. la matrice de chan-
gement de base est indépendante des coordonnées xj . Dans le cadre de la géométrie
différentielle, la notion de tenseur apparaı̂t aussi. Les espaces vectoriels sont alors les es-
paces tangents Tp (M ), T ∗ p (M ) en chaque point P de la variété différentiable M et les
transformations de coordonnées sont données par le difféomorphisme

x0j = x0j (x) .

Les tenseurs définis dans ce cadre ne possèdent des propriétés de transformation linéaire
que localement dans le voisinage du point P .

10
Chapitre 2

Espaces de Hilbert et bases


orthonormales

2.1 Introduction : équation de la chaleur


Les équations différentielles linéaires ordinaires, soumises à des conditions initiales,
possèdent une solution unique. Il en va de même pour les systèmes d’équations différen-
tielles linéaires. Il est par ailleurs facile de voir que toute équation différentielle linéaire
d’ordre n peut être ramenée à un système de n équations du premier ordre et récipro-
quement. Comme exemple élémentaire, considérons l’équation d’un oscillateur harmonique

ẍ + ω 2 x = 0 . (2.1)

Cette équation possède deux solutions indépendantes que sont sinus et cosinus. Si l’on
fixe les conditions initiales x(0) = x0 , ẋ(0) = v0 , la solution est donnée de manière unique
par la combinaison linéaire

x(t) = a1 sin ωt + a2 cos ωt a1 , a2 ∈ IR . (2.2)

D’autre part, en posant x1 = x et x2 = ẋ, on peut facilement ramener cette équation


différentielle du deuxième ordre à un système de deux équations du premier ordre
" # " #" #
ẋ1 0 1 x1
= . (2.3)
ẋ2 −ω 2 0 x2

Pour ces équations différentielles linéaires ordinaires, les choses sont simples puisque l’es-
pace des solutions est un espace vectoriel de dimension finie. Il n’en est plus de même pour
les équations différentielles linéaires aux dérivées partielles, comme par exemple l’équation
de la chaleur1

T (r, t) = c∇2 T (r, t) (2.4)
∂t
où T est la température qui dépend de l’espace et du temps, c > 0 la conductivité
thermique et ∇2 = ∂x2 + ∂y2 + ∂z2 l’opérateur de Laplace. L’équation (2.4) est du premier
ordre en t. Il ne faut pas la confondre avec l’équation d’onde qui est du deuxième ordre
1
L’équation de la chaleur fut introduite en 1811 par J. Fourier pour décrire le phénomène de conduction
thermique. Elle peut être établie à partir du premier principe de la thermodynamique.

11
en t. On simplifie le problème en considérant la diffusion de la chaleur dans un chaı̂non
circulaire mince d’abscisse curviligne x = ϕ. On aboutit ainsi à l’équation
∂ ∂2
T (x, t) = c T (x, t) . (2.5)
∂t ∂x2
La géométrie circulaire du problème impose les conditions :
a) T (x, t) 2π-périodique pour tout t,
b) T (x, 0) = f (x) où f 2π-périodique est donnée.
Essayons de trouver une solution de cette équation en faisant l’hypothèse de séparation2
des variables
T (x, t) = u(x)v(t) . (2.6)
Alors l’équation (2.5) devient
v̇(t) u00 (x)
=c . (2.7)
v(t) u(x)
Cette égalité, valable pour tout x et pour tout t, implique que chacun des membres doit
être constant et l’on écrit
v̇(t) u00 (x)
= const = c . (2.8)
v(t) u(x)
En notant const = −cλ2 , on en tire les deux équations différentielles linéaires

u00 (x) + λ2 u(x) = 0 v̇(t) + cλ2 v(t) = 0 x ∈ IR, t > 0 . (2.9)

La solution de la première est donnée par la combinaison

u(x) = A cos λx + B sin λx (2.10)

et les conditions de périodicité u(0) = u(2π) et u0 (0) = u0 (2π) fournissent les équations

(1 − cos λ2π) A − sin λ2π B = 0


λ sin λ2π A + λ(1 − cos λ2π) B = 0 . (2.11)

Ce système homogène possède une solution non triviale si la condition suivante est remplie
¯ ¯
¯ (1 − cos 2πλ) − sin 2πλ ¯
¯ ¯
¯ ¯=0. (2.12)
¯ sin 2πλ (1 − cos 2πλ) ¯

Le calcul du déterminant fournit cos 2πλ = 1 ou encore

λ=n n ∈ ZZ .

Alors les solutions périodiques de la première équation (2.9) s’écrivent

un (x) = An cos nx + Bn sin nx (2.13)

avec u0 (x) = A0 . En considérant la dérivée logarithmique de la deuxième équation (2.9),


on trouve la solution
2
vn (t) = Cn e−n ct . (2.14)
2
Cet Ansatz de séparation des variables correspond à la recherche d’une solution particulière.

12
D’où l’on tire les solutions possibles de l’équation de la chaleur
2 ct
Tn (x, t) = (An cos nx + Bn sin nx) e−n . (2.15)
La constante Cn a été absorbée dans les constantes An et Bn . Toutefois, la condition
initiale T (x, 0) = f (x) ne peut pas être satisfaite puisque
Tn (x, 0) = (An cos nx + Bn sin nx) 6= f (x)
pour une fonction f (x) 2π-périodique quelconque donnée. Comme l’équation (2.5) est
linéaire, on peut chercher une solution plus générale par combinaison linéaire
N
X 2 ct
TN (x, t) = A0 + (An cos nx + Bn sin nx) e−n . (2.16)
n=1

Mais là encore, la condition initiale n’est pas remplie


TN (x, 0) 6= f (x) .
Il reste à considérer la combinaison d’une infinité de solutions indépendantes

X 2 ct
T (x, t) = A0 + (An cos nx + Bn sin nx) e−n . (2.17)
n=1

Si cette série converge vers f (x) pour t = 0, alors la condition initiale T (x, 0) = f (x) est
satisfaite et l’on peut écrire

X
f (x) = A0 + (An cos nx + Bn sin nx) . (2.18)
n=1

Le coefficients An et Bn sont déterminés en multipliant l’équation par sin mx et cos mx


et en intégrant de 0 à 2π. Les relations d’orthonormalité3 fournissent les coefficients
1 Z 2π
An = f (x) cos nx dx (2.19)
π 0
1 Z 2π
Bn = f (x) sin nx dx (2.20)
π 0
Z 2π
1
A0 = f (x) dx . (2.21)
2π 0
Alors, si la série (2.18) converge vers f (x) 2π-périodique, la solution T (x, t) est complé-
tement déterminée et l’on arrive ainsi aux séries de Fourier.
3
Les fonctions sinus et cosinus satisfont les relations d’orthogonalité
Z
1 2π
cos nx sin mx dx = 0
π 0
Z Z
1 2π 1 2π
cos mx cos nx dx = δmn sin mx sin nx dx = δmn
π 0 π 0
que l’on vérifie à l’aide des formules trigonométriques
1
sin mx cos nx =[sin(m − n)x + sin(m + n)x]
2
1 1
cos mx cos nx = [cos(m − n)x + cos(m + n)x] sin mx sin nx = [cos(m − n)x − cos(m + n)x] .
2 2

13
Cet exemple, nous amène à poser plusieurs questions :
- Les fonctions cos nx, sin nx forment-elles une base ?
- Quelle est la structure de l’espace vectoriel des fonctions ?
- Comment définir la convergence dans cet espace de dimension infinie ?
Pour clore cette introduction, rappelons que notre démarche essentielle dans la discussion
P
des espace de Hilbert4 consistera à passer de la combinaison linéaire nk=1 αk vk bien définie
P
dans un espace vectoriel de dimension finie au développement en série ∞ k=0 αk vk .

2.2 Espace de Hilbert H


En langage intuitif, il s’agit de définir un espace vectoriel de dimension infinie où les
”combinaisons linéaires” fournissent des objets qui sont encore dans cet espace. Soit V
un espace vectoriel complexe, pas nécessairement de dimension finie.

Déf. 2.1 Un produit scalaire sur V est une application (., .) : V × V −→ Cl telle que
a) (u, v) = (v, u)∗
b) (u, αv + βw) = α(u, v) + β(u, w)
c) (u, u) > o ∀u 6= 0
où u, v, w ∈ V , α, β ∈ Cl et (., .)∗ désigne le conjugué complexe.

Le produit scalaire5 s’appelle aussi forme sesquilinéaire, hermitienne, définie positive. On


remarque que pour un espace vectoriel réel, la définition coı̈ncide avec Déf. 1.4. De la
définition du produit scalaire, on déduit les propriétés :
a) (u, u) ∈ IR
b) (αu + βv, w) = α∗ (u, w) + β ∗ (v, w)
c) |(u, v)|2 ≤ (u, u)(v, v) inégalité de Cauchy-Schwartz
d) (., .) est une application continue i.e |(u, v) − (u0 , v 0 )| → 0 pour u → u0 et v → v 0 .
La vérification de ces propriétés est laissée en exercice. Pour montrer d), il faut d’abord
définir la convergence en norme de u et v (voir plus loin).

Déf. 2.2 Un espace préhilbertien G est un espace vectoriel muni d’un produit scalaire.

Exemples : Espaces vectoriels et produits scalaires


n . o
a) Cl n = u = (ξ1 , ξ2 , · · · , ξn ) ξj ∈ Cl
n
X
(u, v) = ξj∗ ηj (2.22)
j=1
n . P∞ o
b) l2 = u = (ξ0 , ξ1 , · · ·) ξj ∈ C,
l 2
j=0 |ξj | < ∞


X
(u, v) = ξj∗ ηj (2.23)
j=0

4
David Hilbert (1862-1943) est un mathématicien allemand précurseur de l’analyse fonctionnelle.
5
En mathématiques, le conjugué complexe est noté (u, v) et l’on définit (u, αv) = α (u, v).

14
n . o
c) C([a, b]) = f : [a, b] → Cl f continue
Z b
(f, g) = f (x)∗ g(x) dx (2.24)
a

Pour chacun des ensembles définis ci-dessus, il faut vérifier les propriétés d’un espace
vectoriel et du produit scalaire (exercice). On dit qu’une famille de vecteurs vα ∈ G est
orthonormale si
(vα , vβ ) = δαβ . (2.25)
Par exemple, on vérifie que les fonctions f (x) = x et g(x) = 1 − 2x2 dans C([0, 1]) sont
orthogonales.
Prop. 2.1 Dans un espace préhilbertien G, l’expression
q
kvk = (v, v) (2.26)
définit une norme sur G.
Preuve. On vérifie les propriétés d’une norme :
a) kvk ≥ 0 (kvk = 0 ⇒ v = 0)
b) kαvk = |α| kvk α ∈ Cl
c) ku + vk ≤ kuk + kvk inégalité du triangle 2
Un espace vectoriel muni d’une norme s’appelle espace vectoriel normé. Les éléments de
l’espace vectoriel G peuvent être constitués de suites de vecteurs v (n) pour lesquelles il
s’agit de savoir si leur limite se trouve dans l’espace. La norme, va nous permettre de
définir la convergence.
Déf. 2.3 Soit V espace vectoriel normé. On dit qu’une suite v (n) , n ∈ IN d’éléments de
V converge vers v ∈ V si
lim kv (n) − vk = 0 .
n→∞
(2.27)

On écrit aussi kv (n) − vk → 0 pour n → ∞ et l’on parle de convergence en norme.


Exemples : Convergences
a) Dans l2 , on définit la convergence

X
(n) 2 (n)
lim ku − uk = lim |ξk − ξk |2 = 0 .
n→∞ n→∞
k=0

(n)
L’implication limn→∞ ku(n) − uk = 0 ⇒ limn→∞ |ξk − ξk | = 0 pour tout k est
toujours vraie, par contre l’inverse ” ⇐ ” est faux en général : une somme infinie de
termes petits ne converge pas toujours, comme par exemple la série harmonique.
b) Dans C([a, b]), on définit la convergence
Z b
lim kf (n) − f k2 = lim |f (n) (x) − f (x)|2 dx = 0 .
n→∞ n→∞ a

Cette convergence s’appelle convergence en moyenne quadratique ou conver-


gence L2 . Il n’y a en général pas de relation entre la convergence en moyenne et la
convergence ponctuelle (voir appendice A).

15
Pour passer à l’espace de Hilbert, il faut compléter le préhilbertien, i.e. trouver un critère
qui nous assure que les limites des suites sont dans l’espace. Un critère bien connu repose
sur les suites de Cauchy.

Déf. 2.4 Une suite de Cauchy est une suite v (n) , n ∈ N d’éléments de G telle que

lim kv (m) − v (n) k = 0 . (2.28)


m,n→∞

Toute suite convergente dans G est une suite de Cauchy puique pour v limite de la suite
v (n) et en utilisant l’inégalité du triangle, on obtient

kv (m) − v (n) k = kv (m) − v + v − v (n) k ≤ kv (m) − vk + kv − v (n) k → 0 .

Réciproquement, on peut montrer qu’une suite de Cauchy est convergente6 dans C. l On


7
peut aussi montrer qu’elle est convergente dans tout espace vectoriel V de dimension
finie. Par contre, la réciproque n’est plus valable dans les espaces vectoriels normés de
dimension infinie. D’où la définition de l’espace complet et de l’espace de Hilbert.

Déf. 2.5 Un espace vectoriel normé est complet si toute suite de Cauchy est convergente.

Déf. 2.6 Un espace de Hilbert H est un espace vectoriel muni d’un produit scalaire
et complet par rapport à la norme induite par le produit scalaire8 . C’est un préhilbertien
complet.

Dans la section suivante, on discutera deux exemples d’espaces de Hilbert rencontrés


fréquemment en mécanique quantique.

6
Du cours d’Analyse I, on se souvient du ”critère de convergence général” : une suite de nombres
complexes est convergente si et seulement si c’est une suite de Cauchy. Dans le cas d’une suite de nombres
réels on parle du critère de Cauchy.
7
Pour montrer que dans un espace vectoriel normé V de dimension finie n toute suite de Cauchy est
convergente, on prend une suite de Cauchy u(k) et l’on s’astreint à trouver dans V la limite u de cette suite.
Pn (k)
La base orthonormée {e0 , e1 , · · · , en } de V permet d’écrire la combinaison linéaire u(k) = j=1 cj ej où
(k) (k)
cj = (ej , u(k) ) et de voir que la suite cj ∈ Cl est une suite de Cauchy, puisque

(k) (l)
|cj − cj |2 = |(ej , u(k) ) − (ej , u(l) )|2 = |(ej , u(k) − u(l) )|2 ≤ kej k2 ku(k) − u(l) k2 → 0 .

(k)
La suite de nombres complexes cj converge donc vers cj ∈ C. l Il reste à montrer que le vecteur u donné
Pn
par la combinaison linéaire u = j=1 cj ej ∈ V est la limite de la suite u(l) , l ∈ IN
n
X ³X
n n
X ´
(l) (l) (l)
ku − u(l) k2 = k (cj − cj )ej k2 = (cj − cj )ej , (ck − ck )ek
j=1 j=1 k=1
n
X n
X
(l) (l) (l)
= (cj − cj )∗ (ck − ck )(ej , ek ) = |cj − cj |2 → 0 .
j,k=1 j=1

8
Un espace vectoriel normé complet dont la norme n’est pas nécessairement induite par le produit
scalaire s’appelle espace de Banach.

16
2.3 Espaces de Hilbert l2 et L2(U )
En algèbre linéaire, on connaı̂t bien l’espace vectoriel Cl n muni du produit scalaire
n
X
(u, v) = ξj∗ ηj . (2.29)
j=0

Cet espace est complet puisque dans un espace vectoriel de dimension finie toute suite
de Cauchy est convergente. Deux autres espaces de Hilbert ont une importance toute
particulière en mécanique quantique. Il s’agit des espaces l2 et L2 (U ).
a) Espace l2
L’espace l2 défini par l’ensemble
 
 . ∞
X 
l2 = u = (ξ0 , ξ1 , · · ·) ξj ∈ C,
l |ξj |2 < ∞ (2.30)
 
j=0

est muni du produit scalaire



X
(u, v) = ξj∗ ηj . (2.31)
j=0

C’est une espace complet appelé espace de Hilbert séquentiel.


Preuve. Pour montrer que l2 est complet i.e. que toute suite de Cauchy est convergente
(n) (n)
dans l2 , on considère la suite de Cauchy u(n) = (ξ0 , ξ1 , · · ·) de l2 et on montre que sa
limite u est dans l2 .
(n)
– les ξk ∈ Cl forment une suite de Cauchy, car pour m, n > N , l’expression

X
(m) (n) (m) (n)
|ξk − ξk |2 ≤ |ξj − ξj |2 = ku(m) − u(n) k2 < ²2
j=0

(n)
montre que la suite ξk est de Cauchy et converge donc vers ξk dans C.
l
(n)
– La suite de Cauchy ξj , pour m, n > N et tout entier p donne
p
X (m) (n)
|ξj − ξj |2 ≤ ku(m) − u(n) k2 < ²2 .
j=0

(n)
De plus, comme ξj converge vers ξj ∈ C,
l on a aussi pour tout entier p
p
X p
X
(m) (m) (n)
|ξj − ξj |2 = lim |ξj − ξj |2 < ²2 .
n→∞
j=0 j=0

On en conclut :
P (m)
(1) ku(m) − uk2 = ∞ j=0 |ξj − ξj |2 < ∞, puisque une série à termes positifs est
convergente si et seulement si la suite des sommes partielles est bornée.
(2) u ∈ l2 , puisque pour ku − u(n) k < ∞ et u(n) ∈ l2 on a l’inégalité

kuk = ku − u(n) + u(n) k ≤ ku − u(n) k + ku(n) k < ∞ .

(3) ku − u(n) k2 → 0 pour n → ∞. 2

17
b) Espace L2 (U )
L’espace L2 (U ) défini par l’ensemble
½ .Z ¾
L2 (U ) = f : U → Cl |f (x)|2 dx < ∞, U ⊂ IR (2.32)
U

est muni du produit scalaire


Z
(f, g) = f (x)∗ g(x) dx . (2.33)
U

Il est complet. On l’appelle espace de Hilbert des fonctions de carré intégrables.


La preuve que L2 (U ) est complet est donnée par le théorème de Riesz-Fischer que l’on peut
retrouver dans n’importe quel livre d’analyse fonctionnelle. Toutefois, la démonstration
n’est pas facile. Elle utilise la notion d’intégration au sens de Lebesgue (voir appendice
B). On sait alors que (f, f ) = 0 ⇒ / f = 0 ! L’implication est cependant valable presque
partout i.e. partout sauf sur un ensemble de mesure nulle. On définit alors le produit
scalaire en identifiant deux fonctions égales presque partout, ce qui définit une relation
d’équivalence. Ainsi L2 (U ) est l’espace formé des classes d’équivalence des fonctions de
carré intégrables sur U . Dans l’espace vectoriel L2 (U ), on définit la somme de deux classes
d’équivalence comme la classe d’équivalence qui contient la somme des deux fonctions,
une dans chaque classe et ainsi de suite. Cependant, par abus de langage, on parlera de
fonctions plutôt que de classes d’équivalences.
Un résultat intéressant concernant les deux espaces définis ci-dessus est fourni par le
théorème suivant dû également à Riesz-Fischer et que l’on donne sans preuve.
Th. 2.1 Tout espace de Hilbert H séparable de dimension infinie est isomorphe à l2 .
En particulier, l’isomorphisme
L2 (U ) ' l2 (2.34)
traduit l’équivalence entre la mécanique ondulatoire de Schrödinger définie sur L2 (U ) et
la mécanique des matrices de Heisenberg définie sur l2 .

2.4 Bases orthonormales


C’est l’une des notions importantes de l’analyse hilbertienne, puisque c’est avec ces
bases que les vecteurs de l’espace de Hilbert seront représentés. On suppose que les espaces
de Hilbert sont séparables i.e. possèdent un sous-ensemble dénombrable dense.
Déf. 2.7 Soit H un espace de Hilbert séparable. On appelle système orthonormal
complet ou base de Hilbert l’ensemble {e0 , e1 , e2 , · · ·} qui contient tous les vecteurs
orthonormés de H, i.e. il n’existe pas d’autre vecteur non nul orthogonal à tous les autres.
Dans ce qui suit, on ne considèrera que des espaces de Hilbert qui possèdent une base9 .
Toutefois, Déf 2.7 n’est pas très pratique. Le physicien préfère travailler avec la représen-
tation des éléments de H par des séries. Il faut donc trouver des définitions équivalentes
mieux adaptées.
9
Existence d’une base de Hilbert : Tout espace de Hilbert séparable possède une base de Hilbert. Pour
la preuve, on utilise le fait que H est séparable et possède donc un sous-ensemble dense. On montre que les
vecteurs linéairement indépendants de ce sous-ensemble peuvent être orthonormalisés (Gram-Schmidt)
et que tout v ∈ H orthogonal à ceux-ci est nul.

18
Prop. 2.2 Tout vecteur v ∈ H et toute base de Hilbert {e0 , e1 , e2 , · · ·} satisfont l’inéga-
lité de Bessel ∞ X
|(ej , v)|2 ≤ kvk2 . (2.35)
j=0

Preuve. Pour n fixé et cj = (ej , v), on a


n
X ³ n
X n
X ´ n
X
0 ≤ kv − cj ej k2 = v − cj ej , v − ck ek = kvk2 − |cj |2 .
j=0 j=0 k=0 j=0

Pn
Comme la suite des sommes partielles j=0 |cj |2 à termes positifs est bornée par kvk2 , la
P
série ∞ 2
j=0 |cj | converge. 2

A l’aide de l’inégalité de Bessel, on accède au développement de Fourier généralisé qui est


l’équivalent de la combinaison linéaire dans les espaces vectoriels de dimension finie.

Prop. 2.3 Pour tout v ∈ H et pour toute base de Hilbert {e0 , e1 , e2 , · · ·}, on peut écrire
le développement de Fourier généralisé

X
v= cj ej (2.36)
j=0

où les cj = (ej , v) s’appellent coefficients de Fourier.


Pn
Preuve. On montre d’abord que v (n) = j=0 cj ej est une suite de Cauchy, puis que cette
suite converge vers v ∈ H.
– v (n) est une suite de Cauchy !
n
X ³ X
n n
X ´ n
X
(m) (n) 2 2
kv −v k =k cj ej k = cj ej , ck ek = |cj |2
j=m+1 j=m+1 k=m+1 j=m+1

P
L’inégalité de Bessel (2.35) nous assure que la série ∞ 2
j=0 |cj | converge, ce qui im-
Pn P n P m
plique j=m+1 |cj |2 = j=0 |cj |2 − j=0 |cj |2 → 0. Ainsi, les v (n) forment une suite
de Cauchy qui converge donc dans H complet.
– La limite est égale a v !
P
On définit u = v − ∞ k=0 ck ek . Alors

n
X n
X
(ej , u) = (ej , v) − n→∞
lim (ej , ck ek ) = cj − n→∞
lim ck δjk = cj − cj = 0 .
k=0 k=0

Le produit scalaire nul signifie que u ⊥ ej . Comme {ej } maximal, on a u = 0. 2

L’égalité (2.36) représente en fait une convergence en moyenne de la série vers v. Pour ce
qui concerne la physique théorique, ce résultat de l’analyse hilbertienne est l’un des plus
importants. D’autres en découlent. Nous donnons ci-après des formulations équivalentes
du concept de base de Hilbert.

19
Th. 2.2 (Critères pour une base de Hilbert)
Soient en , n ∈ IN une famille de vecteurs orthonormés d’un espace de Hilbert H séparable
et les vecteurs v, u ∈ H.
Alors les propriétés suivantes sont équivalentes :
a) {e0 , e1 , ...} base de Hilbert
P∞
b) v = j=0 (ej , v)ej développement de Fourier
P∞
c) (u, v) = j=0 (u, ej )(ej , v) relation de fermeture
2 P∞ 2
d) kvk = j=0 |(ej , v)| relation de Parseval
e) Le sous-espace vectoriel engendré par {e0 , e1 , ...} est dense dans H
Preuve. La preuve de ces équivalences est laissée en exercice. On montre les implications
suivantes : a) ⇒ b) ⇒ c) ⇒ d) ⇒ a) puis b) ⇒ e) ⇒ a). 2
Les égalités ci-dessus doivent être comprises dans le sens de la convergence en moyenne.
Exemples : Bases de Hilbert
a) l2
P
produit scalaire : (u, v) = ∞ ∗
j=0 ξj ηj
base : e0 = (1, 0, · · ·), e1 = (0, 1, · · ·), · · ·
b) L2 (IR) R
produit scalaire : q (f, g) = IR f (x)∗ g(x) dx
1 2
base : en (x) = 1/ (π) 2 2n n! e−x /2 Hn (x) n = 0, 1, 2, · · ·
Les Hn (x), polynômes d’Hermite de degré n, sont donnés par la formule
2 dn −x2
Hn (x) = (−1)n ex e (2.37)
dxn
c) L2 ([−1, 1]) R +1 ∗
produit scalaire
q
: (f, g) = −1 f (x) g(x) dx
base : el (x) = l + 12 Pl (x) l = 0, 1, 2, · · ·
Les Pl (x), polynômes de Legendre de degré l, sont donnés par la formule
1 dl 2
Pl (x) = l l
(x − 1)l (2.38)
2 l! dx
d) L2 ([0, ∞]) R
produit scalaire : (f, g) = 0∞ f (x)∗ g(x) dx
base : en (x) = e−x/2 Ln (x) n = 0, 1, 2, · · ·
Les Ln (x), polynômes de Laguerre de degré n, sont donnés par la formule
1 x dn n −x
Ln (x) = e (x e ) (2.39)
n! dxn
e) L2 ([0, 2π]) R
produit scalaire : (f, g) = 02π f (x)∗ g(x) dx
base : ek (x) = √12π eikx k ∈ ZZ
Cette base est complexe et donne lieu aux séries de Fourier. On peut aussi définir
la base réelle pour n ∈ IN+
1 1 1
en (x) = √ sin nx, e0 (x) = √ , e−n (x) = √ cos nx (2.40)
π 2π π

20
n o
Il est clair que les vecteurs e0 = (1, 0, · · ·), e1 = (0, 1, · · ·), · · · forment une base de l2 . Il
reste à montrer que les polynômes définis ci-dessus ainsi que les séries de Fourier forment
des bases de Hilbert. On le fera dans les deux sections qui suivent en apprenant aussi à
construire ces polynômes et les séries de Fourier.

2.5 Polynômes orthogonaux


Sur l’espace des fonctions de L2 (U, r), U ⊂ IR, on définit le produit scalaire
Z
(f, g)r = f (x)∗ g(x) r(x) dx (2.41)
U

où f, g ∈ L2 (U, r) et r : U −→ IR+ fonction intégrable. A partir de la base


{1, x, x2 , x3 , · · ·}
et à l’aide du procédé d’orthonormalisation de Gram-Schmidt
n−1
à !
X uj uj
n n
u0 = 1 un = x − x , n = 1, 2, · · · , (2.42)
j=0 kuj k r
kuj k

on construit les polynômes orthogonaux10 associés à U et r.


Z
un
ϕn = (ϕm , ϕn )r = ϕm (x)∗ ϕn (x) r(x) dx = δmn (2.43)
kun k U

La norme est déduite du produit scalaire (2.41).


Prop. 2.4 Les polynômes ϕn , n = 0, 1, 2, · · · forment une base orthonormale de l’espace
de Hilbert L2 (U, r).
Preuve. La preuve se déroule en trois étapes. Pour une fonction f ∈ L2 (U, r) on a :
– En théorie de l’intégration, on montre qu’il existe g continue telle que
kf − gk < ² .
– Selon le théorème d’approximation de Weierstrass, il existe un polynôme hn tel que
sup |g(x) − hn (x)| < ² .
U

Alors, on peut écrire la norme


Z Z
kg − hn k2 = |g(x) − hn (x)|2 r(x) dx ≤ ²2 r(x) dx .
U U

– Finalement
h µZ ¶1 i
2
kf − hn k ≤ kf − gk + kg − hn k ≤ ² 1 + r(x) dx .
U

Puisque hn peut s’écrire comme combinaison linéaire des ϕn , on en déduit que


{ϕ0 , ϕ1 , · · ·} est dense dans L2 (U, r). Alors, d’après le Th. 2.2 des critères des bases,
les polynômes ϕn , n = 0, 1, 2, · · · forment une base orthonormale de Hilbert. 2
10
Pour des raisons historiques, les polynômes orthogonaux les plus connus sont définis avec une nor-
malisation différente de celle donnée par (2.43).

21
Exemples : Polynômes orthogonaux
A partir de la suite {1, x, x2 , · · ·} et à l’aide du procédé d’orthogonalisation de Gram-
Schmidt (2.42), on peut, comme exercice, construire explicitement les polynômes de
chaque espèce à l’ordre n = 0, 1, 2, · · · et comparer les résultats aux formules (2.37),
(2.38) et (2.39). On utilise évidemment la norme
Z
kun k2 = (un , un )r = |un (x)|2 r(x)dx
U

dont la valeur est fixée par convention. Différentes normalisations sont possibles. Ici nous
utiliserons celle que l’on rencontre le plus couramment dans les livres de physique.
2
a) Polynômes d’Hermite (2.37) : U = IR, r(x) = e−x
Z +∞ √
2
ϕn (x) ∼ Hn (x) n = 0, 1, 2, · · · e−x Hm (x)Hn (x) dx = π2n n!δmn (2.44)
−∞

b) Polynômes de Legendre (2.38) : U = [−1, 1], r(x) = 1


Z +1
2
ϕl (x) ∼ Pl (x) l = 0, 1, 2, · · · Pl (x)Pl0 (x) dx =
δll0 (2.45)
−1 2l + 1
Pour bien roder le procédé de Gram-Schmidt, calculons les premiers polynômes de
Legendre. En partant de u0 = 1, on obtient par normalisation
Z +1
2
ku0 k = dx = 2
−1

et par conséquent
u0 1
ϕ0 = =√ . (2.46)
ku0 k 2
Par Gram-Schmidt, le polynôme suivant s’écrit
1 Z +1
u1 = x − (x, ϕ0 )ϕ0 = x − xdx = x .
2 −1
Le calcul de la norme donne
Z +1
2
ku1 k2 = x2 dx =
−1 3
et par conséquent
u1 x
ϕ1 = =q . (2.47)
ku1 k 2/3
De même, le polynôme de degré n = 2, s’écrit
u2 = x2 − (x2 , ϕ0 )ϕ0 − (x2 , ϕ1 )ϕ1
et donne après normalisation
u2 3x2 − 1
ϕ2 = = q . (2.48)
ku2 k 2 2/5
On procède ainsi de suite pour les ordres supérieurs. Les polynômes de Legendre
correspondant à la normalisation (2.45) sont
1 1
P0 = 1 P1 = x P2 = (3x2 − 1) P3 = (5x3 − 3x) . (2.49)
2 2

22
c) Polynômes de Laguerre (2.39) : U = IR+ , r(x) = e−x
Z ∞
ϕn (x) = Ln (x) n = 0, 1, 2, · · · dx Lm (x)Ln (x) e−x = δmn (2.50)
0

Attention, la convergence des séries définies à l’aide de ces polynômes n’a lieu qu’en
moyenne i.e. toute fonction de L2 (U, r) ne peut être approchée qu’en moyenne par la série.
On verra plus loin comment on peut aussi trouver ces polynômes en tant que fonctions
propres d’opérateurs linéaires appelés opérateurs de Sturm-Liouville.

2.6 Séries de Fourier


Au début de ce chapitre, on a vu que la solution de l’équation de la chaleur était
donnée par une série de Fourier. Ce résultat avait motivé le développement de l’analyse
hilbertienne. Dans cette section nous allons voir que les séries de Fourier permettent
d’approcher les fonctions de L2 (U ) de la même manière que les polynômes orthogonaux.
Tout d’abord, rappelons en bas de page deux théorèmes d’analyse des séries de Fourier11
qui ont été largement développées dans les cours d’Analyse I, II et prenons un exemple.
Exemple : Série de Fourier
Soit la fonction f : [−π, π] −→ IR définie par
(
1 0≤x≤π
f (x) = (2.51)
−1 −π ≤ x < 0

La fonction f est réelle et bornée. La série de Fourier de f converge pour tout


x ∈ [−π, π] et d’après Prop. 2.5 on a


X 
 1 x ∈ ]0, π[
4
sin(2n + 1)x =  0 x ∈ {−π, 0, π} (2.52)
n=0 (2n + 1)π 
−1 x ∈ ] − π, 0[

La convergence est uniforme i.e. indépendante de x sur ] − π, 0[ et ]0, π[, mais pas
sur tout l’intervalle [−π, π]. Le calcul numérique illustré dans l’appendice C montre
la convergence au voisinage des points −π, 0, π, c’est le phénomène de Gibbs !
11
Convergence des séries de Fourier des fonctions périodiques ou monotones continues par morceaux.

Prop. 2.5 On considère la série de Fourier



X Z x0 +2π
ikx 1
ck e ck = f (x)e−ikx dx
2π x0
k=−∞

- Pour f : [x0 , x0 + 2π] −→ Cl continûment dérivable et périodique i.e. telle que f (x) = f (x + 2π), la série
de Fourier converge uniformément vers f (x).
- Pour f : [x0 , x0 + 2π] −→ IR bornée, monotone par morceaux, la série de Fourier converge pour tout x :
a) vers f (x) si f continue en x ∈]x0 , x0 + 2π[
b) vers 12 [f (x+ ) + f (x− )] si f discontinue en x ∈]x0 , x0 + 2π[
c) vers 21 [f (x+ −
0 ) + f ((x0 + 2π) )] si x = x0 ou x = x0 + 2π .

23
La proposition suivante va nous permettre de montrer la convergence dans L2 (U ) et
apporter ainsi un résultat plus utile au physicien.

Prop. 2.6 Chacune des deux familles de fonctions suivantes :


1
a) √ eikx , k ∈ ZZ (2.53)

1 1 1
b) √ , √ cos nx , √ sin nx , n ∈ IN+ (2.54)
2π π π

forme une base orthonormale de L2 ([x0 , x0 + 2π]).

Preuve. On suit la même démarche que celle employée pour les polynômes orthogonaux.
α) Ces fonctions forment une base de Hilbert. En effet, soit f ∈ L2 ([x0 , x0 + 2π]).
– En théorie de l’intégration, on montre qu’il existe g : [x0 , x0 +2π] −→ Cl continûment
différentiable et périodique telle que kf − gk < ²/2 .
P
– Par Prop. 2.5, il existe pN (x) = N k=−N ck e
ikx
tel que sup[x0 ,x0 +2π] |g(x)−pN (x)| < δ .
Alors, on peut écrire
Z x0 +2π
kg − pN k2 = |g(x) − pN (x)|2 dx ≤ 2πδ 2 .
x0

– Finalement, si l’on choisit 2πδ = ²/2, on obtient

kf − pN k ≤ kf − gk + kg − pN k ≤ ²/2 + ²/2 = ² .

β) La vérification de l’orthonormalité des fonctions de la base a) est directe. On vérifie


l’orthonormalité des fonctions de la base b) à l’aide des identités trigonométriques12 . 2
Les séries de Fourier qui correspondent aux bases (2.53) et (2.54) s’écrivent :
a) Série de Fourier complexe

X 1 Z x0 +2π
f (x) = ck eikx , k ∈ ZZ ck = f (x)e−ikx dx (2.55)
k=−∞ 2π x0

b) Série de Fourier réelle



a0 X
f (x) = + (an cos nx + bn sin nx) (2.56)
2 n=1
1 Z x0 +2π 1 Z x0 +2π
an = cos nxf (x) dx bn = sin nxf (x) dx .
π x0 π x0

A ce stade, il est important de remarquer que le problème de la convergence ponctuelle


des séries de Fourier est délicat. L’égalité des séries de Fourier (2.55) et (2.56) est prise
au sens de la convergence en moyenne quadrique i.e. convergence dans la norme L2
¯ ¯2
Z x0 +2π ¯ XN ¯
(N ) 2
¯ ikx
¯
lim kf − f k = lim ¯ ck e − f (x)¯¯ dx = 0 . (2.57)
N →∞ N →∞ x0
¯
¯k=−N ¯

12
Ces identités trigonométriques se retrouvent dans la note de bas de page3 .

24
L’essentiel concernant les séries de Fourier a été dit. Dans ce qui suit, nous donnons
une formulation des séries de Fourier pour d’autres intervalles de définition des fonctions.
Le passage de l’intervalle [x0 , x0 + 2π] de Prop. 2.6 au nouvel intervalle [a, b] se fait par
un simple changement de variable x0 = αx où α est fixé par les conditions aux bornes
x0 (a) = x0 et x0 (b) = x0 + 2π.

Prop. 2.7 Chacune des familles de fonctions suivantes :


1
a) √ ei2kx , k ∈ ZZ (2.58)
π
s s
1 2 2
b) √ , cos 2nx , sin 2nx , n ∈ IN+ (2.59)
π π π
s
1 2
c) √ , cos nx , n ∈ IN+ (2.60)
π π
s
2
d) sin nx , n ∈ IN+ (2.61)
π

forme une base orthonormale de L2 ([0, π]).

Preuve. La preuve découle de Prop. 2.6. Cependant, il faudrait encore montrer que cos nx
et sin nx n ∈ IN forment chacun une base de Hilbert. Pour cos nx, on prend une fonction
ϕ ∈ RL2 ([0, π]) et on la prolonge
R +π
en une fonction paire
R +π
ϕ̃(−x) = ϕ̃(x) sur [−π, π]. Puis,
de 2 0π ϕ̃(x) cos nx dx = −π ϕ̃(x) cos nx dx = 0 et −π ϕ̃(x) sin nx dx = 0, on déduit que
ϕ̃ = 0 presque partout. Pour sin nx, on prolonge ϕ ∈ L2 ([0, π]) en une fonction impaire.
2
En introduisant la nouvelle variable x ∈ [0, π] des fonctions de L2 ([0, π]), on a
a) Série de Fourier complexe

X 1Zπ
f (x) = ck ei2kx ck = f (x)e−i2kx dx k ∈ ZZ (2.62)
k=−∞ π 0

b) Série de Fourier réelle


1 Rπ

X an = 0 cos nxf (x)dx , n ≥ 0
a0 π
f (x) = + (an cos 2nx + bn sin 2nx) Rπ
(2.63)
2 n=1 1
bn = π 0 sin nxf (x)dx , n ≥ 1

c) Série de Fourier en cosinus

a0 X ∞
1Zπ
f (x) = + an cos nx an = cos nxf (x) dx n ≥ 0 (2.64)
2 n=1 π 0

d) Série de Fourier en sinus



X 2Zπ
f (x) = bn sin nx bn = sin nxf (x) dx n ≥ 1 (2.65)
n=1 π 0

25
Prop. 2.8 Chacune des familles de fonctions suivantes :
1 2π
a) √ eik( b−a )x , k ∈ ZZ (2.66)
b−a
s s
1 2 h 2π i 2 h 2π i
b) √ , cos n( )x , sin n( )x , n ∈ IN+ (2.67)
b−a b−a b−a b−a b−a
s
1 2 h π i
c) √ , cos n( )(x − a) , n ∈ IN+ (2.68)
b−a b−a b−a
s
2 h π i
d) sin n( )(x − a) , n ∈ IN+ (2.69)
b−a b−a

forme une base orthonormale de L2 ([a, b]).

Preuve. La preuve découle de Prop. 2.6. La formulation des séries de Fourier correspon-
dantes est laissée en exercice. 2

Exemples : Séries de Fourier


a) La série de Fourier de f (x) = x, x ∈ [−1, 1] est donnée par l’expression

X
iπkx 1 Z +1
f (x) = ck e ck = f (x)e−iπkx dx .
k=−∞ 2 −1
(2.70)
Le calcul de l’intégrale fournit les coefficients

(−1)k
c0 = 0 , ck = i k 6= 0 (2.71)
πk
ainsi que la série de Fourier

(−1)k iπkx
X
f (x) = i e k 6= 0 . (2.72)
k=−∞ πk

b) Par changement de variable, la série de Fourier en sinus de f ∈ L2 ([0, l]) s’écrit



X nπx 2Z l nπx
f (x) = bn sin( ) bn = sin( )f (x) dx .
n=1 l l 0 l

La relation de Parseval prend la forme


Z l Z l X
∞ ∞
mπx X nπx
|f (x)|2 dx = b∗m sin( ) bn sin( ) dx
0 0 m=1 l n=1 l
X∞
∗ l Zπ
= bm bn sin my sin ny dy
m,n=1 π 0
∞ ∞
l X ∗ l X
= bm bn δmn = |bn |2 . (2.73)
2 m,n=1 2 n=1

26
2.7 Produit tensoriel de deux espaces de Hilbert
Le produit tensoriel d’espaces de Hilbert permet de préciser le cadre mathématique
naturel de la mécanique quantique des systèmes de particules. On définira le produit ten-
soriel de deux espaces de Hilbert. La généralisation à plus de deux espaces est immédiate.
Déf. 2.8 Pour ϕ1 ∈ H1 et ϕ2 ∈ H2 et à l’aide des produits scalaires dans chaque espace,
on définit la forme bilinéaire appelée produit tensoriel
ϕ1 ⊗ ϕ2 : H1 × H2 −→ Cl
u, v 7−→ (ϕ1 ⊗ ϕ2 )(u, v) = (ϕ1 , u) (ϕ2 , u) . (2.74)
L’ensemble des combinaisons linéaires de telles formes constitue un espace vectoriel noté
H1 ⊗ H2 sur lequel on définit le produit scalaire
(ϕ1 ⊗ ϕ2 , ψ1 ⊗ ψ2 ) = (ϕ1 , ψ1 ) (ϕ2 , ψ2 ) . (2.75)
On vérifie que les propriétés du produit scalaire sont satisfaites.
Prop. 2.9 Le complété de H1 ⊗H2 par rapport au produit scalaire est un espace de Hilbert
appelé espace produit tensoriel de H1 et H2 .
Prop. 2.10 Si {ej } et {fk } sont des bases orthonormales de H1 et H2 , alors l’ensemble
{ej ⊗ fk } est une base orthonormale de H1 ⊗ H2 .
Tout vecteur ϕ ∈ H1 ⊗ H2 peut être développé dans la base produit tensoriel

X
ϕ= cjk ej ⊗ fk cjk = (ej ⊗ fk , ϕ) . (2.76)
j,k=0

En mécanique quantique, on dit que le vecteur ϕ ∈ H1 ⊗ H2 représente un état intriqué


ou non-factorisable. Par contre, si les cjk peuvent être factorisés cjk = aj bk , alors le vecteur
ϕ peut s’écrire sous la forme d’un produit tensoriel

X ∞
X
ϕ= aj ej ⊗ bk fk = ϕ1 ⊗ ϕ2 . (2.77)
j=0 k=0

Dans ce cas l’état n’est plus intriqué.

Exemples : Produits tensoriels

a) Les vecteurs ϕ = (ξ0 , ξ1 , · · ·) et ψ = (η0 , η1 , · · ·) de l2 donnent le produit scalaire



X ∞
X ∞
X
2 2
(ϕ ⊗ ψ , ϕ ⊗ ψ) = (ϕ, ϕ)(ψ, ψ) = |ξj | |ηk | = |ξj ηk |2 .
j=0 k=0 j,k=0

Dans le cas de Cl 2 ⊗ Cl 2 , on en déduit que le produit tensoriel s’écrit


 
" # " # ξ1 η1
ξ1 η1  ξ1 η2 
⊗ =


 . (2.78)
ξ2 η2  ξ2 η1 
ξ2 η2
La manière de ranger les composantes dans le vecteur du membre de droite est fixée
par convention.

27
b) Les fonctions f, g de L2 (U ) donnent le produit scalaire
Z Z
2
(f ⊗ g , f ⊗ g) = (f, f )(g, g) = |f (x)| dx |g(y)|2 dy
U U
Z

= [f (x)g(y)] f (x)g(y)dxdy.
U ×U

On en déduit que le produit tensoriel correspond au produit des valeurs des fonctions

(f ⊗ g)(x, y) = f (x)g(y) . (2.79)

Cette propriété justifie l’Ansatz de séparation des variables que l’on utilise pour trou-
ver la solution des équations différentielles aux dérivées partielles de la mécanique
quantique.

Exemples : Espaces de Hilbert produit tensoriel

a) L2 ([0, 2π]) ⊗ L2 ([0, 2π])



Prenons ek (x) = eikx / 2π, k ∈ ZZ, comme base de L2 ([0, 2π]). Alors
1 i(kx+k0 y)
(ek ⊗ ek0 )(x, y) = ek (x)ek0 (y) = e

est une base orthonormale de L2 ([0, 2π]) ⊗ L2 ([0, 2π]).

b) L2 (IR) ⊗ L2 (IR) ⊗ L2 (IR) ' L2 (IR3 )


Comme pour le cas a), la base est donnée par le produit de trois polynômes d’Hermite
de L2 (IR). C’est l’espace de Hilbert de l’oscillateur harmonique quantique à trois
dimensions.

c) Cl 2 ⊗ Cl 2 ' Cl 4
C’est l’espace de Hilbert d’un système de deux spins 1/2.

d) L2 (IR3 ) ⊗ Cl 2 .
C’est l’espace de Hilbert de l’électron avec spin.

28
Chapitre 3

Opérateurs sur un espace de Hilbert

3.1 Introduction : équations aux valeurs propres


On considère un opérateur linéaire A : Cl n −→ Cl n qui dans la base {f1 , f2 , · · · , fn } est
représenté par une matrice hermitienne i.e. une matrice telle que Ajk = A∗kj . De l’algèbre
linéaire, on sait que toute matrice A hermitienne possède un système de vecteurs propres
{e1 , e2 , · · · , en } formant une base orthonormale (ej , ek ) = δjk de Cl n et que les valeurs
propres correspondantes λj sont réelles i.e. Aej = λj ej , λj ∈ IR. Dans cette base propre,
l’opérateur A est représenté par une matrice diagonale puisque

(ek , Aej ) = λj δjk . (3.1)

Alors, pour résoudre l’équation linéaire

Ax = b , (3.2)

on développe les vecteurs x et b dans la base propre


n
X n
X
x= ξj ej b= βj e j (3.3)
j=1 j=1

où ξj = (ej , x) et βj = (ej , b) et on aboutit à l’équation


n
X n
X
ξj λj ej = βj ej . (3.4)
j=1 j=1

De l’indépendance linéaire des vecteurs de base, on tire la relation ξj λj = βj où les λj et


βj sont connus. Deux cas peuvent se présenter :
1) λj 6= 0, alors ξj = βj /λj et l’équation linéaire Ax = b possède une solution unique
n
X βj
x= ej . (3.5)
j=1 λj

2) λ1 = · · · = λm = 0 et λm+1 , · · · , λn 6= 0, alors la solution de Ax = b vaut


m
X n
X βj
x= ξj ej + ej . (3.6)
j=1 j=m+1 λj

29
Dans les deux cas, l’opérateur A possède la représentation
n
X n
X
Ax = λk ξk ek = λk (ek , x)ek . (3.7)
k=1 k=1

En regroupant les λk de même valeur, on obtient la représentation spectrale de A


s
X
Ax = λl Pl x (3.8)
l=1

où l’opérateur de projection orthogonale est défini par


gl
X
Pl x = (ej , x)ej (3.9)
j=1

avec gl le degré de dégénérescence de la valeur propre λl , i.e. le nombre de vec-


teurs propres correspondant à la même valeur propre. Il est aussi possible de donner
une représentation spectrale des opérateurs linéaires sur H. Cependant, en raison de la
dimension infinie de ces espaces, les choses sont plus délicates. Nous définirons d’abord
les propriétés générales de ces opérateurs, puis on s’intéressera à leurs valeurs propres et
vecteurs propres.

3.2 Opérateurs linéaires sur H


La plupart des grandeurs physique de la mécanique quantique sont représentées par
des opérateurs linéaires sur H. La détermination de leur spectre fournit les quantités
mesurables.
Exemples : Opérateurs linéaires
a) A : Cl n → Cl n application linéaire de matrice (Ajk )
n
X
(Ax)j = Ajk ξk (3.10)
k=1

b) T : C[a, b] −→ C[a, b] opérateur multiplication par f ∈ C[a, b]

(T u)(x) = f (x)u(x) (3.11)

c) T : C[a, b] −→ C[a, b] opérateur de dérivation


du(x)
(T u)(x) = (3.12)
dx
d) Φ : C0 (IR) −→ Cl fonctionnelle linéaire
Z ∞
Φ(u) = u(x) dx (3.13)
−∞

e) T1 ⊗ T2 opérateur produit tensoriel où T1 et T2 sont linéaires

(T1 ⊗ T2 )(u1 ⊗ u2 ) = T1 u1 ⊗ T2 u2 . (3.14)

30
De manière générale, on désignera par D(T ) ⊂ H le domaine de définition d’un
opérateur T et par R(T ) ⊂ H le domaine des valeurs.

Déf. 3.1 Un opérateur linéaire T : H −→ H est borné si pour tout u ∈ H, il existe


c ≥ 0 tel que
kT uk ≤ ckuk . (3.15)

Il y a équivalence entre opérateurs bornés et continus1 .


Exemples : Opérateurs linéaires bornés
Pn Pn
a) T : Cl n −→ Cl n linéaire. Pour u = j=1 ξj ej et T u = j=1 (ej , T u)ej , on a
n
X n
X n
X n
X n
X
kT uk2 = |(ej , T u)|2 = | tjk ξk |2 = |(tj , u)|2 ≤ ktj k2 kuk2 = c2 kuk2 .
j=1 j=1 k=1 j=1 j=1

Rx
b) T : L2 ([a, b]) −→ L2 ([a, b]) linéaire. L’opérateur (T u)(x) = a u(t) dt est borné
Z b Z b¯Z x ¯2 Z b¯ ¯2
2 2 ¯ ¯ ¯ ¯
kT uk = |(T u)(x)| dx = ¯ u(t) dt¯ dx = ¯(1, u)x ¯ dx
a a a a
Z bhZ x Z x i Z bhZ b Z b i
2 0 2 2 0
≤ 1 dt |u(t)| dt dx ≤ 1 dt |u(t)|2 dt dx
a a a a a a
= (b − a)2 kuk2 .

Dans les deux cas, les bornes supérieures sont données par l’inégalité de Cauchy-Schwartz.
Remarques :
a) La plupart des opérateurs que l’on rencontre en physique ne sont pas bornés.
L’opérateur de dérivation défini par (T u)(x) = u0 (x) u ∈ L2 ([0, 1]) est linéaire
non borné. En effet, avec u(n) = xn → 0 lorsque n → ∞ on a
Z 1 Z 1
(n) 2 0(n) 2 n2
kT u k = |u (x)| dx = |nxn−1 |2 dx = →
/ 0.
0 0 2n − 1

b) L’inverse d’un opérateur borné n’est en général pas borné. Par exemple l’opérateur
intégral qui est borné a pour inverse l’opérateur de dérivation qui n’est pas borné.
1
Opérateurs bornés et opérateurs continus.
Soit T : H −→ H un opérateur linéaire. Les conditions suivantes sont équivalentes :
a) T est continu en un point u0 de H
b) T est uniformément continu sur H
c) T est borné
Pour la preuve on montre c) ⇒ b) ⇒ a) ⇒ c)
c) ⇒ b) : T borné =⇒ ∃ c > 0 tel que kT uk ≤ ckuk, alors kT u − T vk = kT (u − v)k ≤ cku − vk → 0.
b) ⇒ a) : clair
a) ⇒ c) : contraposition, T non borné ! alors ∃u(n) ∈ H tel que kT u(n) k > nku(n) k
posons v (n) = a + n1 u(n) /ku(n) k qui donne kv (n) − ak → 0 lorsque n → ∞
d’où kT v (n) − T ak = kT (v (n) − a)k = n1 kT u(n) k/ku(n) k > 1
i.e. pour v (n) → a, T v (n) → / T a (T pas continu en a !) .

31
La théorie des opérateurs linéaires sur un espace de Hilbert H est délicate. Toutefois,
si l’opérateur T est borné, on peut lui donner une représentation matricielle comme on le
fait en algèbre linéaire. En effet, l’espace de Hilbert séparable H possède une base dénom-
brable {e0 , e1 , · · ·} sur laquelle, pour tout u ∈ H et αj = (ej , u), on a le développement

X
u= αj ej (3.16)
j=0

Pn
Cette égalité est équivalente à ku − j=0 αj ej k → 0 pour n → ∞ et permet de voir que
n
X n
X n
X
kT u − αj T ej k = kT (u − αj ej )k ≤ cku − αj ej k → 0 pour n → ∞ .
j=0 j=0 j=0

Par conséquent, on peut écrire le développement



X
Tu = α j T ej (3.17)
j=0

P∞
d’où l’on tire l’expression (ej , T u) = k=0 αk (ej , T ek ) où les nombres complexes notés

Tjk = (ej , T ek ) (3.18)

s’appellent les éléments de matrice de T par rapport à la base {e0 , e1 , · · ·}. Le passage,
à l’aide de la relation de fermeture, à une autre base orthonormale {f0 , f1 , · · ·} donne

X ∞
X
Tejk = (fj , T fk ) = (fj , en )(en , T em )(em , fk ) = (fj , en )Tmn (em , fk ) . (3.19)
m,n=0 m,n=0

Les (fj , en ) sont les éléments de matrice d’un opérateur unitaire. Si les fj sont les vecteurs
propres de Te , alors les (fj , en ) diagonalisent la matrice (Tmn ). Dans le cas où T n’est pas
borné, les difficultés surgissent. Si les ej n’appartiennent pas à D(T ) ⊂ H, alors la matrice
(Tjk ) n’existe pas. Toutefois, si T défini sur tout H possède une représentation matricielle,
alors il est borné.
Une analyse plus fine des propriétés des opérateurs linéaires sur H peut être donnée
grâce au théorème de Riesz qui permet de représenter les fonctionnelles linéaires continues
par un produit scalaire.

Th. 3.1 (Théorème de représentation de Riesz)


Soit H un espace de Hilbert et Φ : H −→ Cl une fonctionnelle linéaire continue. Alors

Φ(u) = (h, u) (3.20)

où h ∈ H est uniquement déterminé par Φ et kΦk = khk.

Preuve. On démontre ce théorème en deux étapes : l’existence et l’unicité. Pour ce qui


concerne l’unicité, la démarche est simple. On prend deux vecteurs h1 , h2 ∈ H tels que
(h1 , u) = Φ(u) = (h2 , u). Alors (h1 − h2 , u) = 0 pour tout u ∈ H, en particulier pour le
vecteur u = h1 − h2 qui donne kh1 − h2 k2 = 0 et donc h1 − h2 = 0.

32
Pour montrer l’existence, on considère Φ linéaire et continue sur la base {e0 , e1 , · · ·}
³ n
X ´ n
X n ³
X ´
!
Φ(u) = Φ n→∞
lim (ej , u)ej = n→∞
lim (ej , u)Φ(ej ) = n→∞
lim Φ(ej )∗ ej , u = (h, u) .
j=0 j=0 j=0
P
La vérification de la dernière égalité, i.e. que h = limn→∞ nj=0 Φ(ej )∗ ej converge est
P P
laissée en exercice. On montre d’abord que ∞ j=0 cj ej converge si et seulement si ∞
j=0 |cj |
2
P∞
converge, puis que j=0 |Φ(ej )|2 < ∞ . 2

A l’aide du Th. 3.1, on peut introduire l’adjoint d’un opérateur linéaire borné T . En effet,
pour u ∈ H, on définit sur H la fonctionnelle linéaire

ΦTu (v) = (u, T v) (3.21)

qui est bornée puisque |ΦTu (v)| = |(u, T v)| ≤ kukkT vk ≤ ckukkvk. Alors, d’après le
théorème de Riesz, il existe h ∈ H unique tel que

ΦTu (v) = (h, v) .

La comparaison de cette expression avec (3.21) donne (h, v) = (u, T v). En notant le
vecteur h = T † u, on définit donc un nouvel opérateur appelé adjoint de T .
Déf. 3.2 L’adjoint de T est l’opérateur T † : H −→ H défini par la relation

(T † u, v) = (u, T v) u, v ∈ H . (3.22)

On vérifie que T † est linéaire, borné.


Déf. 3.3 L’opérateur borné T : H −→ H est autoadjoint si

T† = T (3.23)

Déf. 3.4 Un opérateur unitaire U est un opérateur linéaire de H dans H tel que

(U v, U w) = (v, w) v, w ∈ H . (3.24)

Si le domaine des valeurs n’est pas égal à H, on parle d’opérateur isométrique.

Un opérateur unitaire U est borné, son adjoint existe et est égal à l’inverse U † = U −1 . Si
l’opérateur T n’est pas borné, l’adjoint est plus difficile à définir. On ne peut plus utiliser
le théorème de Riesz. Cependant si T est défini sur un domaine D(T ) dense dans H, on
peut montrer qu’il existe un opérateur adjoint T † : D(T † ) −→ H défini sur le domaine
n . o
D(T † ) = u ∈ H (u, T v) = (h, v), h ∈ H, v ∈ D(T ) .

Alors, on a (u, T v) = (T † u, v) pour u ∈ D(T † ) et v ∈ D(T ).


Déf. 3.5 L’opérateur non-borné T : D(T ) −→ H est autoadjoint si

T† = T et D(T † ) = D(T ) . (3.25)

On dira que T est symétrique ou hermitien si (u, T v) = (T u, v). Ainsi T autoadjoint


implique T symétrique, mais l’inverse n’est pas vrai pour des opérateurs non-bornés.

33
Exemples : Opérateurs autoadjoints
a) Opérateur de type Hilbert-Schmidt sur L2 (U )
Z Z

(T f )(x) = K(x, y)f (y) dy (T f )(x) = K(y, x)∗ f (y) dy (3.26)
U U

On vérifie que (g, T f ) = (T † g, f ) !


b) Opérateur de position Q sur L2 ([a, b])
(Qf )(x) = xf (x) (Q† f )(x) = xf (x) (3.27)
On vérifie que (Q† g, f ) = (g, Qf ) ! L’opérateur Q est borné sur L2 ([a, b]), mais plus
sur L2 (IR) où l’on peut néanmoins trouver un domaine dense tel que D(Q) = D(Q† ).
c) Opérateur d’impulsion P sur L2 (U )
d d
P = −i P † = −i (3.28)
dx dx
Le domaine de définition D(P ) engendré par les fonctions f ∈ L2 (IR) ne permet
même pas de montrer que P est symétrique. Toutefois, pour une classe de fonctions
bien choisies, la propriété de symétrie résulte d’une intégration par parties.
Les opérateurs autoadjoints sont utiles en mécanique quantique, puisque avec leurs valeurs
propres réelles ils peuvent représenter les observables i.e. les grandeurs physiques mesu-
rables. Montrer qu’un opérateur non-borné est autoadjoint reste une démarche souvent
difficile à effectuer.

3.3 Spectre d’un opérateur linéaire


Du cours d’algèbre linéaire, on sait que pour une matrice A sur Cl n , b ∈ Cl n et λ ∈ C,
l
l’équation (A − λI)x = b possède les solutions suivantes :
1) b 6= 0 : Il y a une solution unique si (A − λI)−1 existe i.e. si det(A − λI) 6= 0. Dans
ce cas les λ ne sont pas valeurs propres de A.
2) b = 0 : Il y a une solution non-triviale si det(A − λI) = 0. Dans ce cas les λ sont
valeurs propres de A et définissent le spectre de A.

Une analyse semblable peut être faite pour les opérateurs linéaires T : D(T ) → H où
D(T ) ⊂ H. Toutefois dans ce cas, on devra en plus tenir compte de la notion d’opérateur
borné et non-borné. Pour v donné et λ ∈ Cl on considère l’équation
(T − λI)u = v . (3.29)
Quels sont les λ ∈ Cl et les u ∈ D(T ) qui satisfont cette équation ? Pour un λ fixé,
l’opérateur (T − λI) peut avoir un inverse ou pas. Si l’inverse existe, il peut être borné
ou pas. En fonction de ces trois possibilités, on définit :
a) Ensemble résolvant de T
½ . ¾
−1
ρ(T ) = λ ∈ Cl (T − λI) existe, borné (3.30)

dans ce cas on dit que λ est une valeur régulière de T . Les valeurs de λ qui ne
sont pas régulières forment le spectre σ(T ) qui est le complément de ρ(T ) dans Cl
et se partage en deux ensembles.

34
b) Spectre ponctuel de T
½ . ¾
−1
σp (T ) = λ ∈ Cl (T − λI) n’existe pas
(3.31)
c) Spectre continu de T
½ . ¾
σc (T ) = λ ∈ Cl (T − λI)−1 existe, non-borné (3.32)

Dans les ensembles ci-dessus, le domaine des valeurs R(T − λI) est dense dans H. En
toute généralité, on devrait encore distinguer le spectre résiduel σr (T ) pour le cas où
l’inverse (T − λI)−1 existe mais sur un domaine R(T − λI) qui n’est pas dense dans H.
Cependant, on peut montrer que pour des opérateurs autoadjoints, le spectre résiduel est
vide. Avec cette troisième partie du spectre, nous épuisons les possibilités de classifier les
valeurs λ ∈ C.
l Les quatre ensembles ainsi définis sont mutuellement disjoints et couvrent
tout le plan complexe. D’ores et déjà, on peut tirer des renseignements utiles sur l’inverse
de T . Par exemple, si la valeur λ = 0 n’appartient pas au spectre σ(T ), il s’ensuit que
T −1 existe et est borné. Inversément, si λ = 0 est dans le spectre ponctuel, il s’ensuit
que T −1 n’existe pas. Le spectre ponctuel est le plus important. Sa détermination est
essentiellement un problème algébrique. Par contre, la détermination du spectre continu
est un problème souvent plus compliqué relevant de questions topologiques.
Prop. 3.1 Le spectre σ(T ) d’un opérateur autoadjoint T est réel.
Preuve. Pour le spectre ponctuel, on a T u = λu, u 6= 0. De plus, T symétrique donne
(u, T u) = (T u, u) = (u, T u)∗ ∈ IR et donc T u = λu implique λ = (u, T u)/kuk2 réel.
Pour le reste du spectre, on devrait encore montrer que λ ∈ / IR entraı̂ne λ ∈ ρ(T ) qui
par conséquent contient tous les λ imaginaires. Le résultat de Prop. 3.1 a une importance
capitale en mécanique quantique où les observables sont représentées par des opérateurs
autoadjoints. 2
Exemples : Ensemble résolvant et spectre

a) On considère un opérateur T défini par l’équation aux valeurs propres


T ek = λk ek (3.33)
où les ek forment une base de H et les λk ∈ Cl sont tels que λk 6= 1 et λk → 1 pour
k → ∞. L’opérateur T est borné

X ∞
X ∞
X
kT uk2 = k αj λj ej k2 = |αj |2 |λj |2 ≤ c2 |αj |2 = c2 kuk2 . (3.34)
j=0 j=0 j=0

Comme les λj sont valeurs propres de T de vecteurs propres ej , on peut écrire



X
(T − λI)u = αj (λj − λ)ej . (3.35)
j=0

De plus, le vecteur u n’étant égal à zéro que si tous les αj sont nuls, l’opérateur
(T − λI)−1 existe pour λ 6= λj . Le calcul
ej = (T − λI)−1 (T − λI)ej = (λj − λ)(T − λI)−1 ej (3.36)

35
fournit l’expression (T − λI)−1 ej = ej /(λj − λ) et l’opérateur inverse

X
−1 αj
(T − λI) u = ej (3.37)
j=0 (λj − λ)

qui, pour λ 6= 1, est borné


∞ ∞
X |αj |2 X
k(T − λI)−1 uk2 = 2
≤ c2
|αj |2 = c2 kuk2 .
j=0 |λ j − λ| j=0

Alors, on peut en conclure :


1) λ 6= 1, λj =⇒ (T − λI)−1 existe, borné et λ ∈ ρ(T )
2) λ = λj =⇒ (T − λI)−1 n’existe pas et λ ∈ σp (T )
3) λ = 1 =⇒ (T − λI)−1 existe, non-borné (1/|λj − λ| → ∞) et λ ∈ σc (T ).

b) Opérateur position : (Qf )(x) = xf (x), f ∈ L2 (IR).


L’opérateur position est autoadjoint et a donc un spectre réel. Son spectre ponctuel
σp (Q) est vide puisque, pour λ fixé, la seule fonction qui satisfait l’équation
(x − λ)f (x) = 0
pour tout x est f = 0. Il n’y a donc pas de solution non-triviale. Ainsi σp est vide
et l’opérateur (Q − λI)−1 existe. Il faudrait encore à montrer que pour λ ∈ IR,
l’opérateur (Q − λI)−1 est non-borné et a donc un spectre purement continu
σ(Q) = σc (Q) = IR, σp (Q) = ∅ . (3.38)

c) Opérateur impulsion : (P f )(x) = −if 0 (x), f, f 0 ∈ L2 (IR).


A l’aide de la transformation de Fourier (voir plus loin), on peut montrer que P est
unitairement équivalent à Q. On a donc uniquement le spectre continu
σ(P ) = σc (P ) = IR, σp (P ) = ∅ . (3.39)
De même, pour l’opérateur laplacien ∆, on peut montrer que
σ(∆) = σc (∆) = [0, ∞), σp (∆) = ∅ . (3.40)

d) Opérateur de Schrödinger : (Hf )(x) = −(∆+α/|x|)f (x) où α > 0 et f, f 0 ∈ L2 (IR).


On peut montrer que
σ(H) = σp (H) ∪ σc (H) (3.41)
où σp (H) est le spectre ponctuel des états liés de l’atome d’hydrogène et σc (H)
le spectre continu des états de diffusion. Comme l’opérateur de Schrödinger est
autoadjoint on a les conditions de la Prop. 3.1.
Dans ce chapitre, on a voulu fixer la nomenclature propre à l’analyse des opérateurs
linéaires sur H. On a surtout soulevé les difficultés en apportant néamoins certains
résultats importants pour la mécanique quantique. L’aboutissement naturel de ce cha-
pitre est le théorème spectral. Il est possible de caractériser un opérateur autoadjoint par
son spectre et par un famille d’opérateurs de projection qui agissent sur leur espace propre
comme multiplication. La théorie spectrale est relativement difficile, nous ne donnons ici
qu’un très léger aperçu.

36
Déf. 3.6 Un projecteur E : H −→ H est un opérateur linéaire borné, autoadjoint et
idempotent (E 2 = E).

Par exemple, on vérifie que (En u)(x) = (ϕn , u)ϕn (x) est autoadjoint et idempotent.

Déf. 3.7 Une famille de projecteurs orthogonaux (Eλ )λ∈IR est appelée famille spectrale
si les conditions suivantes sont satisfaites :

a) (Eλ1 u, u) ≤ (Eλ2 u, u) pour λ1 ≤ λ2


b) Eλ u = 0 pour λ → −∞
Eλ u = u pour λ → ∞
c) Eλ u = Eλ0 u pour λ → λ0 , λ > λ0 .

Th. 3.2 (Décomposition spectrale)


Soit T un opérateur autoadjoint sur D(T ). Alors, il existe une famille spectrale (Eλ )λ∈IR
unique telle que Z ∞
(T u, v) = λ d(Eλ u, v) (3.42)
−∞

où v ∈ H. La fonction de λ donnée par par le produit scalaire (Eλ u, v) définit la mesure
de Stieltjes.

On utilise aussi la notation Z ∞


T = λ dEλ .
−∞

Exemples : Représentations spectrales


a) Opérateur de Sturm-Liouville (Su)(x) = −[p(x)u0 (x)]0 + q(x)u(x)
Comme on le verra dans la section suivante, l’opérateur autoadjoint S possède des
valeurs propres réelles λ0 < λ1 , < λ2 < · · · et des vecteurs propres {ϕ0 , ϕ1 , ϕ2 , · · ·}.
On désigne par P0 , P1 , P2 , · · · où (Pn u)(x) = (ϕn , u)ϕn (x) les projecteurs orthogo-
naux correspondants. Alors, on peut définir la famille spectrale
(
0 si λ < λ1
Eλ =
P0 + P1 + · · · + Pk si λk ≤ λ < λk+1

et appliquer le théorème de décomposition spectrale


Z +∞ ∞
X ³X
∞ ´
(Su, v) = λ d(Eλ u, v) = λk (Pk u, v) = λk Pk u, v ,
−∞ k=0 k=0

pour tout u ∈ D(S), v ∈ H. La mesure d(Eλ u, v) devient une différence et fournit


donc des valeurs discrètes. On peut aussi écrire

X
S= λk Pk . (3.43)
k=1

37
b) Opérateur position (Qu)(x) = xu(x), u ∈ D(Q) ⊂ L2 (IR)
Pour établir la famille spectrale de Q, on introduit la fonction caractéristique
(
1 si x ∈ I
χI (x) =
0 si x ∈
/I .

Alors, dans l’intervalle I = (−∞, λ], on définit la famille spectrale


(
u(x) si x < λ
(Eλ u)(x) = χI (x)u(x) =
0 si x > λ

qui, pour u, v ∈ L2 (IR), conduit à la représentation spectrale


Z +∞ Z +∞ hZ λ i Z +∞

(Qu, v) = λ d(χI u, v) = λd u(x) v(x) dx = λ u(λ)∗ v(λ) dλ .
−∞ −∞ −∞ −∞

Si T est autoadjoint sur H, on peut montrer que l’opérateur Ut = eitT t ∈ IR, de


décomposition spectrale Z +∞
(Ut u, v) = eitλ d(Eλ u, v), (3.44)
−∞

forme un groupe unitaire continu défini par Ut+s = Ut Us , U0 = I et U−t = Ut−1 . La


réciproque est donnée par le théorème de Stone qui, pour un groupe unitaire continu
Ut , assure l’existence d’un opérateur autoadjoint T unique tel que

Ut = eitT t ∈ IR . (3.45)

L’opérateur T est appelé générateur infinitésimal du groupe. Par exemple, en méca-


nique quantique, des postulats de causalité, de réversibilité et de conservation de la norme,
il ressort que l’évolution temporelle d’un état ψ(t) est décrite par un opérateur unitaire
Ut tel que pour un état initial ψ(0) donné, on ait l’équation

ψ(t) = Ut ψ(0) . (3.46)

Alors, d’après le théorème de Stone, il existe un opérateur autoadjoint unique que l’on
note T = −H/h̄ et tel que
i
Ut = e− h̄ Ht . (3.47)
En dérivant (3.46) par rapport à t on obtient l’expression

d i i
ψ(t) = − HUt ψ(0) = − Hψ(t)
dt h̄ h̄
d’où l’on tire l’équation de Schrödinger
d
ih̄ ψ(t) = Hψ(t) . (3.48)
dt

38
Chapitre 4

Problème de Sturm-Liouville

4.1 Introduction : opérateurs et équations


L’analyse hilbertienne a occupé les deux chapitres précédents. Dans le chapitre 2, on
a introduit l’espace de Hilbert et mis l’accent sur les bases de Hilbert {e0 , e1 , e2 , · · ·} ainsi
que sur le développement de Fourier généralisé

X
u= (ej , u)ej u∈H. (4.1)
j=0

De plus, des exemples de bases de L2 (U ) telles que les polynômes orthogonaux ou les
séries de Fourier ont été largement discutés. Dans le chapitre 3, on a défini les propriétés
générales des opérateurs linéaires sur H et apporté les précisions essentielles sur les fonc-
tions propres et les valeurs propres de ces opérateurs. On a aussi vu que les opérateurs
linéaires bornés sur H peuvent être représentés de manière simple par des éléments de
matrice. Par contre, la démarche est plus délicate si les opérateurs linéaires ne sont pas
bornés et encore plus complexe si les opérateurs sont non-linéaires.
De nombreuses grandeurs physiques sont représentées par des opérateurs linéaires sur
2
L (U ). Ces opérateurs contiennent des dérivées premières et secondes et ne sont pas
bornés. Ils apparaissent sous la forme d’équations différentielles aux valeurs propres. Les
exemples que nous traiterons dans ce chapitre ont des spectres ponctuels σp (T ). Pour les
opérateurs ayant un ensemble résolvant ou un spectre continu, on se réfèrera aux chapitres
suivants et tout particulièrement au chapitre 7 concernant les fonctions de Green. On
engagera d’abord la discussion sur des équations simples pour aboutir à des équations
différentielles linéaires plus difficiles comme par exemple
f 00 − 2xf 0 + (λ − 1)f = 0 x ∈ IR . (4.2)
Ces équations différentielles contiennent des valeurs propres λ. Elles peuvent être associées
à des opérateurs linéaires sur H que l’on appelle opérateurs de Sturm-Liouville. Ainsi, pour
une équation aux valeurs propres donnée, on aimerait savoir : Quelles sont les propriétés
de l’opérateur linéaire sous-jacent ? Quelles sont les valeurs propres ? Quelle est la forme
des fonctions propres de L2 (U ) ? On tentera avant tout de comprendre les démarches et
de les inclure dans la théorie de Hilbert. Si cette étape est bien franchie, la discussion des
aspects techniques n’est plus nécessaire, car tous les résultats concernant ces équations
différentielles linéaires sont largement présentés dans des livres ou des tables qu’il est
possible de consulter selon le besoin.

39
4.2 Opérateur et équation de Sturm-Liouville
La réponse aux questions posées ci-dessus est donnée par la théorie de Sturm-Liouville
caractérisée par l’équation différentielle linéaire inhomogène

[p(x)u0 (x)]0 + [λr(x) − q(x)]u(x) = f (x) (4.3)

définie sur x ∈ [a, b] et soumise aux conditions limites

La u ≡ A1 u(a) + A2 u0 (a) = 0 (4.4)


Lb u ≡ B1 u(b) + B2 u0 (b) = 0 (4.5)

où Aj , Bj ∈ IR, p, q, r, f ∈ L2 ([a, b]) réelles, p(x), r(x) > 0. L’équation (4.3) est l’expres-
sion la plus générale d’une équation différentielle linéaire du deuxième ordre. L’opérateur
de Sturm-Liouville correspondant

(Su)(x) = −[p(x)u0 (x)]0 + q(x)u(x) (4.6)


n . o
est défini sur D(S) = u u ∈ L2 ([a, b]), La u = 0 = Lb u et obéit à l’équation

(Su)(x) = λ r u(x) . (4.7)

Quelles sont les valeurs propres λ et les fonctions propres u ∈ L2 ([a, b]) ?

Exemple : Valeurs propres et fonctions propres


La courbe d’une corde vibrante (modes propres) de longueur `, fixée à ses extrémités
et libre de toute force extérieure peut être décrite par l’équation différentielle

u00 (x) + λu(x) = 0 (4.8)

soumise aux conditions limites u(0) = 0 = u(`). Pour p(x) = 1 = r(x), q(x) = 0,
00
l’opérateur
n .de Sturm-Liouville s’écrit (Su)(x)
o = −u (x) et est défini sur le domaine
D(S) = u u ∈ L2 ([0, `]), u(0) = 0 = u(`) . L’équation aux valeurs propres1

(S − λ)u = 0

a deux solutions indépendantes qui donnent la combinaison linéaire


√ √
u(x) = A cos( λ x) + B sin( λ x) . (4.9)

L’application
√ des conditions limites donne A = 0 et B sin( λ `) = 0. Pour B 6= 0,
la relation λ ` = nπ, n ∈ IN fournit les valeurs propres et les fonctions propres
µ ¶2 s µ ¶
nπ 2 nπ
λn = ϕn (x) = sin x n ∈ IN+ .
` ` `
(4.10)
2
Comme l’affirme Prop. 2.7, les ϕn forment une base orthonormale de L ([0, `]).
1
Comme on peut le vérifier, l’opérateur Su ≡ u00 (avec signe positif), satisfaisant aux mêmes conditions
limites, ne possède que la solution triviale u = 0.

40
Avec les deux propositions qui suivent, on montre, de manière générale, que l’opérateur de
Sturm-Liouville (4.6) possède des valeurs propres et des fonctions propres qui permettent
d’établir les solutions de l’équation différentielle correspondante. La simplicité des pro-
priétés de Prop. 4.1 est évidemment liée à la linéarité de l’opérateur de Sturm-Liouville.
Toutefois, le problème de la recherche des valeurs propres et des fonctions propres reste
toujours ouvert.
Prop. 4.1 L’opérateur de Sturm-Liouville

(Su)(x) = −[p(x)u0 (x)]0 + q(x)u(x)


n . o
défini sur D(S) = u u ∈ L2 ([a, b]), La u = 0 = Lb u possède les propriétés suivantes :
a) S est symétrique et a un spectre ponctuel réel σp (S) ⊂ IR .
b) Les valeurs propres de S forment une suite réelle infinie λ0 < λ1 < λ2 < · · · où
chaque valeur propre est simple.
c) Les fonctions propres {ϕ0 , ϕ1 , · · ·} forment une base orthonormale2 de L2 ([a, b])
Z b
(ϕm , ϕn )r = ϕm (x)∗ ϕn (x) r(x) dx = δmn (4.11)
a

et permettent donc d’exprimer u ∈ D(S) par un développement de Fourier généralisé



X
u(x) = (ϕn , u)r ϕn (x) . (4.12)
n=0

d) L’opérateur S a la représentation spectrale



X ∞
X
Su = λn (ϕn , u)r rϕn = λn Pn u . (4.13)
n=0 n=0

Preuve. L’existence des valeurs propres et des fonctions propres de L2 ([a, b]) est relati-
vement délicate à montrer. Nous la laissons de côté. Toutefois, pour fixer les idées, nous
allons montrer que le spectre est réel et que les fonctions propres relatives à des valeurs
propres différentes sont orthogonales. Considérons l’équation aux valeurs propres

Su = λ ru (4.14)

où u = u1 + iu2 et λ = λ1 + iλ2 . On multiplie l’équation scalairement par u pour obtenir


Z b Z b

λ u(x) u(x)r(x)dx = u(x)∗ (Su)(x)dx . (4.15)
a a

On veut montrer que λ2 = 0. En prenant la partie imaginaire, on obtient


Z b Z b
−λ2 [u21 + u22 ]rdx = [u1 (pu02 )0 − u2 (pu01 )0 ] dx
a a
Z b
d
= [u1 pu02 − u2 pu01 ] dx
dx
ha
i h i
= p(b) u1 (b)u02 (b) − u2 (b)u01 (b) − p(a) u1 (a)u02 (a) − u2 (a)u01 (a) . (4.16)
2
Comme pour les polynômes orthogonaux de la section 2.5 et en raison du membre de droite de
l’équation (4.7), on définit naturellement le produit scalaire (ϕm , ϕn )r avec le facteur r(x).

41
Les conditions limites (4.4) fournissent, pour A1 , A2 ∈ IR, le système homogène
" #" # " #
u1 (a) u01 (a) A1 0
= (4.17)
u2 (a) u02 (a) A2 0

qui possède une solution non-triviale si et seulement si le déterminant est égal à zéro

[u1 (a)u02 (a) − u2 (a)u01 (a) = 0 .

En effectuant le même raisonnement au point b, on déduit que le membre de droite est


nul. Comme r(x) > 0, l’intégrale du membre de gauche est donc non nulle. Ainsi, la
partie imaginaire λ2 = 0. Pour montrer l’orthogonalités des fonctions propres relatives à
des valeurs propres différentes, on considère les deux équations aux valeurs propres

(Sϕm )(x) = λm r(x)ϕm (x) (Sϕn )(x) = λn r(x)ϕn (x) . (4.18)

En multipliant scalairement chaque équation par ϕn et ϕm respectivement et en procédant


comme ci-dessus, on arrive à la relation d’orthogonalité. 2

Prop. 4.2 Pour λ donné, l’équation de Sturm-Liouville

(S − λr)u = −f La u = 0 = Lb u (4.19)

possède des solutions u(x) qui se développent dans la base ϕn (x), (ϕm , ϕn )r = δmn des
fonctions propres de S et prennent les formes suivantes :
1) Si λ ∈
/ σp (S), il existe une solution unique

X Z b "X

#
(ϕn , f ) 1
u(x) = ϕn (x) = ϕ∗n (ξ)ϕn (x) f (ξ)dξ . (4.20)
n=0 λ − λn a n=0 λ − λn

En définissant la fonction de Green G(x, ξ) relative à l’opérateur (Su)(x).



X 1
G(x, ξ) ≡ ϕ∗n (ξ)ϕn (x) , (4.21)
n=0 λ − λ n

on peut aussi écrire la solution


Z b
u(x) = G(x, ξ)f (ξ)dξ . (4.22)
a

2) Si λ = λn0 ∈ σp (S), il existe des solutions dans le cas où (ϕn0 , f ) = 0. Pour une
constante c quelconque, ces solutions sont données par l’expression

X (ϕn , f )
u(x) = ϕn (x) + c ϕn0 (x) . (4.23)
n0 6=n=0 λn0 − λn

Preuve. Regardons le cas λ ∈ / σp (S). Dans la base {ϕ0 , ϕ1 , ϕ2 , · · ·} des vecteurs propres
de S, on a le développement de Fourier généralisé

X
u(x) = cn ϕn (x) . (4.24)
n=0

42
En allant dans l’équation (4.19), on obtient l’expression

X
−f = cn (λn − λ)rϕn (4.25)
n=0

qui, multipliée scalairement par ϕm , donne par orthogonalité


³ ´ ∞
X Z b
ϕm , f = (λ − λn )cn ϕm (x)r(x)ϕn (x)dx = (λ − λm )cm . (4.26)
n=0 a

Pour λ ∈ / σp (S), on isole les coefficients cn pour les introduire dans (4.24) et déduire
l’expression (4.20). 2

Exemples : Equations de Sturm-Liouville


a) Câble soumis à un poids
La courbe d’un câble au repos, tendu entre deux points et soumis à une force f (x)
est décrite par l’équation différentielle
−u00 (x) = f (x) (4.27)
soumise aux conditions limites u(0) = 0 = u(`). Les valeurs propres et fonctions
propres de l’opérateur (Su)(x) = −u00 (x) ont été déterminées en (4.10) et valent
µ ¶2 s µ ¶
nπ 2 nπ
λn = ϕn (x) = sin x n ∈ IN+ (4.28)
` ` `
Elles permettent, avec (4.20), d’écrire la solution
à !2 ∞
` X 1
u(x) = (ϕn , f )ϕn (x)
π n=1 n2
" µ ¶ # µ ¶
2` X ∞
1 Z` nπ nπ
= f (ξ) sin ξ dξ sin x . (4.29)
π 2 n=1 n2 0 ` `
L’échange de l’intégrale et de la somme dans (4.29) conduit à la fonction de Green
G(x, ξ) relative à l’opérateur −u00 (x)
Z ` Ã !2 h X
∞ i Z `
` 1
u(x) = ϕ (ξ)ϕn (x) f (ξ) dξ =
2 n
G(x, ξ)f (ξ) dξ . (4.30)
0 π n=1 n 0

La fontion de Green qui a une grande importance dans la résolution des équations
différentielles linéaires reviendra dans le chapitre 7. A l’aide des séries de Fourier en
sinus, on vérifie (exercice) la convergence de la série vers la fonction
∞ µ ¶ µ ¶ (
2` X 1 nπ nπ x(1 − ξ/`) x ∈ [0, ξ)
G(x, ξ) = 2 sin ξ sin x = (4.31)
π n=1 n2 ` ` ξ(1 − x/`) x ∈ (ξ, `] .
Enfin, en développant u(x) dans la base ϕn et en calculant la dérivée seconde, on
peut donner à l’opérateur S la représentation spectrale
∞ µ ¶ ∞ µ ¶
X nπ 2 X nπ 2
(Su)(x) = (ϕn , u)ϕn (x) = Pn u(x) (4.32)
n=1 ` n=1 `
où les Pn u = (ϕn , u)ϕn (x) sont les projecteurs sur les sous-espaces propres.

43
b) Corde vibrante soumise à une force extérieure
On considère l’équation différentielle

−u00 (x) − k 2 u(x) = f (x) (4.33)

soumise aux conditions limites u(0) = 0 = u(`). L’opérateur de Sturm-Liouville


(Su)(x) = −u00 (x) défini sur
n . o
D(S) = u u ∈ L2 ([0, `]), u(0) = 0 = u(`)

possède le même spectre que (4.28). Alors, à partir de la formule (4.20) et pour
k 2 6= λn , on peut immédiatement écrire la solution de cette équation différentielle
s µ ¶

2X (ϕn , f ) nπ
u(x) = 2 2
sin x
` n=1 (nπ/`) − k `

"Z µ ¶ # µ ¶
2X 1 ` nπ nπ
= sin ξ f (ξ) dξ sin x . (4.34)
` n=1 (nπ/`)2 − k 2 0 ` `

Cette solution est bien définie pour k 2 ∈/ σp (S). Pour k 2 ∈ σp (S), il y a résonance
et une solution (pas unique !) existe si (ϕm , f ) = 0, sinon il n’y a pas de solution.
Comme dans l’exemple précédent, on peut aussi exprimer u(x) à l’aide de la fonction
de Green G(x, ξ) relative à l’opérateur (Su)(x) = −u00 (x) − k 2 u(x)
Z `" X µ ¶ µ ¶#
2 ∞ 1 nπ nπ
u(x) = 2 2
sin x sin ξ f (ξ)dξ
0 ` n=1 (nπ/`) − k ` `
Z `
= G(x, ξ)f (ξ)dξ . (4.35)
0

Dans la section 7.2, cette fonction de Green sera calculée. Le résultat donné par
(7.27) est reporté ci-dessous
(
1 sin k(` − ξ) sin kx x ∈ [0, ξ)
G(x, ξ) = (4.36)
k sin k` sin kξ sin k(` − x) x ∈ (ξ, `] .

Il peut être vérifié (exercice) en calculant la série de Fourier en sinus.

c) Corde vibrante de masse variable


Comme dernier exemple, considérons une corde vibrante de densité de masse variable
ρ(x) = ρn0 + ²σ(x) avec ² ¿ 1. L’opérateur
o de Sturm-Liouville Su = −u00 défini sur
D(S) = u ∈ L2 ([0, `]), u(0) = 0 = u(`) fournit l’équation aux valeurs propres

(Su)(x) = λ[ρ0 + ²σ(x)]u(x) . (4.37)

D’après Prop. 4.1, une base de solutions de L2 ([0, `]) existe, mais n’est pas connue.
À partir de la solution pour ² = 0, on peut néanmoins la déterminer de manière
approchée, par un calcul de perturbation [voir Courant Hilbert].

44
4.3 Problème de Sturm-Liouville singulier
On considère à nouveau l’équation de Sturm-Liouville (4.3) en prenant aussi en compte
les conditions limites aux points a, b → ±∞. De plus, on admet que

p(x) → 0 pour x → ±∞ . (4.38)

Ces conditions limites, peuvent donner des solutions qui divergent en a ou b. Il s’agit
donc d’imposer les bonnes prescriptions afin de trouver des solutions de L2 (U ). La seule
manière réaliste d’aborder ces problèmes consiste à discuter des exemples bien connus de la
physique. Toutefois, dans la plupart des cas, on ne fera qu’effleurer les difficultés techniques
et citer les résultats que l’on peut d’ailleurs retrouver dans beaucoup de livres ou tables.
Seule l’équation des polynômes d’Hermite sera traitée complètement. Elle permettra de
mettre en évidence l’essentiel des difficultés.

a) Equation différentielle des polynômes d’Hermite


En mécanique quantique, l’oscillateur harmonique unidimensionnel, exprimé dans des
unités rationnalisées, est décrit par l’équation différentielle linéaire

d2
( − x2 + λ)u(x) = 0 . (4.39)
dx2
On recherche des fonctions3 u ∈ L2 (IR) en remarquant d’abord que la fonction asymp-
totique exp(−x2 /2) est solution de (4.39) pour x À 1. On substitue donc dans cette
équation la fonction
2
u(x) = e−x /2 H(x) (4.40)
pour aboutir à l’équation différentielle d’Hermite

H 00 (x) − 2xH 0 (x) + (λ − 1)H(x) = 0 . (4.41)


2
Multipliée par e−x , elle prend la forme de Sturm-Liouville
2 2
[e−x H 0 (x)]0 + (λ − 1)e−x H(x) = 0 (4.42)
2
où p(x) = q(x) = r(x) = e−x . La forme de r(x), justifie la subtitution (4.40) qui donne
la bonne pondération au produit scalaire (un , um )r des polynômes d’Hermite (2.41). La
Prop. 4.1 nous assure qu’il existe des valeurs propres simples et des vecteurs propres qu’il
s’agit de trouver. La démarche consiste à utiliser l’Ansatz4

X
H(x) = ck xk+s s ∈ Cl . (4.43)
k=0

3
L’oscillateur harmonique fournit un exemple type de l’isomorphisme (2.34) entre les espaces de Hilbert
L (IR) et l2 . Ici, il est étudié dans le cadre de l’espace L2 (IR). Le plus souvent (voir cours de Mécanique
2

Quantique), il est traité à l’aide d’opérateurs agissant sur l’espace l2 .


4
Cet Ansatz est justifié par le théorème de Fuchs de la théorie des fonctions complexes :
Soit l’équation différentielle linéaire du deuxième ordre f 00 (z) + p(z)f 0 (z) + q(z)f (z) = 0. Alors, si en z0 ,
p(z) a un pôle d’ordre 1 au P∞plus et q(z) a un pôle d’ordre 2 au plus, on peut trouver au moins une solution
de la forme f (z − z0 ) = n=0 an (z − z0 )n+s , s ∈ C. l

45
En allant dans (4.41), on obtient (exercice) l’équation séculaire

s(s − 1) = 0 (4.44)

et la relation de récurrence
2(k + s) + 1 − λ
ck+2 = ck (4.45)
(k + s + 2)(k + s + 1)
qui fournit deux séries du type (4.43), l’une paire et l’autre impaire. Ces séries sont
dissociées de la manière suivante :
1) pour s = 0, on choisit c0 quelconque et c1 = 0 (série paire)
2) pour s = 1, on peut aussi choisir c0 quelconque et c1 = 0.
Ce choix est équivalent à s = 0, c0 = 0 et c1 quelconque (série impaire).
En étudiant le comportement asymptotique de cette série (exercice), on voit que pour
2
x À 1, on a H(x) ∼ ex . Ainsi, l’expression (4.40) montre que la fonction
2 /2
u(x) ∼ ex

n’est pas de carré intégrable. Pour obtenir des solution u ∈ L2 (IR), on doit donc couper la
série (4.43) en un polynôme de degré n en posant, à partir du terme k = n, la condition
cn+2 = 0. Alors, pour s = 0, la relation (4.45) devient
2n + 1 − λ
cn+2 = 0 = cn (4.46)
(n + 2)(n + 1)
et fournit, pour cn 6= 0 les valeurs propres

λn = 2n + 1 n ∈ IN . (4.47)

Finalement, les fonctions d’Hermite sont données par l’expression


n
X
2 /2 2 /2
un (x) = e−x Hn (x) = e−x c k xk (4.48)
k=0

où les ck sont fixés par la relation de récurrence


2(k − n)
ck+2 = ck k = 0, 1, 2, · · · , n . (4.49)
(k + 2)(k + 1)
De (4.39), on tire l’équation aux valeurs propres (en unités h̄ω/2) de l’opérateur énergie
de l’oscillateur harmonique
h d2 i
2
− + x un (x) = (2n + 1) un (x) . (4.50)
dx2
Pour c0 6= 0, on obtient les polynômes pairs et pour c1 6= 0 les polynômes impairs. Avec
la normalisation cn = 2n , les calculs donnent, par exemple

H0 (x) = 1 H1 (x) = 2x
H2 (x) = 4x2 − 2 H3 (x) = 8x3 − 12x
H4 (x) = 16x4 − 48x2 + 12 . (4.51)

46
La normalisation choisie correspond au produit scalaire
Z +∞ √
2
e−x Hm (x)Hn (x)dx = π2n n!δmn . (4.52)
−∞

Comme les Hn forment une base de L2 (IR), la solution générale u ∈ L2 (IR) de l’équation
linéaire (4.39) est donnée par le développement

X
2 /2
u(x) = e−x αn Hn (x) . (4.53)
n=0

b) Polynômes de Legendre
Les polynômes de Legendre sont définis par l’équation différentielle

(1 − x2 )P 00 (x) − 2xP 0 (x) + λP (x) = 0 x ∈ [−1, +1] (4.54)

qui résulte de l’équation de Laplace en coordonnées sphériques. La variable x correspond


en fait à cos ϑ. On donne à cette équation une représentation d’opérateur de Sturm-
Liouville en écrivant
[(1 − x2 )P 0 (x)]0 + λP = 0 . (4.55)
Alors on a p(x) = (1 − x2 ), q(x) = 0 et r(x) = 1. En exigeant que P et P 0 soient bornés en
x = ±1, il est possible, comme pour les polynômes d’Hermite, de déterminer (exercice)
les valeurs propres
λl = l(l + 1) l ∈ IN (4.56)
et les vecteurs propres Pl (x) appelés polynômes de Legendre de normalisation Pl (1) = 1.

c) Polynômes de Laguerre
Les polynômes de Laguerre sont définis par l’équation différentielle

xL00 (x) + (1 − x)L0 (x) + λL(x) = 0 x ∈ IR+ (4.57)

qui peut prendre la forme de Sturm-Liouville

[xe−x L0 (x)]0 + λe−x L(x) = 0 (4.58)

où p(x) = x e−x , q(x) = 0, r(x) = e−x . En exigeant que les solutions f soient des polynômes
de degré N , on peut déterminer les valeurs propres λN = N N ∈ IN et les fonctions
propres appelés polynômes de Laguerre LN (x). Ils représentent un cas particulier des
polynômes associés de Laguerre LαN (x) qui sont solutions de l’équation

xLαN 00 (x) + (α + 1 − x)LαN 0 (x) + N LαN (x) = 0 x ∈ IR+ α, N ∈ IN . (4.59)

Cette équation peut être tirée de l’équation radiale de l’atome d’hydrogène


" #
2 l(l + 1)
00
u (%) + − − σ 2 u(%) = 0 % ∈ IR+ (4.60)
% %2

47
où σ 2 est la valeur propre d’énergie. En introduisant dans cette équation la fonction

u(%) = ρl+1 e−%/n f (%) l ∈ IN, n ∈ IN+ (4.61)

on retrouve (exercice) l’équation (4.59) en posant


2%
x= α = 2l + 1 N =n−l−1 (4.62)
n
et en fixant la valeur propre
1 1
σ2 = = . (4.63)
n2 (N + l + 1)2

d) Fonctions de Bessel
Les fonctions de Bessel sont définies par les solutions de l’équation différentielle
à !
1 n2
Zn00 (x) + Zn0 (x) + λ − 2 Zn (x) = 0 . (4.64)
x x

Elle peut être mise sous la forme de Sturm-Liouville


à !
n2
[xZn0 (x)]0 + λx − Zn (x) = 0 (4.65)
x

où p(x) = x, q(x) = n2 /x, r(x) = x.

Le calcul des valeurs propres et des fonctions propres des opérateurs de Sturm-Liouville
singuliers se présente sous deux aspects. D’un côté, il s’appuie sur la résolution des
équations différentielles soumises aux conditions de fonctions de carré intégrables et
détermine ces polynômes, comme on l’a fait pour l’équation d’Hermite. D’un autre côté,
il peut emprunter une voie plus simple en utilisant les polynômes orthogonaux donnés
par la section 2.5 et en vérifiant qu’ils sont solutions des équations aux valeurs propres
correspondantes.

48
Chapitre 5

Transformées de Fourier

5.1 Introduction : paquet d’ondes


Considérons l’équation de Schrödinger unidimensionnelle d’une particule libre

∂ h̄2 ∂ 2
ih̄ ψ(x, t) = − ψ(x, t) . (5.1)
∂t 2m ∂x2
R
L’intégrale U |ψ|2 dx représente la probabilité de trouver la particule dans l’intervalle
U ⊂ IR au temps t. On cherche donc une solution1 de l’équation (5.1) de carré intégrable
et soumise à la condition initiale

ψ(x, 0) = ψ0 (x) (5.2)

avec ψ0 ∈ L2 (IR) donné. D’après l’équation d’évolution (3.48), on sait que la solution
prend la forme
ψ(x, t) = u(x) e−i(E/h̄)t
où E = p2 /2m. Introduite dans (5.1), elle conduit à l’équation différentielle

p2
u00 (x) + u(x) = 0 (5.3)
h̄2
qui possède les deux solutions
{eipx/h̄ , e−ipx/h̄ } . (5.4)
Pour p ∈ IR et en introduisant la relation de dualité onde-corpuscule E = h̄ω, on arrive à
la famille de fonctions
ψp (x, t) = ei(px/h̄−ωt) (5.5)
R R
qui n’appartiennent pas à L2 (IR) puisque IR |ψp (x, t)|2 dx = IR dx → ∞. Comme l’équa-
tion (5.1) est linéaire, on peut définir une solution par superposition des fonctions ψp (x, t)
sous la forme d’une intégrale appelée paquet d’ondes
Z +∞
ψ(x, t) = c(p) ei(px/h̄−ωt) dp . (5.6)
−∞

1
La solution de cette équation peut aussi être déterminée à l’aide de l’Ansatz ψ(x, t) = u(x)g(t).

49
Dans le cadre de la théorie des transformées de Fourier, on montre qu’une telle fonction
c ∈ L2 (IR) existe et est donnée par
1 Z +∞
c(p) = ψ(x, 0)e−ipx/h̄ dx (5.7)
2π −∞
et que ψ(x, t) appartient aussi à L2 (IR). Enfin, on note l’analogie entre les fonctions c(p)
et les coefficients des séries de Fourier (2.55).

5.2 Transformée de Fourier


La propriété évoquée en (5.7) peut être vue comme une généralisation de la série
de Fourier complexe (2.55) à des fonctions définies sur tout IR et pas nécessairement
périodiques. Elle est immédiate pour les fonctions de l’espace de Schwartz défini par
l’ensemble
n . o
S(IR) = f f ∈ C ∞ , f (x) et f (n) (x) → 0 plus vite que toute puissance de |x|−1 . (5.8)

Déf. 5.1 La transformée de Fourier de la fonction f ∈ S(IR) est la fonction notée


fb(p) pour p ∈ IR et définie par l’intégrale2
Z +∞
1
fb(p) = √ f (x) e−ipx dx . (5.9)
2π −∞

On remarque que fb(p) est bien définie pour tout p ∈ IR puisque f ∈ S(IR) entraı̂ne
f (x) exp(−ipx) intégrable. Le choix du signe de l’exposant et le choix de la constante de
normalisation sont conventionnels. On peut montrer que pour x ∈ IR la transformée de
Fourier inverse appartient aussi S(IR) et s’écrit
1 Z +∞ b
f (x) = √ f (p) eipx dp . (5.10)
2π −∞

Exemples : Transformées de Fourier

a) Transformée de Fourier de la dérivée et dérivée de la transformée


Pour une fonction f ∈ S(IR) et n ∈ IN+ , on a les relations

in fb (n) (p) = (xd


n f )(p) (5.11)
in pn fb(p) = (fd
(n) )(p) . (5.12)

La vérification s’effectue par un calcul direct. Pour vérifier (5.11), on dérive sous le
signe intégral pour obtenir
n Z +∞
i
i fb (n) (p) = √
n
f (x) (−ix)n e−ipx dx = (xd
n f )(p) .
2π −∞
R
2
Dans IR3 , la transformée de Fourier s’écrit fb(p) = (2π)−3/2 IR3
f (r) e−ipr d3 r.

50
De même, pour (5.12), le membre de gauche donne
in Z +∞
i p fb(p) =
n n
√ f (x) pn e−ipx dx
2π −∞
i (−i)−n Z +∞
n
dn
= √ f (x) n e−ipx dx
2π −∞ dx
n Z +∞
(−1)
= √ (−1)n f (n) (x) e−ipx dx = (fd
(n) )(p)
2π −∞

où la troisième égalité a été obtenue après n intégrations par parties.


2
b) Transformée de Fourier de la fonction de Gauss f (x) = e−αx
On a évidemment f ∈ S(IR). Le calcul direct de l’intégrale (5.9) nous conduit à une
intégrale avec chemin dans le plan complexe3 . On utilise plutôt la relation (5.11).
1 c i Z +∞ 2
fb 0 (p) = (xf )(p) = √ (−x)e−αx e−ipx dx
i 2π −∞
i h 1 −αx2 −ipx ¯¯+∞ Z +∞ −ip −αx2 −ipx i
= √ e e ¯ − e e dx
2π 2α −∞ −∞ 2α
−i Z +∞ −ip −αx2 −ipx p
= √ e e dx = − fb(p)
2π −∞ 2α 2α
qui donne l’équation différentielle fb0 (p) = − 2α
p b
f (p) de solution fb(p) = c e−p /(4α) .
2

La constante c est déterminée4 par la transformée (5.9) prise au point p = 0


1 Z +∞ −αx2 1
c = fb(0) = √ e dx = √ .
2π −∞ 2α
Ainsi, la transformée d’une fonction de Gauss redonne une fonction de Gauss
1 p2
fb(p) = √ e− 4α . (5.13)

c) Transformée de Fourier du produit de deux fonctions


Pour des fonctions f, g ∈ S(IR), on peut calculer la transformée de Fourier du
produit
1 Z +∞
(fcg)(p) = √ f (x)g(x) e−ipx dx
2π −∞
1 Z +∞ h 1 Z +∞ i
= √ f (x) √ gb(q) eiqx dq e−ipx dx
2π −∞ 2π −∞
1 Z +∞ h 1 Z +∞ i
= √ √ f (x) e−i(p−q)x dx gb(q)) dq
2π −∞ 2π −∞
1 Z +∞ b
= √ f (p − q)gb(q) dq
2π −∞
3
Le calcul de l’intégrale pourrait aussi se faire en transformant l’exposant en carré parfait, mais le
changement de variable nous amène à une intégrale dans le plan complexe.
4
Pour calculer l’intégrale gaussienne, on exprime son carré en coordonnées polaires
·Z +∞ ¸2 Z +∞ Z +∞ Z ∞ Z 2π Z
−αx2 −α(x2 +y 2 ) −α%2 π ∞ −u π
e dx = e dxdy = e %d% dϕ = e du = .
−∞ −∞ −∞ 0 0 α 0 α

51
qui nous conduit à une forme d’intégrale typique que l’on définit comme produit de
convolution des fonctions f et g.

Déf. 5.2 Le produit de convolution5 des fonction f, g ∈ S(IR) est défini par l’intégrale
Z +∞
(f ∗ g)(x) = f (x − y)g(y) dy . (5.14)
−∞

Ainsi, comme on l’a vu ci-desssus, la transfomée de Fourier d’un produit de fonctions est
donnée par le produit de convolution des fonctions transformées
1
(fcg)(p) = √ (fb ∗ gb)(p) . (5.15)

On vérifie facilement les propriétés suivantes du produit de convolution

a) f ∗ g = g ∗ f (5.16)
b) (f ∗ g) ∗ h = f ∗ (g ∗ h) (5.17)

c) (fd∗ g)(p) = 2π fb(p)gb(p) . (5.18)

Pour appliquer les transformées de Fourier aux fonctions d’un espace de Hilbert, il
faut prolonger, par continuité, la transformée de Fourier de l’espace de Schwartz S(IR) à
l’espace des fonctions de carré intégrables L2 (IR) en utilisant le fait que l’espace S(IR) est
dense dans L2 (IR). Ce résultat est résumé par le théorème important suivant.

Th. 5.1 (Théorème de Fourier-Plancherel)


La transformation de Fourier

F : L2 (IR) −→ L2 (IR)

est un opérateur unitaire i.e. (Ff, Fg) = (f, g).

Pour la preuve, on se réfère à un livre d’analyse fonctionnelle. Dans la démonstration, les


intégrales des transformées de Fourier doivent être comprises au sens de Lebesgue (voir
appendice B). Ce théorème important assure la convergence de la transformée de Fourier
d’une fonction de carré intégrable. L’intégrale de la transformée peut être interprétée
comme un développement de Fourier généralisé (2.2) et représente les fonctions fb ∈ L2 (IR)
au sens de la convergence en moyenne
Z +∞ ¯¯ ¯2
¯b 1 Z +a −ipx
¯
¯
lim ¯f (p) − √ f (x) e dx¯ dp = 0 .
a→∞ −∞ ¯ 2π −a ¯

De même pour la transformée de Fourier inverse f (x).


5
Dans la pratique, le produit de convolution permet de décrire la transmission d’un signal d’intensité
g(x) à travers un appareil de fonction de réponse f (x) qui module le signal. Par exemple, aux points
y1 , y2 , le signal d’intensités g(y1 ), g(y2 ) sera modulé par les fonctions de réponse f (x − y1 ), f (x − y2 )
et donnera un signal de sortie d’intensité gs (x) = f (x − y1 )g(y1 ) + f (x − y2 )g(y2 ).

52
5.3 Utilisation des transformées de Fourier
a) Calcul d’une transformée de Fourier
La transformée de Fourier de la fonction f (x) = e−a|x| , Re a > 0 est donnée par
1 Z +∞ −a|x| −ipx
fb(p) = √ e e dx
2π −∞
·Z ∞ Z ∞ ¸
1
= √ e−ax eipx dx + e−ax e−ipx dx
2π 0 0
s
2 a
= . (5.19)
π p + a2
2

b) Relation de Parseval
Pour des fonctions fb, gb transformées de Fourier des fonctions f , g, la relation de
Parseval est évidemment satisfaite. En utilisant la transformée de Fourier du produit de
convolution (f ∗d∗ g)(p), on vérifie (exercice) que
Z +∞ Z +∞
f (x)∗ g(x) dx = fb(p)∗ gb(p) dp . (5.20)
−∞ −∞

Cette expression est une généralisation au continu de la relation de Parseval donnée dans
le Th. 2.2. Dans le cas où f = g, on a la relation bien connue
Z +∞ Z +∞
|f (x)|2 dx = |fb(p)|2 dp . (5.21)
−∞ −∞

c) Solution de l’équation d’onde


A l’aide de la transformée de Fourier, on montre (exercice) que l’équation d’onde

∂t2 u(x, t) = c2 ∂x2 u(x, t) 0 ≤ t < ∞, −∞ < x < ∞ (5.22)

soumise aux conditions initiales

u(x, 0) = f (x) ∂t u(x, 0) = 0

possède la solution générale


1 1
u(x, t) = f (x + ct) + f (x − ct) . (5.23)
2 2

d) Propagateur de la particule libre


On considère au temps t0 la superposition d’ondes planes
1 Z
ψ(x, t0 ) = √ dk c(k) ei(kx−ωt0 ) (5.24)

53
solution de l’équation de Schrödinger de la particule libre

h̄2 2
ih̄ ∂t ψ = − ∂ ψ (5.25)
2m x
où l’on a défini h̄ω = h̄2 k 2 /2m. A l’aide de la transformée de Fourier, on montre (exercice)
que la solution au temps t est donnée par l’intégrale
Z
ψ(x, t) = K(x − x0 , t − t0 )ψ(x0 , t0 ) dx0
IR

où la grandeur K, appelée propagateur de la particule libre, vaut


(x−x0 )2
im
e−iπ/4 e 2h̄ (t−t0 )
K(x − x0 , t − t0 ) = √ q .
2π h̄
(t − t0 )
m

e) Formule sommatoire de Poisson


La combinaison de la série de Fourier et de la transformée de Fourier permet d’établir
une formule pratique pour la sommation des séries. Pour f ∈ S(IR) donnée, on peut
définir la fonction ∞ X
R(x) = f (x + ma) a>0 (5.26)
m=−∞

qui par définition est a-périodique. Elle peut donc être développée en une série de Fourier
dans la base (2.67)

X 2π
R(x) = cn ei a nx (5.27)
n=−∞

où les coefficients de Fourier sont donnés par

1 Z +a/2 2π
cn = R(x)e−i a nx dx
a −a/2
∞ Z +a/2
1 X 2π
= f (x + ma) e−i a nx dx . (5.28)
a m=−∞ −a/2

En effectuant le changement de variable u = x + ma, il vient


∞ Z ma+a/2
1 X 2π
cn = f (u) e−i a nu du
a m=−∞ ma−a/2

1 Z +∞ −i 2π nu 2π b 2π
= f (u) e a du = f ( n) . (5.29)
a −∞ a a

On a utilisé la propriété exp(i2πmn) = 1 et la définition de la transformée de Fourier fb.


De plus, on voit que la somme des intégrales est égale à l’intégrale de −∞ à +∞. En
allant dans (5.27), on obtient l’expression

√ ∞
X 2π X 2π 2π
f (x + ma) = fb( n) ei a nx (5.30)
m=−∞ a n=−∞ a

54
qui prise au point x = 0 et a = 1 fournit la formule sommatoire de Poisson

X √ ∞
X
f (m) = 2π fb(2πn) . (5.31)
m=−∞ n=−∞

On pourrait aussi se libérer du facteur 2π en redéfinissant la normalisation de la trans-


formée de Fourier. La formule de Poisson permet de transformer une série qui converge
lentement dans l’espace direct en une série dans l’espace de Fourier où elle converge beau-
coup plus vite. La formule sommatoire de Poisson peut avoir des utilités diverses comme
on peut le voir dans les deux cas particuliers suivants :
α) Une gaussienne de grande variance dans l’espace direct, peut être transformée en
une gaussienne de petite variance dans l’espace de Fourier. On considère la fonction

X 2
g(x) = e−πxm x>0. (5.32)
m=−∞

À l’aide de la formule de Poisson, on vérife aisément (exercice) que


1 1
g(x) = √ g( ) . (5.33)
x x
β) Pour le calcul de la série numérique 1/n2 , n ∈ IN+ , on considère la fonction
1
f (n) = ² > 0 n ∈ ZZ . (5.34)
n2 + ²2
La transformée de Fourier6 de f donnée par (5.19)
r
1 π −²|p|
fb(p) = e (5.35)
² 2
permet d’écrire la formule de Poisson
∞ √ 1 r ∞
X 1 π X
2 2
= 2π e−2π²|m| . (5.36)
n=−∞ n + ² ² 2 m=−∞

En sommant la série géométrique de raison e−2π² , on obtient



" ∞
#
X 1 π X
−2π²
2 + ²2
= 1 + 2e e−2π²m
n=−∞ n ² m=0
" #
π 2e−2π² π
= 1+ −2π²
= coth π² . (5.37)
² 1−e ²
Cette expression peut aussi s’écrire

X 1 1
2 2
= [π² coth π² − 1] (5.38)
n=1 n + ² 2²2
pour fournir la série numérique

" #
X 1 1 (π²)2 π2
2
= lim 1+ + ··· − 1 = . (5.39)
²→0 2²2
n=1 n 3 6
6
La transformée directe de la fonction (5.34) peut être calculée à l’aide du lemme de Jordan et du
théorème de Cauchy.

55
À ce stade, il est logique d’évoquer brièvement la transformée de Laplace qui possède
beaucoup de similitudes avec la transformée de Fourier. En tant que transformation uni-
taire, la transformée de Fourier a l’avantage d’avoir une transformation inverse simple.
Elle a cependant le désavantage de générer des fonctions généralisées. La transformée de
Laplace n’a pas cet inconvénient. Son inverse par contre n’est pas simple.

Déf. 5.3 La transformée de Laplace de la fonction f : IR+ −→ IR est la fonction


complexe F définie par
Z ∞
F (s) = f (t)e−st dt s ∈ Cl (5.40)
0

pourvu que l’intégrale existe.

Par exemple, la transformée de Laplace de la fonction f (t) = eat , a ∈ IR donne


Z ∞ ¯∞
1 ¯ 1
F (s) = e(a−s)t dt = e(a−s)t ¯ = , si Re s > a (5.41)
0 (a − s) 0 a−s

Prop. 5.1 Si |f (t)e−at | ≤ c pour a ∈ IR , c > 0, alors la transformée de Laplace existe


dans le demi-plan complexe Re s > a , s := σ + iω .

Preuve. La norme complexe de la transformée donne


¯Z T ¯ Z T Z T
¯ ¯
¯ f (t)e−st dt¯ ≤ |f (t)|e−σt dt ≤ c e(a−σ)t dt
0 0 0
c
= [1 − e−(σ−a)T ]
σ−a
c
−→ pour σ > a et T → ∞ . 2
σ−a

Dans ce domaine, la transformée de Laplace est une fonction holomorphe et on a


Z ∞
F (n) (s) = (−t)n f (t)e−st dt n ∈ IN+ . (5.42)
0

Pour plus d’informations sur la transformée de Laplace, on se réfère aux livres.

56
Chapitre 6

Distributions

6.1 Introduction : transformée de Fourier de 1/ 2π
En considérant la formule de la transformée de Fourier
1 Z +∞ b
f (x) = √ f (p)eipx dp , (6.1)
2π −∞
il est légitime de vouloir calculer la transformée de la fonction constante
1
fb(p) = √ p ∈ IR . (6.2)

On remarque alors que l’expression
1 Z +∞ 1 ipx 1 Z +a ipx 1 2 sin ax
√ √ e dp = lim e dp = lim (6.3)
2π −∞ 2π a→∞ 2π −a 2π a→∞ x
n’a pas de limite. Il n’existe pas de fonction transformée de Fourier de la fonction constante
sur IR. Cependant, pour des fonctions ϕ ∈ S(IR), on peut montrer la limite suivante
1 Z +∞ 2 sin ax
lim ϕ(x) dx = ϕ(0) . (6.4)
a→∞ 2π −∞ x
En effet, en utilisant la normalisation
1 Z +∞ 2 sin ax
dx = 1 , (6.5)
2π −∞ x
en notant g(x) = [ϕ(x)−ϕ(0)]/x et en intégrant par parties, on obtient la limite annoncée
1 Z +∞ [ϕ(x) − ϕ(0)] 1 Z +∞
lim 2 sin ax dx = lim 2 sin ax g(x) dx
a→∞ 2π −∞ x a→∞ 2π −∞
· ¸+∞
cos ax 1 Z +∞ cos ax 0
= lim − g(x) + lim g (x) dx = 0 ,
a→∞ πa −∞ a→∞ π −∞ a
puisque, pour a → ∞, le premier terme tend vers 0 et l’intégrale uniformément bornée
du deuxième terme s’annule. Le calcul de la limite ci-dessus appelle deux remarques :
– le théorème de la moyenne du calcul intégral ne peut pas être utilisé pour évaluer
l’intégrale (6.4) puisque la fonction sin ax/x n’est pas définie positive,
– la fonction ϕ(x)/x n’est pas définie en x = 0 et ne peut par conséquent pas être
prise toute seule dans la limite, par contre la fonction g(x) = [ϕ(x) − ϕ(0)]/x l’est.

57
6.2 Distribution de Dirac
La limite (6.4) introduit le concept de distribution de Dirac, i.e. de fonctionnelle notée
D0 qui à toute fonction ϕ ∈ S(IR) fait correspondre sa valeur au point zéro
1 Z +∞ 2 sin ax
D0 [ϕ] ≡ a→∞
lim ϕ(x) dx = ϕ(0) . (6.6)
2π −∞ x
Le physicien utilise la notation pratique de fonction δ(x) de Dirac1 et écrit
Z +∞
δ(x)ϕ(x)dx = ϕ(0) . (6.7)
−∞

Avec cette notation, l’expression (6.3) montre que δ(x) peut


√ être interprétée comme la
b
transformée de Fourier de la fonction constante f (p) = 1/ 2π. On écrit formellement
1 Z +∞ ipx
δ(x) = e dp . (6.8)
2π −∞
R +∞
Il existe plusieurs suites de fonctions dn (x), normalisées −∞ dn (x) dx = 1 et telles que
pour tout ϕ ∈ S(IR) on ait
Z +∞
lim
n→∞
dn (x)ϕ(x) dx = ϕ(0) . (6.9)
−∞

Cette limite se vérifie par exemple (exercice) pour les suites données ci-dessous
n 2 2
dn (x) = √ e−n x
π
n 1
dn (x) = (6.10)
π 1 + n2 x2
1 sin2 nx
dn (x) = .
nπ x2
Toutefois, limn→∞ dn (x) n’existe pas.

Déf. 6.1 La distribution de Dirac Dx0 est une fonctionnelle linéaire définie par

Dx0 : S(IR) −→ IR
ϕ 7−→ Dx0 [ϕ] = ϕ(x0 ) . (6.11)

On utilise aussi la notation de fonction δ


Z +∞
Dx0 [ϕ] ≡ δ(x − x0 )ϕ(x) dx = ϕ(x0 ) . (6.12)
−∞

1
Historiquement, Dirac introduisit (1927) la ”fonction”
½
0 x 6= 0
δ(x) =
∞ x=0
R +∞ R +∞
telle que −∞ δ(x)dx = 1 et −∞ δ(x)ϕ(x)dx = ϕ(0). Cette fonction δ n’a pas de sens puisque δ(x) = 0
R
presque partout implique δ(x)dx = 0. Le symbole δ(x) signifie tout simplement que l’intégrale s’effectue
en prenant la fonction ϕ au point x = 0. C’es l’analogue d’un symbole de Kronecker continu.

58
Exemple : Équation du potentiel
R f (r0 )
Pour une fonction f ∈ S(IR3 ), on considère le potentiel φ(r) = V d3 r0 |r−r0 |
. Le
calcul du laplacien " #
Z
2 3 0 2 1
∇ φ(r) = dr ∇ 0
f (r0 ) (6.13)
V |r − r |
conduit à l’expression singulière
1 (r − r0 )
∇2 = −∇ · =0 (6.14)
|r − r0 | |r − r0 |3
qui s’annule pour r 6= r0 , mais n’est pas définie pour r = r0 . Une manière plus
appropriée de calculer (6.13) pour tout r consiste à faire d’abord le changement de
variable d’intégration u = r0 − r, puis à utiliser la symétrie des variables r et u pour
appliquer le laplacien2
Z Z
1 2 1
∇2 φ(r) = d3 u ∇ f (u + r) = d3 u ∇2u f (u + r) . (6.15)
V u V u

dσ ’


V
dσ’ Bε
u ’

Fig. 6.1 – Domaine d’intégration D = V − B²

L’intégrale ci-dessus possède une singularité à l’origine. Pour la régulariser, on définit


selon FIG. 6.1 le domaine d’intégration D = V − B² constitué d’un volume V
quelconque évidé en son centre u = 0 d’une boule B² de rayon ² que l’on fera tendre
vers zéro à la fin des calculs. Sur le domaine D sans singularité, le laplacien donne
µ ¶
1
∇2u =0 u∈D. (6.16)
u
Alors, l’application du théorème de Green3 fournit l’intégrale de surface
Z Z µ ¶
1 2 1 1
∇2 φ(r) = d3 u ∇u f = ∇u f − f ∇u · dσ 0 . (6.17)
D u ∂D u u
Lors de l’intégration sur le domaine ∂D = ∂V − ∂B² , la fonction f ∈ S(IR) et ses
dérivées s’annulent sur ∂V . Il ne reste donc que l’intégrale sur ∂B² dont l’élément
de surface peut s’écrire dσ 0 = −(u/u)dσ. Alors, en calculant le gradient de 1/u, on
obtient l’intégrale
Z µ ¶
1 u u
∇2 φ(r) = − ∇u f + f 3 · dσ . (6.18)
∂B² u u u
2
Pour une fonction ρ de l’espace de Schwartz, la dérivée peut être passée sous le signe intégral.
D’autre part, malgré le changement de variable, on garde abusivement la même notation pour le volume
V quelconque qui peut d’ailleurs être considéré comme tout IR3 .
3
Pour desRfonction ϕ et ψ définies Rsur V , deux fois différentiables, le théorème de Green fournit
l’expression V (ϕ∇2 ψ − ψ∇2 ϕ)d3 r = ∂V (ϕ∇ψ − ψ∇ϕ) · dσ qui résulte de l’application du théorème
de la divergence sur la fonction Φ = ϕ∇ψ − ψ∇ϕ.

59
Le changement de variable u = ²n, |n| = 1 et l’insertion de dσ = ²2 sin ϑdϑdϕ
montrent que la limite du premier terme de (6.18) tend vers zéro
Z Z
u 1 2
lim ∇u f · 2 dσ ≤ lim const. ² sin ϑdϑdϕ = 0 . (6.19)
²→0 ∂B² u ²→0 |n|=1 ²

La limite du deuxième terme vaut


Z Z
1 1
lim f (u + r) 2 dσ = lim f (²n + r) 2 ²2 sin ϑdϑdϕ
²→0 ∂B² u ²→0 |n|=1 ²
Z
= f (r) sin ϑdϑdϕ = 4πf (r) (6.20)
|n|=1

et permet d’écrire (6.18) sous la forme

∇2 φ(r) = −4πf (r) . (6.21)

En comparant cette équation avec (6.13), on obtient la fonctionnelle


Z " #
1 1
d3 r0 − ∇2 f (r0 ) = f (r) (6.22)
V 4π |r − r0 |

qui fait correspondre à toute fonction f sa valeur au point r. C’est la distribution


de Dirac Dr [f ] = f (r) qui, avec la notation symbolique (6.12), conduit à l’équation
valable pour tout r et tout r0
1
∇2 = −4πδ(r − r0 ) . (6.23)
|r − r0 |

On a ainsi établi l’équation de Poisson d’une charge ponctuelle. On la retrouvera


plus loin dans la théorie des fonctions de Green.

Déf. 6.2 La transformée de Fourier de la distribution D0 est définie par la limite


Z +∞
d[ϕ] = lim
D0
n→∞
dcn (p)ϕ(p) dp . (6.24)
−∞

Alors, à l’aide du théorème de Fubini on trouve l’expression


Z +∞ h Z +∞ i
d[ϕ] = 1
D 0 lim √ dn (x)e−ipx dx ϕ(p) dp
n→∞ −∞ 2π −∞
Z +∞ h 1 Z +∞ i
= lim dn (x) √ ϕ(p)e−ipx dp dx
n→∞ −∞ 2π −∞
Z +∞
= lim dn (x)ϕ(x)
b dx = ϕ(0)
b = D0 [ϕ]
b (6.25)
n→∞ −∞

d est à nouveau une distribution de Dirac i.e.


qui montre que la transformée de Fourier D 0
une fonctionnelle linéaire telle que
d[ϕ] = D [ϕ]
D0 0 b . (6.26)

60
En notation de fonction et avec la transformée de Fourier, cette relation devient
Z +∞ Z +∞
b 1 Z +∞
δ(p)ϕ(p) dp = δ(p)ϕ(p)
b dp = ϕ(0)
b =√ ϕ(x) dx
−∞ −∞ 2π −∞
et, comme on l’a déjà vu en (6.8), implique

b 1
δ(p) =√ . (6.27)

Déf. 6.3 La dérivée D00 d’une distribution de Dirac est définie par la limite
Z +∞
D00 [ϕ] = lim d0n (x)ϕ(x) dx . (6.28)
n→∞ −∞

Alors, par intégration par parties on obtient


Z +∞
D00 [ϕ] = lim [dn (x)ϕ(x)]+∞
−∞ − lim dn (x)ϕ0 (x) dx
n→∞ n→∞ −∞
Z +∞
= − lim dn (x)ϕ0 (x) dx = −ϕ0 (0) = − D0 [ϕ0 ] .
n→∞ −∞

La dérivée D00 est donc à nouveau une distribution i.e. une fonctionnelle linéaire donnée
par la distribution de Dirac
D00 [ϕ] = − D0 [ϕ0 ] (6.29)
que l’on peut aussi écrire comme fonction généralisée
Z +∞
δ 0 (x)ϕ(x) dx = −ϕ0 (0) .
−∞

Pour une distribution de Dirac considérée comme fonction, on vérifie (exercice) à l’aide
de (6.9) les propriétés suivantes :
a) δ(x) = δ(−x) (6.30)
1
b) δ(ax) = δ(x), a 6= 0 (6.31)
|a|
X 1
c) δ(g(x)) = δ(x − xn ) (6.32)
n |g 0 (x n )|
où g(xn ) = 0, g 0 (xn ) 6= 0 et où l’on somme sur tous les zéros de g(x).
Par exemple, on a
1
δ(x2 − x20 ) = [δ(x − x0 ) + δ(x + x0 )].
2x0

6.3 Distributions tempérées


La notion de distribution s’étend à d’autres fonctionnelles linéaires que l’on appelle
distributions tempérées.
Déf. 6.4 Une distribution tempérée τ est une fonctionnelle linéaire continue4 sur
l’espace de Schwartz S(IR).
4
La définition de la continuité implique le choix d’une topologie qui permet de définir la convergence.

61
Les distributions tempérées appartiennent à l’espace vectoriel
n o
S 0 (IR) = τ /τ : S(IR) −→ C,
l linéaire (6.33)

dual de S(IR). Les distributions Dx0 , Dx0 0 et D c sont évidemment des distributions
x0
tempérées. La transformée de Fourier F[ϕ] ≡ ϕ(p)
b est une distribution tempérée. Comme
pour la distribution de Dirac, on définit, à partir de la suite de fonctions tn et pour tout
ϕ ∈ S(IR), la distribution tempérée par la limite
Z +∞
τ [ϕ] = n→∞
lim tn (x)ϕ(x) dx .
−∞

Alors, on montre, comme en (6.25), que la transformée de Fourier d’une distribution


tempérée est donnée par l’expression
τb[ϕ] = τ [ϕ]
b (6.34)
et, par intégration par parties, que la dérivée d’une distribution tempérée s’écrit
τ 0 [ϕ] = −τ [ϕ0 ] (6.35)
Toute fonction t ∈ S(IR) définit une distribution tempérée par l’intégrale
Z +∞
τ [ϕ] = t(x)ϕ(x) dx .
−∞

Le produit de distributions n’est pas défini. On peut cependant définir le produit d’une
fonction v ∈ C ∞ avec une distribution tempérée en considérant la distribution tempérée
τ sur le produit des fonctions vϕ.
Déf. 6.5 Soit τ une distribution tempérée et v ∈ C ∞ (IR) telle que vϕ ∈ S(IR) pour
ϕ ∈ S(IR). Alors
(vτ )[ϕ] = τ [vϕ] ϕ ∈ S(IR) (6.36)
définit une distribution tempérée appelée produit.

Exemples : Utilisations des distributions tempérées


a) Dérivée de la fonction de Heaviside
(
0 si x < 0
θ(x) = (6.37)
1 si x ≥ 0 .
Pour ϕ ∈ S(IR), on définit la distribution
Z +∞ Z ∞
τθ [ϕ] = θ(x)ϕ(x) dx = ϕ(x) dx
−∞ 0

dont la dérivée donne une fonctionnelle de Dirac


Z +∞ Z ∞
τθ0 [ϕ] 0
= −τθ [ϕ ] = − 0
θ(x)ϕ (x) dx = − ϕ0 (x) dx = ϕ(0) .
−∞ 0

On en tire la relation de distribution


τθ0 = D0 (6.38)
qui en notation de fonction généralisée s’écrit
θ0 (x) = δ(x) . (6.39)

62
b) Transformée de Fourier de la fonction égale à 1 sur tout IR.
Elle est définie à l’aide de la distribution tempérée τb1 (ϕ) qui donne
Z +∞ √ √
τb1 [ϕ] = τ1 [ϕ]
b = 1 ϕ(p)
b dp = 2π ϕ(0) = 2π D0 [ϕ] .
−∞

On en tire la relation de distribution



τb1 = 2π D0 . (6.40)

qui, en notation de fonction généralisée, peut s’écrire


1 Z +∞ −ipx
e dp = δ(x) (6.41)
2π −∞

c) Produit de la fonction x avec la distribution de Dirac D0 .


L’expression (xD0 )[ϕ] = D0 [xϕ] = (xϕ)|0 = 0 fournit la relation de distribution

(xD0 ) = 0 (6.42)

qui en notation de fonction généralisée s’écrit

xδ(x) = 0 . (6.43)

d) Produit de la fonction x avec D00 . Le calcul

(xD00 )[ϕ] = D00 [xϕ] = −D0 [(xϕ)0 ] = −D0 [ϕ + xϕ0 ] = −D0 [ϕ] − D0 [xϕ0 ] = −D0 [ϕ]

fournit la relation de distribution

(xD00 ) = −D0 (6.44)

qui en notation de fonction généralisée s’écrit

xδ 0 (x) = −δ(x) . (6.45)

La théorie des distributions se révèlera utile pous la résolution des équations différen-
tielles à l’aide des fonctions de Green. En introduisant le produit de convolution
Z +∞ ·Z +∞ ¸
τf ∗g [ϕ] = f (t)g(x − t) dt ϕ(x) dx , (6.46)
−∞ −∞

on peut considérer la distribution de Dirac comme l’élément unité de l’algèbre des distri-
butions. En effet, la convolution avec δ donne
Z +∞ ·Z +∞ ¸ Z +∞
τδ∗f [ϕ] = δ(t)f (x − t) dt ϕ(x) dx , = f (x)ϕ(x) dx = τf [ϕ] . (6.47)
−∞ −∞ −∞

On aboutit ainsi au calcul algébrique de Heaviside utilisé dans la résolution des équations
différentielles.

63
6.4 Triplet de Gelfand ou triade hilbertienne
Il existe des états quantiques qui ne sont pas normalisables et par conséquent n’ap-
partiennent pas à H. On évite généralement ce problème mathématique en précisant que
ces états sont une idéalisation de la réalité physique. Toutefois, grâce aux distributions,
on peut donner une définition5 précise à ces états et leur attribuer un produit scalaire.
On prendra comme exemple les états des opérateurs position Q et impulsion P .
a) Opérateur position Q
C’est l’opérateur de multiplication par x, défini pour tout x ∈ IR par

(Qψ)(x) = xψ(x) (6.48)


n o
sur le domaine de définition D(Q) = ψ ∈ L2 (IR) / kxψk2 < ∞ . Le spectre de Q est
réel, mais non-borné. De plus, le domaine D(Q) est une restriction de L2 (IR). Il est dès
lors préférable de définir cet opérateur sur l’espace de Schwartz S(IR) (5.8). Alors pour
x0 ∈ IR, l’équation aux valeurs propres

(x − x0 )ψx0 (x) = 0 (6.49)

ne possède que la solution triviale ψx0 = 0 pour x 6= x0 , i.e. ψx0 est nulle presque partout
(sauf sur l’ensemble de mesure nulle x = x0 ). Il s’ensuit que Q n’a pas de solution dans
S(IR). Toutefois, l’interprétation symbolique ψx0 (x) ∼ δ(x − x0 ), nous incite à prendre la
distribution de Dirac
Dx [ϕ] = ϕ(x) (6.50)
comme solution de (6.49). Alors, le produit de l’opérateur Q avec Dx0 s’écrit

(QDx0 )[ϕ] = Dx0 [xϕ] = x0 ϕ(x0 ) = x0 Dx0 [ϕ] (6.51)

et entraı̂ne l’équation aux valeurs propres


h i
(Q − x0 )Dx0 [ϕ] = 0 (6.52)

qui pour tout ϕ ∈ S(IR) possède une solution non-triviale Dx0 ∈ S 0 (IR).

b) Opérateur impulsion P
C’est l’opérateur de dérivation défini pour tout ψ ∈ S(IR) par
1 d
(P ψ)(x) = ψ(x) . (6.53)
i dx
Alors l’équation aux valeurs propres
1 d
− p)ψp (x) = 0
( (6.54)
i dx

possède les solutions ψp (x) = (1/ 2π)eipx /∈ S(IR). On introduit ces solutions dans un
produit scalaire représenté par la transformée de Fourier
Z +∞
lp [ϕ] = ψp∗ (x)ϕ(x)dx = (ψp , ϕ) (6.55)
−∞
5
Cette section fait référence à l’article de F. Gieres, quant-ph/9907069.

64
qui définit aussi une distribution tempérée

lp [ϕ] = ϕ(p)
b . (6.56)

Alors, de la définition (6.55) de lp , on tire la relation

(P lp )[ϕ] = (P ψp , ϕ) = p(ψp , ϕ) = p lp [ϕ] (6.57)

et l’équation aux valeurs propres


h i
(P − p)lp [ϕ] = 0 (6.58)

qui pour tout ϕ ∈ S(IR) possède une solution non-triviale lp ∈ S 0 (IR).

Les exemples des opérateurs de position et d’impulsion mettent en évidence le rôle des
trois ensembles qui constituent le triplet de Gelfand ou triade hilbertienne

S(IR) ⊂ L2 (IR) ⊂ S 0 (IR) . (6.59)

On parle souvent d’espace de Hilbert équipé (rigged Hilbert space). Les distributions
tempérées telles que la distribution de Dirac ou la transformée de Fourier vont nous
permettre d’interpréter tous les états de la mécanique quantique.

6.5 Espace des états et notation de Dirac


Les espaces de Hilbert L2 (U ) et l2 sont les espaces typiques de la mécanique quan-
tique. Dans sa formulation générale, la théorie quantique utilise plus volontiers des états
quantiques appartenant à un espace de Hilbert abstrait H que nous allons définir grâce
à la notation ”bra-(c)ket” introduite par Dirac. On considère un espace de Hilbert H
séparable, constitué d’éléments notés |ψi et appelés ket. A tout élément |ψi ∈ H, on
associe la forme linéaire hψ| ∈ H∗ appelée bra et définie par le produit scalaire (bracket)
³ ´
hψ|ϕi = |ψi, |ϕi . (6.60)

Réciproquement, le théorème de Riesz (3.20) permet de faire correspondre à toute forme


linéaire continue ou bra hψ| ∈ H∗ un ket |ψi ∈ H uniquement déterminé par le produit
scalaire hψ|ϕi pour tout |ϕi ∈ H. On en déduit la correspondance biunivoque

H 3 |ψi ←→ hψ| ∈ H∗ (6.61)

qui revient à identifier les espaces H et H∗ . Attention, cette correspondance qui utilise le
théorème de Riesz n’est pas valable pour tous les vecteurs de la mécanique quantique (voir
triplet de Gelfand dans la section 6.4). La base de Hilbert de H est définie par l’ensemble
n . o
|ni hm|ni = δmn n, m ∈ IN (6.62)

qui permet le développement de Fourier généralisé



X
|ϕi = hn|ϕi |ni . (6.63)
n=0

65
P∞
La relation de fermeture hψ|ϕi = n=0 hψ|nihn|ϕi peut être notée symboliquement

X
|nihn| = 1 (6.64)
n=0

et avec la définition de la norme kϕk2 = hϕ|ϕi , la relation de Parseval s’écrit



X
kϕk2 = |hn|ϕi|2 . (6.65)
n=0

Le produit tensoriel de deux espaces de Hilbert engendre un espace de Hilbert dont le


produit scalaire est donné par les produits scalaires dans chaque espace
¯
hj| ⊗ hk ¯¯ mi ⊗ |ni = hj|mihk|ni = δjm δkn . (6.66)

L’opérateur linéaire A défini sur D(A) dense dans H est interprété comme l’application
qui à tout ket |ψi fait correspondre le nouveau ket A|ψi

A : |ψi 7−→ A|ψi . (6.67)

Dans un bracket, cette notation doit être comprise comme une composition d’opérateurs
³ ´
hϕ|A|ψi = hϕ| A|ψi . (6.68)

On applique d’abord l’opérateur A sur |ψi, puis on agit avec la forme linéaire hϕ| pour
constituer le produit scalaire. Alors, l’espérance mathématique s’écrit
³ ´
hϕ|A|ψi = |ϕi, A|ψi . (6.69)

Pour définir comme dans (3.22) l’adjoint de A, on effectue les opérations suivantes
³ ´ ³ ´ ³ ´∗
hϕ|A|ψi = |ϕi, A|ψi = A† |ϕi, |ψi = |ψi, A† |ϕi = hψ|A† |ϕi∗ . (6.70)

Ainsi, en notation de Dirac, l’adjoint A† est défini par6

hϕ|A|ψi = hψ|A† |ϕi∗ . (6.71)

On dira que A est hermitien (autoajoint) si

hϕ|A|ψi = hψ|A|ϕi∗ . (6.72)

La notation de Dirac permet de donner au calcul une structure visuelle simple, comme
par exemple l’insertion de la relation de fermeture (6.64). Il faut cependant se garder de
toute utilisation abusive. La manière la plus simple de contrôler cette notation consiste à
toujours se référer aux correspondances
³ ´
hϕ|ψi = |ϕi, |ψi (6.73)
³ ´
hϕ|A|ψi = hϕ| A|ψi . (6.74)
6
On obtient ainsi une correspondance directe ente le ket A|ψi le bra hψ|A† .

66
En utilisant l’espace des distributions S 0 (IR), il est possible d’interpréter les h...| de
Dirac qui n’appartiennent pas à H∗ . En fait, les distributions tempérées Dx , lp ∈ S 0 (IR)
définies dans la section 6.4 sont des formes linéaires

hx| ≡ Dx (6.75)
hp| ≡ lp (6.76)

qui permettent de définir un bracket et de retrouver, grâce aux distributions tempérées


(6.50) et (6.56), les fonctions de carré intégrables ϕ, ϕb ∈ L2 (U )

hx|ϕi ≡ Dx [ϕ] = ϕ(x) (6.77)


hp|ϕi ≡ lp [ϕ] = ϕ(p)
b . (6.78)

Avec ces notations, les définitions (6.48) et (6.53) des opérateurs Q et P donnent
³ ´
hx|Q|ϕi = hx| Q|ϕi = (Qϕ)(x) = xϕ(x) (6.79)
³
d
´ 1ddϕ
hp|P |ϕi = hp| P |ϕi = (P ϕ)(p) = ( )(p) = pϕ(p)
b . (6.80)
i dx
Avec le bra hx|, on obtient en particulier
1 d
hx|P |ϕi = (P ϕ)(x) = ϕ(x) . (6.81)
i dx
Les kets correspondants aux bras définis par (6.75) et (6.76) seront employés comme
n’importe quel élément de H. On obtient cette correspondance en considérant l’expression

hϕ|Q|xi = hx|Q|ϕi∗ = (Qϕ)(x)∗ = xϕ(x)∗ = xhx|ϕi∗ = xhϕ|xi (6.82)

et de même pour l’opérateur P . Comme (6.82) est valable pour tout bra hϕ|, on en déduit
les équations aux valeurs propres

Q|xi = x|xi (6.83)


P |pi = p|pi (6.84)

qui définissent les kets propres |xi et |pi comme une base continue. On peut ainsi écrire
les relations de fermeture
Z Z
dx0 |x0 ihx0 | = 1 dp0 |p0 ihp0 | = 1 . (6.85)
IR IR

Alors, la fonctionnelle de Dirac


Z Z
ϕ(x) = hx|ϕi = dx0 hx|x0 ihx0 |ϕi = dx0 hx|x0 iϕ(x0 ) (6.86)
IR IR

qui a tout ϕ fait correspondre la valeur ϕ(x) conduit à la relation d’orthogonalité

hx|x0 i = δ(x − x0 ) . (6.87)

De même, la fonctionnelle de Dirac


Z Z
0 0 0
ϕ(p)
b = hp|ϕi = dp hp|p ihp |ϕi = dp0 hp|p0 iϕ(p
b 0) (6.88)
IR IR

67
qui à tout ϕb fait correspondre la valeur ϕ(p)
b conduit à la relation d’orthogonalité

hp|p0 i = δ(p − p0 ) . (6.89)

De plus, la relation de fermeture (6.85) fournit l’expression


Z Z
ϕ(p)
b = hp|ϕi = dx hp|xihx|ϕi = dx hp|xiϕ(x) (6.90)
IR IR

qui correspond à la transformée de Fourier de la fonction ϕ(x). Par comparaison avec la


définition (5.9), on en tire l’onde plane
1
hp|xi = √ e−ipx . (6.91)

Enfin, les développements de Fourier généralisés dans les bases de kets propres s’écrivent
Z Z
|ϕi = dx0 |x0 ihx0 |ϕi = dx0 ϕ(x0 )|x0 i (6.92)
IR IR
Z Z
|ϕi = dp0 |p0 ihp0 |ϕi = dp0 ϕ(p
b 0 )|p0 i . (6.93)
IR IR

À l’aide des relations données dans cette section et en utilisant les équations aux valeurs
propres Q|xi = x|xi, P |pi = p|pi, on montre (exercice) que l’opérateur P 2 + V (Q), où V
est une fonction analytique, peut s’écrire
¯ ¯ h d2 i
hx¯¯P 2 + V (Q)¯¯ϕi = − + V (x) ϕ(x) . (6.94)
dx2

68
Chapitre 7

Fonctions de Green

7.1 Introduction : dérivées d’une fonction de Green


Comme on l’a vu dans l’exemple (4.27), la solution de l’équation différentielle
−u00 (x) = f (x) (7.1)
soumise aux conditions limites u(0) = 0 = u(`) peut être écrite sous la forme d’une
intégrale Z `
u(x) = G(x, ξ)f (ξ) dξ (7.2)
0
où la fonction de Green G(x, ξ) relative à l’opérateur (Su)(x) = −u00 (x) est donnée par
l’expression (
x(1 − ξ/`) x ∈ [0, ξ)
G(x, ξ) = (7.3)
ξ(1 − x/`) x ∈ [ξ, `] .
La dérivée première de cette fonction
(
0 1 − ξ/` x ∈ [0, ξ)
G (x, ξ) =
−ξ/` x ∈ [ξ, `]
possède un saut −1 au point x = ξ. De plus, en se référant à la dérivée de la fonction de
Heaviside (6.37), on voit que la dérivée seconde de G vaut
G00 (x, ξ) = −δ(x − ξ) . (7.4)
Ainsi, la dérivée seconde de la fonction de Green n’est plus une fonction mais une distri-
bution de Dirac. On vérifie aussi que u(x) donné par (7.2) est bien une solution de (7.1).
Dans la suite de ce chapitre, nous utiliserons cette propriété de la dérivée seconde pour
définir de manière générale les fonctions de Green. Nous allons aussi considérer certaines
équations de la physique et les résoudre à l’aide des fonctions de Green.

7.2 Fonction de Green relative à l’opérateur


de Sturm-Liouville
La technique de résolution des équations différentielles à l’aide des fonctions de Green
peut s’appliquer d’abord à l’opérateur de Sturm-Liouville déjà rencontré en (4.3).

69
a) Fonction de Green relative à l’opérateur d2 /dx2
La fonction de Green relative à l’opérateur de Sturm-Liouville (Su)(x) = −u00 (x)
a déjà été calculée dans l’exemple (4.8). Ici, nous reprenons le problème sous une autre
forme, i.e. sans passer par les valeurs propres qui d’ailleurs n’existent pas pour l’opérateur
dérivée seconde positif et soumis aux conditions de bord habituelles. Pour x ∈ [a, b], on
considère l’équation différentielle linéaire
u00 (x) = f (x) (7.5)
soumise aux conditions limites u(a) = 0 = u(b). On résout cette équation1 , en admettant
d’abord que la partie inhomogène de (7.5) n’agit qu’en un point x = ξ. Ainsi la fonction de
répartition peut être définie par la fonction généralisée f (x) = δ(x − ξ) que l’on interprète
de la manière suivante : δ(x − ξ) = 0 pour x 6= ξ et δ(x − ξ) 6= 0 pour x = ξ. Dans ce
cas, l’équation (7.5) devient G00 (x, ξ) = δ(x − ξ) et reste soumise aux conditions de bord
G(a, ξ) = 0 = G(b, ξ).
d2
Déf. 7.1 La fonction de Green relative à l’opérateur dx2
est la fonction G(x, ξ) solution
de l’équation
G00 (x, ξ) = δ(x − ξ) (7.6)
et telle que
a) G(x, ξ) continue en x = ξ
b) G(x, ξ) satisfait les conditions limites homogènes G(a, ξ) = 0 = G(b, ξ) .
Alors, on voit que la solution de (7.5) est fournie par l’intégrale
Z b
u(x) = G(x, ξ)f (ξ) dξ , (7.7)
a

puisque le calcul de sa deuxième dérivée donne


Z b Z b
u00 (x) = G00 (x, ξ)f (ξ) dξ = δ(x − ξ)f (ξ) dξ = f (x) . (7.8)
a a

Les conditions aux bords u(a) = 0 = u(b) sont aussi satisfaites. Résoudre l’équation (7.5)
revient donc à déterminer la fonction de Green définie par l’équation (7.6) et à effectuer
l’intégration (7.7). Une manière simple de construire G(x, ξ) consiste à distinguer les deux
régions définies par les valeurs de x ∈ [a, b] qui se situent au-dessous et au-dessus de ξ.
L’intégration de la deuxième dérivée de G(x, ξ) fournit des droites qui par application des
conditions limites donnent les deux solutions
x < ξ, G00 (x, ξ) = 0 et G(a, ξ) = 0 =⇒ G(x, ξ) = α(x − a) (7.9)
x > ξ, G00 (x, ξ) = 0 et G(b, ξ) = 0 =⇒ G(x, ξ) = β(x − b) . (7.10)
Les coefficients α et β sont à déterminer à l’aide de la condition de continuité de la fonction
de Green au point x = ξ qui donne
α(ξ − a) = β(ξ − b) (7.11)
1
Contrairement au problème (4.8), seule la solution triviale u = 0 satisfait√les conditions aux
√ limites
homogènes. En effet, l’équation u00 = λu possède la solution u(x) = A exp( λx) + B exp(− λx). Les
conditions u(a) = 0 = u(b) entraı̂nent A = 0 = B.

70
et de la propriété de la dérivée seconde de la distribution de Dirac
Z b
G00 (x, ξ)ϕ(x) dx = ϕ(ξ) .
a

Pour cette dernière équation, une intégration par parties donne la relation
Z b ¯b Z b
G00 (x, ξ)ϕ(x) dx = G0 (x, ξ)ϕ(x)¯¯ − G0 (x, ξ)ϕ0 (x) dx
a a a

où le premier terme du membre de droite s’annule pour ϕ ∈ S([a, b]). Alors, avec la
fonction de Green (7.10) dont la dérivée première vaut
(
0 α si x < ξ
G (x, ξ) =
β si x > ξ ,

le calcul de l’intégrale fournit l’expression


Z b
ϕ(ξ) = G00 (x, ξ)ϕ(x) dx
a
Z b
= − G0 (x, ξ)ϕ0 (x) dx
a
Z ξ Z b
0
= −α ϕ (x) dx − β ϕ0 (x) dx = −(α − β)ϕ(ξ)
a ξ

d’où l’on tire la relation


(α − β) = −1 . (7.12)
Cette dernière équation couplée à (7.11) fixe les coefficients

ξ−b ξ−a
α= β= . (7.13)
b−a b−a
Finalement la fonction de Green (7.10) devient
( 1
b−a
(x − a)(ξ − b) si x ∈ [a, ξ)
G(x, ξ) = 1 (7.14)
b−a
(x − b)(ξ − a) si x ∈ (ξ, b]

et satisfait la condition G(x, ξ) = G(ξ, x). Pour a = 0 et b = `, on retrouve la fonction de


Green (4.31) au signe près, comme il se doit. Finalement la solution générale du problème
(7.5) est donnée par

x−aZ x x−bZ b
u(x) = (ξ − b)f (ξ) dξ + (ξ − a)f (ξ) dξ . (7.15)
b−a a b−a x
On peut aussi calculer la fonction de Green en prenant la transformée de Fourier des
deux membres de l’équation (7.6). Puis on applique les conditions limites comme ci-
dessus. Cette technique sera utilisée sytématiquement pour la résolution des équations
que nous rencontrerons plus loin. Pour l’instant, nous allons traiter le problème général
de la fonction de Green de l’opérateur de Sturm-Liouville en utilisant plus ou moins la
même démarche que ci-dessus.

71
b) Fonction de Green relative à l’opérateur (Su)(x) = −[p(x)u0 (x)]0 + q(x)u(x)
On considère le problème plus général de Sturm-Liouville défini par l’équation

−[p(x)u0 (x)]0 + q(x)u(x) = f (x) , x ∈ [a, b] (7.16)

soumise aux conditions limites homogènes

La u ≡ A1 u(a) + A2 u0 (a) = 0 (7.17)


Lb u ≡ B1 u(b) + B2 u0 (b) = 0 . (7.18)

Toute équation différentielle linéaire du 2ème ordre peut être mise sous cette forme. On
retrouve (4.3) pour q(x) −→ q(x) − λr(x).
Déf. 7.2 La fonction de Green relative à l’opérateur de Sturm-Liouville est la fonction
G(x, ξ) solution de l’équation

−[p(x)G0 (x, ξ)]0 + q(x)G(x, ξ) = δ(x − ξ) (7.19)

et telle que

a) G(x, ξ) est continue en x = ξ


b) G(x, ξ) satisfait les conditions limites homogènes La G = 0 = Lb G.

En intégrant l’équation (7.19) entre ξ − ² et ξ + ² pour ² → 0, on montre (exercice) que


la dérivée de la fonction de Green G(x, ξ) a un saut égal à −1/p(ξ) au point x = ξ

G0 (ξ + , ξ) − G0 (ξ − , ξ) = −1/p(ξ) . (7.20)

Si l’on connait les deux solutions indépendantes y1 (x) et y2 (x) de l’équation (7.19) pour
x 6= ξ, il est possible d’écrire la fonction de Green qui satisfait aux conditions limites
La G = 0 = Lb G sous la forme
(
c1 y1 (x) x ∈ [a, ξ)
G(x, ξ) = (7.21)
c2 y2 (x) x ∈ (ξ, b] .

En effet, comme les coefficients Aj , Bj ∈ IR sont non triviaux, les conditions limites
homogènes appliquées à y1 (x), y2 (x) et G(x, ξ) fournissent les deux déterminants

y1 (a)G0 (a, ξ) − y10 (a)G(a, ξ) = 0


y2 (b)G0 (b, ξ) − y20 (b)G(b, ξ) = 0

qui montrent la dépendance linéaire des fonctions y1 et G respectivement y2 et G. Cette


dépendance linéaire est valable non seulement aux bornes a et b, mais aussi pour tout x
puisque y1 (x), y2 (x) et G(x, ξ) satisfont la même équation différentielle homogène. D’où
(7.21). La continuité de G et la discontinuité de G0 en x = ξ nous conduisent au sytème
d’équations linéaires

c1 y1 (ξ) − c2 y2 (ξ) = 0
1
c1 y10 (ξ) − c2 y20 (ξ) = (7.22)
p(ξ)

72
qui possède une solution unique si le déterminant de Wronski2

W (ξ) = y1 (ξ)y20 (ξ) − y2 (ξ)y10 (ξ) (7.23)

est différent de 0. Cette condition est remplie pour autant que les solutions y1 (x) et y2 (x)
ne satisfont pas simultanément les conditions limites. La résolution du système (7.22)
fournit la fonction de Green unique
(
1 y2 (ξ)y1 (x) x ∈ [a, ξ)
G(x, ξ) = − (7.24)
p(ξ)W (ξ) y1 (ξ)y2 (x) x ∈ (ξ, b] .

A l’aide de l’équation (7.16) homogène, on vérifie facilement que p(ξ)W (ξ) est indépendant
de ξ. Finalement la solution générale de l’équation de Sturm-Liouville est donnée par
l’intégrale Z b
u(x) = G(x, ξ)f (ξ) dξ , (7.25)
a
comme on peut le voir en calculant la dérivée première et la dérivées seconde de la fonction
Z x Z b
u(x) = G(x, ξ)f (ξ) dξ + G(x, ξ)f (ξ) dξ .
a x

d 2
2
Exemple : Fonction de Green relative à l’opérateur de Sturm-Liouville −( dx 2 + k )

Soit l’équation différentielle

u00 (x) + k 2 u(x) = f (x) (7.26)

soumise aux conditions limites u(0) = 0 = u(`). Les solutions indépendantes satis-
faisant respectivement les conditions limites homogènes à gauche et à droite sont

y1 (x) = sin kx
y2 (x) = sin k(` − x) .

D’où la fonction de Green


(
1 sin k(` − ξ) sin kx x ∈ [0, ξ)
G(x, ξ) = (7.27)
k sin k` sin kξ sin k(` − x) x ∈ (ξ, `] .

En écrivant la série de Fourier qui correspond à cette fonction, on retrouve la fonction


de Green (4.36) calculée par la méthode des fonction propres.

7.3 Fonctions de Green relatives à ∇2 et à 2


Après avoir analysé dans le détail les fonctions de Green de l’opérateur de Sturm-
Liouville, nous allons passé dans IR3 et établir les fonctions de Green relatives aux
opérateurs de Laplace ∇2 et de d’Alembert 2. Ces fonctions de Green permettent d’écrire
les solutions d’équations linéaires sous la forme d’une intégrale. Nous traiterons ci-après
quelques équations bien connues.
2
Attention, le déterminant de (7.22) est égal à −W (ξ).

73
7.3.1 Fonction de Green relative à l’opérateur de Laplace
L’équation de Poisson3 est une équation différentielle linéaire aux dérivées partielles

∇2 φ(r) = f (r) (7.28)

où la fonction f ∈ S(IR) est donnée. Nous voulons déterminer la fonction φ(r) en tout point
de l’espace. Pour le faire, on définit la fonction de Green G(r − r0 ) relative à l’opérateur
de Laplace ∇2 par l’équation de distribution4

∇2 G(r − r0 ) = −4πδ(r − r0 ) . (7.29)

Alors, comme on peut le vérifier aisément, la solution de l’équation (7.28) est donnée par
l’intégrale
1 Z
Φ(r) = − G(r − r0 )f (r0 ) d3 r0 (7.30)

qui peut être calculée si l’on connaı̂t G(r − r0 ). On détermine G(r − r0 ) en prenant la
transformée de Fourier de chaque membre de (7.29) pour aboutir à l’équation

∇d b
2 G(p) = −4π δ(p). (7.31)

En introduisant la formule (5.12) de la transformée de Fourier5 d’une dérivée et la trans-


formée de Fourier de la fonction de Dirac, on obtient

b 4π
(ip)2 G(p) =− . (7.32)
(2π)3/2

Ainsi, la fonction de Green G est donnée par


1 Z ip·(r−r0 ) 3 4π Z 1 ip·(r−r0 ) 3
G(r − r0 ) = G(p) e d p = e dp. (7.33)
(2π)3/2 (2π)3 p2

On peut calculer cette intégrale en choisissant un système d’axes pz k (r − r0 ) de telle


manière que l’angle entre le vecteur d’intégration p et le vecteur r − r0 corresponde à
l’angle ϑ des coordonnées sphériques. Avec d3 p = p2 sin ϑ dpdϑdϕ, l’intégration donne6

0 4π Z ∞ 2 1 Z −1 ip|r−r0 |x
G(|r − r |) = 2π p dp 2 e (−dx)
(2π)3 0 p +1
4π Z ∞ 2 1 sin(p|r − r |)
0
= 4πp dp
(2π)3 0 p2 p|r − r0 |
Z ∞
2 sin u 2 π
= du = . (7.34)
π|r − r0 | 0 u π|r − r0 | 2
3
L’équation de Poisson ∇2 φ(r) = −4πGρ(r) relie, par exemple, le potentiel de gravitation φ(r) à la
densité de matière ρ(r) et aussi le potentiel électrostatique à la densité de charge ∇2 φ(r) = −ρ(r)/²0 .
4
Le facteur −4π est purement conventionnel. On pourrait aussi définir la fonction de Green par
l’équation ∇2 G(r − r0 ) = δ(r − r0 ).
5
Il s’agit ici de la transformée de Fourier à trois dimensions où le facteur de normalisation vaut (2π)−3/2
et où l’exposantR est donné par le produit scalaire ip · (r − r0 ).

6
L’intégrale 0 sinu u du = π/2 peut être calculée (exercice) par une intégration sur un chemin décrit
par une demi-couronne dans le plan complexe.

74
D’où l’on tire la fonction de Green de l’opérateur de Laplace
1
G(|r − r0 |) = , (7.35)
|r − r0 |
déja calculée en (6.23), ainsi que la solution bien connue de l’équation de Poisson
1 Z f (r0 ) 3 0
Φ(r) = − dr . (7.36)
4π |r − r0 |

7.3.2 Problème de Dirichlet (Méthode des charges images)


Nous avons déterminé la fonction de Green de l’équation (7.29). Il est naturel de
discuter les solutions de cette même équation

∇2 G(r − r0 ) = −4πδ(r − r0 ) (7.37)

lorsqu’elle est soumise à des conditions de bord sur une surface fermée ∂V . Pour cela, on
se réfère au problème de Dirichlet7 qui consiste à trouver une solution régulière de

∇2 φ(r) = 0 (7.38)

à l’extérieur de ∂V en exigeant une valeur fixe pour φ|∂V . On peut montrer que si une
telle solution existe, elle est unique.

R α
r0
O r’0

Fig. 7.1 – Surface sphérique ∂B pour le problème de Dirichlet

Considérons la situation décrite par FIG. 7.1 où le point r est placé à l’extérieur de la
sphère ∂B de rayon R. On veut trouver une solution G(r − r0 ) de (7.37) qui satisfait la
condition de bord
G(R − r0 ) = 0 . (7.39)
A l’extérieur de ∂B, Dirichlet nous assure qu’il existe une solution régulière unique de
(7.38) qui, en vertu de (7.35), peut s’écrire
1
φ(r) = r00 ∈ ∂V . (7.40)
|r − r00 |
Alors, la solution de l’équation linéaire (7.37) en présence de ∂B est donnée par la com-
binaison linéaire
1 a
G(r − r0 ) = + (7.41)
|r − r0 | |r − r00 |
7
Le problème de Neumann est analogue sauf que les conditions limites sont appliquées à la dérivée de
la solution de l’équation de Laplace.

75
de coefficient a. On choisit r00 = b r0 (dans la même direction que r0 ) afin que la solution
recherchée ne dépende que des deux vecteurs r et r0 . Les constantes a et b doivent être
déterminées par la condition de bord (7.39) qui prend la forme explicite

a|R − r0 | = −|R − br0 | . (7.42)

En notant α l’angle entre r et r0 et en explicitant les normes, on obtient la relation


v s
u · ¸2 · ¸2
u R R r0 r0
t
a r0 1+ −2 cos α = − R 1 + b −2 b cos α (7.43)
r0 r0 R R

qui est vérifiée pour


R R2
a=− b= . (7.44)
r0 r02
Finalement, la solution de l’équation (7.37) telle que G(R − r0 ) = 0 vaut

1 R/r0
G(r − r0 ) = − . (7.45)
|r − r0 | |r − Rr22 r0 |
0

Cette solution8 peut être utilisée pour déterminer le potentiel de deux charges ponctuelles
q et q 0 . La charge q donnée est située à l’extérieur de la sphère à une distance r0 de
l’origine. La charge q 0 = −qR/r0 située à l’intérieur à une distance r00 = R2 /r0 représente
l’effet de charge global de la sphère conductrice et peut être interprétée comme une charge
ponctuelle image. On parle de la méthode des charges images qui est une démarche très
pratique pour étudier l’interaction électrostatique des systèmes constitués d’une charge
ponctuelle en présence d’un milieu matériel à géométrie simple.
8
Cette solution de l’équation (7.37) avec conditions limites permet de résoudre un problème standard
de l’électrostatique : trouver le potentiel Φ(r) d’une charge ponctuelle q située en r0 à l’extérieur d’une
sphère métallique de rayon R. La sphère conductrice est mise à terre afin de maintenir le potentiel
Φ(R) = 0 sur sa surface ∂B. Les relations (7.30) et (7.45) fournissent la solution
 
q  1 R/r0 
Φ(r) = −
4πε0 |r − r0 | |r − Rr22 r0 |
0
 
q  1 R/r0 
=  −³ ´1/2 
4πε0 (r2 + r − 2rr0 cos α)1/2
2 R4 2
0 r2 + r02
− 2 Rr0 r cos α

telle que Φ(R) = 0. La connaissance du potentiel Φ(r) est l’élément déterminant pour calculer les autres
grandeurs physiques. On pourrait, par exemple, calculer le champ électrique E = −∇Φ ainsi que la force
de Coulomb F = eE. On peut aussi déterminer la charge de polarisation ω induite sur la sphère. En effet,
la condition de continuité du déplacement électrique D au bord ∂B est donnée par (D1 − D2 ) · n = 0
où n est la normale extérieur à la sphère ∂B. Comme D1 = 0 à l’intérieur d’une sphère métalique, on
obtient la relation D2 · n = (ε0 E + P) · n = 0 où P est la polarisation. Alors, la charge de polarisation ω
induite sur la sphère vaut

∂Φ ¯¯ q R (1 − R2 /r02 )
ω ≡ −P · n|R = ε0 E · n|R = −ε0 ¯ =− 2 ³ ´3/2 .
∂r R 4πR r0 R 2 R
1 + ( r0 ) − 2 r0 cos α

76
7.3.3 Fonction de Green de l’équation de Helmholtz
L’équation de Helmholtz qui décrit la diffusion quantique de particules s’écrit
h i
∇2 + k 2 − W (r) ψ(r) = 0 . (7.46)

Les grandeurs k et W (r) sont données9 . L’équation (7.46) peut aussi prendre la forme
h i
∇2 + k 2 ψ(r) = W (r)ψ(r) . (7.47)

En considérant la fonction de Green G(|r − r0 |) relative à l’opérateur10 ∇2 + k 2 et définie


par l’équation h i
∇2 + k 2 G(|r − r0 |) = δ(r − r0 ) , (7.48)
on peut déterminer la solution de (7.46) par un calcul itératif à l’aide de l’équation
l’intégrale Z
ψ(r) = ψ0 (r) + G(|r − r0 |)W (r0 )ψ(r0 )d3 r0 . (7.49)

La fonction ψ0 (r) est solution de l’équation homogène


h i
∇2 + k 2 ψ0 (r) = 0 . (7.50)

On amorce le calcul itératif avec la fonction ψ0 (r) pour aboutir à la série


Z
ψ(r) = ψ0 (r) + d3 r0 G(|r − r0 |)W (r0 )ψ0 (r0 )
Z Z
+ d3 r0 G(|r − r0 |)W (r0 ) d3 r00 G(|r0 − r00 |)W (r00 )ψ0 (r00 ) + · · · (7.51)

La fonction de Green est déterminée de la même manière que précédemment en prenant


les transformée de Fourier de l’équation (7.48). On obtient

1 Z 3 eip·(r−r )
0
0
G(|r − r |) = dp 2 . (7.52)
(2π)3 k − p2

Cette intégrale n’existe que pour des domaines de définition qu’il convient de préciser. On
peut d’abord procéder à l’intégration sur les angles. Pour l’intégration de la partie angu-
laire d3 p = p2 dpdΩ = p2 sin ϑdpdϑdϕ, on choisit l’orientation du système de coordonnées
de telle manière que l’angle entre p et R = (r−r0 ) corresponde à l’angle ϑ des coordonnées
sphériques. Pour le faire, il suffit de choisir la coordonnée d’intégration pz k R. Le calcul
donne Z +∞
1 eipR
G(R) = dp p . (7.53)
(2π)2 iR −∞ k2 − p2
L’intégrant ci-dessus possède deux pôles en

p = ±k .
9
Dans le cas de l’équation de la diffusion quantique, on introduit l’énergie E et le potentiel V (r) par
les relations k 2 = 2mE/h̄2 et W (r) = 2mV (r)/h̄2 .
10
L’opérateur ∇2 + k 2 possède un inverse qui n’est pas borné. En vertu de la définition (3.32), il
représente l’exemple type d’un opérateur à spectre continu.

77
On évite ces pôles en passant d’une intégrale sur l’axe réel à une intégrale sur un chemin
fermé dans le plan complexe grâce au lemme de Jordan11 . On doit distinguer les quatre
choix de chemins illustrés sur FIG. 7.2. Alors le théorème des résidus12 donne (exercice)

G1 (R) = 0 (7.54)
1 h i
G2 (R) = − eikR + e−ikR (7.55)
4πR
1
G3 (R) = − e−ikR (7.56)
4πR
1
G4 (R) = − e+ikR . (7.57)
4πR
On pourrait aussi considérer la valeur principale
" #
1 1 Z −k−² p eipR Z +k−²
p eipR Z +∞
p eipR
P [G] = lim dp 2 + dp 2 + dp 2 . (7.58)
²→0 4π iR −∞ k − p2 −k+² k − p2 +k+² k − p2
Ce choix n’apporte rien de nouveau puisqu’il correspond à une combinaison des chemins
3) et 4).

. . . . . . . .
1) 2) 3) 4)

Fig. 7.2 – Choix de chemins possibles

Le choix d’un chemin d’intégration doit être fixé. En théorie de la diffusion quantique, on
exige par exemple que la grandeur 1i (ψ ∗ ∇ψ − ψ∇ψ ∗ ) qui définit le courant de probabilité
11
Lemme de Jordan :
Soit f (z) une fonction complexe telle que |f (z)| −→ 0 pour |z| −→ ∞. Alors
Z
dz eiλz f (z) −→ 0 pour R → ∞ et λ > 0

Z
dz eiλz f (z) −→ 0 pour R → ∞ et λ < 0

où R est le rayon des demi-cercles ∩ et ∪ qui sont tracés respectivement dans le plan complexe supérieur
si λ > 0 et dans le plan complexe inférieur si λ < 0.
12
Théorème des résidus :
Pour une fonction f (z) méromorphe, on a
I X
f (z)dz = 2πi Resf

si l’on parcourt le chemin d’intégration dans le sens inverse des aiguilles d’une montre. Dans le cas où la
fonction f (z) possède une pôle simple en z = z0 , le résidu est donné par la limite

Resf = lim (z − z0 )f (z).


z→z0

78
soit de signe positif. Cette condition d’onde sortante impose le chemin 4) et par conséquent
la fonction de Green
1
G4 (R) ≡ G+ (R) = − eikR . (7.59)
4πR
Alors, l’équation intégrale (7.49), appelée équation de Lippmann-Schwinger, s’écrit

1 Z 3 0 eik|r−r |
0
+
ψ (r) = ψ0 (r) − dr 0
W (r0 )ψ + (r0 ) . (7.60)
4π |r − r |

Très souvent, on manifeste le choix du chemin d’intégration dans le plan complexe en


restant sur l’axe réel, mais en déplaçant les pôles sur l’axe imaginaire. Par exemple, pour
le chemin 4), on déplace les pôles

p = ±(k + i²0 )

d’une portion ²0 → 0+ au-dessus et au-dessous de cet axe, pour obtenir

p2 = k 2 + 2ik²0 − ²02 ' k 2 + i² . (7.61)

Alors, la fontion de Green prend la forme


Z
+ 1 3 eip·R
G (R) = lim d p (7.62)
(2π)3 ²→0+ k 2 − p2 + i²

où le choix du chemin d’intégration est parfaitement défini. On peut aussi définir l’opérateur
de Green
1
G+ = lim+ 2 (7.63)
²→0 (k − h0 + i²)

où l’opérateur h0 satisfait l’équation aux valeurs propres

h0 |pi = p2 |pi . (7.64)

Son application sur le ket |r0 i et l’utilisation de la relation de fermeture fournissent (exer-
cice) la fonction de Green
Z 0
+ 0 1 + 0 3 eip·(r−r )
G (r − r ) ≡ hr|G |r i = lim d p (7.65)
(2π)3 ²→0+ k 2 − p2 + i²

où le bracket (6.91), à trois dimensions, s’écrit


1
hr|pi = eip·r . (7.66)
(2π)3/2

On peut effectuer le même calcul dans l’espace |pi pour obtenir la fonction de Green

+ 0 hp|p0 i
+ 0
G (p − p ) ≡ hp|G |p i = lim+ 2 (7.67)
²→0 k − p02 + i²

où d’après (6.89) hp|p0 i = δ(p − p0 ).

79
7.3.4 Fonctions de Green relative à l’opérateur de d’Alembert
En électrodynamique, le potentiel scalaire Φ(r, t) obéit à l’équation de d’Alembert

2Φ(r, t) = −ρ(r, t)/²0 (7.68)

où ρ représente la densité de charge et 2 est le d’alembertien défini par

1 ∂2
2 = ∇2 − . (7.69)
c2 ∂t2
La fonction de Green G(r − r0 ) relative à l’opérateur 2 est définie par l’équation

2G(r − r0 , t − t0 ) = −4πδ(r − r0 )δ(t − t0 ) . (7.70)

Alors, la solution de l’équation de d’Alembert est donnée par l’intégrale


1 Z 3 0 Z∞ 0
Φ(r, t) = dr dt G(r − r0 , t − t0 ) ρ(r0 , t0 ) , (7.71)
4π²0 −∞

comme on le vérifie facilement par simple substitution dans (7.68). Grâce à la linéarité de
(7.70), on détermine G en prenant les transformées de Fourier de chacun des membres de
l’équation, pour aboutir à
d
2G(p, b
ω) = −4π δ(p) b
δ(ω). (7.72)
À l’aide de la formule (5.12) de la transformée de Fourier d’une dérivée, on obtient la
relation
ω2 b 1 1
i2 (p2 − 2 )G(p, ω) = −4π 3/2
√ (7.73)
c (2π) 2π
qui fournit la fonction de Green dans l’espace p

b c2 1
G(p, ω) = − (7.74)
π ω − c2 p2
2

Ainsi, déterminer G(r − r0 , t − t0 ) revient à calculer la transformée de Fourier

0 01 Z 3 Z b 0 0
G(r − r , t − t ) = 2
d p dω G(p, ω)eip·(r−r ) e−iω(t−t ) . (7.75)
(2π)

Pour des raisons conventionnelles, on choisit le signe moins pour la transformée de Fourier
sur ω et l’on écrit
c2 Z 3 ip·(r−r0 ) Z +∞
0
0 0 e−iω(t−t )
G(r − r , t − t ) = − 3 d p e dω 2
4π −∞ ω − c2 p2
c2 Z 0
= − 3 d3 p eip·(r−r ) I(p) . (7.76)

L’intégrant de I(p) possède des pôles en ω = ±cp et n’est par conséquent pas continu
en tout point de l’axe réel. On peut éviter les pôles en considérant différents chemins
d’intégration que l’on choisit en appliquant les conditions causales ou des conditions limites
fixées par le système physique. Pour calculer les intégrales sur les différents chemins qui
évitent les pôles, on doit passer à une intégrale équivalente dans le plan complexe. Cette

80
opération peut être effectuée grâce au lemme de Jordan13 qui permet de transformer
l’intégrale sur l’axe réel ω en une intégrale équivalente, fermée dans le plan complexe.
Pour l’intégrant de I(p) (7.76) qui possède des pôles en ω = ±cp, FIG. 7.3 illustre deux
choix de contournement des pôle et les deux possibilités de fermer le chemin suivant le
signe de (t − t0 ). Les intégrales dans le plan complexe sont calculées à l’aide du théorème
des résidus14 qui fournit les valeurs :
– si l’on évite les pôles par la gauche comme en a)

 0 ½ ¾ pour (t − t0 ) < 0
I(p) = P e−iω(t−t )
0
 −2πi ω=±cp Res ω 2 −c2 p2
pour (t − t0 ) > 0 .

– si l’on évite les pôles par la droite comme en b)


 ½ ¾
 2πi P
0
e−iω(t−t )
ω=±cp Res ω 2 −c2 p2
pour (t − t0 ) < 0
I(p) = 
0 pour (t − t0 ) > 0 .

(t−t’)<0
. . a)

−cp +cp (t−t’)>0

. .
−cp +cp (t−t’)<0
b)

(t−t’)>0

Fig. 7.3 – Chemins d’intégration

Il existe d’autres choix possible que nous ne voulons pas considérer ici. Dans l’expression
(7.76) de la fonction de Green, l’intégrant a deux pôles en ω = ±pc. Alors, dans le cas du
chemin a), on obtient
" 0 0 #
(ω − pc)e−iω(t−t )
0 (ω + pc)e−iω(t−t )
I(p) = −2πiθ(t − t ) lim + lim
ω→pc ω 2 − p2 c2 ω→−pc ω 2 − p2 c2
" 0 0 #
e−ipc(t−t ) eipc(t−t )
0
= −2πiθ(t − t ) +
2pc −2pc
0
sin [pc(t − t )]
= −2π θ(t − t0 ) , (7.77)
pc

où θ(x) est la fonction de Heaviside. De même, pour le cas b), on obtient

sin[pc(t − t0 )]
I(p) = 2π θ(t0 − t) . (7.78)
pc
13
Voir note de bas de page11
14
Voir note de bas de page12

81
Pour effectuer l’intégration d3 p de (7.76), on place naturellement l’axe d’intégration pz
parallèle à (r − r0 ) de telle manière que l’angle entre p et r − r0 correspond à l’angle ϑ des
coordonnées sphériques. Alors pour le cas (7.77), le calcul donne

−c2 Z ∞ 2
Z π
0
G = 3
2πdp p dϑ sin ϑ eip|r−r | cos ϑ I(p)
4π 0 0
Z ∞ h i
−c2 1 ip|r−r0 | −ip|r−r0 |
= dp p e − e I(p)
2π 2 i|r − r0 | 0
cθ(t − t0 ) Z ∞
= dp 2i sin [p|r − r0 |] sin [pc(t − t0 )]
iπ|r − r0 | 0
cθ(t − t0 ) Z ∞ h 0 0 0 0
i
= dp cos p [|r − r | − c(t − t )] − cos p [|r − r | + c(t − t )] .
π|r − r0 | 0

La forme (6.8) de la fonction de Dirac fournit l’expression


Z ∞
1 Z +∞ 1 Z +∞
dξ cos(ξx) = dξ cos(ξx) = dξ (eiξx + e−iξx ) = πδ(x) (7.79)
0 2 −∞ 4 −∞
qui permet d’écrire explicitement la fonction de Green

cθ(t − t0 ) h ³ 0 0
´ ³
0 0
´i
G= δ |r − r | − c(t − t ) − δ |r − r | + c(t − t ) . (7.80)
|r − r0 |

Finalement, la condition de causalité t − t0 > 0 où le temps t0 de la source est antérieur


au temps t de la mesure nous conduit à la fonction de Green retardée
à !
³ ´ 1 |r − r0 |
0 0
Gret |r − r |, t − t = 0
δ − (t − t0 ) . (7.81)
|r − r | c

On a utilisé la propriété δ(ax) = δ(x)/|a| et le fait que la distribution de Dirac est nulle
pour un argument strictement positif. Le cas b) en découle immédiatement, il suffit de
remplacer t − t0 par t0 − t pour obtenir la fonction de Green avancée. Avec la fonction
de Green (7.81), l’intégration de (7.71) sur dt0 est immédiate et la solution retardée de
l’équation de d’Alembert s’écrit
à !
1 Z 3 0 1 0 |r − r0 |
Φret (r, t) = dr ρ r ,t − . (7.82)
4π²0 |r − r0 | c

Sa forme est la même que dans le cas statique (7.36), mais avec un temps t − |r − r0 |/c
de la source retardé par rapport au temps t de la mesure du champ.

82
Chapitre 8

Variation et dérivée fonctionnelle

8.1 Introduction : fonctions et fonctionnelles


Tout au long de ce cours, nous avons rencontré de nombreux espaces fonctionnels. Le
plus connu est certainement l’espace de Hilbert des fonctions de carré intégrables L2 (IR).
Une autre classe d’espaces fonctionnels importante est constituée par les espaces de
Banach qui sont des espaces vectoriels complets dont la norme n’est pas nécessairement
induite par le produit scalaire. Sur ces espaces notés ci-après E, on peut définir une
fonctionnelle1
F : E −→ IR
f 7−→ F [f ] . (8.1)

Exemples : Fonctionnelles
a) Aux chemins possibles entre deux points dans le plan, on fait correspondre la
fonctionnelle distance de A à B donnée par l’application
Z B
y 7−→ D[y] = ds (8.2)
A

où ds = dx2 + dy 2 . A l’aide de la différentielle dy = y 0 (x)dx, elle peut aussi s’écrire
Z Bq Z xB q
D[y] = dx2 + dy 2 = 1 + y 02 (x) dx. (8.3)
A xA

Cette fonctionnelle fait correspondre à toute courbe y(x) la distance qu’elle parcourt
entre les points A et B dans le plan xy.
b) Aux trajectoires possibles, entre A et B, d’une masse m soumise à la pesanteur, on
fait correspondre le temps nécessaire pour parcourir la trajectoire y(x). Ce temps
est fourni par la fonctionnelle Z B
ds
T [y] = (8.4)
A v

où ds = dx2 + dy 2 et la vitesse v est donnée par la relation d’énergie mv 2 /2 = mgy.
La détermination de la trajectoire parcourue dans un temps minimal a été à l’origine
du calcul des variations2 .
1
Pour bien manifester le caractère de la fonctionnelle, on note l’argument entre des crochets.
2
Le problème du brachistochrone fut posé par Johann Bernoulli en 1696.

83
c) Aux courbes possibles tendues entre deux cercles de rayon a et b centrés en 0 et x0
respectivement, on fait correspondre la fonctionnelle de surface de révolution
Z x0
S[y] = 2π y(x) ds . (8.5)
0

Quelle est la courbe qui engendre la surface de rotation minimale ?


d) Aux trajectoires possibles d’un rayon lumineux dans un milieu d’indice de réfraction
n(r), on fait correspondre la fonctionnelle temps

1Z B
T [r] = n(r)ds (8.6)
c A
où c est la vitesse de la lumière. Quelle est la trajectoire exigeant le temps minimal ?
e) Aux trajectoires possibles d’un système de points matériels en interaction, on fait
correspondre la fonctionnelle d’action
Z t2
S[q] = L(q1 , · · · , qn , q̇1 , · · · , q̇n , t) dt (8.7)
t1

où L est la fonction de Lagrange. Le principe de Hamilton de la mécanique classique


affirme que la trajectoire physique est fournie par le minimum de S[q].

Comment déterminer les fonctions y(x), r(t), q(t) qui fournissent la distance minimale,
le temps minimal, la surface minimale ou l’action minimale ? Dans le cas du chemin entre
deux points dans le plan la réponse est connue, puisque l’on sait, par expérience, que le
plus court chemin est donné par la droite qui les joint. Il n’en est plus de même si l’on
pose la question pour un chemin sur la surface d’une sphère ou sur toute autre surface non
plane. Beaucoup de phénomènes physiques résultent de situations extrémales. Dans le cas
où la grandeur à optimaliser est représentée par une fonction f (x), le point x0 donnant
l’extremum de la fonction est fourni par la solution de l’équation
df
(x0 ) = 0 . (8.8)
dx
Si la grandeur à optimiser est représentée par une fonctionnelle, nous devons déterminer
la dérivée de la fonctionnelle F ou sa variation. A l’extremum, elle fournira non pas un
point, mais une fonction ou plutôt une équation différentielle dont la solution est cette
fonction. Comment définir la différentielle ou la dérivée d’une fonctionnelle ? On le fait par
le calcul des variations qui est le calcul différentiel sur des espaces fonctionnels. Dans ce
cas, on peut dire en mots simples que les variables sont des fonctions et que les fonctions
sont remplacées par des fonctionnelles3 .

3
Dans le même esprit, on définit les intégrales fonctionnelles ou intégrales de chemin
Z
Z= F [f ] Df
E

où l’intégrant est une fonctionnelle et la somme est prise sur des fonctions et non sur des nombres réels
(ou complexes) comme pour les intégrales ordinaires. Cette intégrale ne doit pas être confondue avec
l’intégrale curviligne qui est définie sur une courbe dans l’espace.

84
8.2 Variation par rapport à un paramètre
Dans une première approche du problème, nous simplifions l’analyse en ramenant la
variation à la dérivée d’une fonction par rapport à un paramètre. Pour cela, on rem-
place l’espace des fonctions par une famille de fonctions f (x, ²) x ∈ [x1 , x2 ] indicées
continûment par le paramètre ² ∈ IR et telles que f (x, 0) = f (x). De plus, on prend des
fonctions dont les valeurs sont indépendantes de ² aux extrémités de l’intervalle, à savoir

f (x1 , ²) = f (x1 ) f (x2 , ²) = f (x2 ) (8.9)

pour tout ². Un exemple d’une telle famille est fourni par la famille de paraboles

f (x, ²) = x2 + ²(x − x1 )(x − x2 ) (8.10)

illustrée sur FIG. 8.1. Pour ² ¿ 1, i.e. au voisinage de ² = 0, on peut considérer le


développement de Taylor limité aux termes linéaires4
¯
∂f (x, ²) ¯¯
f (x, ²) = f (x) + ¯ ² + ··· (8.11)
∂² ¯²=0

Déf. 8.1 La variation de f est définie par la différence notée


¯
∂f (x, ²) ¯¯
δf = f (x, ²) − f (x) = ¯ ² (8.12)
∂² ¯²=0

et qui, en raison de (8.9), satisfait aux conditions δf (x1 ) = 0 = δf (x2 ) .

f(x,ε)

f(x,0) = f(x)

x1 x2

Fig. 8.1 – Famille de paraboles f (x, ²)

Il faut bien réaliser que la variation δf traduit un changement de fonction prise dans la
famille et non pas une différence infinitésimale dans l’intervalle des x qui donnerait lieu
à la différentielle df = f 0 (x)dx. On peut passer maintenant à une application importante
du calcul des variations : la détermination du minimum (extremum) de la fonctionnelle
Z x2
I[y] = g(y, y 0 , x)dx (8.13)
x1

où y 0 = dy/dx. Le minimum de la fonctionnelle est donné par la condition

δI = 0 (8.14)
4
En toute précision, on devrait ajouter le reste R(²) ∼ O(²) qui tend vers zéro pour ² → 0.

85
si la deuxième variation est positive. Pour le calcul de δI, on considère la famille de
fonctions y(x, ²) et l’on utilise la définition (8.12) de la variation. L’application de la règle
de dérivation en chaı̂ne donne
Z x2 Z t2 ¯
Z x2 " #
dg ¯ ∂g ∂y ∂g ∂y 0
δI = dx δg = dx ¯¯ ² = dx + 0 ². (8.15)
x1 t1 d² ¯²=0 x1 ∂y ∂² ∂y ∂² ²=0

En raison de la commutativité des dérivées


∂y 0 ¯¯ ∂ 2 y ¯¯ ∂ 2 y ¯¯ d ∂y ¯¯
¯ = ¯ = ¯ = ¯ (8.16)
∂² ²=0 ∂²∂x ²=0 ∂x∂² ²=0 dx ∂² ²=0
et en utilisant la règle de dérivation d’un produit, on obtient l’expression
Z x2 " Ã ! Ã ! #
∂g ∂y d ∂g ∂y d ∂g ∂y
δI = dx + − ²
x1 ∂y ∂² dx ∂y 0 ∂² dx ∂y 0 ∂² ²=0
Z x2 " Ã !# ¯x
∂g d ∂g ∂g ¯ 2
= dx − δy + 0 δy ¯¯ (8.17)
x1 ∂y dx ∂y 0 ∂y ¯x1

où l’on a noté la variation de y


∂y ¯¯
¯ ². δy = (8.18)
∂² ²=0
Le dernier terme s’annule en raison des conditions aux extrémités δy(x1 ) = 0 = δy(x2 ).
La condition d’extremum δI = 0 et l’application du lemme5 fondamental du calcul des
variations nous permettent de déduire l’équation d’Euler-Lagrange
à !
d ∂g ∂g
− =0. (8.19)
dx ∂y 0 ∂y

On vérifie (exercice) que si g(y, y 0 ) ne dépend pas explicitement de x, on a l’équation

∂g
g − y0 = const . (8.20)
∂y 0
Réciproquement, les équations d’Euler-Lagrange impliquent δI = 0. Il suffit pour cela de
remonter le calcul à partir de (8.19). L’action est donnée par la fonctionnelle
Z t2
S[q] = L(q1 , · · · , qn , q̇1 , · · · , q̇n , t) dt (8.21)
t1

où L est la fonction de Lagrange qui dépend des coordonnées généralisées, des vitesses
généralisées et du temps. Les équations de Lagrange résultant de la variation s’écrivent
d ∂L ∂L
− =0 j = 1, · · · , n . (8.22)
dt ∂ q̇j ∂qj

Elles représentent une formulation particulière des équations de Newton.

5
Rb
Lemme fondamental du calcul des variations. Soit f : [a, b] − 7 → IR continue et a f (x)η(x)dx = 0
pour tout η de classe C 1 satisfaisant η(a) = 0 = η(b). Alors on a f (x) = 0 pour tout x .

86
Exemples : Courbes optimales
a) Brachistochrone
Comme on l’a vu en (8.4), le temps utilisé par un point matériel soumis à la gravi-
tation pour parcourir une courbe dans le plan vertical est donné par la fonctionnelle
Z B s
ds 1 Z xB 1 + y 02
T [y] = =√ dx (8.23)
A v 2g xA y

dont l’extremum fournit la courbe optimale. Comme l’intégrant ne dépend pas expli-
citement de x, on peut en vertu de (8.20) remplacer l’équation d’Euler par l’équation
s s
1 + y 02 ∂ 1 + y 02
− y0 =C (8.24)
y ∂y 0 y
qui peut aussi s’écrire
dx2 (1 − C 2 y) = C 2 y dy 2 . (8.25)
On vérifie (exercice) que la solution est donnée par les équations de la cycloı̈de

x = a(ϕ − sin ϕ)
1
y = a(1 − cos ϕ) a= . (8.26)
2C 2
qui est représentée sur FIG. 8.2.
A
x

y 1
0
2a
0

y B

Fig. 8.2 – Demi-cycloı̈de

Il est intéressant de voir que le temps de parcours sur la cycloı̈de est indépendant du
point y0 d’où le mobile est lâché à vitesse nulle. En effet, en utilisant la différentielle
dx = x0 dy et la dérivée de l’inverse x0 = 1/y 0 , on peut exprimer l’intégrale relative-
ment à dy v
Z yB uu x02 + 1
T = t dy . (8.27)
y0 2g(y − y0 )
De (8.25), on déduit la relation
y
x02 = . (8.28)
2a − y
Alors, avec yB = 2a, on obtient l’intégrale
s
a Z 2a dy
T = q . (8.29)
g y0 (y − y0 )(2a − y)

87
Les changements de variables
u
w= u = 2a − y u0 = 2a − y0 (8.30)
u0
conduisent finalement à une intégrale indépendante de y0
s
aZ 1 dw
T = q . (8.31)
g 0 (1 − w)w

b) Principe de Fermat
Dans un milieu d’indice de réfraction n(r), la lumière parcourt le chemin de A à B
dans un temps minimal. La fonctionnelle à minimaliser est donnée par l’expression
Z B
ds c
T = v= (8.32)
A v(r) n(r)

qui avec ds = |ṙ|dt devient


1 Z tB
T = n(r)|ṙ|dt . (8.33)
c tA
En égalant la variation à zéro, on tire (exercices) l’équation des rayons

d dr
[n(r) σ] = ∇n(r) σ= . (8.34)
ds ds
On peut aussi considérer la situation particulière de deux milieux d’indices de
réfraction constants nA et nB , séparés par un plan. Dans ce cas, les chemins parcou-
rus par les rayons incidents et réfractés sont des droites de pentes aA = yA /(xA − x0 )
et aB = yB /(xB − x0 ) respectivement et la fonctionnelle temps (8.32) devient une
fonction du point d’incidence x0
nA Z x0 q 2 n B Z xB q
T (x0 ) = 1 + aA dx + 1 + a2B dx
c xA c x0
nA q nB q
= (x0 − xA )2 + yA2 − (x0 − xB )2 + yB2 . (8.35)
c c
Du minimum donné par la condition
dT
(x0 ) = 0 , (8.36)
dx
on en déduit la loi de la réfraction
sin αA nB
= . (8.37)
sin αB nA
En considérant les rayons incidents et réfléchis, on déduit de même la loi de la
réflexion
αA = αA0 . (8.38)

88
8.3 Variations avec conditions
Parmi les différents problèmes soumis à des conditions supplémentaires, nous allons
discuter les deux situations particulières suivantes :
a) extrémalisation soumise à une contrainte,
b) extrémalisation avec bornes variables.

8.3.1 Variation soumise à une contrainte


La recherche de l’extremum d’une fonction est souvent liée à une contrainte i.e. à une
condition qui lie les variables
√ 2 entre elles. Comme par exemple, la minimalisation de la
fonction distance d = x + y dont l’un des points (x, y) est sur la courbe y = 1 − x2 .
2

Ce problème peut être résolu de trois manières différentes :


– Substituer la condition de contrainte, puis poser la dérivée égale à zéro
– procéder à une différentiation implicite
– Utiliser la méthode des multiplicateurs de Lagrange.
Dans le cadre du calcul de variations, des problèmes semblables sont posés, comme
par exemple le problème isopérimétrique qui consiste à trouver toutes les courbes planes
fermées y(x) de longueur donnée et enfermant
R
la plus grande surface possible. En
R
termes
mathématiques, il s’agit de maximiser y(x)dx en respectant la condition ds = `.
Comme pour les fonctions, on peut montrer que l’extremum de la fonctionnelle
Z x2
I[y] = F (y, y 0 , x)dx (8.39)
x1

dont les variables sont soumise à la contrainte


Z x2
G(y, y 0 , x)dx = const (8.40)
x1

est donné par la variation


Z x2
δ [F (y, y 0 , x) + λG(y, y 0 , x)] dx = 0 (8.41)
x1

où λ est une constante appelée multiplicateur de Lagrange. On en déduit immédia-


tement l’équation d’Euler correspondante
d ∂ ∂
[F + λG] − [F + λG] = 0 . (8.42)
dx ∂y 0 ∂y
La solution y(x) de cette équation soumise aux conditions y(x1 ) = y1 et y(x2 ) = y2
ainsi que la relation de contrainte fournissent trois équations pour la détermination des 2
constantes d’intégration et du paramètre λ de Lagrange.

Exemples : Variations avec contraintes


a) Isopérimètre
De toutes les courbes y(x) de longueur ` données joignant deux points x1 , x2 , trouver
celle qui enferme avec le segment [x1 , x2 ] une aire maximale. La solution de ce
problème revient à trouver les extrema de la fonctionnelle
Z x2
S[y] = y(x)dx (8.43)
x1

89
R
soumise aux conditions xx12 ds = ` et y(x1 ) = 0 = y(x2 ). Alors, l’équation d’Euler
(8.42) relative à la fonction
q
E(y, y 0 ) = y + λ 1 + y 02 (8.44)
s’écrit
d y0
1−λ √ = 0. (8.45)
dx 1 + y 02
On en déduit l’équation
(x + C)2 + (y + C 0 )2 = λ2 (8.46)
où C et C 0 sont les constantes d’intégration. L’équation (8.46) décrit des cercles de
rayon λ tels que celui représenté sur FIG. 8.3

x1 x2 x
Fig. 8.3 – Cercle de rayon λ

b) Fil pesant
On considère un fil homogène obéissant au principe de la statique. On veut déter-
miner la courbe de longueur ` donnée, passant par deux points et dont le centre de
gravité est le plus bas possible. Il s’agit donc de trouver l’extremum de la fonction-
nelle centre de gravité
1 Z x2
G[y] = y ds (8.47)
` x1
R
soumise aux conditions xx12 ds = ` et y(x1 ) = 0 = y(x2 ). La solution (exercice) est
donnée par l’équation de la chaı̂nette.

8.3.2 Variation à bornes variables


Jusqu’à maintenant, on a admis que la variation aux bornes était nulle. Toutefois, il
existe des problèmes où la fonction extrémale ne doit pas être trouvées entre deux points
donnés x1 et x2 , mais plutôt entre un point et une courbe. Soit la fonctionnnelle
Z x2
I[y] = F (y, y 0 , x) dx (8.48)
x1

obéissant aux conditions y(x1 ) = y1 et y(x2 ) sur la courbe ψ(x) donnée. Pour y(x) solution
de l’équation d’Euler, on peut écrire la variation
Z x2 " #
∂F d ∂F ∂F ¯¯x2 ∂I[y]
δI[y] = dx − δy + δy ¯ + δx2 (8.49)
x1 ∂y dx ∂y 0 ∂y 0 x1 ∂x2
où δy s’annule en x1 mais pas en x2 car
∂I[y]
= F (y2 , y20 , x2 ) .
∂x2

90
L’intégrale de (8.49) est nulle puisque y(x) est une solution de l’équation d’Euler. De plus,
comme l’extrémité x2 est variable, on a la variation
dy(x2 , ²) ¯¯
δy2 = ¯ ²
d² ²=0
∂y ∂x2 ¯¯ ∂y ¯¯
= ¯ ²+ ¯ ²
∂x2 ∂² ²=0 ∂² ²=0
dy
= δx2 + δy(x2 ) = y 0 (x2 )δx2 + δy(x2 ) . (8.50)
dx2
Il faut faire la disctinction entre la variation δy2 de l’extrémité y2 et la variation δy(x2 )
de y prise au point x2 . On en déduit l’équation de l’extremum
∂F
δI[y] = δy(x2 ) + F δx2
∂y 0
∂F
= (δy2 − y 0 δx2 ) + F δx2
∂y 0
à !
∂F 0 ∂F
= δy2 + F − y 0 δx2 = 0 (8.51)
∂y 0 ∂y
où toutes les fonctions sont prises au point x2 . Ainsi, dans le cas d’une seule extrémité
fixe, en plus de l’équation d’Euler, on a la condition de transversalité
à !
∂F ∂F
0
δy2 + F − y 0 0 δx2 = 0 . (8.52)
∂y ∂y
Pour une fonction y(x) = ψ(x) en x2 , la variation
dψ ¯¯
δy2 = ¯ δx2
dx x2
fournit la condition " #
0 ∂F 0
F − (y − ψ ) 0 =0. (8.53)
∂y x=x2
Résoudre un problème à extrémité libre revient donc à résoudre l’équation d’Euler et à
utiliser la condition de transversalité (8.53) et les conditions limites pour déterminer le
point x2 et les constantes d’intégration.

Exemple : Plus courte distance d’un point à une droite


La plus courte distance d’un point x1 à une droite ψ(x) dans le plan est donnée par
la fonctionnelle Z x Z xq
D[y] = ds = 1 + y 02 (x0 ) dx0 (8.54)
x1 x1
soumise aux conditions limites
δy(x1 ) = 0 ψ(x) = ax + b . (8.55)
Les constantes a et b et les conditions aux limites y(x1 ) = y1 et y(x2 ) = ψ(x2 ) sont
données. La variation fournit la solution de l’équation d’Euler donnée par la droite
y0
√ = const (8.56)
1 + y 02

91
soumise à la condition de transversalité (8.53) au point x2
q y 02 y0 a
1 + y 02 − √ + √ =0. (8.57)
1 + y 02 1 + y 02
On en déduit que y 0 (x2 ) = −1/a et que par conséquent la droite y(x) est perpendi-
culaire à ψ(x) en x2 , puisque sa pente est égale à −1/a. Les constantes d’intégration
et le point x2 sont déterminés à l’aide des conditions limites et de la condition de
transversalité.

8.4 Dérivée fonctionnelle


Dans les sections précédentes, nous avons simplifié la définition de la variation en
restreignant l’espace fonctionnel à une famille de fonctions indicées par un paramètre ².
Nous allons revenir ici à une définition plus générale et introduire par la même occasion la
définition de la dérivée fonctionnelle. Cette notion fait partie de l’analyse sur les espaces
de Banach E et est souvent appelée dérivée de Fréchet.
Déf. 8.2 On dit que la fonctionnelle F : E −→ IR est dérivable s’il existe une fonction-
nelle linéaire δF appelée variation et telle que
O(h)
F [f + h] − F [f ] − δF [h] = O(h) lim = 0 . (8.58)
khk→0 khk

Jusqu’ici, seule la variation c’est-à-dire la différentielle δF d’une fonctionnelle F a été


considérée. Sur l’espace de Hilbert L2 (U ), par application du théorème de Riesz (3.20),
la fonctionnelle linéaire est donnée par le produit scalaire
Z
δF
δF [h] = (y) h(y) dy . (8.59)
δf
où la dérivée fonctionnelle de F au point y est notée
δF
(y) . (8.60)
δf
La forme intégrale de la variation (8.59) est aussi valable pour tout espace de Banach. On
peut s’en convaincre en discrétisant6 les fonctions f ∈ E.
6
Pour des fonctions f à une ou plusieurs variables, Pn les ∂f
relations entre différentielles et dérivées sont
bien connues et s’écrivent df (h) = f 0 (x)h df (h) = j=1 ∂x j
(x) hj . Au vu de ces formules, on pourrait
aussi définir la dérivée fonctionnelle en discrétisant la variable x i.e. en considérant, comme variables,
les valeurs de la fonction f (x) −→ fj = f (x0 + ja). Alors, la définition de la dérivée d’une fonction de
plusieurs variables fj peut être utilisée grâce à la limite
δF 1 ∂F
(y) = lim
δf a→0 a ∂fj

et l’intégrale devient une somme de Riemann


Z
1 X ∂F δF
δF [h] = lim hj = (y) h(y) dy .
a→0 a ∂fj δf
j

92
Exemples : Dérivées fonctionnelles
Pour des fonctions f définies sur un intervalle I, nous calculons les dérivées de différentes
fonctionnelles rencontrées en physique. Les calculs sont effectués de manière formelle. La
fonction O(h) est soumise à la condition habituelle limkhk→0 O(h)/khk = 0.

a) F [f ] = f (x)
Pour la fonctionnelle identité, la définition de la variation
Z
δF
f (x) + h(x) − f (x) − (y) h(y) dy = O(h)
I δf
donne l’égalité valable pour tout h
Z Z
δF
(y) h(y) dy = h(x) = δ(x − y)h(y)dy + O(h)
I δf I

d’où l’on déduit la dérivée fonctionnelle


δF δf (x)
(y) ≡ = δ(x − y) . (8.61)
δf δf (y)

On remarque que la fonction de Dirac prend la place du symbole de Kronecker utilisé


dans le cas discret. On sait du cours d’analyse que la différentielle de la fonction
identité vaut dx(h) = h. Ici, on constate que la variation de la fonctionnelle identité
vaut δF [h] ≡ δf (x) = h(x). Cette dernière définit le déplacement virtuel que l’on
utilise pour énoncer le principe de d’Alembert.
R
b) F [f ] = I Φ(y)f (y) dy
La définition de la variation
Z Z Z
δF
Φ(y)[f (y) + h(y)] dy − Φ(y)f (y) dy − (y) h(y) dy = O(h)
I I I δf
donne l’égalité valable pour tout h
Z Z
δF
(y) h(y) dy = Φ(y)h(y) dy
I δf I

d’où l’on déduit la dérivée fonctionnelle


δF
(y) = Φ(y) . (8.62)
δf
R ³ ´
c) F [f ] = I F f, y dy
La définition de la variation et un développement limité de F
Z Z Z
δF
F (f + h, y) dy − F (f, y) dy − (y)h(y)dy =
I I I δf
Z Z Z Z
∂F δF
F (f, y) dy + h(y)dy − F (f, y) dy − (y)h(y)dy = O(h)
I I ∂f I I δf

93
montrent que la dérivée fonctionnelle de F est égale à la dérivée partielle de la
fonction F.
δF ∂F
(y) = (y) . (8.63)
δf ∂f
R
d) F [f ] = I V (f (y)) dy
La définition de la variation et un développement limité de V
Z Z Z
δF
V ((f + h)(y))dy − V (f (y))dy − (y) h(y)dy =
I I I δf
Z Z Z Z
0 δF
V (f (y))dy + V (f (y))h(y)dy − V (f (y))dy − (y)h(y)dy = O(h)
I I I I δf
donnent l’égalité valable pour tout h
Z Z
δF
(y) h(y) dy = V 0 (f (y))h(y) dy
I δf I

d’où l’on déduit la dérivée fonctionnelle


δF
(y) = V 0 (f (y)) . (8.64)
δf

R 2
e) F [f ] = I (df /dy) dy
La définition de la variation
Z ³ Z Z
d(f + h) ´2 df 2 δF
dy − ( ) dy − (y) h(y) dy| =
I dy I dy I δf
Z Z Z
df df dh dh
( )2 dy + 2 dy + ( )2 dy
I dy I dy dy I dy
Z Z
df δF
− ( )2 dy − (y) h(y) dy = O(h)
I dy I δf

conduit à l’expression
Z Z Z " #
δF df dh d df d2 f
(y) h(y) dy = 2 dy = 2 dy ( h) − 2 h ,
I δf I dy dy I dy dy dy
où l’on a effectué une intégration par parties et où l’on admet que h s’annule aux
bornes de l’intervalle I. De cette égalité valable pour tout h, on tire la dérivée
fonctionnelle
δF d2 f
(y) = −2 2 (y) . (8.65)
δf dy
R 2 2
f) F [f ] = I (d f /dy ) Φ(y) dy
La définition de la variation
Z Z 2 Z
d2 (f + h) df δF
2
Φ(y) dy − 2
Φ(y) dy − (y) h(y) dy =
I dy I dy I δf
Z 2 Z 2 Z 2 Z
df dh df δF
2
Φ(y) dy + 2
Φ(y) dy − 2
Φ(y) dy − (y) h(y) dy = O(h)
I dy I dy I dy I δf

94
conduit à l’expression
Z Z 2 Z " #
δF dh d dh d dΦ d2 Φ
(y) h(y) dy = Φ(y) dy = dy (Φ ) − ( h) + h ,
I δf I dy 2 I dy dy dy dy dy 2

où l’on a effectué deux intégrations par parties et où l’on admet que h s’annule aux
bornes de l’intervalle I. De cette égalité valable pour tout h, on déduit la dérivée
fonctionnelle
δF d2 Φ(y)
(y) = . (8.66)
δf dy 2
R ³ ´
g) F [f ] = I L f, df /dy, y dy

La définition de la variation et un développement limité de L


Z Ã Z ! Ã Z !
d(f + h) df δF
L f + h, , y dy − L f, , y dy − (y)h(y)dy =
I dy I dy I δf
Z Ã ! Z Z
df ∂L ∂L dh(y)
L f, , y dy + h(y)dy + dy
I dy I ∂f I ∂(df /dy) dy
Z Ã ! Z
df δF
− L f, , y dy − (y)h(y)dy = O(h)
I dy I δf

conduisent à l’expression
Z Z Z
δF ∂L ∂L dh(y)
(y) h(y) dy = h(y) dy + dy
I δf I ∂f I ∂(df /dy) dy
Z Z " #
∂L d ³ ∂L ´ d ³ ∂L ´
= dy h + dy h − h .
I ∂f I dy ∂(df /dy) dy ∂(df /dy)

où l’on a effectué une intégration par parties et où l’on admet que h s’annule aux
bornes de l’intervalle I. De cette égalité valable pour tout h, on en déduit la dérivée
fonctionnelle
δF ∂L d h ∂L i
(y) = − . (8.67)
δf ∂f dy ∂(df /dy)
En égalant à zéro cette dernière dérivée fonctionnelle, on retrouve évidemment
l’équation d’Euler.

95
Chapitre 9

Appendices

A Convergence ponctuelle
et convergence en moyenne
Nous donnons ci-dessous deux exemples de suites qui montrent la différence qu’il y a
entre la convergence ponctuelle et la convergence en moyenne.
a) La suite fn (x) = xn de fonctions f ∈ C([0, 1]) a la limite suivante :
(
n 0 0≤x<1
lim x =
n→∞ 1 x=1

Par contre, elle converge vers f = 0 en moyenne. En effet


Z 1 Z 1
1
kfn − f k2 = |fn (x) − f (x)|2 dx = x2n = → 0 lorsque n → ∞ .
0 0 2n + 1

b) La suite de fonctions sur [0, 1] définie par


 √
 n √
 nx √ 0 ≤ x < 1/n
gn (x) =  −n nx + 2 n 1/n ≤ x ≤ 2/n

0 2/n < x ≤ 1

converge ponctuellement vers g = 0 pour n → ∞ (pas uniformément i.e. la conver-


gence n’est pas indépendante de x). Elle ne converge pas vers g = 0 en moyenne
quadratique. En effet
Z 1 Z 1/n
2 2
kgn k = |gn (x)| dx = 2 (n3/2 x)2 dx = 2/3 .
0 0

Dans C([a, b]), fn → f uniformément


q implique fn → f en moyenne quadratique ! En
effet, pour |fn (x) − f (x)| < ²/(b − a), on a
Z b
²
kfn − f k2 = |fn (x) − f (x)|2 dx < (b − a) = ² .
a (b − a)

i
B Une idée de l’intégrale de Lebesgue
Pour une fonction f intégrable au sens de Riemann dans [a, b], la fonction définie par
Z x
F (x) = f (s)ds x ∈ [a, b] . (B.1)
a

n’est pas nécessairement dérivable et n’est donc plus une primitive, comme le veut le
théorème fondamental du calcul différentiel et intégral1 . Une situation est claire : toute
fonction f continue sur [a, b] possède une primitive. Par contre, pour les fonctions discon-
tinues, les choses se compliquent et il n’est pas facile d’obtenir un critère pour caractériser
une fonction f qui possède une primitive.
D’autre part, il existe des fonctions F qui sont dérivables, mais dont la dérivée F 0 (x)
n’est pas intégrable au sens de Riemann. Cette situation ambigüe doit être corrigée. Avec
la notion de fonction mesurable (c’est une propriété que possèdent pratiquement toutes
les fonctions que l’on rencontre habituellement), l’intégrale de Lebesgue permet, entre
autre, de résoudre ce problème. L’intégrale de Lebesgue permet aussi, sous des conditons
simples et naturelles, d’échanger limite et intégrale, d’intégrer une série terme à terme ou
de démontrer le théorème de la convergence dominée de manière simple.
Par les illustrations ci-dessous, on peut donner une interprétation très élémentaire des
intégrales de Riemann et de Lebesgue

a) Intégrale de Riemann
Pour f : [a, b] −→ IR continue, l’intégrale de Riemann est décrite par FIG. B.1 où
la somme est donnée par l’expression
n
X Z b
f (x0k )(xk − xk−1 ) −→ f (x) dx (B.2)
k=1 a

lorsque n → ∞ et (xk − xk−1 ) → 0 .

f(x)

x’1
x
a x x x b
1 2 3

Fig. B.1 – Riemann : partition de la fonction f

1
Voir par exemple : Cours d’Analyse de S.D. Chatterji.

ii
b) Intégrale de Lebesgue
La présentation de l’intégrale de Lebesgue requiert une bonne connaissance de la
théorie de la mesure. Dans ce qui suit nous n’abordons que quelques éléments qua-
litatifs afin de donner une petite idée de cette notion d’intégration.
Pour f : [a, b] −→ IR mesurable (en mots qualitatifs, qui peut être approchée par des
fonctions simples), l’intégrale de Lebesgue est décrite par FIG. B.2 où la fonction f
est partitionnée de la manière suivante :

min f ≥ f0 < f1 < · · · < fn−1 < fn ≥ max f .

f(x)

fk

f
0

x
a b
Fig. B.2 – Lebesgue : partition de la fonction f

Alors, pour n → ∞ et (fk − fk−1 ) → 0, on a


n
X ³ ´ Z b
fk−1 µ x : fk−1 ≤ f (x) ≤ fk −→ f (x) dµ(x) . (B.3)
k=1 a

³ ´
La mesure µ x : fk−1 ≤ f (x) ≤ fk est donnée par la somme des longueurs des sous-
intervalles de [a, b] pour lesquels fk−1 ≤ f (x) ≤ fk . Comme on le voit, l’intégrale
de Lebesgue repose sur la connaissance des espaces mesurables et des fonctions
mesurables. Enfin, comme on l’a déjà mentionné, l’intégrale de Lebesgue permet de
considérer des fonctions dérivables dont la dérivée n’est pas intégrable au sens de
Riemann ou des fonctions comme
(
1 x rationnel
f (x) = .
0 x irrationnel
R
Pour ce dernier cas, on obtient f (x) dµ(x) = µ( Q) l = 0, puisque Q
l dénombrable
et donc de mesure nulle. On dit qu’une propriété est valable presque partout si
l’ensemble des points où elle est fausse est de mesure nulle.

iii
C Phénomène de Gibbs
L’approximation de la fonction
(
−1 −π ≤ x < 0
f (x) =
1 0≤x≤π

par la suite de sommes partielles


n
4X 1
S2n+1 = sin(2k + 1)x
π k=0 2k + 1

donne les résultats numériques décrits par FIG. C.3. Les effets de bord qui se produisent à
proximité des points de discontinuité {0, ±π}, nettement visibles pour S99 (x), sont connus
sous le nom de phénomène de Gibbs.

Fig. C.3 – Phénomène de Gibbs pour différentes valeurs de n

iv
Chapitre 10

Annexe : exercices

1. Soit V un espace vectoriel de dimension n. Montrer que toute forme linéaire f sur
V est donnée par le produit scalaire
f (v) = (v, u)
où u ∈ V est uniquement déterminé par f . En déduire que les composantes cova-
riantes du vecteur u ∈ V sont données par
xj = (ej , u) .

2. On considère deux bases de IR2


½ " # " #¾ ½ " # " #¾
1 0 1 1
e1 = , e2 = e01 = , e02 = .
0 1 −1 2

a) Ecrire la matrice (Aj k ) de passage de la base ej à la base e0j .


b) Déterminer l’inverse transposée (Aj k ) .
c) En écrivant le vecteur r ∈ IR2 dans les bases ei et e0i , i = 1, 2, déduire la trans-
formation de coordonnées.

3. a) Montrer que la matrice (M j k ) de la transformation linéaire y j = M j k xk est un


tenseur mixte d’ordre 2.
b) Vérifier que les dérivées partielles ∂j = ∂/∂xj sont des composantes covariantes.

4. Pour une transformation de coordonnées r = r(q 1 , q 2 , q 3 ), le tenseur métrique (gjk )


est défini par la forme différentielle
3
X
dr2 = gjk dq j dq k .
j,k=1

Calculer les composantes gjk dans le cas où les q j sont les coordonnées sphériques.

1
5. Dans IR2 , on considère le changement de base

e01 = e1 + 2e2
e01 = e1 − 2e2

et le tenseur covariant d’ordre 2


" #
1 0
(Tjk ) = .
0 2
0
Déterminer les composantes Tjk
a) à partir de la transformation Tjk 0
= Aj l Ak m Tlm .
b) à partir de la forme bilinéaire t(u, v).

n o
6. Montrer que les vecteurs ej ⊗ ek forment une base de l’espace vectoriel V ∗ ⊗ V ∗ .

7. a) Sur IR3 , vérifier que les composantes Tjk d’un tenseur antisymétrique peuvent
s’écrire à l’aide du pseudovecteur
1
T̃ j = ²jkl Tkl .
2
b) On considère le moment cinétique d’un corps rigide Lj = Θj k ωk . Si le moment
cinétique L et la vitesse angulaire ω sont des vecteurs, montrer que le moment
d’inertie Θ est un tenseur mixte d’ordre 2.

8. Montrer que pour des vecteurs de la base {e1 , ...., en } de V , on a

det(ej , ek ) 6= 0 .

9. Dans IR2 , on considère le produit scalaire

(x, y) = x1 y 1 − x1 y 2 − x2 y 1 + 4x2 y 2 .

a) Déterminer les composantes des tenseur métriques gjk et g jk .


b) Etant donné les composantes xj , y j , écrire les composantes xk , yk .

2
10. a) Vérifier que les expressions suivantes sont des produits scalaires :
P∞ ∗
1) (u, v) = j=0 ξj ηj u, v ∈ l2
Rb
2) (f, g) = a f (x)∗ g(x) dx f, g ∈ L2 ([a, b])
³ ´
3) [u1 , u2 ], [v1 , v2 ] = (u1 , v1 )G + (u2 , v2 )G
G×G
où (u, v)G est le produit scalaire dans G.
b) Montrer que le produit scalaire est une fonction continue.

11. Soit la suite de fonctions fn ∈ C([−1, +1])



 1

√ −1 ≤ x < 0
fn (x) =  1 − nx 0 ≤ x < 1/n

0 1/n ≤ x ≤ 1 .
a) Constater que fn (x) est bien continue.
b) Montrer que fn (x) est une suite de Cauchy.
c) En déduire que C([−1, +1]) n’est pas complet.

12. Soit {e0 , e1 , ...} une famille orthonormale de H séparable et u, v ∈ H. À partir du


cours, montrer que les propriétés suivantes sont équivalentes :
a) {e0 , e1 , ...} base de Hilbert
P
b) v = ∞ (e , v)e développement de Fourier
j=0 P∞j j
c) (u, v) = j=0 (u, ej )(ej , v) relation de fermeture
P
d) kvk2 = ∞ j=0 |(ej , v)| 2
relation de Parseval
e) Le sous-espace engendré par {e0 , e1 , ...} est dense dans H.

13. A l’aide d’un développement de Taylor, calculer, pour R > r, les l = 0, 1, 2, 3


premiers termes de la série

1 1X r
= ( )l Pl (cos ϑ)
|R − r| R l=0 R
où Pl (cos ϑ) sont les polynômes de Legendre et ϑ est l’angle entre R et r.

n o
14. A partir de la suite 1, x, x2 , . . . d’éléments de L2 (X, r) déterminer, à l’aide du
procédé d’orthonormalisation de Gram-Schmidt,
a) les l = 0, 1, 2, 3 polynômes de Legendre Pl (x) dans l’intervalle X = [−1, 1] et
avec r(x) = 1. La normalisation conventionnelle est donnée par
Z +1
2
Pl (x)Pl0 (x) dx = δll0 ,
−1 2l + 1
b) les n = 0, 1, 2, 3 polynômes d’Hermite Hn (x) dans l’intervalle X = IR et avec
r(x) = exp [−x2 ]. La normalisation conventionnelle est donnée par
Z +∞ √
2
Hm (x)Hn (x)e−x dx = π 2n n! δmn .
−∞

3
15. Développer en série de Legendre la fonction
(
0 −1 ≤ x < 0
f (x) =
1 0≤x≤1
et calculer les coefficients du développement pour les valeurs l = 0, 1, 2, 3.

16. Pour des fonctions f ∈ L2 ([a, b]), écrire la base complexe, la relation d’orthonorma-
lité, la série de Fourier et les coefficients de Fourier.

17. Calculer la série de Fourier en sin nx, n ∈ IN+ de la fonction


(
x(1 − ξ/π) x ∈ [0, ξ)
f (x) =
ξ(1 − x/π) x ∈ [ξ, π] .

18. Sur l’intervalle [−1, 1], on considère la fonction f (x) = x .


a) Déterminer la série de Fourier correspondante. On obtient
i 1 1 1 1
x= [· · · + e−3πix − e−2πix + e−πix − eπix + e2πix − e3πix + · · ·]
π 3 2 2 3
P∞ 1 π2
b) A l’aide de a) et en utilisant la relation de Parseval, montrer que n=1 n2 = 6
.

19. Montrer que les fonctions


s
2
sin nx n ∈ IN+
π
forment une base de L2 ([0, π]).
Indication : on fait un prolongement impairfe(−x) = −fe(x), fe ∈ L2 ([−π, π]) de f .
√ q
On montre de même pour les fonctions 1/ π, π2 cos nx, n ∈ IN en faisant un
prolongement pair.

20. Une corde vibrante de longueur l, fixée à ses extrémités, obéit à l’équation

∂ 2y 1 ∂ 2y
− =0.
∂x2 c2 ∂t2
Calculer la solution dans les trois cas de conditions initiales suivantes :
1) y(x, 0) = A sin nπ
l
x ∂t y|t=0 = 0
2) y(x, 0) = f (x) ∂t y|t=0 = 0
3) y(x, 0) = 0 ∂t y|t=0 = g(x) .

4
21. Sur une plaque métallique carrée de côté a, déterminer la distribution stationnaire
de la température T (x, y) si l’un des bords est à 100◦ et les trois autres à 0◦ .

22. Une poutre de longueur L et de rigidité α repose sur un support à chacune de ses
extrémités. Sa déformation y(x) produite par une répartition de charge q(x) est
donnée par l’équation
d4 y 1
4
= q(x) .
dx α
a) A l’aide d’un développement de Fourier en sinus, déterminer la déformation y(x)
lorsque la répartition de charge q est uniforme sur la poutre.
b) Calculer la déformation pour x = L/2 .

23. On considère les vecteurs de base e1 , e2 ∈ Cl 2 et les vecteurs ua , ub ∈ Cl 2 ⊗ Cl 2


1 h i 1 h i
ua = √ e1 ⊗ e2 + e2 ⊗ e1 ub = √ e1 ⊗ e2 − e2 ⊗ e1 .
2 2
a) Vérifier que ua , ub sont orthonormalisés
b) Montrer que ua et ub sont intriqués (ne sont pas factorisables)
c) En choisissant {e1 , e2 } comme base canonique, écrire ua et ub en composantes.

P
24. a) Pour cj ∈ Cl et {e0 , e1 , e2 , · · ·} une base de Hilbert, montrer que ∞j=0 cj ej est
P
convergente si et seulement si ∞ |c
j=0 j | 2
est convergente.
b) Si Φ est une fonctionnelle linéaire continue, montrer, à l’aide de a), qu’il existe
un vecteur ∞
X
h= Φ(ej )∗ ej
j=0

tel que Φ(u) = (h, u) (théorème de Riesz).

25. a) Montrer que l’adjoint T † d’un opérateur linéaire borné T est linéaire et borné.
b) Montrer que l’opérateur linéaire U défini sur D(U ) = H est unitaire si et seule-
ment si U U † = U † U = I.

d
26. On considère l’opérateur d’impulsion (P u)(x) = −i dx u(x) défini sur le domaine
.
D(P ) = {u ∈ L2 ([a, ∞)) u continu, u0 ∈ L2 , u(a) = 0} .

Vérifier que P est symétrique, déterminer D(P † ) et déduire que D(P ) ⊂ D(P † ).

5
27. Soit l’opérateur linéaire T : IR2 −→ IR2 qui dans la base othonormale {e1 , e2 } est
représenté par la matrice symétrique
" #
5 −2
T= .
−2 2
a) Exprimer la base {f1 , f2 } des vecteurs propres de T en fonction de la base {e1 , e2 }
2
X
fj = αjk ek .
k=1
h i
b) Vérifier que la matrice D = (ej , fk ) est orthogonale.
c) Calculer la matrice DT TD.

28. Pour une particule de spin 21 , l’opérateur de spin S = h̄2 σ est représenté, dans la
base des vecteurs propres {e1 , e2 } de σz , par les matrices de Pauli
" # " # " #
0 1 0 −i 1 0
σx = σy = σz = .
1 0 i 0 0 −1

a) Dans la base tensorielle {e1 ⊗ e1 , e1 ⊗ e2 , e2 ⊗ e1 , e2 ⊗ e2 } ≡ {u1 , u2 , u3 , u4 } du


système de deux particules de spin 21 , déterminer les éléments de matrice de
l’opérateur de spin total S = S1 ⊗ I + I ⊗ S2 .
b) Calculer les valeurs propres et les vecteurs propres de la matrice S2 = Sx2 +Sy2 +Sz2 .

29. Pour l’opérateur de Sturm-Liouville


0
(Su)(x) = − [p(x)u0 (x)] + q(x)u(x) ,

montrer que les fonctions propres ϕn (x) ∈ IR relatives à des valeurs propres diffé-
rentes sont orthogonales
Z b
ϕm (x)ϕn (x) r(x) dx = 0 .
a

30. Soit l’équation des polynômes d’Hermite

H 00 − 2xH 0 + (λ − 1)H = 0 .
P∞ k
a) À l’aide de l’Ansatz H = k=0 ck x , déterminer la relation de récurence
2k + 1 − λ
ck+2 = ck .
(k + 1)(k + 2)
b) Afin d’obtenir des fonctions de carré intégrables, on coupe la série en posant
cn+2 = 0. Déterminer les polynômes Hn , n = 0, 1, · · · , 5 en choisissant la normali-
sation cn = 2n .

6
31. En mécanique quantique, l’équation radiale de l’atome d’hydrogène s’écrit
" #
d2 l(l + 1) 2 1
2
− 2
+ − 2 u(%) = 0 n ∈ IN+ l ∈ IN .
d% % % n
À l’aide de l’Ansatz
u(%) = %(l+1) e−%/n f (%) ,
vérifier qu’elle conduit à l’équation des polynômes associés de Laguerre
xLαN 00 (x) + (α + 1 − x)LαN 0 (x) + N LαN (x) = 0
où α = 2l + 1, N = n − l − 1 et x = 2%/n.

32. Sur l’espace de Hilbert L2 ([−1, 1]), on considère l’opérateur de Sturm-Liouville


dh di
S=− (1 − x2 )
dx dx
et la base de Legendre
1 1
P0 = 1 P1 = x P2 = (3x2 − 1) P3 = (5x3 − 3x) ···
2 2
Pour l = 0, 1, 2, 3 vérifier l’équation aux valeurs propres
(SPl )(x) = l(l + 1)Pl (x).

33. En partant de la formule de Rodrigues


1 dl 2
Pl (x) = (x − 1)l
2l l! dxl
et en effectuant des intégrations par parties, vérifier la relation d’orthogonalité des
polynômes de Legendre
Z +1
2
Pl (x)Pl0 (x)dx = δll0 .
−1 2l + 1

34. On considère l’équation d’onde à 1 dimension


1 2
∂x2 u(x, t) − ∂ u(x, t) = 0
c2 t
soumise aux conditions initiales
u(x, 0) = f (x) ∂t u(x, t)|t=0 = 0 .
À l’aide de la transformée de Fourier, montrer que
1 1
u(x, t) = f (x + ct) + f (x − ct).
2 2

7
35. Vérifier que les fonctions f (x) et g(x) de transformées de Fourier fb(p) et gb(p),
satisfont la relation
Z Z
f (x)∗ g(x) dx = fb(p)∗ gb(p) dp .
IR IR

36. À partir de la formule sommatoire de Poisson, montrer que la fonction


X 2
g(x) = e−πxm x>0
m∈ZZ

satisfait la relation
1 1
g(x) = √ g( ).
x x

37. Pour une particule libre de masse m, on considère l’équation de Schrödinger unidi-
mensionnelle
h̄2 2
ih̄ ∂t ψ(x, t) = − ∂ ψ(x, t)
2m x
dont l’amplitude de probabilité au temps t0 est donnée par
Z
ψ(x, t0 ) = c(k)ei(kx−ωt0 ) dk .
IR

En utilisant la transformée de Fourier, montrer que la solution au temps t est fournie


par l’intégrale Z
ψ(x, t) = K(x − x0 , t − t0 )ψ(x0 , t0 ) dx0
IR
où le propagateur K vaut
e−iπ/4 i
m(x−x0 )2
K(x − x0 , t − t0 ) = q e 2h̄(t−t0 )
.
2πh̄
m
(t − t0 )

38. Vérifier que les fonctions f (x) et g(x) de transformées de Fourier fb(p) et gb(p),
satisfont la relation
Z Z

f (x) g(x) dx = fb(p)∗ gb(p) dp .
IR IR

39. À partir de la formule sommatoire de Poisson, montrer que la fonction


X 2
g(x) = e−πxm x>0
m∈ZZ

satisfait la relation
1 1
g(x) = √ g( ).
x x

8
40. a) Caculer la transformée de Laplace de la fonction
f (t) = tk e−at k∈N Re(a + s) > 0 .
b) À l’aide de la transformée de Laplace, résoudre l’équation linéaire
ÿ + 4ẏ + 4y = t2 e−2t .
où l’on choisit les conditions initiales y(0) = 0 = ẏ(0).

41. Montrer que la distribution de Dirac D0 peut être définie par la limite
Z +∞
n 2 2
D0 [ϕ] ≡ n→∞
lim √ e−n x ϕ(x) dx = ϕ(0) .
−∞ π

42. Pour une fonction généralisée de Dirac, vérifier les propriétés suivantes :
1
a) δ(ax) = δ(x)
|a|
n
X 1
b) δ(g(x)) = δ(x − xi )
i=1 |g 0 (x i )|

où a ∈ IR a 6= 0 et les xi sont les zéros de la fonction g(x).

43. Vérifier que la transformée de Fourier τb d’une distribution tempérée est linéaire et
qu’elle peut s’écrire Z
τ [ϕ] = lim
b sn (x)ϕ(x) dx
n→∞ IR

où sn ∈ S((IR).

44. Montrer que la transformée de Fourier d’une distribution tempérée τ possède les
propriétés suivantes :
a) τd
(n) = (ix)n τ b
n τ = in τ
b) xd b(n) n ∈ IN.

45. On considère les distributions tempérées


Z Z
τcos [ϕ] = cos x ϕ(x) dx τsin [ϕ] = sin x ϕ(x) dx .
IR IR
Vérifier que les transformées de Fourier respectives valent
r h i r h i
π π
τbcos = D1 + D−1 . τbsin = −i D1 − D−1 .
2 2

9
46. soit l’opérateur
H = P 2 + V (Q)
où V (Q) est une fonction analytique. En utilisant les équations aux valeurs propres

Q|xi = x|xi P |pi = p|pi,

verifier que
¯ ¯ h d2 i
¯ ¯
hx¯P 2 + V (Q)¯ϕi = − + V (x) ϕ(x) .
dx2

47. a) La fonction de Green G relative à l’opérateur de Sturm-Liouville est définie par


l’équation de distribution
h i0
− p(x)G0 (x, ξ) + q(x)G(x, ξ) = δ(x − ξ) .

Montrer que la discontinuité de G0 au point ξ est donnée par


1
G0 (ξ + , ξ) − G0 (ξ − , ξ) = − .
p(ξ)

b) En considérant l’équation de Sturm-Liouville homogène et les solutions y1 (ξ) et


y2 (ξ), vérifier que le produit p(ξ)w(ξ) est en fait indépendant de ξ. Le déterminant
de Wronsky est défini par w(ξ) = y1 (ξ)y20 (ξ) − y2 (ξ)y10 (ξ).

48. En appliquant le théorème intégral de Cauchy sur la demi-couronne Γ décrite par


la figure ci-dessous, calculer l’intégrale
Z +∞
sin x
dx .
−∞ x
Indication : pour déteminer les limites R → ∞ et ² → 0, on fait le changement de
variable z = u eiϕ avec u ∈ IR.
y

R
ε x

10
49. La déformation statique d’une membrane rectangulaire de côtés a, b peut être décrite
par l’équation de Poisson
à !
∂2 ∂2
+ u(x, y) = f (x, y)
∂x2 ∂y 2
soumise aux conditions limites u(0, y) = 0 = u(a, y) et u(x, 0) = 0 = u(x, b).
La fonction f (x, y) représente le poids par unité de surface divisé par la tension
de la membrane par unité de longueur. À l’aide de l’équation aux valeurs propres
correspondante et de la définition de la fonction de Green, déterminer G(x, x0 ; y, y 0 ).
On obtient

4 X sin(mπx/a) sin(mπx0 /a) sin(nπy/b) sin(nπy 0 /b)
G(x, x0 ; y, y 0 ) = − .
ab m,n=1 m2 π 2 /a2 + n2 π 2 /b2

Ecrire la solution u(x, y).

50. La fonction de Green relative à l’opérateur ∇2 + k 2 est donnée par l’intégrale

1 Z 3 eip·(r−r )
0
0
G(r − r ) = dp 2 .
(2π)3 k − p2

Déterminer sa valeurs pour chacun des chemins donnés ci-dessous.

. . . . . . . .
1) 2) 3) 4)

51. À l’aide de la méthode des fonctions de Green, calculer la solution de l’équation de


la diffusion de la chaleur à une dimension
à !
∂2 1 ∂
− u(x, t) = −σ(x, t) .
∂x2 a2 ∂t

On obtient
(x−x0 )2
Z +∞ Z t −
a e 4a2 |t−t0 |
u(x, t) = dx0 q σ(x0 , t0 ) dt0 .
−∞ 0 2 π|t − t0 |

11
52. On considère l’opérateur de Green

+ h̄2 1
G = lim+
2m ²→0 E − H0 + i²

où E = h̄2 k 2 /2m et


h̄2 p2
H0 |pi = |pi .
2m
Déterminer la fonction de Green G+ (r − r0 ) ≡ hr|G+ |r0 i.

53. Déterminer la courbe décrite par un fil pesant de longueur ` et de densité homogène
supendu entre deux points x1 et x2 .

54. Calculer lesR dérivées fonctionnelles suivantes :


a) F [f ] = RI f (y)α dy
b) F [f ] = I f 0R(y)2 /f (y) dy
c) F [f ] = exp I ef (y) dy .

12

S-ar putea să vă placă și