Documente Academic
Documente Profesional
Documente Cultură
5. Variance et covariance.
Définition 8.1 : famille sommable de réels positifs, somme d’une telle famille sommable.
Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs.
Théorème 8.2 : lien entre famille sommable de réels positifs et série.
Théorème 8.3 : opérations sur les familles sommables de réels positifs.
Théorème 8.4 : sous-familles d’une famille sommable de réels positifs.
Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs.
Définition 8.2 : famille sommable de réels quelconques, somme d’une famille sommable.
Théorème 8.6 : définition équivalente de la sommabilité d’une famille de réels.
Théorème 8.7 : sommabilité et séries absolument convergentes, convergence commutative.
Théorème 8.8 : sous-familles de familles de réels sommables.
Théorème 8.9 : linéarité.
Théorème 8.10 : sommation par paquets d’une famille sommable de réels.
Théorème 8.11 : théorème de Fubini pour les familles sommables de réels.
−1
Mais on a de plus : UX ( An ) = X −1 U An , qu’on vérifie par double inclusion.
n∉N n∉N
+∞ +∞
Donc : PX U An = P X −1 U An = P U X −1 ( An ) = ∑ P ( X −1 ( An )) = ∑ PX ( An ) .
n∉N n∉N n∉N n =0 n =0
Théorème 1.3 : système complet induit par une variable aléatoire discrète.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E.
Alors la famille des parties ({X = xk}, k ∈ ), où (xk) correspond à une énumération de X(Ω), forme un
système complet d’événements.
Démonstration :
Il est clair que ces ensembles sont deux à deux disjoints (un élément ω de Ω ne peut avoir deux images
distinctes par X), et que leur réunion est bien Ω puisque chaque élément ω a une image X(ω) qui se
retrouve dans l’énumération.
Théorème 1.4 : caractérisation d’une loi de variable aléatoire discrète à l’aide d’événements
élémentaires.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E.
Alors la loi de X est entièrement déterminée par la connaissance des P(X = xk), où (xk) correspond à une
énumération de X(Ω).
Démonstration :
Si on connaît la loi de X, on connaît évidemment les P(X = xk), k ∈ .
Réciproquement si on connaît ces probabilités élémentaires, alors :
∀ A ∈ P(X(Ω)), A = {x k } , où K est une partie de .
U
k∈K
Théorème 1.5 : (admis) existence d’une probabilité pour (xn) et (pn) données.
Soient (Ω,A) un ensemble muni d’une tribu et X une variable aléatoire discrète sur Ω à valeurs dans un
ensemble E.
Soient par ailleurs (xn) les valeurs prises par X dans E, et (pn) une suite d’éléments de [0,1] telle que :
+∞
∑p
n =0
n = 1.
En effet, pour : ω ∈ Ω,
- soit : ∃ p ∈ , ω ∈ Ap, et dans ce cas il n’y a qu’un seul indice p qui a cette propriété car la famille
est formée d’ensembles disjoints.
Chapitre 10 : Variables aléatoires – Cours complet. -4-
On a alors : 1 + ∞
(ω ) = 1 .
Ap
U
p =0
- soit : ∀ p ∈ , ω ∉ Ap, et dans ce cas la série est nulle, de somme 1 d’une part, mais ω
n’appartient pas non plus à la réunion et l’autre terme est nul également d’où à nouveau l’égalité.
Pour : n ∈ , la famille ∑
pn .1Ap (ω n ) est alors sommable car :
n≥0 , p ≥0
- ∀ n ∈ , la famille ∑ p .1
p ≥0
n Ap (ω n ) est sommable de somme 0 ou pn, et : 0 ≤ ∑ p n .1Ap (ω n ) ≤ p n .
p ≥0
- la famille ∑ ∑ p .1 n Ap (ω n ) est sommable car la famille ∑p n est elle-même sommable.
n≥0 p ≥0 n ≥0
Le théorème de Fubini (th. 8.11) permet d’en déduire que la famille : ∑ P( A
p ≥0
p ) = ∑ ∑ p n .1Ap (ω n ) , et :
p ≥0 n≥0
+∞ +∞ +∞ +∞ +∞ +∞ +∞
∑ P( A p ) = ∑
∑
n =0 p =0
p n . 1 Ap (ω )
n
= ∑ p .
n ∑ 1 Ap (ω )
n
= ∑ p . 1
n +∞
(ω n ) = P U Ap .
p =0
p =0 n = 0 p =0 n =0 A
U p
p =0
Remarque :
Pratiquement toutes les démonstrations hors programme se réfèrent au paragraphe 8 (familles
sommables).
Remarque :
En fait, la connaissance de Ω est très souvent inutile.
En pratique, on se contente souvent de la variable aléatoire X ou de sa loi de probabilité ou encore de sa
fonction de répartition FX.
Un théorème (difficile) assure que si on se donne une (ou des) « bonne(s) » fonctions, on peut trouver
un univers probabilisé et une (ou des) variable(s) aléatoire(s) sur cet univers dont la (les) fonction(s) de
répartition est (sont) la (les) fonction(s) donnée(s) initialement.
Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réelle.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω.
Soit (xn)n∈ une énumération ordonnée des valeurs de X (telle que (xn) est croissante).
On appelle histogramme de X la représentation (en bâtons ou rectangles) de la suite ordonnée
(P(X = xn))n∈ .
Théorème 2.1 : propriétés d’une fonction de répartition d’une variable aléatoire réelle discrète.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω.
Soit F la fonction de répartition de X.
Alors :
• F est croissante sur ,
• lim F ( x) = 1 ,
x → +∞
• lim F ( x) = 0 .
x → −∞
• La même démonstration, avec cette fois une suite (xn) qui tend vers +∞ et la même suite (An) montre
que : lim F ( x) = 1 .
x → +∞
exemple 2.1 : variable aléatoire suivant une loi uniforme (tracé ci-dessous fait pour : n = 4).
La fonction de répartition suivant une loi uniforme U(n) sur {0,…,n} est donnée par :
∀x∈ , • (x < 0) ⇒ (F(x) = 0),
k +1
• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = ),
n +1
• (n ≤ x) ⇒ (F(x) = 1).
exemple 2.2 : variable aléatoire suivant une loi de Bernoulli (tracés ci-dessous faits pour : p = 0.7).
La fonction de répartition d’une variable suivant une loi de Bernoulli B(p) est donnée par :
∀x∈ , • (x < 0) ⇒ (F(x) = 0),
• (0 ≤ x < 1) ⇒ (F(x) = p),
• (1 ≤ x) ⇒ (F(x) = 1).
La fonction de répartition d’une variable suivant une loi binomiale B(n,p) est donnée par :
∀x∈ , • (x < 0) ⇒ (F(x) = 0),
k
n
• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = ∑ i . p .(1 − p)
i n −i
),
i =0
• (n ≤ x) ⇒ (F(x) = 1).
Remarques :
• La loi géométrique est la loi de la variable aléatoire qui modélise le premier Pile dans une suite infinie
de tirages à Pile ou Face indépendants et pour une pièce déséquilibrée (c'est-à-dire telle que obtenir Pile
a une probabilité p).
En effet, obtenir un premier Pile au tirage k (pour : k ≥ 1) correspond à avoir obtenu des Face aux
(k – 1) tirages précédents et un Pile au kième, soit bien : P ( X = k ) = (1 − p ) k −1 . p .
• Un événement quelconque n’a pas de probabilité attribuée par cette méthode (d’ailleurs quel est
précisément l’univers de l’expérience ?) et c’est seulement l’événement correspondant à une infinité de
Face successifs à qui il semble naturel d’attribuer la probabilité 0.
• La loi géométrique est aussi appelée « loi du premier succès ».
• La somme des probabilités des événements élémentaires vaut bien :
exemple 2.4 : variable aléatoire suivant une loi géométrique (tracé ci-dessous fait pour : p = 0.25).
La fonction de répartition d’une variable suivant une loi géométrique G(p) est donnée par :
∀x∈ , • (x < 1) ⇒ (F(x) = 0),
n
• ∀ n ∈ *, (n ≤ x < n + 1) ⇒ (F(x) = ∑ p.(1 − p)
k =1
k −1
= 1 − (1 − p ) n ).
Remarque :
• La loi est dite alors « sans mémoire » car la connaissance du résultat des k premiers tirages ne modifie
pas les probabilités pour les suivants.
Plus précisément, devoir attendre 5 lancers (au moins) pour voir apparaître un Succès a la même
probabilité que l’on parte du premier tirage ou du millième tirage sachant qu’on n’a pas obtenu de
Succès pour ces mille premiers tirages.
Remarque :
Là encore, la somme des probabilités des événements élémentaires donne :
+∞ +∞
λk +∞
λk
∑ P( X = k ) = ∑ e
k =0 k =0
−λ
.
k!
= e .∑
−λ
k =0 k!
= e −λ .e λ = 1 .
λ = 0.8 λ = 1.2
λ=4 λ = 20
Différentes lois de Poisson P(λ)
Théorème 2.3 : approximation d’une loi binomiale par une loi de Poisson.
Soit (pn) une suite de réels appartenant à ]0,1[, telle que : lim n. p n = λ , avec : λ > 0.
n → +∞
Remarque :
Ce résultat s’utilise notamment lorsqu’une variable aléatoire suit une loi binomiale de paramètres n et p
avec p « petit devant n ».
Dans ce cas, on remplace pour les calculs la loi binomiale (exacte) par la loi de Poisson (approchée) de
p
paramètre : λ = .
n
exemple 2.6 :
On considère un grand nombre d’atomes instables (n ≈ 6.023.1023) qui se désintègrent rarement
(autrement dit peu de désintégrations pendant une unité de temps).
Cette faible modification du nombre d’atomes fait qu’on peut également supposer que le nombre total
d’atomes ne change pas durant l’expérience.
On suppose enfin que le nombre de désintégrations observées durant un laps de temps ∆t est
proportionnel à cette durée, de la forme donc α.∆t.
On appelle X le nombre de désintégrations observées durant un laps de temps T donné et on voudrait
déterminer la loi de X.
T
On suppose pour cela que la durée T est divisée en intervalles de durée : ∆t = , suffisamment courts
n
pour que la probabilité d’observer deux désintégrations durant cet intervalle est négligeable.
T
La probabilité d’observer une désintégration durant ∆t est alors égale à : p (n) = α .∆t = α . .
n
L’observation sur la durée totale se ramène donc à une succession d’épreuves de Bernoulli, chacune
avec une probabilité de succès égale à p(n).
n
X suit donc une loi binomiale : ∀ 0 ≤ k ≤ n, P ( X = k ) = . p (n) k .(1 − p (n)) n − k .
k
Si on fait tendre n vers +∞ (et pour des valeurs de k fixées « petites »), on a alors :
(α .T ) k
P ( X = k ) ≈ e −α .T . .
k!
Remarques :
• Cette loi est aussi appelée « loi des événements rares ».
• Elle permet également classiquement de modéliser des situations identiques à celle de l’exemple 2.6
telles que :
le nombre de connexion à un serveur web durant un intervalle de temps T,
le nombre de clients se présentant à une caisse de supermarché durant T,
le nombre de coquilles typographiques dans un texte (cours de probas par exemple).
Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance.
Soit X une variable aléatoire discrète réelle admettant une espérance.
L’ordre d’énumération des valeurs prises par X n’a pas d’incidence sur la valeur de E(X).
Démonstration (hors programme) :
Puisque la série ∑
x k .P ( X = x k ) converge, elle est « commutativement convergente », donc l’ordre
k ∈N
des termes de la série n’influe, ni sur la convergence de celle-ci, ni sur la valeur de la somme obtenue
(que ce soit avec ou sans les valeurs absolues), autrement dit une autre énumération des valeurs prises
par X conduira à une nouvelle série absolument convergente dont la somme sera identique à la
première.
Démonstration :
Pour k donné dans , on a : P ( X ≥ k ) = P (( X ≥ k ) ∩ ( X = k )) + P (( X ≥ k ) ∩ ( X ≠ k )) , par la formule
des probabilités totales, les événements ({X = k}, {X ≠ k}) formant un système complet d’événements.
De plus :
• P ( X ≥ k , X = k ) = P ( X = k ) , et :
• P ( X ≥ k , X ≠ k ) = P ( X ≥ k + 1) .
Donc : P ( X = k ) = P ( X ≥ k ) − P ( X ≥ k + 1) .
Pour : n ∈ *, on peut alors réécrire la somme partielle :
n n n n
S n = ∑ k .P ( X = k ) = ∑ k .[ P ( X ≥ k ) − P ( X ≥ k + 1)] = ∑ k .P ( X ≥ k ) − ∑ k .P ( X ≥ k + 1) ,
k =0 k =0 k =0 k =0
et en réindexant la deuxième somme :
n n +1 n
S n = ∑ k .P ( X ≥ k ) − ∑ (k − 1).P ( X ≥ k ) = 0.P ( X ≥ 0) + ∑ P ( X ≥ k ) − n.P ( X ≥ n + 1) .
k =0 k =1 k =1
On sait de plus que (Sn) converge.
N N +∞
Enfin : ∀ n ∈ *, ∀ N ≥ n + 1, n.P ( n + 1 ≤ X ≤ N ) = ∑ n.P( X = k ) ≤ ∑ k.P( X = k ) ≤ ∑ k .P( X = k ) .
k = n +1 k = n +1 k = n +1
On constate donc que la suite (n.P(n+1 ≤ X ≤ N)) est convergente, comme suite majorée de sommes
partielles d’une série positive.
Si maintenant on fait tendre N vers +∞, la suite des événements ({n +1 ≤ X ≤ N})N≥n+1, est croissante (au
sens de l’inclusion) et a pour limite (réunion) l’événement {n+1 ≤ X}.
+∞
Donc : 0 ≤ n.P ( X ≥ n + 1) = lim n.P ( n + 1 ≤ X ≤ N ) ≤
N → +∞
∑ k .P ( X = k ) = R
k = n +1
n, où Rn est le reste d’ordre n
n
Finalement, on a : ∀ n ≥ 1, ∑ P( X ≥ k ) = S
k =1
n + n.P ( X ≥ n + 1) , et en faisant tendre n vers +∞, on aboutit
+∞ +∞
à: ∑ P ( X ≥ k ) = ∑ k .P ( X = k ) + 0 = E ( X ) .
k =1 k =0
Donc la suite des sommes partielles de la série positive ∑ k.P( X = k ) est majorée et cette série est
k ≥1
donc convergente, ce qui termine l’implication annoncée.
Mais on peut rajouter à cette somme sans modifier sa valeur, la somme ∑ P( X = x) qui est nulle et
x∈ f −1 ( y ) −G y
x∈∑
(∀ y ∈ , ( f ( x).P ( X = x)) x∈ f −1 ( y ) est sommable et f ( x ) .P ( X = x ) est sommable).
f −1 ( y ) y∈R
Or on sait que : ∀ y ∈ , ( f ( x).P ( X = x)) x∈ f −1 ( y ) est sommable avec ce qu’on a vu au-dessus.
De plus on a vu que : ∀ y ∈ , ∑ f ( x) .P( X = x) = y .P( f ( X ) = y ) .
x∈ f −1 ( y )
sont nuls.
Mais alors : ∀ k ∈ , (xk ≠ 0) ⇒ ( P ( X = x k ) = 0 ), et donc : P ( X = 0) = 1 − P ( X ≠ 0) = 1 .
• Il suffit de dire que par linéarité, Y – X admet une espérance qui est positive d’après le point précédent,
et qui vaut : E (Y − X ) = E (Y ) − E ( X ) , d’où le résultat.
• Pour le dernier point on commence par utiliser la formule du transfert (th. 3.3) avec la fonction f égale à
la valeur absolue.
+∞
On constate que |X| a une espérance car ∑
k ∈N
x k .P( X = x k ) converge, et : E ( X ) = ∑ x k .P( X = x k ) .
k =0
+∞ +∞
De plus, pour une série réelle absolument convergente ∑ an , on sait que :
n ≥0
∑ an ≤ ∑ an .
n =0 n =0
+∞ +∞
Appliquée ici, cette inégalité donne : E ( X ) = ∑ x .P ( X = x
k =0
k k ) ≤ ∑ x k .P ( X = x k ) = E ( X ) .
k =0
Théorème 3.6 : espérance d’une variable aléatoire suivant une loi géométrique G(p).
Soit X une variable aléatoire suivant une loi géométrique G(p), avec : p ∈ ]0,1[.
1
Alors X admet une espérance et : E ( X ) = .
p
Démonstration :
1
En effet la série ∑ k. p.(1 − p)
k ≥1
k −1
est absolument convergente puisque : k . p.(1 − p ) k −1 = o 2
k
, en +∞
Théorème 3.7 : espérance d’une variable aléatoire suivant une loi de Poisson P(λ).
Soit X une variable aléatoire suivant une loi de Poisson P(λ), avec : λ > 0.
Alors X admet une espérance, et : E ( X ) = λ .
Démonstration :
λk λk 1
En effet, la série ∑ k.e −λ .
k ≥1 k!
est absolument convergente puisque : k .e − λ .
k!
= o 2 , en +∞, toujours
k
avec le théorème des croissances comparées.
+∞
λk +∞
λk +∞
λk +1
Puis : ∑ k.e −λ .
k =1 k!
= e −λ .∑
k =1 (k − 1)!
= e −λ .∑
k =0 k!
= e −λ .λ .e λ = λ .
Théorème 3.8 : espérance d’une variable aléatoire prenant un nombre fini de valeurs.
Soit X une variable aléatoire prenant un nombre fini de valeurs.
Alors X admet une espérance.
Démonstration :
Puisque X ne prend qu’un nombre fini de valeurs, la série ∑
x k .P( X = x k ) est nulle à partir d’un certain
k ∈N
rang et donc est absolument convergente.
Rappel :
1 n.(n + 1) n + 1 n
1
• Si X suit la loi uniforme U(n), alors : E ( X ) =
k =1 2
= ∑ n .k = n .
2
.
Remarque :
Puisqu’une loi binomiale B(n,p) est la loi du nombre de succès dans la répétition n fois d’une épreuve
de Bernoulli de loi B(p), on peut écrire : X = X1 + … + Xn, où X est la variable suivant la loi binomiale et
les Xk les variables aléatoires (indépendantes) décrivant chaque expérience de Bernoulli.
n
Donc : E ( X ) = ∑ E( X
k =1
k ) = n. p .
Enfin on a : {X ≥ a} = U {X = xk } =
U U+ {X = x } , puisque : K + = U K n+ .
n∈N k ∈K n
k
k∈K + n∈N
On aurait pu également signaler que la suite des sommes partielles est croissante et majorée donc
convergente.
Définition 4.2 : loi conjointe et lois marginales d’un couple de variables aléatoires discrètes.
Soient X et Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans deux
ensembles E et F et soit : Z = (X,Y), le couple défini par X et Y.
On appelle loi conjointe du couple la loi de Z, et lois marginales du couple les lois de X et de Y appelée
aussi « loi marginale en X » et « loi marginale en Y ».
Théorème 4.2 : lien entre loi conjointe et lois marginales d’un couple de variables aléatoires.
Soient X, Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans E et F.
La connaissance de la loi conjointe du couple (X,Y) entraîne celle des lois marginales.
La réciproque est fausse autrement dit connaître les lois marginales ne suffit pas pour connaître la loi
conjointe.
Démonstration :
Soit : x ∈ X(Ω).
Alors : ∀ ω ∈ Ω, (X(ω) = x) ⇔ (∃ y ∈ Y(Ω), (X(ω),Y(ω)) = (x,y)).
Donc : {X = x} = {(X,Y) = (x,y), y ∈ F} = {x}×F, d’où :
PX ( x) = P( X = x) = P(( X , Y ) ∈ {x}× F ) = PZ ({x}× F ) .
Et donc la probabilité PZ étant supposée connue, la probabilité PX est connue d’après le théorème 1.4.
De même : ∀ y ∈ Y(Ω), PY ( y ) = PZ ( E × {y}) , et on en déduit PY.
Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires discrètes indépendantes.
Soit (Ω,A,P) un ensemble probabilisé.
Soient X et Y des variables aléatoires discrètes réelles sur Ω admettant une espérance.
Alors X.Y admet une espérance et si X et Y sont indépendantes, on a : E ( X .Y ) = E ( X ).E (Y ) .
Démonstration (hors programme) :
Soient (xj) une énumération des valeurs prises par X et (yk) une énumération des valeurs prises par Y.
Notons par ailleurs : ∀ (j,k) ∈ 2, q j = P ( X = x j ) , rk = P (Y = y k ) , et : p j , k = P ( X = x j , Y = y k ) = q j .rk .
En effet : ∀ j ∈ , la série ∑x j ( )
. y k . p j ,k converge car : ∀ j ∈ , x j . y k . p j ,k = x j .q j . y k .rk , qui est à
k ≥0
Remarque :
Comme dans le cas discret, on a également le résultat suivant :
Si X1, …, Xn sont des variables aléatoires discrètes de (Ω,A,P) dans E1, …, En, alors
X1, …,Xn sont mutuellement indépendantes si et seulement si :
∀ (x1, …, xn) ∈ X1(Ω)×…×Xn(Ω), P (( X 1 = x1 ) ∩ ... ∩ ( X n = x n )) = P ( X 1 = x1 )...P ( X n = x n ) .
Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données.
Soit (Pn)n∈ une suite de probabilités sur telle que :
∀ n ∈ , ∃ Sn ⊂ , Sn au plus dénombrable, Pn(Sn) = 1.
exemple 4.1 :
Soit une infinité de lancers d’une pièce suivant chacun une loi de Bernoulli B(pn).
Alors il existe un espace probabilisé (Ω,T, P) qu’on ne détaille pas et une suite de variables aléatoires
mutuellement indépendantes (Xn)n∈ *, tels que chaque variable Xn suit la loi B(pn).
Chaque loi Xn représente le résultat du nième lancer de la pièce.
L’ensemble Ω peut être vu comme la suite : ω = (ω1, …, ωn, …), des résultats possibles issus d’une
infinité de lancers de la pièce, autrement dit : ∀ n ∈ *, ωn vaut Pile ou Face (ou : 1 = Pile, et : 0 = Face).
Plus simplement encore, l’ensemble Ω est la structure mathématique qui permet d’envisager
simultanément et proprement l’ensemble des lancers, alors que l’approche initiale ne permet que de les
envisager séparément les uns des autres.
C’est ce théorème qui permet la généralisation de ce qu’on avait fait lorsqu’on avait pensé deux lancers
successifs (et indépendants) de la même pièce puisque alors, on avait travaillé dans :
Ω = {(P,P), (P,F), (F,P), (F,F)}, soit l’ensemble des résultats possibles des deux lancers, envisagés
dans leur globalité.
1
Imaginons maintenant une infinité de lancers d’une Pièce équilibrée (soit : ∀ n ∈ *, p n = ).
2
En pratique :
• l’événement « le premier tirage donne Pile » s’écrira {X1 = 1} et aura pour probabilité :
1
P(« le premier tirage donne Pile ») = P ( X 1 = 1) = P1 ( X 1 = 1) = .
2
• « les deux premiers tirages donnent Face » s’écrira {X1 = 0} ∩ {X2 = 0}, et aura pour probabilité :
P(« les deux premiers tirages donnent Face ») = P (( X 1 = 0) ∩ ( X 2 = 0)) ,
et par indépendance des variables :
1 1 1
P(« les deux premiers tirages donnent Face ») = P1 ( X 1 = 0).P2 ( X 2 = 0) = . = .
2 2 4
+∞
• « on obtient que des Face » s’écrira : A = I {X
n =1
n = 0} .
n
Pour calculer sa probabilité, on peut poser : ∀ n ∈ *, An = I {X
k =1
k = 0}, la suite des (An) est
1
décroissante pour l’inclusion et : P ( A) = lim P ( An ) = lim = 0 , toujours par indépendance des
n → +∞ n → +∞ 2 n
variables aléatoires.
Ceci justifie ce qu’on avait considéré à savoir que l’événement « n’obtenir que des Face » était
négligeable puisque de probabilité nulle.
Théorème 4.8 : somme de deux variables aléatoires indépendantes suivant une loi de Poisson.
Soient X et Y deux variables aléatoires suivantes des lois de Poisson P(λ) et P(µ), avec :
λ > 0, µ > 0.
Alors (X + Y) est une variable aléatoire qui suit la loi de Poisson P(λ + µ).
Démonstration :
Puisque X et Y sont définies de Ω dans alors : Z = X+Y, est définie de Ω dans et l’ensemble des
valeurs prises par Z est au plus dénombrable.
Puis : ∀ n ∈ Z(Ω), {Z = n} est la réunion disjointe (et en fait finie) :
n
{Z = n} = U {X = k }∩ {Y = n − k } = U {X = k }∩ {Y = n − k } .
k∈N k =0
n n n
λk µ n−k
Donc : P ( Z = z ) = ∑ P(( X = k ) ∩ (Y = n − k )) = ∑ P( X = k ).P(Y = n − k ) = ∑ e −λ .
k =0 k =0 k =0 k!
.e − µ .
(n − k )!
.
5. Variance et covariance.
Remarque :
Il est équivalent de dire « X admet une variance » et « X2 admet une espérance » dans la mesure où la
première proposition sous-entend que X admet au moins une espérance.
Dans ce cas V(X) existe si et seulement si E(X2) existe.
Théorème 5.4 : variance d’une variable aléatoire ne prenant qu’un nombre fini de valeurs.
Soit X une variable aléatoire réelle ne prenant qu’un nombre fini de valeurs.
Alors X admet une variance.
Démonstration :
Comme pour l’espérance de X dans ce cas, X2 admet une espérance et donc X admet une variance.
Théorème 5.5 : variance d’une variable aléatoire suivant une loi géométrique.
Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.
1− p
Alors X admet une variance et : V ( X ) = .
p2
Démonstration :
1
La série ∑kk ≥1
2
. p.(1 − p ) k −1 est absolument convergente puisque : k 2 . p.(1 − p ) k −1 = o + ∞ 2 , avec le
k
théorème des croissances comparées (et : p ∈ ]0,1[).
Donc X2 admet une espérance et X admet une variance.
+∞ +∞ +∞
Puis : ∑k
k =1
2
. p.(1 − p ) k −1 = p.(1 − p ).∑ k .(k − 1).(1 − p ) k − 2 + p.∑ k .(1 − p ) k −1 ,
k =2 k =1
puisque les deux séries convergent.
On utilise ensuite la dérivée seconde de la série entière :
+∞ +∞
1 2
∀ x ∈ ]-1,+1[, = ∑ x n , et :
1 − x n =0 (1 − x) 3
= ∑
n =1
n.(n − 1).x n − 2 , et :
+∞
2 1 2− p
∑
k =1
k 2 . p.(1 − p) k −1 = p.(1 − p ).
(1 − (1 − p)) 3
+ =
p p2
, soit finalement :
2 − p 1 1− p
V ( X ) = E( X 2 ) − E( X )2 = − 2 = 2 .
p2 p p
Théorème 5.6 ; variance d’une variable aléatoire suivant une loi de Poisson.
Soit X une variable aléatoire discrète réelle suivant la loi de Poisson P(λ), avec : λ > 0.
Alors X admet une variance et : V ( X ) = λ .
Démonstration :
λk λk 1
En effet, la série ∑ k 2 .e −λ .
k ≥1 k!
est absolument convergente puisque : k 2 .e −λ .
k!
= o 2
k
, en +∞,
toujours avec le théorème des croissances comparées.
Donc X2 admet une espérance et X admet une variance.
+∞
λk +∞
λk +∞
λk +∞
λk + 2 +∞
λk +1
Puis : E ( X 2 ) = ∑ k 2 .e −λ .
k!k =1 k = 2 ( k − 2)!
= e −λ .∑
k =1 ( k − 1)!
+ e −λ .∑ = e −λ .∑
k =0 k!
+ e −λ .∑
k =0 k!
= λ2 + λ .
Finalement : V ( X ) = E ( X ) − E ( X ) = λ + λ − λ = λ .
2 2 2 2
Remarques :
• On définit pour les variables aléatoires discrètes réelles, comme dans le cas de variables aléatoires
finies, la notion de variable centrée (ou d’espérance nulle) et de variable réduite (ou dont la variance est
P ( X = xi ) = ∑ P ((Y = y j ) ∩ ( X = xi )) ,
j∈J
2
X admet une espérance.
Donc le th 8.11 permet d’affirmer que la famille xi2 .P ((Y = y j ) ∩ ( X = xi )) ( )( i , j )∈I × J
est sommable.
En effet, pour z fixé, les ensembles {∆i,j, (i,j) ∈ I×J, zi,j = z} sont deux à deux disjoints et leur réunion
Théorème 5.9 et définition 5.3 : covariance d’un couple de variables aléatoires discrètes réelles.
Soient X et Y des variables aléatoires réelles admettant une variance.
Alors les variables centrées : X’ = X – E(X), et Y’ = Y – E(X), admettent une variance et on peut définir :
Cov( X , Y ) = E ( X '.Y ' ) .
On a par ailleurs l’égalité : Cov ( X , Y ) = E ( X .Y ) − E ( X ).E (Y ) .
Le réel Cov(X,Y) est appelé covariance du couple (X,Y).
Démonstration :
Puisque X2 admet une espérance, X aussi ainsi que la variable aléatoire constante E(X)2, donc X’2 admet
une espérance.
On a évidemment le même résultat pour Y’2.
On a ensuite :
Cov( X , Y ) = E (( X − E ( X )).(Y − E (Y ))) = E ( X .Y ) − 2.E ( X ).E (Y ) + E ( X ).E (Y ) = E ( X .Y ) − E ( X ).E (Y ) .
Théorème 5.10 : covariance d’un couple de variable aléatoires discrètes réelles indépendantes.
Soient X et Y deux variables aléatoires discrètes réelles admettant une variance.
Si X et Y sont indépendantes, alors : Cov ( X , Y ) = 0 .
Démonstration :
Si X et Y sont indépendantes, alors (théorème 4.5) : E ( X .Y ) = E ( X ).E (Y ) , d’où le résultat.
Définition 5.4 et théorème 5.11 : coefficient de corrélation d’un couple de variables aléatoires
discrètes réelles.
Soient X et Y deux variables aléatoires discrètes réelles admettant une variance et telles que :
V ( X ) > 0 , et : V (Y ) > 0 .
Cov( X , Y )
On appelle coefficient de corrélation du couple (X,Y) le réel : ρ ( X , Y ) = .
σ ( X ).σ (Y )
On a alors : − 1 ≤ ρ ( X , Y ) ≤ 1
Démonstration :
L’inégalité de Cauchy-Schwarz garantit immédiatement l’encadrement.
En effet : Cov( X , Y ) = E ( X '.Y ' ) ≤ E ( X ' 2 ) . E (Y ' 2 ) = σ ( X ).σ (Y ) ,
où on a noté X’ et Y’ les variables aléatoires centrées associées à X et Y.
Théorème 5.12 : variance d’une somme finie de variables aléatoires discrètes réelles.
Soient X1, …, Xn des variables aléatoires discrètes réelles, telles que X12, …, Xn2 admettent une
espérance.
Démonstration :
L’existence d’une variance pour la somme s’obtient par récurrence en démontrant en particulier que si X1
et X2 ont une variance, alors (X1 + X2) aussi.
Pour cela : ( X 1 + X 2 ) 2 = X 12 + X 22 + 2. X 1 . X 2 ,
et X1.X2 admet une espérance comme on l’a vu dans l’inégalité de Cauchy-Schwarz.
On termine pour une somme de n termes par récurrence sur n.
Ensuite il suffit de développer :
n n
• ( X 1 + ... + X n ) 2 = ∑ X i2 +
i =1
∑ X i .X j , et : E (( X 1 + ... + X n ) 2 ) = ∑ E ( X i2 ) +
1≤ i ≠ j ≤ n i =1
∑ E ( X .X
1≤i ≠ j ≤ n
i j ),
2
n n
• ( E ( X 1 + ... + X n )) = ∑ E ( X i ) = ∑ E ( X i ) 2 + ∑ E ( X i ).E ( X j ) ,
2
i =1 i =1 1≤i ≠ j ≤ n
n
donc : V ( X 1 + ... + X n ) = ∑[E( X
i =1
i
2
) − E( X i ) 2 ] + ∑ [ E ( X .X
1≤ i ≠ j ≤ n
i j ) − E ( X i ).E ( X j )] ,
Théorème 5.13 : variance d’une somme de deux variables aléatoires discrètes réelles
indépendantes.
Soient X et Y des variables aléatoires discrètes réelles indépendantes et telles que X2 et Y2 admettent
une espérance.
Alors (X + Y) admet une variance et : V ( X + Y ) = V ( X ) + V (Y ) .
Démonstration :
Le fait que (X + Y) admette une variance a été démontré au-dessus et en appliquant le résultat du
théorème 5.11 pour deux variables aléatoires, on obtient :
V ( X + Y ) = [V ( X ) + V (Y )] + 2.[ E ( X .Y ) − E ( X ).E (Y )] ,
puisqu’il y a bien deux couples d’indices possibles : (i,j) = (1,2) ou (2,1).
Et comme les variables sont supposées indépendantes, on a (th.4.5) : E ( X .Y ) = E ( X ).E (Y ) , soit
finalement : V ( X + Y ) = V ( X ) + V (Y ) .
Remarque :
On généralise immédiatement ce résultat à n variables aléatoires discrètes réelles, mutuellement
indépendantes, telles que chacune d’elle admette une variance en :
V ( X 1 + ... + X n ) = V ( X 1 ) + ... + V ( X n ) .
Rappel :
• Si X suit la loi uniforme U(n), alors :
1 2 n +1 1 n.(n + 1).(2.n + 1) n 2 + 2.n + 1 n 2 − 1
n 2
V ( X ) = ∑ .k − = . − = .
k =1 n 2 n 6 4 12
• Si X suit la loi de Bernoulli B(p), alors :
V ( X ) = [0 2.(1 − p ) + 12. p ] − ( p ) 2 = p − p 2 = p.(1 − p ) .
• Si X suit la loi binomiale B(n,p), on peut également faire le calcul par les formules précédentes.
Il est ici beaucoup plus rapide d’utiliser la généralisation précédente qui permet d’écrire :
X = X1 + … + Xn, et : V ( X ) = V ( X 1 + ... + X n ) = V ( X 1 ) + ... + V ( X n ) = n. p.(1 − p ) .
1 σ2 1
Alors : ∀ ε > 0, P .S n − m ≥ ε ≤ , et en particulier : ∀ ε > 0, lim P .S n − m ≥ ε = 0 .
n.ε
2 n → +∞
n n
Démonstration :
Toutes les variables ont la même espérance et le même écart-type.
De plus, avec la généralisation du théorème 5.13 à n variables aléatoires, Sn est telle que :
n n
S
V ( S n ) = ∑ V ( X k ) = n.σ 2 , et : E ( S n ) = ∑ E ( X k ) = n.m , d’où : E n = m .
k =1 k =1 n
σ2
2
S S 1
Si on note : M n = n , on a donc : E ( M n ) = m , et : V ( M n ) = V n = .V ( S n ) = .
n n n n
Puis on remarque ensuite que : ∀ ε > 0, { ( M n − E ( M n )) 2 > ε 2 } = { M n − E ( M n ) > ε }.
Donc l’inégalité de Bienaymé-Tchebytchev (th. 3.7) donne :
V (M n ) σ2
P ( M n − E ( M n ) > ε ) = P (( M n − E ( M n )) 2 > ε 2 ) ≤ = .
ε2 n.ε 2
1 σ2
On obtient donc bien : ∀ ε > 0, P .S n − m ≥ ε ≤ .
n.ε
2
n
1
La conséquence est immédiate : ∀ ε > 0, lim P .S n − m ≥ ε = 0 .
n → +∞
n
Remarque :
Ce théorème est le premier qui permet de justifier le fait que l’on choisisse par exemple comme
probabilité d’obtenir un pile (ou un face) une valeur égale à 0.5.
En effet, la probabilité que la moyenne des valeurs obtenues lors d’une répétition de tirages (soit une
moyenne statistique) s’écarte de l’espérance d’un des tirage (soit une moyenne probabiliste) tend vers
0 lorsque le nombre de ces tirages tend vers +∞.
Autrement dit, ces deux moyennes en un certain sens coïncident…
Remarque :
Par la formule de transfert (théorème 3.3), c’est aussi l’espérance (quand elle existe) de la variable
+∞
aléatoire discrète réelle tX, soit : G X (t ) = ∑ P( X = n).t
n =0
n
= E (t X ) .
n =0 n=0 n =0
• Enfin comme série entière GX est de classe C∞ au moins sur ]-1,+1[, et sur [-1,+1], la série de fonctions
qui la constitue converge normalement puisque :
∀ t ∈ [-1,+1], P ( X = n).t n ≤ P ( X = n) , et la série ∑
P ( X = n) converge.
n ≥0
Associé au fait que toutes les fonctions sont continues sur [-1,+1] car polynomiales, on en déduit bien la
continuité de GX sur [-1,+1].
Remarque :
Lorsque les valeurs prises par une variable aléatoire forment un ensemble fini, sa fonction génératrice
devient un polynôme.
exemples 6.1 :
• La fonction génératrice d’une variable aléatoire suivant la loi uniforme U(n) est :
n
1 k 1 n k 1 t − t n +1
∀ t ∈ , G x (t ) = ∑
k =1 n
.t = .∑ t = .
n k =1 n 1− t
, cette dernière égalité étant vraie pour : t ≠ 1.
• La fonction génératrice d’une variable aléatoire suivant la loi de Bernoulli B(p) est :
∀ t ∈ , G x (t ) = p.t 1 + (1 − p ).t 0 = 1 − p + p.t ,
• La fonction génératrice d’une variable aléatoire suivant la loi binomiale B(n,p) est :
n
n k n
n
∀ t ∈ , G x (t ) = ∑
k
k =0
. p .(1 − t ) n− k k
.t = ∑ .( p.t ) k .(1 − t ) n − k = (1 − t + p.t ) n .
k =1 k
Théorème 6.3 : fonction génératrice d’une variable suivant une loi géométrique.
Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.
1 1
Alors sa fonction génératrice GX est définie sur ] − ,+ [ et vaut :
1− p 1− p
1 1 p.t
∀ t ∈ ]− ,+ [, G X (t ) = .
1− p 1− p 1 − (1 − p ).t
Démonstration :
La série entière cherchée est définie par :
+∞ +∞ +∞
∀ t ∈ , G X (t ) = ∑ P( X = n).t n = ∑ p.(1 − p) n−1 .t n = p.t.∑ (1 − p) n−1 .t n−1 ,
n =1 n =1 n =1
1
et la série géométrique qui apparaît a un rayon de convergence égal à : R = > 1.
1− p
+∞
1 1 1
De plus : ∀ t ∈ ] − ,+ [, G X (t ) = p.t.∑ [(1 − p ).t ]n = p.t. .
1− p 1− p n =0 1 − (1 − p ).t
∑ n.P( X = n).t
n ≥1
n −1
converge normalement au moins sur [-1,+1].
Autrement, le théorème de dérivation des séries de fonctions permet d’en déduire que la série de
fonctions ∑P( X = n).t n est en particulier dérivable à gauche en 1, et :
n ≥1
+∞ +∞ +∞
G X ' (1) = ∑ P ( X = n).n.1n −1 = ∑ P ( X = n).n = ∑ P ( X = n).n = E ( X ) .
n =1 n =1 n =0
• Réciproquement, si GX est dérivable à gauche en 1, montrons que cette dérivée vaut E(X).
Pour cela, soit : t ∈ ]0,1[.
Le théorème des accroissements finis montre que :
G X (t ) − G X (1) +∞
∃ ct ∈ ]t,1[, = G X ' (ct ) = ∑ n.P ( X = n).ctn−1 ,
t −1 n =1
et tous les termes étant positifs, on a aussi :
N
G X (t ) − G X (1)
∀ N ∈ *, ∑ n.P( X = n).c
n =1
n −1
t ≤
t −1
= G X ' (ct ) .
N
Si maintenant, on fait tendre t vers 1, alors ct tend vers 1, et : ∑ n.P( X = n) ≤ G
n =1
X ' (1) .
Donc la série (à termes positifs) ∑ n.P( X = n) converge puisque la suite de ses sommes partielles est
n ≥0
+∞
majorée et : ∑ n.P( X = n) ≤ G
n =1
X ' (1) .
ainsi que (puisque X admet alors une espérance, th. 5.1) ∑ n.P( X = n) .
n ≥0
On en déduit que : V ( X ) = E ( X 2 ) − E ( X ) 2 = G X ' ' (1) + E ( X ) − E ( X ) 2 = G X ' ' (1) + G X ' (1) − G X ' (1) 2
Théorème 6.7 : fonction génératrice d’une somme de deux variables indépendantes à valeurs dans
.
Soient X et Y deux variables aléatoires indépendantes et à valeurs dans .
Si on note GX, GY et GX+Y les fonctions génératrices des variables X, Y et X+Y, alors :
∀ t ∈ [-1,+1], G X +Y (t ) = G X (t ).GY (t ) .
Démonstration :
Si on reprend la formule de transfert, on peut écrire :
+∞ +∞
∀ t ∈ [-1,+1], E (t X ) = ∑ P( X = n).t
n =0
n
= G X (t ) , et : E (t Y ) = ∑ P (Y = n).t n = GY (t ) ,
n =0
+∞
avec un résultat identique pour (X+Y) : E (t X +Y ) = ∑ P( X + Y = n).t
n =0
n
= G X +Y (t ) .
Définition 8.1 : famille sommable de réels positifs, somme d’une telle famille sommable.
Soit I un ensemble quelconque et (xi)i∈I une famille de réels positifs.
On dit que la famille (xi)i∈I est sommable lorsque l’ensemble { xi , F finie, F ⊂ I} est majoré. ∑
i∈F
On pose alors : ∑x
i∈I
i = sup{ ∑x
i∈F
i , F finie, F ⊂ I}.
Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs.
Soit (xi)i∈I une famille sommable de réels positifs.
Alors l’ensemble J des indices : i ∈ I, tels que xi soit non nul est au plus dénombrable.
De plus la famille (xi)i∈J est sommable et : xi = xi . ∑ i∈I
∑
i∈J
Démonstration :
Notons : M = ∑x
i∈I
i = sup{ ∑x
i∈F
i , F finie, F ⊂ I}, et soit : n ∈ *.
M
Alors l’ensemble Fn des : i ∈ I, tels que : xi > , est fini, de cardinal majoré par (n+1).
n
En effet si Fn comportait strictement plus de (n+1) indices, on pourrait former un ensemble fini Fn’ de
M
(n+2) indices à partir des éléments de Fn et tel que : ∑x
i∈Fn '
i > (n + 1).
n
≥ M , et M ne pourrait être la
Démonstration :
• Soit : N ∈ , et : F = {j0, …jN}.
N
Puisque les termes de la famille sont positifs, on a donc : ∑x
n =0
jn = ∑ xi ≤ ∑ x i .
i∈F i∈J
Démonstration :
• si (yi)i∈I est sommable, alors : ∀ F ⊂ I, finie, ∑ x ≤ ∑ y ≤ ∑ y , donc { ∑ x , F finie, F ⊂ I} est
i∈F
i
i∈F
i
i∈I
i
i∈F
i
∑ x + ∑ y ≤ ∑ (x
i∈I
i
i∈I
i
i∈I
i + yi ) .
• si A et B sont des parties disjointes de I (telles que : A∩B = ∅), alors : ∑x = ∑x +∑x
i∈ A∪ B
i
i∈A
i
i∈B
i .
Démonstration :
• Notons que : ∀ i ∈ I, 0 ≤ 1A(i).xi ≤ xi, et donc (xi)∈I étant sommable, (1A(i).xi)i∈I l’est aussi.
Ceci étant vrai pour toute partie G finie incluse dans A, on en déduit que : ∑1
i∈I
A (i).xi ≤ ∑ xi , et
i∈ A
finalement, on conclut avec l’égalité annoncée.
• Si : A ⊂ B ⊂ I, il suffit de remarquer que : ∀ i ∈ I, 1A(i).xi ≤ 1B(i).xi, pour en déduire l’inégalité.
• Pour ce dernier point, on remarque que : ∀ i ∈ I, 1A(i) + 1B(i) = 1A∪B(i).
Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs.
Soit (xi)i∈I une famille de réels positifs et soit (Aj)j∈J une partition quelconque de I.
La famille (xi)i∈I est sommable si et seulement si pour tout : j ∈ J, la famille (xi) i∈A j est sommable et si la
famille ∑ xi est elle-même sommable.
i∈A
j j∈J
Dans ce cas, on a alors : ∑ x = ∑ ∑ x ,
i i
i∈I j∈J i∈A j
autrement dit, on peut d’abord sommer des sous-familles puis additionner les résultats.
Démonstration :
• Supposons que (xi)i∈I est sommable.
Alors puisque : ∀ j ∈ J, Aj ⊂ I, le théorème 8.4 montre que (xi) i∈A j est sommable.
On peut alors noter : ∀ j ∈ J, S j = ∑x
i∈ A j
i .
Le théorème 8.4 généralisé par récurrence à un nombre fini d’ensembles disjoints donne :
∑S j = ∑ ∑ x = ∑ x ≤ ∑ x
i i i .
j∈J 0
j∈J 0 i∈A j i∈A i∈I
La famille (Sj)j∈J est donc sommable et : ∑ S j = ∑
∑
j∈J i∈ A j
x i ≤ ∑ xi .
i∈I
j∈J
• Supposons réciproquement que pour tout : j ∈ J, la famille (xi) i∈A j est sommable et que la famille
∑ xi est elle-même sommable.
i∈A
j j∈J
Alors : ∀ F ⊂ I, finie, F a une intersection non vide avec un nombre fini d’ensembles Aj, dont on regroupe
les indices dans l’ensemble fini JF.
On peut donc écrire F comme l’union disjointe : F = U ( F ∩ A j ) , et : ∑ xi =
j∈J F i∈F
∑
∑ x
i , puisque
j∈J F i∈A j ∩ F
toutes les sommes sont en fait finies.
De plus, puisque : ∀ j ∈ JF, Aj ∩ F ⊂ Aj, on en déduit que : ∑x i ≤ ∑ ∑ x = ∑ S
i j , comme somme
i∈F
j∈J F i∈ A j j∈J F
finie de réels.
JF étant finie incluse dans J, la sommabilité de la famille (Sj)j∈J permet d’écrire :
Définition 8.2 : famille sommable de réels quelconques, somme d’une famille sommable.
Soit I un ensemble quelconque et (xi)i∈I une famille de réels.
Pour tout réel x, on pose :
• x+ = x, si : x ≥ 0, et : x+ = 0, si : x < 0,
• x- = 0, si : x ≥ 0, et : x- = |x|, si : x < 0.
On dit que la famille (xi)i∈I est sommable lorsque les familles de réels positifs (xi+)i∈I et (xi-)i∈I sont
sommables.
On pose alors : xi = ∑
i∈I
xi+ − xi− . ∑
i∈I
∑
i∈I
Remarques :
• Cette définition est cohérente avec la définition de la sommabilité pour une famille de réels positifs.
• On a l’égalité classique : ∀ x ∈ , x = x+ – x-, d’où la définition de la somme xi . ∑
i∈I
Démonstration :
• Supposons que la famille ( xi )i∈I soit sommable.
Alors les deux familles de réels positifs (xi+)i∈I et (xi-)i∈I sont sommables car :
∀ x ∈ , 0 ≤ x+ ≤ x , et : 0 ≤ x- ≤ x ,
et en utilisant le th 8.3.
• Supposons que (xi)i∈I soit sommable.
Alors les deux familles de réels positifs (xi+)i∈I et (xi-)i∈I sont sommables et la famille ( xi )i∈I est sommable
comme somme de familles sommables puisque : ∀ x ∈ , x = x + + x − .
La dernière égalité résulte elle aussi du th 8.3.
∑x
n =0
jn = ∑ x +jn − ∑ x −jn = ∑ xi+ − ∑ xi− = ∑ xi .
n =0 n =0 i∈I i∈I i∈I
Remarques :
• On aurait pu montrer que lorsque l’ensemble J précédent est au plus dénombrable, il y a équivalence
entre sommabilité de la famille (xi)i∈I et absolue convergence de la série x jn pour toute énumération ∑
n ≥0
de J
• Si une série n’est que semi-convergente au contraire, modifier l’ordre des termes de la série peut faire
perdre la convergence et même en cas de conservation de la convergence on peut ainsi modifier la
somme de la série initiale en en permutant les termes.
• Un théorème (technique) permet même de démontrer que si une série de réels u n est semi- ∑
n ≥0
convergente, alors quelque soit : α ∈ , il existe une permutation σ de telle que la série ∑ uσ
n ≥0
(n) ait
pour somme α.
Démonstration :
• Le premier point est une conséquence immédiate de la sommabilité et du th 8.4.
• Pour le deuxième point, on commence par écrire que : xi = xi+ − ∑
xi− , de même pour les
i∈A∪ B
∑
i∈A∪ B i∈A∪ B
∑
sommes sur A et B, et on applique toujours le th 8.4 aux familles (xi+) et (xi-), indexées par A, B et A∪B.
• pour : (λ,µ) ∈ 2
, (λ.xi + µ.yi)i∈I est sommable et : ∑ (λ.x
i∈I
i + µ. yi ) = λ .∑ xi + µ .∑ yi .
i∈I i∈I
Démonstration :
• On a : ∀ i ∈ I, xi + yi ≤ xi + yi , ce qui prouve que famille (xi + yi)i∈I est sommable.
• De plus notons A, B, C, D, E et F les ensembles définis par :
A = {i ∈ I, xi ≥ 0, yi ≥ 0},
B = {i ∈ I, xi < 0, yi < 0},
C = {i ∈ I, xi ≥ 0, yi < 0, xi + yi ≥ 0},
D = {i ∈ I, xi ≥ 0, yi < 0, xi + yi < 0},
E = {i ∈ I, xi < 0, yi ≥ 0, xi + yi ≥ 0},
F = {i ∈ I, xi < 0, yi ≥ 0, xi + yi < 0}.
Pour A (tous les termes sont positifs), le th 8.3 donne : ( xi + y i ) = ∑i∈A
∑x +∑y
i∈A
i
i∈A
i .
∑ x = ∑ (x
i∈C
i
i∈C
i + yi ) − ∑ yi , soit :
i∈C
∑(x
i∈C
i + y i ) = ∑ xi + ∑ y i .
i∈C i∈C
On démontre suivant des principes similaires, les mêmes égalités pour D, E et F.
Par réunion de ces 6 ensembles disjoints et avec le th 8.8, on en déduit l’égalité voulue.
• Soit maintenant : λ ∈ .
Si : λ = 0, (λ.xi)i∈I est sommable et : λ .x i = λ . x i = 0 . ∑
i∈I
∑
i∈I
Si : λ > 0, on a : ∀ i ∈ I, (λ .xi ) = λ .x + +
i , et : (λ .xi ) − = λ .xi− .
Donc le th 8.3 garantit que ( (λ .xi ) + )i∈I et ( (λ .xi ) − )i∈I sont sommables puis que :
∑ λ .x
i∈I
+
i = λ.∑ xi+ , et :
i∈I
∑ λ .x
i∈I
−
i = λ.∑ xi− ,
i∈I
De plus, les deux familles (xi+)i∈I et (xi-)i∈I sont sommables et à termes positifs donc le th 8.5 permet
i∑
d’affirmer que les familles x +
et ∑ xi− sont sommables et que :
i
i∈A
∈A j j∈J j j∈J
∑ x +
i = ∑ ∑ i
j∈J i∈A j
x +
, et : ∑ x −
i = ∑ ∑ i
x −
.
i∈I i∈I j∈J i∈A j
Remarque :
i∑
Dans cette équivalence, la présence des valeurs absolues dans xi est essentielle.
∈A j j∈J
En effet, si on considère la série ∑ (−1)
n≥0
n
, et les ensembles : Aj = {2.j, 2.j+1}, avec ; j ∈ , alors toute
famille (xj) i∈A j est sommable (avec deux éléments : 1 + |– 1| = 2, pour tout j) mais la famille
∑ xi n’est pas sommable alors que ∑ xi l’est (famille nulle).
i∈A i∈A
j j∈J j j∈J
La série considérée n’étant pas absolument convergente, la famille globale ne peut être sommable.
• ∀ i ∈ I, la famille (xi,j)j∈J est sommable et la famille ∑x i, j
est sommable.
j∈J i∈I
Si l’une de ces trois affirmations est vérifiée, alors : ∑x i, j = ∑ ∑ xi , j = ∑ ∑ xi , j .
j∈J i∈I i∈I j∈J
( i , j )∈I × J
Démonstration :
Il suffit d’appliquer deux fois le th 8.10 avec les partitions : I×J = U {}i × J = U I × { j}.
i∈I j∈J