Documente Academic
Documente Profesional
Documente Cultură
§ 4. Vectori aleatori
4.1. RepartiŃii discrete şi continue……………………………………..........49
ANEXA 1
Teorema clasei monotone…………………………………………………90
BIBLIOGRAFIE……………………………………………………………..
§1. Câmpuri de probabilitate
NoŃiunile fundamentale ale acestei teorii sunt cele de eveniment elementar (unul
din rezultatele posibile ale unui anumit experiment), eveniment (o anumită submulŃime de
mulŃime finită sau numărabilă W = {wn}n∈ I, (unde I este fie o mulŃime de forma {1, …,
N}, fie mulŃimea N a numerelor naturale), ale cărei elemente se numesc evenimente
∑
n∈I
pn = 1. (1.1)
Orice vector (finit sau infinit dimensional) p = (pn)n∈ I satisfăcând condiŃia (1.1) se
1
p1 = p2 = .
2
Exemplul 1.2. Aruncarea de trei ori a unei monezi; spaŃiul evenimentelor
elementare
W = {w1, w2} × {w1, w2} × {w1, w2}
este o mulŃime cu 8 elemente. Ca şi în exemplul precedent, evenimentele elementare sunt
1
echiprobabile, fiecare din ele având probabilitatea . (În cazul general, dacă W este o
8
mulŃime cu N elemente, iar probabilităŃile lor sunt egale între ele, relaŃia (1.1) impune ca
1
fiecare probabilitate elementară să fie egală cu .)
N
Exemplul 1.3. Fie experimentul constând din aruncarea unei monezi până la prima
apariŃie a stemei. În acest caz, W = N* = {1, 2, …, n,…} este o mulŃime infinită, iar şirul
1
pn = , (n = 1, 2, …)
2n
al probabilităŃilor elementare satisface relaŃia (1.1), dat fiind că
∞
1
∑
n =1 2n
= 1.
P(A) = ∑
ω ∈A
pn (1.2)
n
(suma probabilităŃilor elementare pn pentru care wn aparŃine lui A.) Se ştie că dacă W este
1 |A|
P(A) = | A | = , (1.3)
N |Ω|
unde | A | şi | W | reprezintă cardinalele celor două mulŃ imi, rezultat care poate fi transcris
sub forma
Numarul " cazurilor favorabile "
P(A) = (1.4)
Numarul " cazurilor posibile "
Exemplul 1.2. (Continuare) Există 28 = 256 evenimente, iar pentru orice i cuprins
cele trei aruncări, rezultă A = {(w1, w1, w1 ), (w2, w2, w2)}, deci
2 1
P(A) = = .
8 4
Exemplul 1.3. (Continuare) Luând, în condiŃ iile acestui exemplu,
A = {1, 2, …, 10}
(evenimentul constând din apariŃ ia stemei din cel mult 10 încercări), obŃinem
1 1
10 − 11
1 2 2 = 1− 1 .
P(A) = ∑ n =
n =1 2 1 210
1−
2
1.2. NoŃiunea de s-algebră. În situaŃ ia în care spaŃ iul W al evenimentelor
elementare este o mulŃ ime nenumărabilă, familia tuturor submulŃ imilor sale se dovedeşte
respectarea proprietăŃii naturale de aditivitate a funcŃ iei de mulŃ ime astfel obŃinute. Din
acest motiv, se consideră o anumit ă familie de submulŃ imi ale lui W, închisă faŃă de
DefiniŃia 1. O familie nevidă de părŃi ale unei mulŃ imi W se numeşte o s-algebră
dacă ea satisface următoarele proprietăŃi:
W=A» A (1.5)
deci
We , (1.6)
ca urmare
« = Ω e .
I An = UA n
n n
deci
I Ane , (1.7)
n
A \ B e . (1.8)
reprezentând cea mai mică s-algebră de părŃi ale lui W care conŃ ine familia , şi notată
s().
ObservaŃia 2.1. Din definiŃ ie rezultă următoarea proprietate frecvent folosită a
s-algebrei s(): Dacă este o s-algebră care conŃine familia , atunci s().
este o s-algebră care conŃine toate intervalele închise sau deschise din R, şi care poate fi
chiar generată de oricare din aceste familii de submulŃ imi ale lui R.
ExerciŃiul 2.1. ArătaŃi că această s-algebră conŃine toate submulŃ imile deschise sau
din Rn, cu Mi mulŃ imi boreliene din R, se numeşte s-algebra submulŃimilor boreliene din
Rn şi se notează n.
Xi: W → R, (i = 1,…, n)
defineşte o funcŃ ie vectorială
s-algebră de părŃi ale lui W, ale cărei elemente se numesc evenimente, ω ∈ Ω rezultatul
Din relaŃ iile (1.6) şi (1.7) rezultă că s-algebra considerată conŃine totdeauna
Considerând un al doilea eveniment B, din definiŃ iile operaŃiilor uzuale cu mulŃ imi
realizează ori de câte ori se realizează cel puŃin unul din evenimentele A şi B.
DefiniŃia 1. Fie o s-algebră de părŃi ale unei mulŃ imi W. Se numeşte măsură de
probabilitate pe o funcŃie
P: Ø [0, 1]
satisfăcând condiŃ iile:
a) P(W) = 1;
b) Pentru orice familie finită sau numărabilă de evenimente incompatibile {An},
avem
P(U An ) = ∑ P( An ) . (1.9)
n n
(Se mai spune că P este o funcŃie s-aditivă de mulŃime.) Un caz particular al acestei
Corolar. Avem
P( A ) = 1 - P(A).
rezultă inegalitatea
∞ ∞
P( U An ) b ∑ P( A ) .
n =0
n (1.13)
n =0
crescător de evenimente
A0Õ A1 Õ …Õ An-1 Õ An Õ…
∞
notând A = UA n , avem
n =0
P(A) = lim P(An). (1.14)
n →∞
B0 B1 … Bn-1 Bn …
∞
notând B = IB n , avem
n =0
P(B) = lim P(Bn). (1.15)
n →∞
evenimentelor
A0, A1 \ A0, …, An\ An-1,…,
iar formula (1.12) şi incluziunea An-1 Õ An ne dau
B0 ⊂ B1 ⊂ ... ⊂ Bn −1 ⊂ B n ⊂ ... ,
pentru care
∞
P( Bn ) = 1 - P(Bn), P U Bn = P I Bn = 1 - P(B). Ö
n=0 n =0
Exemplul 4.1. Dându-se un şir de evenimente (An)n¥0, evenimentele elementare w
evenimentul
∞ ∞
A= I UA n .
m=0 n=m
(wœA‹ pentru orice mœN, există n¥m, wœAn.) Conform terminologiei introduse mai
sus, A este astfel evenimentul constând din realizarea unui număr infinit dintre
∞
evenimentele An. PropoziŃ ia 4.2 aplicată şirului descrescător de evenimente U An
n = m m≥0
dintr-o mulŃ ime W (numită spaŃiu de evenimente elementare), o s-algebră de părŃi ale
pe .
Exemplul 4.2. E uşor de văzut că pentru orice câmp discret de probabilitate (W,
(pn)), funcŃ ia P definită prin relaŃia (1.2) este o măsură de probabilitate pe s-algebra
(W) a tuturor părŃilor lui W), deci tripletul (W, (W), P) este un câmp de probabilitate.
Reciproc, dacă W este o mulŃ ime finită sau numărabilă, atunci orice măsură de
probabilitate definită pe o s-algebră de părŃi ale lui W este unic determinată de valorile
luate deasupra evenimentelor elementare şi, ca mai sus, poate fi extinsă până la o măsură
W = o mulŃ ime de măsură Lebesgue finită din Rn, = familia mulŃ imilor boreliene
λ( A)
P(A) = , (1.17)
λ(Ω)
unde λ este măsura Lebesgue.
(Se observă că în acest caz orice două evenimente cu aceeaşi măsură Lebesgue vor fi
echiprobabile, aşa cum în cazul definiŃ iei clasice a probabilităŃ ii, date de formula (1.3), se
Exemplul 4.3. (Problema întâlnirii). Două persoane sosesc în mod independent într-
un anumit loc între orele 1 şi 2. Primul sosit aşteaptă maximum 20 minute. Care e
łinând seama de monotonia lui F, ii) rezultă aplicând PropoziŃ ia 1.2 şirurilor de
semiaxe
An = (-¶, -n], Bn = (-¶, n],
∞ ∞
pentru care I An = «, UB n = R , conducând la
n =0 n =0
ObservaŃia 4.2. Punctul iv) al PropoziŃ iei precedente exprimă faptul că punctele de
măsură nenulă coincid cu punctele de discontinuitate ale lui F, iar măsura oricărei
mulŃ imi reduse la un astfel de punct este dată de saltul lui F în punctul respectiv.
este cea de independenŃă a unor evenimente sau, cum vom vedea ulterior, a unor
“variabile aleatoare”.
independente dacă
Un şir de evenimente pot fi independente două câte două fără a fi independente “în
ansamblu”:
şi
A1 = {w1, w2, w3, w4}, A2 = {w1, w2, w5, w6}, A3 = {w1, w2, w7, w8}.
Aceste trei evenimente sunt două câte două independente, dat fiind că
1
P(Ai) = , (i = 1, 2, 3),
2
1
iar pentru i≠ j, Ai ∪ Aj = {w1, w2}, deci P (Ai ∪ Aj) = = P (Ai) P (Aj), în vreme ce
4
A1 ∪ A2 ∪ A3 = {w1, w2},
deci
P(A1 ∪ A2 ∪ A3) ≠ P(A1) P(A2) P(A3),
aşa încât cele trei evenimente nu sunt independente în sensul definiŃ iei ii) de mai sus.
Exemplul 5.2. La realizarea unui aparat de control se înregistrează 5% defecte de
fabricaŃie şi 4% defecte de montaj. Să se determine probabilitatea ca un aparat ales
aleator, să fie defect, ştiind că cele două tipuri de defecŃiuni sunt independente.
SoluŃie. Fie evenimentele:
A = aparatul are defect de fabricaŃie,
B = aparatul are defect de montaj.
5 4
Din enunŃ rezultă P(A) = , P(B) = . Rezultă
100 100
P ( A U B ) = P ( A) + P ( B ) − P ( A I B ) = P ( A) + P( B ) − P ( A)P ( B ) =
5 4 5 4
= + − ⋅ = 0,088
100 100 100 100
10
10
U Ai = I Ai ,
i =1 i =1
deci
10 10 ind. 10 10
1 1
P U Ai = 1 − P I Ai = 1 − ∏ P( Ai ) = 1 − ∏ 1 − = 1 − 10 .
i =1 i =1 i =1 i =1 2 2
indici n.
∞
i) Dacă ∑ P( A ) < ∞ ,
n =0
n atunci
P(A) = 0.
∞
ii) Dacă ∑ P( A ) = ∞ , iar evenimentele (An) sunt independente, atunci
n =0
n
P(A) = 1.
DemonstraŃie. i) Conform formulei (1.16), avem
∞
P(A) = lim P U An .
m→∞
n = m
Dar, folosind relaŃ ia (1.13),
∞ ∞
0 b P U An b ∑ P( An ) ,
n = m n=0
∞ ∞
unde ∑
n=m
P ( An ) Ø0, fiind restul unei serii convergente, şi astfel lim
m→ ∞
P U An = 0. Ö
n = m
ii) După formula lui De Morgan,
∞ ∞
A= U IA n ,
m= 0 n = m
în vreme ce, datorită independenŃei,
∞ k k
P I An = lim P I An = lim ∏ (1 - P( A )).
n
n=m k →∞ n = m k →∞ n=m
∞
de unde, făcând kض, P I An = 0 pentru orice m, şi în final P( A ) = 0, deci P(A) =
n=m
1. Ö
Corolar. Dacă evenimentele (An) sunt independente, atunci
∞
∑ P( A ) < ∞ ñ P(A) = 0.
n =0
n
definită prin
P( A I B)
P( A | B) = . (1.20)
P( B)
P(A | B) se numeşte probabilitatea lui A condiŃionată de B . Din definiŃia probabilităŃii
P( A) = ∑ P( A | Ai ) P( Ai ) (1.22)
i∈I
Într-adevăr,
P( A) = P U ( A I Ai ) = ∑ P( A I Ai ) = ∑ P ( A | Ai ) P( Ai ).
i∈I i∈I i∈I
ne fi aflat în ipoteza Aj, ştiind că s-a realizat evenimentul A - în funcŃie de probabilităŃ ile
ipotezelor Ai.
Într-adevăr, deoarece
P( A | A j )P( A j )
P( A j | A) =
P( A)
formula (1.23) rezultă exprimând P(A) cu ajutorul formulei probabilităŃ ii totale.
probabilitatea ca din patru bile extrase succesiv, cel puŃ in una să fie neagră.
SoluŃie. Notăm
A = cel puŃ in una din bile e neagră
Ai = bila nr i este albă;
realizarea evenimentului A are un mare număr de variante, de aceea este indicat să trecem
la evenimentul contrar
A = A1… A2… A3… A4.
Aplicând formula de înmulŃ ire a probabilităŃ ilor, obŃ inem
P(A) = 1 - P (A1… A2… A3… A4) = 1 - P A1) P (A2| A1) P (A3| A1…A2) P (A4| A1… A2… A3)
=
5 4 3 2 272
1- = .
15 14 13 12 273
Exemplul 6.2. În condiŃiile exemplului precedent, se extrag două bile, fără
5 10 4 5 1
P (B ) = P (B | A) P (A) + P (B | A ) P ( A ) = + = .
14 15 14 15 3
Ca urmare,
5 10
P( B | A ) P( A ) 14 15 5
P (A | B ) = = = .
P( B) 1 7
3
Exemplul 6.3. Un anumit aparat poate fi procurat de la cinci depozite care au
următoarea structură: două depozite au câte 90 aparate fără defect şi 10 defecte, un
depozit are 95 de aparate fără defect şi 5 defecte, iar două depozite au fiecare 98 aparate
fără defect şi câte 2 defecte. Să se determine probabilitatea ca un aparat găsit defect să
2 10
⋅
= 5 100 = 0,6897.
2 10 1 5 2 2
⋅ + ⋅ + ⋅
5 100 5 100 5 100
* Numărul bilelor albe obŃ inute prin extragerea repetată a unei bile dintr-o urnă.
timp.
* Timpul de funcŃ ionare fără defecŃ iuni a unui anumit aparat.
este o submulŃ ime boreliană A din R, vom folosi notaŃia {X e M} pentru submulŃ imea
(-¶, a], sau o mulŃ ime {a} redusă la un singur punct, X-1(M) va fi notată {X ≤ a},
respectiv {X = a}.
DefiniŃia 1. i) Fie (W, ) un spaŃiu măsurabil şi X : Ω → R o aplicaŃ ie cu valori în
X-1(M)e , (2.1)
pentru orice submulŃ ime boreliană M din R.
asigură faptul că probabilităŃ ile P(XeM) sunt definite pentru orice submulŃ ime boreliană
cea a unei condiŃ ii de tipul (2.1) în care M parcurge clasa mult mai restrânsă a semiaxelor
care
{X ≤ a}e , "ae R;
atunci X este -măsurabilă.
este o σ-algebră (ExerciŃ iu!) care prin ipoteză conŃ ine familia a semiaxelor închise la
mulŃ imilor boreliene. Aşadar X-1(M)e pentru orice submulŃ ime boreliană M. Ö
Exemplul 1.1. Fie W = Rn, = σ(), unde este familia mulŃ imilor de forma
orice submulŃ ime boreliană M1 din R. Aceeaşi proprietate o va avea şi fiecare din
proiecŃ iile Xi pe ceilalŃ i factori, deci, pentru orice submulŃ imi boreliene M1, …, Mn din R,
Dar atunci
M1µ …µMn = X1-1 ((-¶, a1]) ∪… ∪ Xn-1 ((-¶, an]) ∈,
şi deci = σ() conŃine toate submulŃ imile care generează σ-algebra n, ceea ce implică
σ()n. Cum incluziunea inversă este o consecinŃă a faptului că submulŃ imile lui sunt
produse carteziene de submulŃ imi boreliene din R, rezultă σ() = n, deci am arătat astfel
este o σ-algebră (ExerciŃ iu!), notată σ(X), care prin definiŃ ie este conŃinută în orice
mai spune că σ(X) reprezintă cea mai mică σ-algebră de părŃi ale lui W în raport cu care
X este măsurabilă.
ii) Mai general, dacă X1, …, Xn : Ω → R sunt n funcŃii reale, atunci cea mai mică
σ-algebră pentru care fiecare din ele este măsurabilă se notează σ(X1, …, Xn) şi
conform cu ii) este cea mai mică σ-algebră care conŃ ine pe σ(Xi) pentru i = 1,…, n, deci
n-măsurabilă, adică inversează orice semidreaptă din R într-o submulŃ ime boreliană
din Rn. Aplicând PropoziŃ ia 1.1, pentru ca f să fie boreliană este suficient ca ea să
inverseze orice submulŃ ime boreliană din R într-o submulŃ ime boreliană din Rn. Aceasta
se întâmplă, de exemplu, ori de câte ori f este continuă - în acest caz f-1((-¶, a]) fiind
µ X (M) = P(X e M ), Me .
{Xœ(a, b]}, iar formula (1.12) de calcul a probabilităŃ ii diferenŃei a două evenimente ne
dă
FX coincide cu funcŃ ia asociată repartiŃiei µ X definite de X pe axa reală, deci afirmaŃ iile
din enunŃ sunt cele deja demonstrate în PropoziŃ ia 4.3 din § precedent. Ö
cunoaşterea repartiŃiei unei variabile aleatoare X, se înŃelege cunoaşterea funcŃ iei sale de
numesc echivalente.
Se spune că două variabile aleatoare X şi Y sunt egale aproape sigur şi se scrie X =
Y a.s., dacă P(X = Y) = 1. Din definiŃ ie rezultă imediat că două variabile aleatoare egale
∑p
n∈I
n = 1. (2.5)
punctelor x în care p(x)>0 coincide cu mulŃ imea D a punctelor de discontinuitate ale lui
F. (Denumirea acestei funcŃii este inspirată de analogia cu modelul unei repartiŃ ii discrete
de unde,
F(a) = ∑
an ≤a
pn
(suma probabilităŃ ilor de a lua valori an mai mici sau egale cu a). Din acest motiv,
cunoaşterea funcŃ iei de masă a unei variabile aleatoare discrete este echivalentă cu
În cazul când X ia numai un număr finit de valori a1, a2, …, aN, funcŃ ia de masă se
a1 a2 K aN
X : ,
p1 p 2 K p N
în care, datorită condiŃ iei (2.5), suma elementelor de pe cea de a doua linie este egală cu
asociază valoarea 1 sau valoarea 0, după cum weA sau w ∉A. CondiŃ ia (2.1) este
satisfăcută deoarece
∅, a < 0,
{ X ≤ a} = A, (a ∈ [0,1),
Ω, (a ≥ 1)
deci în toate cazurile { X ≤ a}e . Notând P(A) = p, tabelul de repartiŃ ie al acestei
variabile este
0 1
. (2.6)
1 − p p
Exemplul 1.4. Orice variabilă aleatoare având o repartiŃ ie de forma (2.6) are funcŃ ia
de repartiŃ ie
0, a < 0,
F(a) = 1 - p, (a ∈ [0,1), (2.7)
1, (a ≥ 1),
care este o funcŃ ie în scară, crescătoare şi continuă la dreapta în orice punct, având două
valorile respective.
O variabilă aleatoare a cărei funcŃie de repartiŃ ie este continuă se numeşte
variabilă aleatoare continuă; conform cu (2.4), o astfel de variabilă ia orice valoare reală
continue.
DefiniŃia 4. Fie X o variabilă aleatoare şi F funcŃia sa de repartiŃie. X se
numeşte absolut continuă dacă există o funcŃie
p:R→ R,
p(a) D t.
ii) Din punct de vedere geometric, existenŃa densităŃ ii exprimă faptul că
probabilitatea cu care X cade într-un interval oarecare [a, b] al dreptei reale este egală cu
aria mărginită de graficul funcŃ iei p(x) restrânsă la acest interval (fig.2.2).
În cazul unei variabile discrete, notând P(X = an) = pn, relaŃ ia (2.4) poate fi
∑n p n = 1, (2.12)
Există şi variabile aleatoare mixte, a căror funcŃ ie de repartiŃie admite o mulŃ ime
nevidă {an}nœI de puncte de discontinuitate, iar şirul pn = P(X= an) satisface relaŃ ia
∑n p n <1. (2.13)
Notând
1 1
∑n p n = a, F1(x) =
α
∑ p n , F2(x) =
1− α
F ( x) − ∑ p n ,
a ≤x
n an ≤ x
cu probabilitatea a, X ia una din valorile an, iar cu probabilitatea 1 - a este continuu
repartizată în anumite submulŃ imi ale dreptei reale. FuncŃia de repartiŃ ie F se exprimă
lui F.
Exemplul 1.6. Fie X o variabilă urmând o repartiŃ ie “exponenŃială” (v. secŃ iunea
0, x < 0,
F(x) = -x
1 − e , x ≥ 0
şi Y = X IA, unde IA este indicatorul evenimentului A = {X¥1}. Atunci Y are o repartiŃ ie de
0, x < 0
-1
FY(x) = 1 - e , x ∈ [0, 1],
1 - e - x , x ≥ 1,
Unicul salt al acestei funcŃ ii este plasat în origine şi este egal cu 1 - e-1, deci
continue.
2.2. Caracteristici numerice ale variabilelor aleatoare. Orice variabilă aleatoare
poate fi studiată cu ajutorul funcŃiei sale de repartiŃie. Totuşi de multe ori este necesară o
prezentare mai sumară a variabilelor aleatoare prin intermediul anumitor caracteristici
numerice sau valori tipice asociate. În plus, pentru o clasă largă de variabile aleatoare,
funcŃiile lor de repartiŃie depind de anumiŃi parametri care pot fi determinaŃi cu ajutorul
unor caracteristici numerice ale variabilelor aleatoare.
Cea mai importantă dintre aceste caracteristici numerice ale unei variabile aleatoare
X este media, care atunci când există se notează E[X]. Folosind aparatul teoriei măsurii,
oricărei variabile aleatoare nenegative i se poate asocia o medie, care este un număr real
şi “partea negativă” a lui X, unde X+ este definit ă ca maximul dintre X şi 0), se spune
atunci că media lui X este definită (sau că X admite medie) dacă cele două medii E[X+] şi
ambele finite, sau echivalent, dacă E[| X |] < ¶ (modulul lui X are o medie finită). Dacă
identificăm între ele două variabile aleatoare care coincid “aproape sigur” (adică
exceptând eventual o submulŃ ime de probabilitate nulă a lui W), mulŃ imea variabilelor
aleatoare cu această proprietate formează atunci un spaŃ iu Banach, notat L1(W), a cărui
integrabil
L2(W) = {X | E[X2] < ¶},
care este un spaŃiu Hilbert în raport cu produsul scalar
def
X . Y = E[XY]. (2.16)
Se poate arăta că media (sau “operatorul de mediere”) este caracterizată de
E[IA] = P(A).
2. Monotonie: Dacă X ≤ Y (adică X(w) ≤ Y(w), "weW), atunci E[X] ≤ E[Y ].
În particular, dacă
∞
X= ∑
n =1
Xn,
este suma unei serii de variabile aleatoare nenegative, atunci teorema convergenŃei
E[X ] = ∑n an p n , (2.18)
ori de câte ori seria din membrul drept este absolut convergentă.
dată de
∞
E[X] = ∫−∞xp( x)dx , (2.19)
ori de câte ori integrala din membrul drept este absolut convergentă. (Pentru variabile
aleatoare nenegative - discrete sau absolut continue - formulele de mai sus pot servi
pentru calculul mediei şi în cazul când aceasta din urmă este infinită, ceea se întâmplă
0 1 2 3
1 3 3 1
8 8 8 8
valoarea medie este
1 3 3 1 3
E[ X ] = 0 ⋅ + 1 ⋅ + 2 ⋅ + 3 ⋅ = .
8 8 8 8 2
Exemplul 2.2. Variabila aleatoare discretă cu funcŃia de masă
S
P ( X = n) = , (n = 1, 2, …),
n2
∞
(unde S este astfel ales încât ∑ P (X
n =1
= n) = 1) are o medie infinită, deoarece
∞
nS ∞ S
∑ 2 = n∑=1 n = ∞.
n =1 n
1
p(x) = (2.20)
π(1 + x 2 )
nu admite medie, deoarece integrala
∞
x
−
∫∞ π(1 + x ) dx 2
este divergentă.
(Exemplul 1.1), adică o funcŃ ie având proprietatea de a inversa mulŃ imi boreliene în
mulŃ imi de acelaşi tip, aplicaŃ ia compusă f o X : W → R este atunci o variabilă aleatoare
Dacă f este o funcŃie pentru care variabila aleatoare f(X) există şi admite medie,
în cazul discret, şi
∞
E[f(X)] = ∫ f ( x )p( x )dx (2.22)
−∞
Dacă X este o variabilă aleatoare admiŃ ând medie finită, atunci variabila
o
aleatoare X − m se numeşte variabila centrată asociată lui X şi se notează X . Valoarea
în cazul discret, şi
∞
E[ X k ] = ∫ x k p( x )dx (2.24)
−∞
în cazul continuu.
o
Momentul de ordinul k al variabilei aleatoare X = X - E[X ] se numeşte
momentul centrat de ordinul k al lui X şi se notează
µ k := E[( X − m) k ] .
σ = Var ( X ) . (2.25)
este abaterea medie pătratică (sau deviaŃia standard) a variabilei X.
ProprietăŃile varianŃei:
i) Formula de calcul:
Var ( X ) = E[ X 2 ] − (E[ X ]) 2 . (2.26)
demonstrată în § 4.)
0 1 2 3
1 3 3 1
8 8 8 8
3
valoarea medie este E[X] = , iar momentul de ordinul doi este
2
1 3 3 1
E[ X 2 ] = 0 2 ⋅ + (1) 2 ⋅ + (2) 2 ⋅ + (3) 2 ⋅ = 3 .
8 8 8 8
Rezultă
2
3 12 − 9 3
Var ( X ) = 3 − = = .
2 4 4
Exemplul 2.6. Variabila aleatoare X având densitatea de probabilitate
p( x) = 3x 2 pentru x ∈ [0,1] şi zero în rest are valoarea medie 3/4. Deoarece momentul de
ordinul doi este
∞ 1 3
E[X2] = ∫ x 2 p( x )dx = ∫ x 2 ⋅ 3x 2 dx = ,
−∞ 0 5
rezultă
2
3 3 3
Var ( X ) = − = .
5 4 80
Lema 2.1. (Inegalitatea lui Markov). Fie X¥0 o variabilă aleatoare nenegativă.
Var(X )
P(|X- E[X]| ≥ ε ) ≤ (2.28)
ε2
DemonstraŃie. Rezultă înlocuind în (2.27) pe X prin (X - E[X])2 şi pe a prin ε 2 ,
E[| X - E[ X ] | r ]
P(|X- E[X]| ≥ ε ) b .Ö (2.29)
εr
ObservaŃia 2.1. i) Fiind prin definiŃ ie media pătratului unei variabile aleatoare,
varianŃa este totdeauna nenegativă. Folosind inegalitatea lui Cebâşev putem arăta că dacă
1
aplicată pentru ε = ne dă
n
P(|X - E[X]| ¥1/n) = 0, (n= 1, 2,…),
şi astfel
∞
P(|X- E[X]| >0) = ∑
n =1
P(| X - E[X]| ¥1/n) = 0,
sau
P(X = E[X]) = 1.
ii) Tot inegalitatea lui Cebâşev ne dă următoarea interpretare intuitivă a varianŃei
unei variabile aleatoare: Cu cât varianŃa este mai mică, cu atât abaterile mari de la medie
aleatoare luând numai valori naturale. Se numeşte funcŃie generatoare a lui X funcŃ ia
g X (t ) = E[t X ] . (2.30)
Notând
P(X = n) = pn,
formula (2.23) ne dă atunci
∞
g X (t ) = ∑
n =0
pntn , (2.31)
raza R de convergenŃă a seriei din membrul drept al relaŃ iei (2.28) este ¥ 1. Când R>1,
λn -l
P(X = n) = e , n = 0, 1, 2, …
n!
FuncŃia generatoare este
∞
λn n ∞
(λ t ) n
g X (t ) = ∑ e −λ
t =e ∑
−λ
= e λ(t −1) .
n=0 n! n =0 n!
(2.35)
- Pentru o variabilă aleatoare continuă X cu densitatea de probabilitate p( x) :
∞
c X (t) = ∫ e itx p( x )dx .
−∞
(2.36)
Se observă că funcŃia caracteristică este o transformată Fourier. Dacă funcŃia
caracteristică este absolut integrabilă, atunci densitatea de probabilitatea corespunzătoare
este
1 ∞ −itx
2π ∫−∞
p( x) = e c(t )dt . (2.37)
∞ λ
c (t ) = ∫ eitxλ e− λx dx = .
0 λ − it
iλ c' (0) 1
Deoarece c' (t ) = , din (2.38) rezultă E[ X ] = = .
(λ − it ) 2
i λ
care coincid “aproape sigur” (adică în afara unui eveniment de probabilitate 0) au aceeaş i
X: Ω → R = R » { ± ¶}
{ X ≤ a}e , " ae R
(2.39)
din definiŃ ia variabilelor aleatoare uzuale, ceea ce atrage după sine relaŃiile
mod natural ca limite ale unor şiruri monotone de variabile aleatoare obişnuite.)
E[X ] = ¶; dacă P(X = ¶) = 0 (ceea ce implică P(X < ¶) = 1: X este “aproape sigur”
finit ă), E[X] este definită ca media variabilei aleatoare X0, obŃinută modificând valorile
lui X în punctele w în care X(w) = ± ¶, prin atribuirea lui X0(w) a unei valori arbitrare,
de exemplu valoarea zero. ProprietăŃile integralei, în particular teorema convergenŃei
1
P(X= 0) = 0, P(X = n) = , (n ¥1).
3n
De aici rezultă
∞
1 1
P(X<¶) = ∑
n =1 3
n
=
2
,
1 1
P(X= 0) = , P(X = n) = n , (n ¥1),
2 3
atunci
∞
1 1
P(X<¶) =
2
+ ∑
n =1 3
n
= 1,
deci P(X = ¶) = 0, iar media lui X va fi egală cu media unei variabile aleatoare X0 care ia
AplicaŃia 4.1. Numărul mediu de realizări ale unui şir de evenimente. Oricărui şir
unde In este indicatorul evenimentului An. Pentru fiecare wœW, N(w) “numără” atunci
∞ ∞ ∞ ∞
{N = 0}= I An , {N = 1}= U An \ U Am , {N = ¶}= I UA n , etc.
n =1 n =1 m≠ n m=0 n=m
Aplicând teorema convergenŃei monotone sub forma 2.17, obŃinem
∞
E[N] = ∑
n =1
P( A ) ,
n (2.41)
∞
deci ∑
n =1
P( A )
n reprezintă numărul mediu de realizări ale evenimentelor An. Regăsim în
∞
particular prima parte a lemei Borel-Cantelli: Dacă E[N] = ∑
n =1
P( A ) <¶, atunci variabila
n
este o variabilă aleatoare discretă, luând numai valori naturale, atunci luând în cele de
mai sus An = {Xbn}, variabila N definită prin (2.40) coincide cu X (exerciŃ iu!), deci (2.41)
(2.42)
ii) Pentru o variabilă aleatoare nenegativă oarecare X, notând cu [X ] partea
(2.43)
AplicaŃia 4.3. Criteriu de existenŃă a mediei. Fie X o variabilă aleatoare. Atunci
∞
X admite o medie finită ñ ∑
n =1
P(| X | ≥ n) < ¶.
(2.44)
Rezultă din inegalităŃ ile (2.43) aplicate variabilei aleatoare | X |, Ńinând seama că X
q.
2. RepartiŃia binomială B(m, p) este repartiŃia unei variabile aleatoare X care
P(A) = p.
Valorile posibile ale lui X sunt în număr de m + 1 (de la 0 la m). Rezultatele celor
m experimente pot fi reprezentate sub forma unei secvenŃe a1…am de cifre binare (1
pentru succes şi 0 pentru eşec). Datorită independenŃei, orice secvenŃă conŃinând n cifre
Denumirea de „repartiŃ ie binomială” provine din faptul că valorile de mai sus ale
funcŃ iei de masă asociată acestei repartiŃii coincid cu coeficienŃ ii binomiali din
Bernoulli
X = Y1 + … + Ym, (3.3)
(unde Yi este variabila care ia valoarea 1 sau 0, după cum în experimentul nr. i s-a
obŃinut un succes sau un eşec) şi folosind valorile mediei şi varianŃei unei variabile
Bernoulli..
3. RepartiŃia Poisson cu parametrul l > 0 este repartiŃia unei variabile aleatoare
λn − λ
P(X = n) = e , (nœN).
n!
(3.4)
Este un caz limită al repartiŃiei binominale B(m, p) pentru m → ∞ şi p → 0 , cu
condiŃia mp = λ = constant.
Dacă v.a. X urmează o repartiŃie Poisson cu parametrul l, atunci
pt
E[X] = Var(X) = l; gX(t) = .
1 − qt
aleatoare discrete X care reprezintă numărul de bile albe obŃ inute după m extrageri fără
C na C m - n
b
P(X = n) = , max (0, m - b) n min(a, m); (3.7)
m
C
a+b
a+b−n
E[X] = mp; Var(X ) = npq ,
a + b −1
unde
a b
p= , q= .
a+b a+b
3.2. RepartiŃii absolut continue. 1. RepartiŃia uniformă în intervalul [a ,b] este
1
, x ∈ [a , b],
p(x ) = b − a . (3.8)
0, x ∉ [a , b]
În acest caz
0, x < a ,
x − a
F(x) = , a ≤ x ≤ b , E[X] =
a+b
, Var(X) =
(b − a)
2
; cX(t) =
1
[
eitb−ita . ]
x − b 2 12 it (b − a )
1, x > b.
2. RepartiŃia exponenŃială cu parametrul λ >0, este repartiŃ ia unei variabile
În acest caz
1 1 λ
F(x) = 0, −xλ<0x , E[ X ] = , Var( X ) = 2 ; c X (t ) = .
1−e x ≥0 λ λ λ − it
Fig. 3.2. Graficele unei densităŃ i şi unei funcŃii de repartiŃ ie exponenŃ iale
t x2
1 −
Φ (t ) = ∫e 2 dx , (3.12)
2π −∞
dar densitatea (3.10) neavând primitivă exprimabilă prin funcŃ ii elementare, valorile
funcŃ iei lui Laplace (calculate cu metode aproximative pentru argumente variind, de
X = s Z + m, (3.14)
În acest caz se foloseşte notaŃia X ~ N(m, s ). (În particular, dacă X este o variabilă
σ2t 2
E[X] = m, Var (X) = s 2, cX(t) = exp itm − .
2
x- m
P(Xx) = P Z ≤ ,
σ
x-m
F(x) = Φ ,
σ
(3.15)
unde Φ este funcŃ ia lui Laplace; în particular, pentru orice interval [a, b], relaŃ ia (2.8) ne
Exemplul 2.1. (Legea 3s). Dacă X ~ N(m, s ), atunci folosind formula (3.16),
Din tabelul de valori ale funcŃ iei lui Laplace găsim Φ (3) ≅ 0,999, deci
prin relaŃ ia (3.10), funcŃ ia lui Laplace (3.12) este derivabilă şi are derivata egală cu
repartiŃia N(m, s ) poate fi obŃinută prin derivarea funcŃiei sale de repartiŃ ie (3.15):
( x − m )2
1 −
2 σ2
pX(x) = e , (3.18)
2πσ
o formulă cu relevanŃă exclusiv teoretică.
cu densitatea de probabilitate
λp −λx p−1
p( x ) = e x , (x >0) (3.19)
Γ( p )
unde
∞
G(p) = ∫ e −x x p−1dx .
0
caracterizat prin variaŃia mai multor mărimi aleatoare. Din punct de vedere matematic
astfel de cazuri sunt descrise de conceptul de vector aleator.
DefiniŃia 1. Fie (W, , P) un câmp de probabilitat. Un vector aleator n-
vectorială cu valori în Rn
E[X].
DefiniŃia 2. Fie X = ( X1, X 2 ,K, X n ) un vector aleator n-dimensional. FuncŃia
Ca şi în cazul 1-dimensional, pentru orice submulŃ ime boreliană M din Rn, putem
arăta că imaginea inversă X-1(M) aparŃine atunci σ-algebrei , deci este un eveniment
PropoziŃia 1.1. Dacă X este un vector aleator n-dimensional, atunci pentru orice
X-1(M)∈ este o σ-algebră de părŃ i ale lui Rn, care, deoarece fiecare Xi este o variabilă
aleatoare, conŃine familia a mulŃ imilor de forma M1µ…µMn, cu Mi mulŃ imi boreliene
din R. (Imaginea inversă a unei astfel de mulŃ imi fiind X1-1(M1) ∪… ∪Xn-1(Mn), cu
Xi-1(Mi)∈.) Ca urmare, * va conŃ ine şi σ-algebra generată de , care prin definiŃ ie este
Corolar. Dacă X este un vector aleator cu componentele X1, …, Xn, atunci pentru
σ(X1, …, Xn) este cea mai mică σ-algebră de părŃi ale lui W în raport cu care fiecare din
mX (M ) = P(XœM), Mœ,
se obŃ ine o măsură de probabilitate mX pe s-algebra n a mulŃ imilor boreliene din Rn,
măsură numită repartiŃia vectorului X.
Cunoscând această repartiŃ ie, putem determina repartiŃ iile oricărui vector
X' = ( X i1 , X i2 ,K, X ie ) extras din X; de exemplu, pentru X' = (X1, …, Xn-1), şi pentru
ii) Vectorul X = ( X1, X 2 ,K, X n ) se numeşte absolut continuu dacă există o funcŃie
relaŃ ia (4.3) exprimă faptul că orice submulŃ ime M de forma (-¶, a1]µ …µ (-¶, an] din
Rn satisface relaŃ ia
boreliene din Rn, de aici rezultă (v. Anexa 1) că formula este adevărată pentru orice
În particular pentru un vector aleator bidimensional (X, Y), densităŃile marginale ale
respectiv
∞
p2(y) =
−∞
∫ p( x, y)dx .
(4.7)
Într-adevăr, pentru orice aœR, avem
∞a
P(Xba) = ∫ dx ∫ p( x, y )dy ,
−∞ − ∞
deci densitatea de probabilitate a variabilei aleatoare X este dată de (4.6).
Analog, dacă (X, Y) este un vector aleator discret pentru care X ia valorile (am) şi Y ia
valorile (bn), atunci cunoaşterea repartiŃ iei vectorului respectiv presupune cunoaşterea
iar repartiŃiile marginale ale celor două variabile sunt date atunci de
(4.11)
Exemplul 1.1. Fie p( x , y) = Ce −2 x e −4 y , dacă x ≥ 0 şi y ≥ 0 , şi zero în rest. Punând
şi
∞
p 2 ( y) = ∫ 8e − 2 x e −4 y dx = 4e −4 y , ( y ≥ 0 ).
0
Exemplul 1.2. Fie (X, Y) vectorul aleator care ia valorile întregi m = 0,…, n - 1,
P(X = m, Y = n) = Cpn - 1,
unde pœ (0, 1).
Punând condiŃ ia (4.9), obŃinem
∞
C ∑ np n-1 = 1 ,
n =1
deci
C
= 1,
(1 − p) 2
respectiv
P(Y = n) = n q2 pn - 1, (n = 1, 2, …).
DefiniŃia 4. Variabilele aleatoare X1, …, Xn se numesc independente, dacă pentru
orice a1, …, anœR, este satisfăcută relaŃia
P( X 1 ≤ a1 ,K , X n ≤ a n ) = P ( X 1 ≤ a1 )…P ( X n ≤ an ) (4.12)
cu alte cuvinte, funcŃ ia de repartiŃ ie a vectorului aleator X = ( X1, …, Xn) este produsul
ObservaŃia 1.3. i) Făcând o parte din variabilele xi să tindă la ¶, din (4.12) rezultă o
relaŃ ie analogă satisfăcută de componentele oricărui vector aleator extras din X, deci
a1 an a a
1 n
FX(x1, …, xn) = ∫ p1 ( x1 )x1 ... ∫ p n ( xn )d x n = ∫ ... ∫ p ( x )... p (x
1 1 n n )dx1 ...dx n ,
−∞ −∞ -∞ -∞
deci funcŃ ia cu variabile separate p1(x1)…pn(xn) satisface condiŃ ia din definiŃ ia densităŃii
ExerciŃiul 1.1. ArătaŃi că dacă variabilele aleatoare X1, …, Xn sunt discrete, atunci
P ( X 1 = a1 ,K , X n = a n ) = P ( X 1 = a1 )... P ( X n = an ) . (4.15)
Exemplul 1.3. Fie vectorul aleator ( X , Y ) cu densitatea de probabilitate
2 x
p( x, y ) = exp( −( x + y )) pentru x > 0 , y > 0 şi zero în rest.
π y
SoluŃie. Deoarece p(x, y) este o funcŃie cu variabile separate, cele două componente
sunt independente între ele, iar densităŃ ile marginale sunt de forma
p1(x) = C1 x e − x
1 −y
p2 (y) = C2 e ,
y
2 2 1
cu C1C2 = . Punând condiŃ ia (2.10), se obŃine C1 = , C2 = .
π π π
o repartiŃ ie exponenŃ ială cu parametrul l>0, fiecare din funcŃ iile de repartiŃie Fi(x) va fi
egală cu
x
-lx -lx
∫λ e
0
dx = 1 - e , (x¥0),
parametrul n l.
4.2. FuncŃii de mai multe variabile aleatoare. NoŃiunea de funcŃ ie de argument
aleator se extinde la cazul funcŃ iilor de mai multe variabile. Fie X = ( X1, X 2 ,K, X n ) un
mulŃ imile boreliene din R în mulŃ imi boreliene din Rn (Exemplul 2.1.1). Atunci aplicaŃ ia
compusă Y = f ° X este o variabilă aleatoare care se notează f(X1, …, Xn): Pentru orice
Y-1(A) = X-1(f-1(A)) ∈
deoarece prin ipoteză f-1(A) ∈ n, iar X inversează mulŃ imile boreliene din Rn în mulŃ imi
din .
ObservaŃia 2.1. Din cele de mai sus rezultă că dacă notăm = σ(X1,…, Xn)
poate arăta că dacă o variabilă aleatoare Y fare această ultimă proprietate, atunci există o
(4.18)
AplicaŃia 2.1. (Densitatea sumei a două variabile aleatoare). În cazul n = 2, luând
p(x, y), densitatea variabilei aleatoare Z poate fi calculată după cum urmează: Pentru
P(Z ≤ a) = ∫∫M
p( x, y)dx dy ,
unde
M = {(x, y)œR2 | x + y ≤ a}
este semiplanul mărginit superior de dreapta x + y = a (fig. 4.1), semiplan în care, pentru
devine
∞ a−x
∫
−∞
dx ∫ p( x, y) dy.
−∞
relaŃ ie al cărui membru drept poartă numele de convoluŃia funcŃ iilor p1(x) şi p2(y), şi care,
Dacă (X, Y) este un vector aleator discret ale cărui componente iau valori întregi,
sau, notând
P(X = m) = pm, P(Y =n) = qn,
∞
P(Z = n) = ∑
k = −∞
pk qn-k, (4.23)
relaŃ ie al cărui membru drept reprezintă termenul general al convoluŃiei şirurilor {pm} şi
două variabile sunt absolut continue. Densitatea lor comună de probabilitate este atunci
c X + Y (t ) = c X (t )cY (t ) (4.26)
Într-adevăr
c X +Y ( t ) = E[e it ( X + Y ) ] = E[e itX ] E[e itY ] = c X ( t )c Y ( t ) .
Exemplul 2.1. Fie X, Y două variabile aleatoare independente de tip N(m1, s1),
respectiv N(m2, s2). Atunci suma lor este o variabilă normală de tip N(m1+ m2,
σ12 + σ 22 ) .
AfirmaŃ ia, care se extinde prin inducŃ ie la orice combinaŃ ie liniară de variabile
sunt două variabile aleatoare independente, avănd cea dintâi repartiŃia Gamma cu
Z=X+Y
are repartiŃia Gamma cu parametrii l, p + q.
λq −λx q-1
e x , (x >0),
Γ( q )
se obŃine funcŃ ia
λ p +q
e −λx x p +q-1 , (x >0),
Γ( p + q)
parametrii
l, p1 + ...+ pn.
Exemplul 2.2. (RepartiŃia χ 2 cu n grade de libertate). Dacă X este o variabilă
normală standard atunci funcŃ ia de repartiŃ ie a variabilei Y = X2 este nulă pentru a0, iar
densitatea
n
1 −1 x
p( x ) =
n x 2 exp − , x ≥ 0. (4.28)
n 2
2 2 Γ
2
Exemplul 2.3. (RepartiŃia Erlang). Pentru p = 1 repartiŃ ia Gamma se reduce la
având densitatea
λn
p(x) = x n-1e −λx , (x > 0).
(n - 1)!
(4.29)
PropoziŃia 2.2. Fie vectorul aleator X = ( X 1 ,..., X n ) cu densitatea de
probabilitate
p(x) = p(x1,…, xn),
f un difeomorfism între doi deschişi din Rn cu componentele f1(x), …, fn(x), şi Y = f(X)
Dg
F(a1, …, an) = ∫ ...∫ p(g(y)) dy1 ...dy n . Ö
M Dy
y12 + y 22 y12 + y 22
1 − 2 1 − 2
q( y1, y2 ) = e | −1 |= e ,
2π 2π
deci Y are aceeaşi repartiŃie ca şi X.
2π −∫∞ 2π −∫∞
pZ(x) = e dz = e
dz = e 4 .
2 π
ProprietăŃile covarianŃei.
varianŃelor.
covarianŃei.
1
E[XY] = ∫∫ xy dxdy = 0,
D π
şi analog
1 1
E[X] = ∫∫ x dxdy = 0 = ∫∫ y dx dy = E[Y],
D π D π
deci Cov(X, Y) = 0, deşi densitatea comună de probabilitate nu este o funcŃie cu variabile
DefiniŃia 2. Raportul
Cov ( X,Y )
r ( X,Y ) := (4.35)
Var ( X ) Var (Y )
lui Schwarz
|E[XY]| ≤ E[ X 2 ] E[Y 2 ] ,
(4.36)
cu egalitate, în ipoteza că X nu este aproape sigur nulă, doar dacă Y este aproape sigur
E[ XY ]
egală cu λ X, unde λ = .
E[ X 2 ]
|XY | ≤ || X || ||Y ||
variabilelor X , Y privite ca elemente ale spaŃiului L2(W) înzestrat cu produsul scalar
(2.16). Ö
Corolar. Coeficientul de corelaŃie r a două variabile aleatoare X, Y satisface
inegalitatea
| r | ≤ 1,
cu egalitate doar dacă Y - E[Y] este aproape sigur egală cu λ (X - E[X]), unde
Cov( X,Y )
λ = .
Var ( X )
Dreapta de ecuaŃie
Cov( X,Y )
y- E[Y] = (x - E[X])
Var ( X )
(4.37)
se numeşte dreapta de regresie a lui Y în raport cu X.
ObservaŃia 3.1. i) Din cele de mai sus se vede că dacă |r(X, Y)| este aproape de 1
^
- Pentru r (X, Y) >0, panta dreptei de regresie este pozitivă. La creşterea lui X, Y
are tendinŃa să crească.
^
- Pentru r (X, Y) < 0, panta dreptei de regresie este negativă. La creşterea lui X, Y
are tendinŃa să descrească.
^
- Pentru r (X, Y) = 0, drepta de regresie este o dreaptă orizontală, iar estimatorul Y
se reduce la constanta E[Y], care nu oferă nicio informaŃ ie asupra lui Y pornind de la
cunoaştererea valorii luate de X.
iii) Dacă ambele medii sunt nule, estimatorul liniar (4.38) coincide cu estimatorul
liniar omogen
^
E[ XY ]
Y= X, (4.39)
E[ X 2 ]
care (în cazul general) reprezintă proiecŃia ortogonală a lui Y pe subspaŃ iul vectorial
cea care minimizează eroarea în medie pătratică E[(Y - Y1)2]. Din acestr motiv, el se
Introducând operatorul de mediere al unei matrice aleatoare care acŃionează luând media
pe X ca un vector coloană
X1
X = ...
X n
putem scrie
RX = E[XXt], (4.42)
unde
Xt = [X1 … Xn]
este transpusa matricei coloană X, iar X t X este matricea aleatoare cu componentele XiXj.
orice matrice de autocorelaŃie este o matrice simetrică, semipozitiv definită: pentru orice
i, j =
ii) Ea este chiar pozitiv definită, (în particular determinantul ei este strict pozitiv) cu
excepŃia cazului când E[Y2] = 0 pentru o anumită alegere a constantelor nu toate nule,
ceea ce se poate întâmpla doar dacă Y este aproape sigur nulă, adică vectorul X este cu
probabilitate 1 situat într-un anumit hiperplan trecând prin origine. (Se spune atunci că X
obŃine un vector aleator Y = AX, a cărui matrice de autocorelaŃie este, conform relaŃ iei
(4.42),
RY = E [AX (AX)t] = E [AX Xt A t ] = A E[X Xt ] At = ARX At,
deci, la o transformare liniară aplicată vectorului X, matricea de autocorelaŃ ie se schimbă
după regula
ii) KX este o matrice pozitiv definită, în particular det (KX ) > 0, cu excepŃ ia cazului
când vectorul X este concentrat într-un hiperplan din Rn, trecând prin centrul de
dispersie E[X].
iii) Dacă cele n componente ale lui X sunt necorelate (în particular dacă ele sunt
iv) Dacă A este o matrice pătratică, iar m un vector din Rn, atunci notând
Y = AX + m,
avem
KY = A KX At, (4.44)
t
unde A este transpusa matricei A.
4.5. Estimatori liniari. În diverse situaŃ ii practice avem de a face cu o anumit ă
doar estimată pe baza valorilor altor variabile aleatoare X1, …, Xn considerate observabile
(adică susceptibile de a fi măsurate exact). Aceasta conduce la problema estimării, pe
care, în varianta ei liniară, am întâlnit-o deja în secŃiunea 4.3 pentru cazul particular n = 1
(al unei singure variabile observabile X). În cazul general, continuăm să căutăm
a) Estimatori liniari omogeni. Estimatorul lui Y este căutat sub forma unei
ortogonală pe cele n variabile X1, …, Xn. RelaŃ iile care rezultă sunt
^
E[ Y Xi] = E[YXi], (i = 1, …, n),
şi, Ńinând seama de (4.45) ele conduc la sistemul de n ecuaŃii cu n necunoscute
n
∑
j =1
E[ X i X j ] a j = E[XiY], (i = 1, …, n), (4.46)
sistem care, notând cu a vectorul coloană cu componentele a1, …, an, poate fi scris
matricial
RX a = RXY .
Presupunând că X nu este concentrat într-un plan trecând prin origine, deci RX
este o matrice nesingulară (cf. ObservaŃ ia 4.1 iii), sistemul precedent admite soluŃ ia unică
-1
a = (RX) RXY. (4.47)
iar (RX)t = R X, (deoarece RX este o matrice simetrică), obŃinem în final estimatorul lui Y
subspaŃ iul generat de cele n + 1 variabile aleatoare 1, X1, …, Xn (constanta 1 fiind tratată
^
tot ca o variabilă aleratoare). Punând condiŃ ia ca diferenŃa Y - Y să fie ortogonală pe 1,
obŃinem
^
E[ Y ] = E[Y],
deci
a0 + a1E[X1] + …+ an E[Xn] = E[Y].
ScoŃându-l de aici pe a0, înlocuindu-l în (4.50) şi regrupând termenii, obŃinem
^ o o
Y = E[Y] + a1 X 1 + …+ an X n . (4.51)
o
unde fiecare X i reprezintă variabila centrată Xi - E[Xi]. De aici rezultă
^ o o o
Y - Y = Y - (a1 X 1 + …+ an X n ),
o o
deci eroarea în medie pătratică va fi minimă atunci când a1 X 1 + …+ an X n reprezintă
o o o o
estimatorul liniar omogen al lui Y în raport cu vectorul X cu componentele X 1 ,..., X n .
o o
Conform relaŃ iei (4.49) aplicate pentru X şi Y , vom avea deci
o o o
-1
a1 X 1 + …+ an X n = KYX (KX) X,
Exemplul 5.1. Se fac n măsurători ale unei anumite mărimi fizice Y, rezultatul Xi al
Xi = Y + Zi, (i = 1, …, n),
unde
Y~ N(0, s), Zi ~ N(0, t),
cele n erori Z1, …, Zn fiind independente între ele şi independente de Y. Se cere cea mai
SoluŃie. Mediile fiind nule, cei doi estimatori (omogen şi neomogen) coincid între ei
σ 2 + τ 2 σ2 ... σ2
. . ... .
RX = ,
. . ... .
2 2
σ σ σ2 σ 2 + τ 2
^
-1
deci Y = RYX (RX) X . Este suficient să observăm că, datorită formei lui RYX , vom avea
atunci
RYX RX = (n σ 2 + τ 2 ) RYX,
-1
de unde, înmulŃ ind la dreapta cu (RX) ,
-1 1
RYX (RX) = RYX ,
nσ + τ 22
şi astfel
^
1 X + ... X n
Y= 2 2
RYX X = σ 2 1 2 ,
nσ + τ nσ + τ 2
(4.53)
x1
sau, sub formă vectorială, notând x = ... ,
x n
1
p X (x) = exp − 1 t , (4.54)
( 2π ) n
2
x x
unde vectorul-linie
xt = [x1, …, xn]
este transpusul vectorului-coloană x.
f(x) = Ax + m,
formula (4.30)
Dg
pY (y) = p X ( g (y))
Dy
în care
obŃinem
1
pY (y) = exp − 1 ( y - m ) t K -1 ( y - m ) , (4.57)
n
(2π) detK 2
în care exponentul
(y - m) tK-1(y - m)
este o formă pătratică în raport cu y1 - m1, …, yn- mn având matricea coeficienŃ ilor egală
(Într-adevăr, conform ObservaŃ iei 4.2, în cazul unui vector normal standard, KX
coincide cu matricea unitate In, deci ultima afirmaŃie este o consecinŃă a formulei (4.44)
vectorului X.)
c) Cazul n = 2. În acest caz,
σ2 rσ1σ 2
K= 1 2
,
rσ1σ 2 σ2
σ1, σ2 sunt abaterile celor două componente X, Y ale vectorului considerat, iat r este
coeficientul lor de corelaŃ ie, în mod necesar diferit de ± 1, deoarece K este inversabilă.
Rezultă
-1 1 σ2 2 - rσ1σ 2
K = 2 2 2 .
σ1 σ 2 (1 − r 2 ) - rσ1σ 2 σ1
forma
1 1 ( x − m1 ) 2 ( x − m1 )( y − m 2 ) (y − m 2 )2
p(x, y) = exp - − 2 r + .
2πσ1σ 2 1 − r 2 2(1 − r 2 ) σ1 2 σ 1σ 2 σ2
2
(4.58)
ObservaŃia 6.1. Din expresia precedentă a densităŃii normale bidimensionale
rezultă că dacă cele două componente X, Y sunt necorelate (adică r = 0), atunci ele sunt
pX(x) şi pY(y).
corespunzând unei partiŃ ii a evenimentului sigur W în trei evenimente A1, A2, A3, având
respectiv probabilităŃile p1, p2, p3, şi notăm cu Xi numărul de apariŃ ii ale evenimentului Ai
parametrii m, pi.
Pentru a determina repartiŃia vectorului X = (X1, X2, X3), observăm că rezultatul
celor m experimente poate fi descris printr-o secvenŃă de m cifre cuprinse între 1 şi 3, iar
m!
P(X1= i, X2 = j, X3 = k ) = p1i p 2j p3k . (4.59)
i! j!k!
Acest rezultat se extinde imediat la cazul a n rezultate posibile, având
probabilit ăŃile p1, …, pn. Se obŃine un vector aleator n-dimensional X, ale cărui valori
figura varianŃele variabilelor binomiale Xi, egale cu mpiqi (unde qi = 1 - pi). Pentru i ≠ j,
Xi = Y1 + … + Ym,
Xj = Z1 + … + Zm,
unde Yh, Zk sunt variabile Bernoulli cu parametrul pi, respectiv pj, Yh este independentă de
(4.61)
(Semnul minus în faŃa covarianŃei dintre Xi şi Xj pentru i ≠ j corespunde faptului că,
deoarece suma celor n variabile este m, orice creştere a uneia din ele este însoŃită de o
Teorema 1.1. (Inegalitatea lui Jensen). Dacă funcŃia g : R → R este convexă, iar X
10 ax0 + b = g ( x0 )
20 ax + b ≤ g ( x ).
În 10 înlocuim x0 = E[X] şi obŃinem
a E[X] + b = g (E[X]),
sau
E[aX + b] = g (E[X]) (5.2)
Din 20 , înlocuind x = X obŃinem aX + b ≤ g ( X ) şi apoi E[aX + b] ≤ E[g(X)]. Din
această
inegalitate şi din (5.2) rezultă (5.1). Ö
}
s
Teorema 1.2. Dacă 0 < r < s , atunci Lr ⊂ Ls , adică dacă E[ X ], s > 0, este finită,
r s r s
Demonstratie. Din inegalitatea X < 1 + X , 0 < r < s , rezultă E[ X ] ≤ 1 + E[ X ] < ∞ ,
r
deci E[ X ] < ∞. Ö
1 1
Teorema 1.2. (Inegalitatea lui Hölder) Fie p > 1 şi q > 1 astfel ca + = 1,
p q
X ∈ Lp şi Y ∈ Lq ; atunci
p 1 q 1
E[ XY ] ≤ [ E X ] p [ E X ] q
. (5.3)
DemonstraŃie. a) Membrul drept al inegalităŃii este nul. În acest caz un factor din
( )
1
p p
partea dreaptă a inegalit ăŃii este nul. Dacă, de exemplu, E X = 0, atunci
obŃinem
p q
XY 1 X 1 Y
≤ + .
( ) ( )
1 1 p q
p
E[ X ]
p
E[ Y ]
q q p E[ X ] q E[ Y ]
1 1
Luând media în aceasta inegalitate şi Ńinând seama că + = 1 , rezultă (5.3).Ö
p q
Pentru p = q = 2 , inegalitate lui Hölder devine inegalitatea lui Schwarz:
E[ XY ] ≤ E[ X 2 ] E[Y 2 ] (5.4)
Teorema 1.3. (Inegalitatea lui Kolmogorov). Dacă X1, ..., Xp sunt variabile
aleatoare independente, cu medii nule şi varianŃe finite V1, ..., Vp, atunci, notând
I = I1 + … + Ip.
(5.7)
Pe de altă parte, prin ipoteză,
E[S 2p ] = V1 + ... + V p ,
(5.8)
iar din cele de mai sus,
E[S 2p ] ¥ E[S 2p I ] = E[S 2p I1] + …+ E[S 2p Ip].
(5.9)
În sfârşit, pentru m = 1, …, p-1, aplicând Coroalrul 2 al Teoremei 1 (Anexa 2),
variabilele SmIm = (X1+ ...+ Xm) Im şi (Sp - Sm) = Xm+1 + …+ Xp sunt independente între
obŃinem
E[S 2p Im] ¥ E[S 2m Im],
de unde, înlocuind în (5.9), şi folosind apoi inegalitatea evidentă S 2m Im ¥ ε 2 Im,
P({ X n → X }) = 1. (5.10)
(MulŃ imea evenimentelor elementare wœW pentru care Xn(w) → X(w) formează un eveniment
a. s .
de probabilitate 1.) Se notează X n → X.
PropoziŃia 2.1. Şirul (Xn) converge a.s. către X dacă şi numai dacă pentru fiecare
ε >0
∞
P I U {| X m − X | ≥ ε} = 0. (5.11)
n =0 m =n
DemonstraŃie. Notând
avem
D = U D (ε ) ,
ε >0
(5.12)
unde, pentru fiecare ε >0,
∞
D( ε ) = I U {| X m − X |≥ ε}
n =0 m = n
(5.13)
reprezintă mulŃ imea evenimentelor elementare w cu proprietatea că |Xn(w) - X(w)| ¥ ε
că
∞
1
D= U D k ,
k =1
a. s .
deducem că P(D) = 0, deci X n → X.
Corolar. Şirul de variabile aleatoare (Xn) converge a.s. către X dacă şi numai
∞
lim P U{| X m − X | ≥ ε} = 0.
n →∞
m =n
(5.14)
DemonstraŃie. Rezultă din PropoziŃia precedentă aplicând continuitatea măsurii de
∞
probabilitate şirului descrescător de evenimente U {| X m − X | ≥ ε} .
m =n n ≥0
Cu aceeaşi metodă se poate demonstra criteriul Cauchy de convergenŃă a.s.:
PropoziŃia 2.2. Şirul de variabile aleatoare (Xn) converge a.s. către o anumită
∞
lim P U {| X m − X n |> ε} = 0.
n →∞
m =n+1
(5.15)
∞
Corolar. Seria de variabile aleatoare ∑X
n =0
n este aproape sigur convergentă dacă şi
Sn= X0 + ...+Xn.
PropoziŃia 2.3. Dacă (Xn) este un şir de variabile aleatoare cu medii nule, iar
∞ ∞
∑
n =0
Var (Xn) < ¶, atunci seria ∑
n =0
Xn converge a.s.
DemonstraŃie. Pentru orice m¥1, aplicând inegalitatea lui Kolmogorov variabilelor
p 1
P U {| X n+1 + ... + X n+ m | ≥ ε} ≤ 2 [Var( X n +1 ) + ... + Var( X n+ p )) ≤
m=1 ε
∞
1 1
b
ε2
∑ Var ( X
m=1
n+ m )=
ε2
Rn.
∞ 1
P U {| X n +1 + ... + X n+ m | ≥ ε} ≤ 2 Rn,
m=1 ε
∞
unde Rn este restul unei serii convergente, deci Rn Ø 0 pentru nض, şi astfel seria ∑X
n =0
n
Se foloseşte notaŃia X n
P
→ X.
a. s .
ObservaŃia 2.1. Dacă X n → X , atunci X n
P
→ X . Avem
∞
P(|Xn- X | > ε ) b P U{| X m − X | > ε} ,
m= n
∞
deci dacă P U{| X m − X | > ε} Ø0, şirul P(|Xn- X | > ε ) va avea aceeaşi proprietate, iar
m= n
afirmaŃ ia rezultă aplicând PropoziŃ ia 2.2.
r
DefiniŃia 3. Fie şirul de v.a. (Xn), cu E[ X n ] < ∞, r > 0, ∀ n ∈ N * . Şirul converge în
(5.18)
r
Se notează X n
→ X . Dacă r = 2 convergenŃa se numeşte convergenŃă în medie
pătratică.
ObservaŃia 2.2. Din inegalitatea (2.29)
E[| X n − E[ X ] |r ]
P(| X n − E[ X ] |≥ ε ) ≤ ,***
εr
r P
rezultă că, dacă X n
→ X , atunci X n
→X .
Se notează Xn
→
s
X. ***
Exemplul 2.2. Dacă (Xn) este un şir de variabole aleatoare cu densităŃ ile de
n
probabilitate f n ( x) = 2 2
atunci Xn →s
X= 0. Într-adevăr,
π(1 + n x )
0 x < 0 n x dt 1 π
FX ( x ) = . FX n ( x) = ∫ = (arctg (nx ) + )
1 x ≥ 0 π −∞ 1 + n t π
2 2
2
0 x < 0
lim FX n ( x) = ; lim FX n ( x ) = FX ( x) x ≠ 0.
n→∞ 1 x > 0 n→ ∞
1
Dacă x = 0 , atunci lim FX n (0) = ≠ FX (0) , dar x = 0 nu este punct de continuitate
n→ ∞ 2
al funcŃiei F ( x ).
P
PropoziŃia 2.4. Dacă X n
→ X , atunci Xn
→
s
X.
P
DemonstraŃie. Presupunem X n
→ X şi fie
Între tipurile de convergenŃă definite mai sus există deci următoarele implicaŃii:
a. s . P
a) Dacă X n
→ X , atunci X n
→ X . (ObservaŃ ia 2.1).
r P
b) Dacă X n
→ X , atunci X n
→ X . (Observatia 2.2).
P
c) Dacă X n
→ X , atunci Xn
→
s
X . (PropoziŃ ia 2.4).
0 1
Xn: .
1 − n
−1
n −1
Evident, pentru ε >0, P(|Xn|¥ ε ) = n −1 Ø0, deci şirul (Xn) tinde în probabilitate către 0.
∞ ∞ k
P U Am (ε) = 1 - P I{| X n − X |< ε} = 1 - lim P I{| X n − X |< ε}.
k →∞
m= n m =n m= n
Folosind independenŃa variabilelor (Xn), de aici rezultă
∞ 1 1 1 n −1
P U Am (ε) = 1 - lim 1 − 1 − ...1 − = 1 − lim =1
m= n k →∞ n n + 1 n + k k →∞ n + k
Pentru ε >0, P(|Xn|¥ ε ) = n −2 Ø0, deci şirul converge în probabilitate, dar nu converge în
5.3. Legea numerelor mari. Fie câmpul de probabilitate (W, , P). Diversele
variante ale legii numerelor mari formulează condiŃ ii pentru ca, dându-se un şir de
1 n
variabile aleatoare Xn: WØR, şirul mediilor aritmetice Sn = ∑ X i să aibă proprietatea
n i =1
că
Sn - E[Sn]
→ 0
în sensul convergenŃei în probabilitate sau aproape sigure.
Teorema 3.1. (Cebâşev). Fie (Xn)n¥1 un şir de v.a. independente cu medii (mn) şi
varianŃe (Vn) . Dacă şirul varianŃelor (Vn) este majorat de o anumită constantă C>0,
atunci
1 n
∑
n i =1
P
( X i (ω) − mi ) → 0.
1 n
Din inegalitatea lui Cebâşev aplicată şirului Sn = ∑ X i , pentru orice ε > 0 ,
n i =1
avem
Var( S )
P(|Sn - E[Sn]| ≥ ε ) ≤ n
2
ε
(5.19) în vreme ce, datorită independenŃei şi mărginirii
şirului varianŃelor,
1 n C
Var(Sn) =
n2
∑ Var( X ) ≤i
n
. (5.20)
i =1
1 n
de unde, Ńinând cont că E[Sn] = ∑ mi , rezultă concluzia cerută. Ö
n i =1
− n 0 n
X n: 1 1 1
n 1 − n −1
2 2 2n
îndeplineşte condiŃ iile teoremei lui Cebâşev:
n2
Avem E[Xn] = 0; Var (Xn) = n −1 . Şirul (Var (Xn))n este mărginit, deoarece este
2
Corolar. (Teorema lui Bernoulli). Fie ν n numărul de realizări ale unui eveniment
iar (5.21) rezultă aplicând Teorema lui Cebâşev, ale cărei ipoteze sunt îndeplinite
deoarece
1
Var(Xn) = pq b .Ö
4
ObservaŃia 3.1. (Teorema lui Markov). Din demonstraŃia Teoremei lui Cebâşev
rezultă că aceeaşi concluzie este valabilă pentru orice şir (Xn) de variabile aleatoare
satisfăcând condiŃ ia
n
1
n→∞
lim
n2
∑
i =1
Var ( X ) = 0.
i (5.22)
n 2
∑
i =1
(ln i)
(ln( n + 1)) 2
lim = lim = 0,
n→∞ n2 n →∞ (n + 1) 2 − n 2
repartizate şi având medii finite, fără a impune condiŃii asupra varianŃelor, urmează legea
1
*** P(X = n) = , (n = 1, 2, …),
cn 3
∞
1
unde c=∑ , îndeplineşte condiŃiile teoremei lui Hincin, deoarece mediile
n =1 n3
1 ∞ 1 π2 ∞
n2 1 ∞ 1
E[ X n ] = ∑ =
c n =1 n 2 6c
sunt finite. Cum E [ X 2
] = ∑
n =1 cn
3
= ∑ = ∞ iar mediile sunt
c n=1 n
finite, rezultă că Var(Xn) = ¶, deci teorema lui Markov nu putea fi aplicată în acest
exemplu.
5.4. Legea tare a numerelor mari. În această secŃiune demonstrăm două teoreme
(a1 +... + an)/n = [S1 + 2(S2 - S1) + …+ n(Sn - Sn-1)] / n = Sn - (S1 + … + Sn)/n,
iar concluzia rezultă din lema lui Stolz, care în cazul de faŃă arată că cele două şiruri (Sn)
şi
1 n
∑ ( X i − mi ) a.s.
n i =1
→ 0 . (5.24)
X − mn
DemonstraŃie. Aplicând PropoziŃ ia 2.3 şirului de variabile aleatoare n ,
n
∞ X −m
obŃinem convergenŃa a.s. a seriei ∑ n n
, deci notând
n =1 n
∞ X (ω) − m
A = ω ∈ Ω ∑ n n
converge ,
n =1 n
avem P(A) = 1. Conform Lemei precedente, are loc incluziunea AÕB, unde
1 n
B = ω ∈ Ω lim ∑ ( X i (ω) − mi ) = 0 ,
n →∞ n
i =1
deci P(B) = 1, ceea ce reprezintă concluzia cerută. Ö
1 n
∑ X i − m →
a.s.
0 (5.25)
n i =1
pentru o anumită constantă reală m dacă şi numai dacă E[X1] există şi este egală cu m.
ale şirului considerat) admite media finit ă m. Atunci E[| X1 |] <¶, iar din criteriul (2.44)
rezultă
∞ ∞
∑ P(| X 1 | > n) = ∑ P(| X n | > n) < ∞ .
n =1 n =1
(5.26)
1 n
∑
n i =1
( X i - Yi) →
a.s.
0. (5.27)
b) Arătăm că şirul (Yn) satisface ipotezele Teoremei 4.1. Notând Vn = Var (Yn), avem
n
Vn b E[Y 2n ] = E[X 12 In ] = ∑ E [X
m=1
2
1 Jm ],
şi astfel
∞ ∞ ∞
Vn 1 n
∞ 1
∑=1 n 2
b ∑=1 n m∑=1m E[ | X
2 1 | J m ] = ∑=1E[ | X 1 | J m ] m ∑ 2 . (5.28)
n n m n=m n
Dar
∞ ∞
∑ J m = 1fl
m=1
∑ E[ | X
m =1
1 | J m ] = E[|X1|],
iar
∞ ∞ ∞
1 1 1 1
n=m
∑ n 2
b ∑
n = m n( n - 1)
=
m -1
fl m ∑
n =m n
2
b2,
1 n
∑ (Yi − E[Yi ]) a.s.
n i =1
→ 0.
(5.29)
Din lema lui Stolz şi teorema convergenŃei monotone,
1 n
lim
n→∞ ∑ E[Yi ] = nlim
n i =1 →∞
E[Yn] = lim E[Y1In] = E[X1] = m,
n→∞
deci
1 n
∑ Yi − m →
a.s.
0,
n i =1
ceea ce, Ńinând seama de (5.27), implică (5.25).
d) Reciproc, dacă pentru o anumită constantă m,
1 n
∑ X i − m →
a.s.
0,
n i =1
(5.30)
n
atunci, notând ∑
i =1
X i = Sn, vom avea
1
S n →
a.s.
m,
n
deci
1 1
X n = ( S n − S n-1 ) →
a.s.
0,
n n
în particular
∞ ∞
P({| Xn | rn pentru o infinitate de indici n}) = P I U {| X n | ≥ n} = 0.
m =0 n=m
Folosind Corolarul Lemei Borel-Cantelli, de aici rezultă
n n
∑
n =1
P(| X1| r n ) = ∑ P(| Xn| r n ) < ¶,
n =1
iar o nouă aplicare a criteriului (2.44) arată X1 admite atunci o medie finită E[X1 ]. Dar în
1 n
∑ X i − E[X1] →
a.s.
0,
n i =1
deci, Ńinând seama de (5.30), m = E[X1]. Ö
acestei variabile. Dacă lim cn(t) = cZ(t), atunci lim Fn(x) = F ( x) , unde F ( x) este funcŃia
n →∞ n →∞
de repartiŃie a v.a. Z.
łinând seama de această proprietate, avem de arătat că
t2
−
lim cn(t) = e 2
,
n →∞
Notând
Xk −a
Yk = ,
σ
putem scrie
n
∑X k − na
1 n
Zn = k =1
σ n
= ∑Y
n k =1
k .
t2
g (t) = 1 − + o( t 2 ) ,
2
de unde
n
t2 ,
gn ( t) = [ 1 − + o (t 2 ) ]
2
iar (2.34) ne dă
t2 t2 n
cn(t) = [ 1 − + o ] ,
2n n
şi astfel
t2
−
lim cn(t) = e 2
.Ö
n →∞
∑X k − np
1
x
−
t2
lim P(
n →∞
k =1
npq
≤ x) =
2π ∫e
−∞
2
dt . (6.2)
faptului că, dându-se o anumită familie de submulŃ imi ale lui W, o dată cu o altă
DefiniŃie. Familia de submulŃ imi ale unei mulŃ imi W este o clasă monotonă dacă
1o W∈.
ObservaŃie. Din această definiŃ ie rezultă în particular că orice σ-algebră este o clasă
monotonă, deci notând cu µ() cea mai mai mică dintre clasele monotone care conŃin o
anumită familie de submulŃ imi ale lui W, (intersecŃia tuturor claselor monotone cu
Lemă. Dacă este stabilă faŃă de intersecŃii finite, atunci µ( ) este o σ-algebră.
DemonstraŃia acestei leme rezultă din următoarele afirmaŃ ii, ale căror demonstraŃii
sunt lăsate ca exerciŃ ii:
1. O clasă monotonă şi stabilă faŃă de intersecŃii finite este o σ-algebră.
2. Pentru fiecare submulŃ ime fixată A∈µ(), notând
(A) = familia mulŃ imilor X∈µ(), cu A∪X∈µ() ,
(A) este o clasă monotonă.
3. A ∈ fl {(A) } fl {(A) µ()}.
4. {A ∈ , B∈µ()} fl B∈ (A) fl A∈ (B).
5. B∈µ() fl {(B) }fl {(B) µ()}, deci µ() este stabilă faŃă de intersecŃ ii
finite. Ö
Corolar. În condiŃiile lemei, µ( ) = σ( ).
DemonstraŃie. Fiind o σ-algebră care conŃ ine pe , µ( ) va conŃine cea mai mică
σ-algebră cu această proprietate, care este σ(), în vreme ce incluziunea inversă este
încât
pentru care este satisfăcută relaŃia (2), familie care este o clasă monotonă. Ö
AplicaŃie. Dacă p(x1,…, xn) este densitatea de probabilitate a unui un vector aleator