Sunteți pe pagina 1din 93

CUPRINS

§1. Câmpuri de probabilitate


1.1. Câmpuri discrete de probabilitate………………………………………9
1.2. NoŃiunea de s-algebră………………………………………………….11

1.3. OperaŃii cu evenimente………………………………………………...13

1.4. Măsuri de probabilitate………………………………………………...14

1.5. Evenimente independente……………………………………………...17


1.6. ProbabilităŃi condiŃionate……………………………………………….21

§2. Variabile aleatoare


2.1. DefiniŃii, clasificare şi exemple………………………………………..23

2.2. Caracteristici numerice ale variabilelor aleatoare……………………..31


2.3. FuncŃii generatoare şi funcŃii caracteristice……………………………37

2.4. Extinderi ale noŃiunii de variabilă aleatoare…………………………...39

§3. Legi clasice de repartiŃie

3.1. RepartiŃii discrete ……………………………………………………....42

3.2. RepartiŃii absolut continue……………………………………………...44

3.3. RepartiŃii fără memorie………………………………………………...48

§ 4. Vectori aleatori
4.1. RepartiŃii discrete şi continue……………………………………..........49

4.2. FuncŃii de mai multe variabile aleatoare…….…………………………53

4.3. CovarianŃa a două variabile aleatoare……………………………….....59

4.4. Matrice de corelaŃie şi de covarianŃă…………………………………..63

4.5. Estimatori liniari……………………………………………………….65


4.6. RepartiŃia normală n-dimensională……………………………….........68

4.7. RepartiŃia multinomială………………………………………………...70


§ 5. Şiruri de variabile aleatoare

5.1. InegalităŃi probabilistice.……………………………………………....72

5.2. Tipuri de convergenŃă…………………………………………………73

5.3. Legea numerelor mari…………………………………………………77

§6. Teorema limită centrală…………………………………………………..81

ANEXA 1
Teorema clasei monotone…………………………………………………90
BIBLIOGRAFIE……………………………………………………………..
§1. Câmpuri de probabilitate

Teoria probabilităŃilor poate fi definită drept ramura matematicii care studiază

“experimentele aleatoare” - experimente care, după observaŃii repetate, conduc la

rezultate diferite, ce nu pot fi prezise în mod determinist, dar prezintă o anumită

regularitate, sau stabilitate statistică. Exemple:

* Aruncarea unei monezi;


* Aruncarea unui zar;
* Extragerea unei bile dintr-o urnă conŃinând bile de mai mult culori;

* Măsurarea intensităŃii curentului sau a tensiunii la bornele unui aparat.

NoŃiunile fundamentale ale acestei teorii sunt cele de eveniment elementar (unul

din rezultatele posibile ale unui anumit experiment), eveniment (o anumită submulŃime de

evenimente elementare) şi de probabilitate (măsura posibilităŃii producerii unui anumit

eveniment, dată de un număr cuprins între 0 şi 1).

1.1. Câmpuri discrete de probabilitate. Totalitatea rezultatelor posibile ale unui


experiment se numeşte spaŃiul evenimentelor elementare şi se notează cu W.
DefiniŃia 1. Se numeşte câmp discret de probabilitate obiectul format dintr-o

mulŃime finită sau numărabilă W = {wn}n∈ I, (unde I este fie o mulŃime de forma {1, …,

N}, fie mulŃimea N a numerelor naturale), ale cărei elemente se numesc evenimente

elementare şi din precizarea, pentru fiecare n ∈ I, a unei probabilităŃi elementare pn ∈ [0,

1], astfel încât


n∈I
pn = 1. (1.1)

Orice vector (finit sau infinit dimensional) p = (pn)n∈ I satisfăcând condiŃia (1.1) se

numeşte un vector de probabilitate.


Exemplul 1.1. Aruncarea unei monezi; avem W = {w1, w2}, (unde w1 = “Stema”,
w2 = “Banul”), iar dacă moneda este simetrică,

1
p1 = p2 = .
2
Exemplul 1.2. Aruncarea de trei ori a unei monezi; spaŃiul evenimentelor

elementare
W = {w1, w2} × {w1, w2} × {w1, w2}
este o mulŃime cu 8 elemente. Ca şi în exemplul precedent, evenimentele elementare sunt

1
echiprobabile, fiecare din ele având probabilitatea . (În cazul general, dacă W este o
8

mulŃime cu N elemente, iar probabilităŃile lor sunt egale între ele, relaŃia (1.1) impune ca

1
fiecare probabilitate elementară să fie egală cu .)
N

Exemplul 1.3. Fie experimentul constând din aruncarea unei monezi până la prima

apariŃie a stemei. În acest caz, W = N* = {1, 2, …, n,…} este o mulŃime infinită, iar şirul

1
pn = , (n = 1, 2, …)
2n
al probabilităŃilor elementare satisface relaŃia (1.1), dat fiind că

1

n =1 2n
= 1.

Atunci când evenimentele elementare sunt foarte multe, probabilităŃile respective

pot fi foarte mici; ca urmare, devine naturală considerarea anumitor submulŃimi A ⊂ Ω de

evenimente elementare, numite evenimente. Pentru orice eveniment A, putem atunci


defini probabilitatea lui A prin formula

P(A) = ∑
ω ∈A
pn (1.2)
n

(suma probabilităŃilor elementare pn pentru care wn aparŃine lui A.) Se ştie că dacă W este

o mulŃime finită cu N elemente, atunci există 2N submulŃimi ale lui W, deci 2N


evenimente, ale căror probabilităŃi pot fi calculate cu formula (1.2). Dacă evenimentele

elementare sunt echiprobabile, atunci această formulă ne dă

1 |A|
P(A) = | A | = , (1.3)
N |Ω|

unde | A | şi | W | reprezintă cardinalele celor două mulŃ imi, rezultat care poate fi transcris

sub forma
Numarul " cazurilor favorabile "
P(A) = (1.4)
Numarul " cazurilor posibile "

şi care reprezintă definiŃia clasică a probabilităŃii.

Exemplul 1.2. (Continuare) Există 28 = 256 evenimente, iar pentru orice i cuprins

între 0 şi 8, fiecare din cele C i8 evenimente A formate din i evenimente elementare va

avea, conform formulei (1.3), probabilitatea


i
P(A) = .
8
Luând în particular drept A evenimentul constând din obŃinerea aceluiaşi rezultat în

cele trei aruncări, rezultă A = {(w1, w1, w1 ), (w2, w2, w2)}, deci

2 1
P(A) = = .
8 4
Exemplul 1.3. (Continuare) Luând, în condiŃ iile acestui exemplu,

A = {1, 2, …, 10}
(evenimentul constând din apariŃ ia stemei din cel mult 10 încercări), obŃinem
1 1
10 − 11
1 2 2 = 1− 1 .
P(A) = ∑ n =
n =1 2 1 210
1−
2
1.2. NoŃiunea de s-algebră. În situaŃ ia în care spaŃ iul W al evenimentelor

elementare este o mulŃ ime nenumărabilă, familia tuturor submulŃ imilor sale se dovedeşte

a fi prea bogată pentru a putea ataşa câte o probabilitate fiecărui element al ei cu

respectarea proprietăŃii naturale de aditivitate a funcŃ iei de mulŃ ime astfel obŃinute. Din
acest motiv, se consideră o anumit ă familie  de submulŃ imi ale lui W, închisă faŃă de

operaŃiile de luare a complementarei şi a unei reuniuni finite sau numărabile:

DefiniŃia 1. O familie nevidă  de părŃi ale unei mulŃ imi W se numeşte o s-algebră
dacă ea satisface următoarele proprietăŃi:

a) A ∈ fl A e , unde A reprezintă complementara lui A.


b) An e , (n =1, 2, …) fl UA n ∈ .
n

Perechea ( , W) se numeşte atunci un spaŃiu măsurabil.


Pentru orice s-algebră  de părŃi ale lui W, alegând o mulŃ ime A e , vom avea

W=A» A (1.5)

deci
We , (1.6)
ca urmare
« = Ω e .

De asemeni, aplicând formula lui de Morgan cu privire la complementara unei


reuniuni, rezultă că intersecŃ ia unei familii finite sau numărabile {An} de submulŃ imi din

 poate fi exprimată sub forma

I An = UA n
n n

deci
I Ane , (1.7)
n

de unde, în particular, dat fiind că A \ B = A ∩ B , dacă A, B e , atunci

A \ B e . (1.8)

Din definiŃ ie rezultă imediat că intersecŃ ia tuturor s-algebrelor conŃinând o familie

fixată  de părŃi ale lui W este o s-algebră, numită s-algebra generată de ,

reprezentând cea mai mică s-algebră de părŃi ale lui W care conŃ ine familia , şi notată

s().
ObservaŃia 2.1. Din definiŃ ie rezultă următoarea proprietate frecvent folosită a

s-algebrei s(): Dacă  este o s-algebră care conŃine familia , atunci  €s().

DefiniŃia 2. s-algebra generată de familia  a tuturor semiaxelor închise de forma

(-¶, a] din R se notează  şi se numeşte s-algebra submulŃimilor boreliene din R; ea

este o s-algebră care conŃine toate intervalele închise sau deschise din R, şi care poate fi

chiar generată de oricare din aceste familii de submulŃ imi ale lui R.

ExerciŃiul 2.1. ArătaŃi că această s-algebră conŃine toate submulŃ imile deschise sau

închise, precum şi toate submulŃ imile finite sau numărabile din R.

DefiniŃia 3. s-algebra generată de familia n a submulŃ imilor de forma M1µ…µMn

din Rn, cu Mi mulŃ imi boreliene din R, se numeşte s-algebra submulŃimilor boreliene din

Rn şi se notează n.

Pentru orice mulŃ ime W, un sistem de n funcŃii reale

Xi: W → R, (i = 1,…, n)
defineşte o funcŃ ie vectorială

X: W → Rn, X(w) = (X1(w), …, Xn(w)).

1.3. OperaŃii cu evenimente. Fie W un spaŃiu de evenimente elementare,  o

s-algebră de părŃi ale lui W, ale cărei elemente se numesc evenimente, ω ∈ Ω rezultatul

unui anumit experiment şi A e  un anumit eveniment.

Vom spune că “s-a realizat evenimentul A” ori de câte ori ω ∈ A .

Din relaŃ iile (1.6) şi (1.7) rezultă că s-algebra considerată conŃine totdeauna

evenimentele W şi «, care se numesc, respectiv, evenimentul sigur (deoarece se realizează

totdeauna) şi evenimentul imposibil (deoarece nu se poate realiza niciodată). De asemeni,

deoarece  este stabilă faŃă de luarea complementarei, o dată cu A,  va conŃine ş i


evenimentul A , care se numeşte evenimentul contrar lui A, şi care, conform

terminologiei introduse mai sus, se realizează ori de câte ori nu se realizează A.

Considerând un al doilea eveniment B, din definiŃ iile operaŃiilor uzuale cu mulŃ imi

rezultă următoarele operaŃii cu evenimente:

- Reuniunea celor două evenimente, notată A U B , este evenimentul care se

realizează ori de câte ori se realizează cel puŃin unul din evenimentele A şi B.

- IntersecŃia celor două evenimente, notată A I B , este evenimentul care se

realizează ori de câte ori se realizează ambele evenimente A şi B.

- DiferenŃa celor două evenimente, notată A \ B, este evenimentul care se realizează

ori de câte ori se realizează A, dar nu se realizează B.

Evenimentele A şi B se numesc incompatibile dacă A I B = «, adică cele două

evenimente nu se pot realiza niciodată simultan.

Incluziunea A ⊂ B corespunde atunci situaŃ iei în care evenimentul B se realizează

ori de câte ori se realizează A.

1.4. Măsuri de probabilitate. Putem acum încheia introducerea cadrului axiomatic

general al teoriei probabilităŃ ilor.

DefiniŃia 1. Fie  o s-algebră de părŃi ale unei mulŃ imi W. Se numeşte măsură de

probabilitate pe  o funcŃie

P:  Ø [0, 1]
satisfăcând condiŃ iile:

a) P(W) = 1;
b) Pentru orice familie finită sau numărabilă de evenimente incompatibile {An},

avem
P(U An ) = ∑ P( An ) . (1.9)
n n
(Se mai spune că P este o funcŃie s-aditivă de mulŃime.) Un caz particular al acestei

formule este, în cazul a două evenimente incompatibile,

P(A»B) = P(A) + P(B ). (1.10)


PropoziŃia 4.1. Dacă A şi B sunt două evenimente cu A ⊂ B , atunci

P(B \ A) = P(B ) - P(A ), (1.11)


P(A ) ≤ P(B ). (1.12)
(P este monotonă ca funcŃ ie de mulŃ ime.)

DemonstraŃie. (1.11) rezultă aplicând (1.10) în relaŃ ia B = A » (B \ A).

(1.12) rezultă din (1.11) şi din inegalitatea P(B \ A) ≥ 0. Ö

Corolar. Avem
P( A ) = 1 - P(A).

DemonstraŃie. Rezultă din (1.12), aplicată pentru B = W. Ö

ObservaŃia 4.1. Orice reuniune numărabilă a unei familii de evenimente {An} se

poate exprima ca reuniunea disjunctă a familiei {Bn}, unde B0 = A0, Bn = An\

(A0»…»An-1). Aplicând s-aditivitatea şi monotonia măsurii de probabilitate, de aici

rezultă inegalitatea
∞ ∞
P( U An ) b ∑ P( A ) .
n =0
n (1.13)
n =0

PropoziŃia 4.2. (Continuitatea măsurii ca funcŃie de mulŃime). i) Pentru orice şir

crescător de evenimente

A0Õ A1 Õ …Õ An-1 Õ An Õ…

notând A = UA n , avem
n =0
P(A) = lim P(An). (1.14)
n →∞

ii) Pentru orice şir descrescător de evenimente

B0€ B1 € …€ Bn-1 € Bn €…

notând B = IB n , avem
n =0
P(B) = lim P(Bn). (1.15)
n →∞

DemonstraŃie. i) Observăm că A poate fi reprezentată ca reuniunea disjunctă a

evenimentelor
A0, A1 \ A0, …, An\ An-1,…,
iar formula (1.12) şi incluziunea An-1 Õ An ne dau

P(An\ An-1) = P(An) - P(An-1),


de unde, folosind s-aditivitatea măsurii de probabilitate

P(A) = P(A0) + ∑ (P( A ) − P( A ) ) = nlim
n n -1
→∞
P(An).
n =1

ii) Rezultă aplicând punctul i) şirului crescător de evenimente

B0 ⊂ B1 ⊂ ... ⊂ Bn −1 ⊂ B n ⊂ ... ,
pentru care

 ∞   
P( Bn ) = 1 - P(Bn), P  U Bn  = P  I Bn  = 1 - P(B). Ö
 n=0   n =0 
 
Exemplul 4.1. Dându-se un şir de evenimente (An)n¥0, evenimentele elementare w

cu proprietatea că w aparŃine unui număr infinit dintre evenimentele An formează

evenimentul
∞ ∞
A= I UA n .
m=0 n=m

(wœA‹ pentru orice mœN, există n¥m, wœAn.) Conform terminologiei introduse mai

sus, A este astfel evenimentul constând din realizarea unui număr infinit dintre

 ∞ 
 
evenimentele An. PropoziŃ ia 4.2 aplicată şirului descrescător de evenimente  U An 
 n = m  m≥0

arată atunci că probabilitatea acestui eveniment este


 ∞ 
P(A) = lim P U An  . (1.16)
m→∞  
n = m 
Dacă la un spaŃ iu măsurabil (W,  ) mai adăugăm o măsură de probabilitate pe 

obŃinem noŃiunea fundamentală de spaŃ iu de probabilitate.

DefiniŃia 2. Se numeşte câmp de probabilitate un triplet de forma (W, , P) format

dintr-o mulŃ ime W (numită spaŃiu de evenimente elementare), o s-algebră  de părŃi ale

lui W, (ale cărei elemente se numesc evenimente) şi o măsură de probabilitate P definit ă

pe .

Exemplul 4.2. E uşor de văzut că pentru orice câmp discret de probabilitate (W,

(pn)), funcŃ ia P definită prin relaŃia (1.2) este o măsură de probabilitate pe s-algebra

(W) a tuturor părŃilor lui W), deci tripletul (W, (W), P) este un câmp de probabilitate.

Reciproc, dacă W este o mulŃ ime finită sau numărabilă, atunci orice măsură de

probabilitate definită pe o s-algebră  de părŃi ale lui W este unic determinată de valorile

luate deasupra evenimentelor elementare şi, ca mai sus, poate fi extinsă până la o măsură

de probabilitate definit ă pe s-algebra (W) a tuturor părŃilor lui W

Exemplul 4.3. (ProbabilităŃi geometrice). Pentru a obŃine exemple de câmpuri de

probabilitate cu un spaŃiu nenumărabil de evenimente elementare, e suficient să luă m

W = o mulŃ ime de măsură Lebesgue finită din Rn,  = familia mulŃ imilor boreliene

incluse în W şi să definim, pentru orice A e ,

λ( A)
P(A) = , (1.17)
λ(Ω)
unde λ este măsura Lebesgue.
(Se observă că în acest caz orice două evenimente cu aceeaşi măsură Lebesgue vor fi

echiprobabile, aşa cum în cazul definiŃ iei clasice a probabilităŃ ii, date de formula (1.3), se

întâmpla cu evenimentele având acelaşi număr de elemente.)

Exemplul 4.3. (Problema întâlnirii). Două persoane sosesc în mod independent într-

un anumit loc între orele 1 şi 2. Primul sosit aşteaptă maximum 20 minute. Care e

probabilitatea ca întâlnirea să aibă loc?

SoluŃie: Avem o problemă de probabilităŃ i geometrice, cu


1
W = [1, 2]× [1, 2] Õ R2, A = {(x, y)eW | |x - y| ≤ },
3
λ( A)
în care aria lui A este 5/9, deci formula (1.17) ne dă P(A) = = 5/9.
1
Se numeşte repartiŃie de probabilitate pe R orice măsură de probabilitate µ definită

pe s-algebra  a mulŃ imilor boreliene din R.

Oricărei repartiŃ ii µ : Ø[0, 1] i se asociază o funcŃ ie F = Fµ : RØR, numită funcŃie


de repartiŃie, definită prin
Fµ (a) = µ ((-¶, a]), aœR.

PropoziŃia 4.3. (ProprietăŃile funcŃiilor de repartiŃie). Dacă F este o funcŃie de


repartiŃie, atunci:
i) F este crescătoare;
ii) lim F ( x) = 0 ; lim F ( x) = 1 ;
x → −∞ x →∞

iii) F este continuă la dreapta în orice punct;


iv) F(a) - lim F ( x) = µ ({ a}).
x↑ a

DemonstraŃie. i) este o consecinŃă imediată a monotoniei măsurii ca funcŃ ie de


mulŃ ime (PropopoziŃ ia 1.1.).

łinând seama de monotonia lui F, ii) rezultă aplicând PropoziŃ ia 1.2 şirurilor de
semiaxe
An = (-¶, -n], Bn = (-¶, n],
∞ ∞
pentru care I An = «, UB n = R , conducând la
n =0 n =0

lim F (−n) = 0 , lim F (n) = 1.


n→ ∞ n→ ∞

iii) şi iv) rezultă aplicând PropoziŃ ia 1.2 şirurilor de semiaxe


Cn = (-¶, a + (1/n)], D n = (-¶, a - (1/n)],
∞ ∞
pentru care I C n = (-¶, a], UD n = (-¶, a) = (-¶, a] \ {a}, conducând la
n =0 n =0

lim F (a + 1/n) = F(a), lim F (a − 1/n) = F(a) - µ ({a}). Ö


n →∞ n →∞

Se poate arăta că în felul acesta se obŃ in toate măsurile de probabilitate pe s-

algebra  a mulŃ imilor boreliene din R: dându-se o funcŃ ie de repartiŃ ie F satisfăcând

proprietăŃile i) - iii) de mai sus, există o unică măsură de probabilitate µ = µ F pe  ,

astfel încât F să fie funcŃia de repartiŃ ie a lui µ .

ObservaŃia 4.2. Punctul iv) al PropoziŃ iei precedente exprimă faptul că punctele de

măsură nenulă coincid cu punctele de discontinuitate ale lui F, iar măsura oricărei

mulŃ imi reduse la un astfel de punct este dată de saltul lui F în punctul respectiv.

1.5. Evenimente independente. O noŃiune fundamentală în teoria probabilităŃilor

este cea de independenŃă a unor evenimente sau, cum vom vedea ulterior, a unor

“variabile aleatoare”.

DefiniŃia 1. i) Evenimentele A, B ale câmpului de probabilitate (W, , P) se numesc

independente dacă

P(A∪B) = P(A) P(B). (1.18)

ii) Mai general, spunem că evenimentele A1, …, An sunt independente dacă

P(A i ∪ …∪ A i ) = P(A i )… P(A i ) (1.19)


1 k 1 k

pentru orice alegere a indicilor i1, …, ik , cu 2bkbn şi 1bi1< …< ikbn.


iii) O familie infinită de evenimente {Ai}i∈I este independentă dacă orice subfamilie

finit ă a sa are această proprietate.

Un şir de evenimente pot fi independente două câte două fără a fi independente “în

ansamblu”:

Exemplul 5.1. Fie W = {w1, …, w8} un spaŃiu cu evenimente elementare echiprobabile

şi

A1 = {w1, w2, w3, w4}, A2 = {w1, w2, w5, w6}, A3 = {w1, w2, w7, w8}.
Aceste trei evenimente sunt două câte două independente, dat fiind că
1
P(Ai) = , (i = 1, 2, 3),
2
1
iar pentru i≠ j, Ai ∪ Aj = {w1, w2}, deci P (Ai ∪ Aj) = = P (Ai) P (Aj), în vreme ce
4
A1 ∪ A2 ∪ A3 = {w1, w2},
deci
P(A1 ∪ A2 ∪ A3) ≠ P(A1) P(A2) P(A3),
aşa încât cele trei evenimente nu sunt independente în sensul definiŃ iei ii) de mai sus.
Exemplul 5.2. La realizarea unui aparat de control se înregistrează 5% defecte de
fabricaŃie şi 4% defecte de montaj. Să se determine probabilitatea ca un aparat ales
aleator, să fie defect, ştiind că cele două tipuri de defecŃiuni sunt independente.
SoluŃie. Fie evenimentele:
A = aparatul are defect de fabricaŃie,
B = aparatul are defect de montaj.
5 4
Din enunŃ rezultă P(A) = , P(B) = . Rezultă
100 100
P ( A U B ) = P ( A) + P ( B ) − P ( A I B ) = P ( A) + P( B ) − P ( A)P ( B ) =
5 4 5 4
= + − ⋅ = 0,088
100 100 100 100

ceea ce înseamnă 8,8% sunt defecte.


Exemplul 5.3. 10 studenŃi încearcă să rezolve, independent unul de altul, aceeaş i
problemă. Se ştie că probabilitatea de a rezolva problema este ½ pentru fiecare student.
Care este probabilitatea ca cel puŃin un student să rezolve problema?
SoluŃie. Notând cu Ai evenimentul “studentul nr i rezolvă problema” şi folosind

formula lui de Morgan pentru intersecŃii, vom avea

10
 10 
U Ai =  I Ai  ,
i =1  i =1 
deci
 10   10  ind. 10 10
 1 1
P U Ai  = 1 − P I Ai  = 1 − ∏ P( Ai ) = 1 − ∏ 1 −  = 1 − 10 .
 i =1   i =1  i =1 i =1  2 2

PropoziŃia 5.1. (Lema Borel-Cantelli). Fie (An)n¥0 un şir de evenimente şi


∞ ∞
A= I UA n
m=0 n=m

evenimentul constând din realizarea evenimentului An pentru un număr infinit de

indici n.

i) Dacă ∑ P( A ) < ∞ ,
n =0
n atunci

P(A) = 0.

ii) Dacă ∑ P( A ) = ∞ , iar evenimentele (An) sunt independente, atunci
n =0
n

P(A) = 1.
DemonstraŃie. i) Conform formulei (1.16), avem
 ∞ 
P(A) = lim P U An  .
m→∞  
n = m 
Dar, folosind relaŃ ia (1.13),
 ∞  ∞
0 b P U An  b ∑ P( An ) ,
 n = m  n=0
 
∞  ∞ 
 
unde ∑
n=m
P ( An ) Ø0, fiind restul unei serii convergente, şi astfel lim
m→ ∞
P  U An  = 0. Ö
n = m 
 
ii) După formula lui De Morgan,
∞ ∞
A= U IA n ,
m= 0 n = m
în vreme ce, datorită independenŃei,

 ∞   k  k
P I An  = lim P I An  = lim ∏ (1 - P( A )).
n
 n=m  k →∞  n = m  k →∞ n=m

Folosind inegaliatea 1 - x b e-x, avem însă


k
k − ∑ P( A )
∏ (1 - P( An )) b e
n=m
n=m n
,

 ∞ 
de unde, făcând kض, P I An  = 0 pentru orice m, şi în final P( A ) = 0, deci P(A) =
 n=m 

1. Ö
Corolar. Dacă evenimentele (An) sunt independente, atunci

∑ P( A ) < ∞ ñ P(A) = 0.
n =0
n

1.6. ProbabilităŃi condiŃionate. Există numeroase cazuri în care experimentatorul

interesat în producerea unui eveniment A are posibilitatea să afle, pe parcursul


experimentării, de producerea altui eveniment B . De exemplu, o caracteristică
importantă după care se apreciază funcŃionarea unui sistem o reprezintă rata de defectare,
care este definită ca fiind probabilitatea ca defecŃiunea să apară în intervalul (t ; t + ∆t ] ,
dacă sistemul a funcŃionat fără defecŃiuni până la momentul t .
În aceste condiŃii prezintă interes definirea unei probabilităŃi de producere a unui
eveniment A , ştiind că evenimentul B a avut loc, numită probabilitate condiŃionată.
Dându-se un câmp de probabilitate (W, , P), şi un eveniment fixat B de
.
probabilitate nenulă, putem introduce pe  o nouă măsură de probabilitate P( | B),

definită prin

P( A I B)
P( A | B) = . (1.20)
P( B)
P(A | B) se numeşte probabilitatea lui A condiŃionată de B . Din definiŃia probabilităŃii

condiŃionate rezultă următoarele proprietăŃi:


1) Dacă evenimentele A şi B sunt independente, atunci
P( A | B) = P( A) .
2) Formula de înmulŃire a probabilităŃilor:
P(A1…A2………An) = P(A1) P (A2| A1) P (A3| A1…A2)… P (An| A1…A2………An-1). (1.21)
3) Formula probabilităŃii totale: Fie Ω = U An o partiŃie a evenimentului sigur
n

în reuniunea unei familii finite sau numărabile de evenimente incompatibile An,

( Am I An = φ , pentru m ≠ n ), numite ipoteze. Pentru orice eveniment A, avem

P( A) = ∑ P( A | Ai ) P( Ai ) (1.22)
i∈I

Într-adevăr,
 
P( A) = P U ( A I Ai ) = ∑ P( A I Ai ) = ∑ P ( A | Ai ) P( Ai ).
 i∈I  i∈I i∈I

4) Formula lui Bayes. În condiŃiile de mai sus, are loc egalitatea


P( A | A j )P( A j )
P( A j | A) = . (1.23)

i∈I
P ( Ai )P ( A | Ai )

care exprimă probabilitatea a posteriori (adică posterioară experimentului) P(Aj | A) de a

ne fi aflat în ipoteza Aj, ştiind că s-a realizat evenimentul A - în funcŃie de probabilităŃ ile

ipotezelor Ai şi de probabilităŃile a priori (adică ştiute înaintea efectuării experimentului)

P (A|Ai) de realizare a evenimentului A în diversele ipoteze, şi de probabilităŃ ile

ipotezelor Ai.
Într-adevăr, deoarece
P( A | A j )P( A j )
P( A j | A) =
P( A)
formula (1.23) rezultă exprimând P(A) cu ajutorul formulei probabilităŃ ii totale.

Exemplul 6.1. O urnă conŃine 5 bile albe şi 10 bile negre; să se determine

probabilitatea ca din patru bile extrase succesiv, cel puŃ in una să fie neagră.
SoluŃie. Notăm
A = cel puŃ in una din bile e neagră
Ai = bila nr i este albă;

realizarea evenimentului A are un mare număr de variante, de aceea este indicat să trecem

la evenimentul contrar
A = A1… A2… A3… A4.
Aplicând formula de înmulŃ ire a probabilităŃ ilor, obŃ inem

P(A) = 1 - P (A1… A2… A3… A4) = 1 - P A1) P (A2| A1) P (A3| A1…A2) P (A4| A1… A2… A3)
=
5 4 3 2 272
1- = .
15 14 13 12 273
Exemplul 6.2. În condiŃiile exemplului precedent, se extrag două bile, fără

înlocuirea bilei extrase. Să se determine probabilitatea ca prima bilă să fi fost neagră,

dacă cea de a doua este albă.

SoluŃie. Considerăm evenimentele:


A = Prima bilă a fost neagră;

B = A doua bilă e albă.

Aplicând formula probabilităŃ ii totale în raport cu descompunerea evenimentului

sigur în reuniunea dintre A şi A , obŃinem

5 10 4 5 1
P (B ) = P (B | A) P (A) + P (B | A ) P ( A ) = + = .
14 15 14 15 3
Ca urmare,
5 10
P( B | A ) P( A ) 14 15 5
P (A | B ) = = = .
P( B) 1 7
3
Exemplul 6.3. Un anumit aparat poate fi procurat de la cinci depozite care au
următoarea structură: două depozite au câte 90 aparate fără defect şi 10 defecte, un

depozit are 95 de aparate fără defect şi 5 defecte, iar două depozite au fiecare 98 aparate
fără defect şi câte 2 defecte. Să se determine probabilitatea ca un aparat găsit defect să

provină de la un depozit de tipul 1.


SoluŃie. Fie evenimentele: A = aparatul ales este defect; Ai = aparatul ales provine
de la un depozit de tipul i , (i = 1, 2, 3). Aplicând formula lui Bayes, obŃinem
P( A | A1 )P( A1 )
P( A1 | A) = =
P( A | A1 )P( A1 ) + P( A | A2 )P( A2 ) + P( A | A3 )P( A3 )

2 10

= 5 100 = 0,6897.
2 10 1 5 2 2
⋅ + ⋅ + ⋅
5 100 5 100 5 100

§2. Variabile aleatoare


2.1. DefiniŃii, clasificare şi proprietăŃi. În multe situaŃii suntem interesaŃ i nu de

rezultatul particular al unui anumit experiment, ci doar de o anumită mărime numerică

asociată rezultatului respectiv. Exemple:

* Suma punctelor apărute la aruncarea repetată a unui zar.

* Numărul bilelor albe obŃ inute prin extragerea repetată a unei bile dintr-o urnă.

* Numărul de apeluri primite de o centrală telefonică într-un anumit interval de

timp.
* Timpul de funcŃ ionare fără defecŃ iuni a unui anumit aparat.

Fie (W, ) un spaŃ iu măsurabil şi X : Ω → R o funcŃ ie reală definită pe W. Dacă M

este o submulŃ ime boreliană A din R, vom folosi notaŃia {X e M} pentru submulŃ imea

X-1(M) = {weW | X(w) e M}


(imaginea inversă prin X a mulŃ imii M). În particular când M este o semidreaptă de forma

(-¶, a], sau o mulŃ ime {a} redusă la un singur punct, X-1(M) va fi notată {X ≤ a},

respectiv {X = a}.
DefiniŃia 1. i) Fie (W, ) un spaŃiu măsurabil şi X : Ω → R o aplicaŃ ie cu valori în

R. Se spune că X este o aplicaŃie -măsurabilă dacă ea are proprietatea că

X-1(M)e , (2.1)
pentru orice submulŃ ime boreliană M din R.

ii) Dacă (W, , P) este un spaŃ iu de probabilitate, aplicaŃ iile -măsurabile se

numesc variabile aleatoare.


În cazul ii), condiŃ ia (2.1) este independentă de alegerea unei măsuri de

probabilitate P pe σ-algebra ; dar, atunci când alegerea respectivă a fost făcută, ea

asigură faptul că probabilităŃ ile P(XeM) sunt definite pentru orice submulŃ ime boreliană

M din R. PropoziŃ ia care urmează reduce verificarea faptului că X este -măsurabilă la

cea a unei condiŃ ii de tipul (2.1) în care M parcurge clasa mult mai restrânsă a semiaxelor

de forma (-¶, a].


PropoziŃia 1.1. Fie (W, ) un spaŃiu măsurabil şi X : Ω → R o aplicaŃie pentru

care
{X ≤ a}e , "ae R;
atunci X este -măsurabilă.

DemonstraŃie. Deoarece luarea imaginii inverse comută cu reuniunile şi cu luarea

complementarei, familia * a submulŃ imilor M ale lui R cu proprietatea că X-1(M)∈ 

este o σ-algebră (ExerciŃ iu!) care prin ipoteză conŃ ine familia  a semiaxelor închise la

dreapta. Ca urmare, * va conŃ ine şi σ-algebra generată de , care este familia  a

mulŃ imilor boreliene. Aşadar X-1(M)e  pentru orice submulŃ ime boreliană M. Ö

Exemplul 1.1. Fie W = Rn, = σ(), unde  este familia mulŃ imilor de forma

(-¶, a1]µ …µ (-¶, an], (a1, …, anœR) (2.2)


şi funcŃia X1 egală cu proiecŃ ia lui Rn pe primul factor:

X1: Rn → R, X1(x1, …, xn) = x1.


Deoarece  este o σ-algebră care conŃ ine orice submulŃ ime de forma (2.2), pentru

orice a1œR obŃinem



X1-1 ((-¶, a1]) = (-¶, a1]µ R µ …µ R = U (-¶, a1]µ (-¶, n] µ…µ (-¶, n] e.
n =1

Aplicând PropoziŃia precedentă, X1 rezultă -măsurabilă, deci X1-1(M1) ∈ pentru

orice submulŃ ime boreliană M1 din R. Aceeaşi proprietate o va avea şi fiecare din

proiecŃ iile Xi pe ceilalŃ i factori, deci, pentru orice submulŃ imi boreliene M1, …, Mn din R,

Xi-1(Mi) ∈, (i = 1, …, n).

Dar atunci
M1µ …µMn = X1-1 ((-¶, a1]) ∪… ∪ Xn-1 ((-¶, an]) ∈,

şi deci  = σ() conŃine toate submulŃ imile care generează σ-algebra n, ceea ce implică

σ()€n. Cum incluziunea inversă este o consecinŃă a faptului că submulŃ imile lui  sunt

produse carteziene de submulŃ imi boreliene din R, rezultă σ() = n, deci am arătat astfel

că σ-algebra n este generată de .

ObservaŃia 1.1. i) Dacă X : Ω → R este o funcŃie reală oarecare, atunci familia


mulŃ imilor
{X-1(M)}Me ,

este o σ-algebră (ExerciŃ iu!), notată σ(X), care prin definiŃ ie este conŃinută în orice

σ-algebră  pentru care X este -măsurabilă. Cum, evident, X este σ(X)-măsurabilă, se

mai spune că σ(X) reprezintă cea mai mică σ-algebră de părŃi ale lui W în raport cu care

X este măsurabilă.

ii) Mai general, dacă X1, …, Xn : Ω → R sunt n funcŃii reale, atunci cea mai mică

σ-algebră  pentru care fiecare din ele este măsurabilă se notează σ(X1, …, Xn) şi

conform cu ii) este cea mai mică σ-algebră care conŃ ine pe σ(Xi) pentru i = 1,…, n, deci

σ(X1,…, Xn) = σ(σ (X1), …, σ(Xn))


(σ-algebra generată de reuniunea σ-algebrelor asociate celor n variabile Xi).

Exemplul 1.2. Se numeşte funcŃie boreliană orice funcŃ ie f: Rn → R care este

n-măsurabilă, adică inversează orice semidreaptă din R într-o submulŃ ime boreliană

din Rn. Aplicând PropoziŃ ia 1.1, pentru ca f să fie boreliană este suficient ca ea să

inverseze orice submulŃ ime boreliană din R într-o submulŃ ime boreliană din Rn. Aceasta

se întâmplă, de exemplu, ori de câte ori f este continuă - în acest caz f-1((-¶, a]) fiind

închisă şi deci boreliană.

ObservaŃia 1.2. Orice variabilă aleatoare X induce o repartiŃ ie pe R, adică o măsură

de probabilitate µ X pe familia  a mulŃ imilor boreliene din R, definită prin

µ X (M) = P(X e M ), Me .

DefiniŃia 2. Se numeşte funcŃie de repartiŃie a variabilei aleatoare X funcŃia


FX : R → [0,1]
definită prin egalitatea
FX (a ) = P( X ≤ a ) , aeR.
Pentru a < b, diferenŃa dintre evenimentul {X  b}şi {X  a} este evenimentul

{Xœ(a, b]}, iar formula (1.12) de calcul a probabilităŃ ii diferenŃei a două evenimente ne

P(Xœ(a, b]) = F(b) - F(a). (2.3)


PropoziŃia 1.1. (ProprietăŃile funcŃiei de repartiŃie). Dacă F = FX este funcŃia de

repartiŃie a unei variabile aleatoare X, atunci:


i) F este monoton crescătoare;

ii) lim F ( x) = 0 ; lim F ( x) = 1 ;


x → −∞ x →∞

iii) F este continuă la dreapta în orice punct:


lim F ( x) = F(a);
x↓ a

iv) F(a) - lim F ( x) = P(X = a). (2.4)


x↑ a
DemonstraŃie. Deoarece

FX(a) = P(Xe(-¶, a]) = µ X ((-¶, a]),

FX coincide cu funcŃ ia asociată repartiŃiei µ X definite de X pe axa reală, deci afirmaŃ iile

din enunŃ sunt cele deja demonstrate în PropoziŃ ia 4.3 din § precedent. Ö

Deşi funcŃia de repartiŃie nu determină în mod unic o variabilă aleatoare, ea


reprezintă singura informaŃ ie de care dispunem în majoritatea aplicaŃ iilor; prin

cunoaşterea repartiŃiei unei variabile aleatoare X, se înŃelege cunoaşterea funcŃ iei sale de

repartiŃie, care la rândul ei atrage după sine cunoaşterea măsurii de probabilitate µ X

induse de X pe dreapta reală. Două variabile aleatoare cu aceeaşi funcŃ ie de repartiŃ ie se

numesc echivalente.
Se spune că două variabile aleatoare X şi Y sunt egale aproape sigur şi se scrie X =

Y a.s., dacă P(X = Y) = 1. Din definiŃ ie rezultă imediat că două variabile aleatoare egale

a.s. sunt echivalente, adică au aceeaşi funcŃ ie de repartiŃie.

DefiniŃia 3. O variabilă aleatoare X se numeşte discretă dacă mulŃ imea valorilor

sale este o mulŃ ime finit ă sau numărabilă {an}nœI Õ R.

În acest caz evenimentele {X = an} nœI realizează o partiŃie a evenimentului sigur

W , deci, notând P(X = an) = pn, vom avea

∑p
n∈I
n = 1. (2.5)

Oricărei variabile aleatoare discrete X i se asociază funcŃia de masă

p: RØ[0, 1], p(x) = P(X = x),


a cărei valoare în fiecare punct xœR, este, conform punctului iv) al PropoziŃ iei de mai sus,

egală cu saltul funcŃiei de repartiŃ ie F în punctul respectiv, în particular mulŃ imea

punctelor x în care p(x)>0 coincide cu mulŃ imea D a punctelor de discontinuitate ale lui
F. (Denumirea acestei funcŃii este inspirată de analogia cu modelul unei repartiŃ ii discrete

de mase pi, plasate în punctele de abscise ai ale unei axe.)

Pentru orice aœR, vom avea


{X ≤ a}= U {X = an},
an ≤ a

de unde,
F(a) = ∑
an ≤a
pn

(suma probabilităŃ ilor de a lua valori an mai mici sau egale cu a). Din acest motiv,

cunoaşterea funcŃ iei de masă a unei variabile aleatoare discrete este echivalentă cu

cunoaşterea repartiŃ iei sale.

În cazul când X ia numai un număr finit de valori a1, a2, …, aN, funcŃ ia de masă se

poate reprezenta prin tabelul de repartiŃie

 a1 a2 K aN 
X :  ,
 p1 p 2 K p N 

în care, datorită condiŃ iei (2.5), suma elementelor de pe cea de a doua linie este egală cu

1, deci vectorul p = (p1 p2 … pn) este un vector de probabilitate.


Exemplul 1.3. Oricărui eveniment Ae îi corespunde o variabilă aleatoare IA,

numită indicatorul evenimentului A, care unui anumit eveniment elementar weW îi

asociază valoarea 1 sau valoarea 0, după cum weA sau w ∉A. CondiŃ ia (2.1) este

satisfăcută deoarece

 ∅, a < 0,

{ X ≤ a} =  A, (a ∈ [0,1),
 Ω, (a ≥ 1)

deci în toate cazurile { X ≤ a}e . Notând P(A) = p, tabelul de repartiŃ ie al acestei

variabile este
 0 1
 . (2.6)
1 − p p 

Exemplul 1.4. Orice variabilă aleatoare având o repartiŃ ie de forma (2.6) are funcŃ ia

de repartiŃ ie

 0, a < 0,

F(a) = 1 - p, (a ∈ [0,1), (2.7)
 1, (a ≥ 1),

care este o funcŃ ie în scară, crescătoare şi continuă la dreapta în orice punct, având două

discontinuităŃ i în punctele 0 şi 1, în care saltul ei este egal cu probabilitatea cu care X ia

valorile respective.
O variabilă aleatoare a cărei funcŃie de repartiŃ ie este continuă se numeşte

variabilă aleatoare continuă; conform cu (2.4), o astfel de variabilă ia orice valoare reală

cu probabilitate 0. Ca urmare, pentru orice interval [a, b],


P(Xœ[a, b]) = P(Xœ(a, b]) + P(X = a) = P(Xœ(a, b]),
iar formula (2.3) ne dă

P(Xœ[a, b]) = F(b) - F(a). (2.8)


O clasă importantă de variabile aleatoare continue este cea a variabilelor absolut

continue.
DefiniŃia 4. Fie X o variabilă aleatoare şi F funcŃia sa de repartiŃie. X se
numeşte absolut continuă dacă există o funcŃie
p:R→ R,

numită densitate de probabilitate a variabilei X, astfel încât funcŃ ia sa de repartiŃ ie să

poată fi exprimată sub forma


a
F(a) = ∫ p( x)dx , a œR.
−∞
(2.9)

Dacă p este densitatea de probabilitate a unei variabile aleatoare X , atunci:


i) p( x) ≥ 0, ∀x ∈ R

ii) ∫ p( x)dx =1.
−∞
(2.10)

CondiŃiile i) şi ii) sunt suficiente pentru ca o funcŃie p să fie o densitate de


probabilitate.
ObservaŃia 1.3. i) Dacă p este continuă în punctul a, atunci F'(a) = p(a), iar

probabilitatea ca X să ia valori într-un interval foarte mic [a, a + D t] este aproximativ

p(a) D t.
ii) Din punct de vedere geometric, existenŃa densităŃ ii exprimă faptul că

probabilitatea cu care X cade într-un interval oarecare [a, b] al dreptei reale este egală cu

aria mărginită de graficul funcŃ iei p(x) restrânsă la acest interval (fig.2.2).

iii) Pentru aplicaŃii este importantă formula


b
P(Xœ[a, b]) = ∫a p( x)dx , (2.11)

care este o consecinŃă imediată a relaŃ iilor (2.8) şi (2.9).

Exemplul 1.5. Fie X o variabilă aleatoare cu densitatea de probabilitate

p( x ) = 3e −3 x , pentru x ≥ 0 şi zero în rest. Atunci


2
P(Xœ[1, 2]) = ∫ 3e − 3x dx = e-3 - e-6.
1

În cazul unei variabile discrete, notând P(X = an) = pn, relaŃ ia (2.4) poate fi

transcrisă sub forma

∑n p n = 1, (2.12)

Există şi variabile aleatoare mixte, a căror funcŃ ie de repartiŃie admite o mulŃ ime

nevidă {an}nœI de puncte de discontinuitate, iar şirul pn = P(X= an) satisface relaŃ ia

∑n p n <1. (2.13)

Notând
1 1  
∑n p n = a, F1(x) =
α
∑ p n , F2(x) =
1− α
 F ( x) − ∑ p n  ,
 
a ≤x
n  an ≤ x 
cu probabilitatea a, X ia una din valorile an, iar cu probabilitatea 1 - a este continuu
repartizată în anumite submulŃ imi ale dreptei reale. FuncŃia de repartiŃ ie F se exprimă

atunci sub forma


F(x) = a F1(x) + (1 - a )F2(x), (2.14)

unde F1(x) şi F2(x) se numesc, respectiv, componenta discretă şi componenta continuă a

lui F.
Exemplul 1.6. Fie X o variabilă urmând o repartiŃ ie “exponenŃială” (v. secŃ iunea

2.3), cu funcŃia de repartiŃ ie

 0, x < 0,
F(x) =  -x
1 − e , x ≥ 0
şi Y = X IA, unde IA este indicatorul evenimentului A = {X¥1}. Atunci Y are o repartiŃ ie de

tip mixt, deoarece funcŃ ia sa de repartiŃie rezultă egală cu

 0, x < 0
 -1
FY(x) = 1 - e , x ∈ [0, 1],
 1 - e - x , x ≥ 1,

Unicul salt al acestei funcŃ ii este plasat în origine şi este egal cu 1 - e-1, deci

FY(x) = (1 - e-1) F1(x) + e-1 F2(x),


unde componenta discretă şi cea continuă a lui FY sunt date, respectiv, de

0, x < 0,  0, x < 1,


F1(x) =  , F2(x) =  1- x
1, x ≥ 0, 1 - e , x ≥ 1,

În cele ce urmează ne vom limita la studierea variabilelor discrete şi a celor absolut

continue.
2.2. Caracteristici numerice ale variabilelor aleatoare. Orice variabilă aleatoare
poate fi studiată cu ajutorul funcŃiei sale de repartiŃie. Totuşi de multe ori este necesară o
prezentare mai sumară a variabilelor aleatoare prin intermediul anumitor caracteristici
numerice sau valori tipice asociate. În plus, pentru o clasă largă de variabile aleatoare,
funcŃiile lor de repartiŃie depind de anumiŃi parametri care pot fi determinaŃi cu ajutorul
unor caracteristici numerice ale variabilelor aleatoare.
Cea mai importantă dintre aceste caracteristici numerice ale unei variabile aleatoare

X este media, care atunci când există se notează E[X]. Folosind aparatul teoriei măsurii,

oricărei variabile aleatoare nenegative i se poate asocia o medie, care este un număr real

extins, putând lua şi valoarea ¶. Scriind X = X+ - X- (diferenŃa dintre “partea pozitivă”

şi “partea negativă” a lui X, unde X+ este definit ă ca maximul dintre X şi 0), se spune

atunci că media lui X este definită (sau că X admite medie) dacă cele două medii E[X+] şi

E[X-] nu sunt simultan egale cu ¶, iar atunci prin definiŃ ie

E[X] = E[X+] - E[X-]. (2.15)


Ca urmare, media lui X există şi este finit ă dacă cele două medii E[X+] şi E[X-] sunt

ambele finite, sau echivalent, dacă E[| X |] < ¶ (modulul lui X are o medie finită). Dacă

identificăm între ele două variabile aleatoare care coincid “aproape sigur” (adică

exceptând eventual o submulŃ ime de probabilitate nulă a lui W), mulŃ imea variabilelor

aleatoare cu această proprietate formează atunci un spaŃ iu Banach, notat L1(W), a cărui

normă este dată de


def
|| X || = E[| X |].
Un subspaŃiu important al lui L1(W) este cel al variabilelor aleatoare de pătrat

integrabil
L2(W) = {X | E[X2] < ¶},
care este un spaŃiu Hilbert în raport cu produsul scalar
def
X . Y = E[XY]. (2.16)
Se poate arăta că media (sau “operatorul de mediere”) este caracterizată de

următoarele patru proprietăŃi fundamentale:


1. Dacă IA este indicatorului evenimentului A (Exemplul 1.2), atunci

E[IA] = P(A).
2. Monotonie: Dacă X ≤ Y (adică X(w) ≤ Y(w), "weW), atunci E[X] ≤ E[Y ].

3. Liniaritate: E[X + Y] = E[X] + E[Y]; E[cX] = c E[X], "cœR.


4. Teorema convergenŃei monotone: Dacă X este limita şirului crescător de variabile

aleatoare {Xn}, atunci E[X] = lim E[Xn].


n →∞

În particular, dacă

X= ∑
n =1
Xn,

este suma unei serii de variabile aleatoare nenegative, atunci teorema convergenŃei

monotone aplicată şirului sumelor parŃiale ale acestei serii ne dă



E[X] = ∑
n =1
E[Xn]. (2.17)

În cazul variabilelor aleatoare discrete şi în cel al variabilelor absolut continue,

aceste noŃiuni se explicitează în felul următor:

* Dacă X este o variabilă aleatoare discretă care ia valorile an cu probabilităŃile pn,

atunci X admite o medie finită, dată de

E[X ] = ∑n an p n , (2.18)

ori de câte ori seria din membrul drept este absolut convergentă.

* Dacă X admite densitatea de probabilitate p(x), atunci X admite o medie finită,

dată de

E[X] = ∫−∞xp( x)dx , (2.19)

ori de câte ori integrala din membrul drept este absolut convergentă. (Pentru variabile

aleatoare nenegative - discrete sau absolut continue - formulele de mai sus pot servi
pentru calculul mediei şi în cazul când aceasta din urmă este infinită, ceea se întâmplă

atunci când seria sau integrala respectivă este divergentă.)

Exemplul 2.1. Pentru o variabilă aleatoare X cu tabelul de repartiŃ ie

0 1 2 3
1 3 3 1
 
8 8 8 8
valoarea medie este
1 3 3 1 3
E[ X ] = 0 ⋅ + 1 ⋅ + 2 ⋅ + 3 ⋅ = .
8 8 8 8 2
Exemplul 2.2. Variabila aleatoare discretă cu funcŃia de masă

S
P ( X = n) = , (n = 1, 2, …),
n2

(unde S este astfel ales încât ∑ P (X
n =1
= n) = 1) are o medie infinită, deoarece


nS ∞ S
∑ 2 = n∑=1 n = ∞.
n =1 n

Exemplul 2.3. Fie X o variabilă aleatoare având densitatea de probabilitate

p( x) = 3x 2 , pentru x ∈ [0,1] şi zero în rest. Valoarea medie a variabilei aleatoare X este


∞ 1 3
E[ X ] = ∫ xp ( x )dx = ∫ x ⋅ 3x 2 dx = .
−∞ 0 4
Exemplul 2.4. Aşa-numita repartiŃie Cauchy, cu densitatea de probabilitate

1
p(x) = (2.20)
π(1 + x 2 )
nu admite medie, deoarece integrala

x

∫∞ π(1 + x ) dx 2

este divergentă.

Dându-se o variabilă aleatoare X : W → R şi o funcŃie boreliană f : R → R

(Exemplul 1.1), adică o funcŃ ie având proprietatea de a inversa mulŃ imi boreliene în
mulŃ imi de acelaşi tip, aplicaŃ ia compusă f o X : W → R este atunci o variabilă aleatoare

care se numeşte o funcŃie de variabila aleatoare X şi se notează f(X).

Dacă f este o funcŃie pentru care variabila aleatoare f(X) există şi admite medie,

atunci media respectivă este



E[f(X)] = ∑
n =0
f(an)pn , (2.21)

în cazul discret, şi

E[f(X)] = ∫ f ( x )p( x )dx (2.22)
−∞

în cazul absolut continuu.

Dacă X este o variabilă aleatoare admiŃ ând medie finită, atunci variabila
o
aleatoare X − m se numeşte variabila centrată asociată lui X şi se notează X . Valoarea

medie a variabilei centrate este zero.


Se numeşte moment de ordinul k al variabilei aleatoare X , valoarea medie a

variabilei aleatoare X k , E[Xk]. Rezultă formulele de calcul


E[ X k ] = ∑ a nk p n , (2.23)
n

în cazul discret, şi

E[ X k ] = ∫ x k p( x )dx (2.24)
−∞

în cazul continuu.
o
Momentul de ordinul k al variabilei aleatoare X = X - E[X ] se numeşte
momentul centrat de ordinul k al lui X şi se notează
µ k := E[( X − m) k ] .

Momentul centrat de ordinul doi µ 2 := E[( X − m) 2 ] se numeşte varianŃa


variabilei aleatoare X şi se notează Var(X). Aceasta permite caracterizarea gradului de
împrăştiere a valorilor variabilei aleatoare în jurul valorii medii. Prin definiŃ ie, mărimea

σ = Var ( X ) . (2.25)
este abaterea medie pătratică (sau deviaŃia standard) a variabilei X.
ProprietăŃile varianŃei:

i) Formula de calcul:
Var ( X ) = E[ X 2 ] − (E[ X ]) 2 . (2.26)

ii) Var (aX + b) = a 2 Var ( X ) , (a, b constante).


iii) X, Y independente ï Var (X + Y) = Var (X) + Var (Y).
(Primele două rezultă imediat din definiŃ ia varianŃei; cea de a treia va fi

demonstrată în § 4.)

Exemplul 2.5. Pentru o variabilă aleatoare discretă cu tabelul de repartiŃ ie

0 1 2 3
1 3 3 1
 
8 8 8 8
3
valoarea medie este E[X] = , iar momentul de ordinul doi este
2
1 3 3 1
E[ X 2 ] = 0 2 ⋅ + (1) 2 ⋅ + (2) 2 ⋅ + (3) 2 ⋅ = 3 .
8 8 8 8
Rezultă
2
 3  12 − 9 3
Var ( X ) = 3 −   = = .
2 4 4
Exemplul 2.6. Variabila aleatoare X având densitatea de probabilitate

p( x) = 3x 2 pentru x ∈ [0,1] şi zero în rest are valoarea medie 3/4. Deoarece momentul de
ordinul doi este
∞ 1 3
E[X2] = ∫ x 2 p( x )dx = ∫ x 2 ⋅ 3x 2 dx = ,
−∞ 0 5
rezultă
2
3 3 3
Var ( X ) = −   = .
5 4 80

Lema 2.1. (Inegalitatea lui Markov). Fie X¥0 o variabilă aleatoare nenegativă.

Pentru orice a > 0 este îndeplinită inegalitatea


E[ X ]
P(X ≥ a) ≤ . (2.27)
a
DemonstraŃie. Din ipoteza că X este nenegativă rezultă că notând cu I indicatorul

evenimentului {X¥a} vom avea aI b X. Aplicând monotonia mediei, de aici rezultă

E[aI] = a P(X¥a) ≤ E[X],


de unde inegalitatea (2.27). Ö
Teorema 2.1. (Inegalitatea lui Cebâşev). Fie X o variabilă aleatoare care admite

varianŃă. Pentru orice ε > 0 este îndeplinită inegalitatea

Var(X )
P(|X- E[X]| ≥ ε ) ≤ (2.28)
ε2
DemonstraŃie. Rezultă înlocuind în (2.27) pe X prin (X - E[X])2 şi pe a prin ε 2 ,

Ńinând seama de egalitatea evenimentelor {(X - E[X])2 ≥ ε 2}şi {|X(w - E[X]| ≥ ε }. Ö

Analog se demonstrează inegalitatea

E[| X - E[ X ] | r ]
P(|X- E[X]| ≥ ε ) b .Ö (2.29)
εr
ObservaŃia 2.1. i) Fiind prin definiŃ ie media pătratului unei variabile aleatoare,

varianŃa este totdeauna nenegativă. Folosind inegalitatea lui Cebâşev putem arăta că dacă

Var(X) = 0, atunci X este constantă cu probabilitate 1: Într-adevăr, inegalitatea (2.28)

1
aplicată pentru ε = ne dă
n
P(|X - E[X]| ¥1/n) = 0, (n= 1, 2,…),
şi astfel

P(|X- E[X]| >0) = ∑
n =1
P(| X - E[X]| ¥1/n) = 0,

sau
P(X = E[X]) = 1.
ii) Tot inegalitatea lui Cebâşev ne dă următoarea interpretare intuitivă a varianŃei

unei variabile aleatoare: Cu cât varianŃa este mai mică, cu atât abaterile mari de la medie

sunt mai puŃ in probabile.


2.3. FuncŃii generatoare şi funcŃii caracteristice. DefiniŃia 1. Fie X o variabilă

aleatoare luând numai valori naturale. Se numeşte funcŃie generatoare a lui X funcŃ ia

g X (t ) = E[t X ] . (2.30)
Notând
P(X = n) = pn,
formula (2.23) ne dă atunci

g X (t ) = ∑
n =0
pntn , (2.31)

deci g X (t ) este suma seriei de puteri cu coeficienŃ ii {pn}, în particular, cunoaşterea ei

determină în mod unic şirul {pn}, adică repartiŃ ia variabilei X. Cum



g X (1) = ∑ pn
n =0
= 1,

raza R de convergenŃă a seriei din membrul drept al relaŃ iei (2.28) este ¥ 1. Când R>1,

această serie poate fi derivată termen cu termen în t = 1, iar derivatele respective

reprezintă aşa-numitele momente factoriale ale variabilei X:

g(n)(1) = E[X(X - 1)…(X - n +1)]. (2.29)


Aplicând această relaŃ ie pentru n = 1 şi n = 2, obŃinem:

E[X] = gX' (1), (2.30)


E[X2] = gX'' (1) + gX' (1),
(2.31)
de unde
Var(X) = gX'' (1) + gX' (1) - (gX' (1))2. (2.32)
Exemplul 3.1. Fie variabila aleatoare X repartizată Poisson cu parametrul λ (v.
mai jos, § 3), având funcŃ ia de masă:

λn -l
P(X = n) = e , n = 0, 1, 2, …
n!
FuncŃia generatoare este

λn n ∞
(λ t ) n
g X (t ) = ∑ e −λ
t =e ∑
−λ
= e λ(t −1) .
n=0 n! n =0 n!

Aplicând formulele (2.30) şi (2.32), se obŃine E[X] = Var(X) = λ .

DefiniŃia 2. Se numeşte funcŃie caracteristică a variabilei aleatoare X funcŃia

c X ( t ) = E[e itX ] . (2.33)


Pentru fiecare t fixat,
e itX = cos tX + i sin tX
este atunci o variabilă aleatoare cu valori complexe, a cărei medie, atunci când există,

este prin definiŃ ie

E[e itX ] = E [cos tX] + i E[sin tX].

Formulele de calcul sunt:


- caX(t) = cX(at), (aœR).
(2.34)
- Pentru o variabilă aleatoare discretă X , cu funcŃia de masă

P(X = an) = pn, (n= 0, 1, …),



c X (t) = ∑
n =0
e itan p n .

(2.35)
- Pentru o variabilă aleatoare continuă X cu densitatea de probabilitate p( x) :

c X (t) = ∫ e itx p( x )dx .
−∞

(2.36)
Se observă că funcŃia caracteristică este o transformată Fourier. Dacă funcŃia
caracteristică este absolut integrabilă, atunci densitatea de probabilitatea corespunzătoare
este
1 ∞ −itx
2π ∫−∞
p( x) = e c(t )dt . (2.37)

Dacă X este o variabilă aleatoare admiŃând un moment finit de ordin r , atunci


(r )
r c (0)
E[ X ] = X r .
i
(2.38)
Exemplul 3.2. Fie, pentru l > 0, X o variabilă aleatoare “exponenŃială” cu

densitatea λe − λx pentru x¥0 şi nulă în rest. Atunci funcŃia sa caracteristică este

∞ λ
c (t ) = ∫ eitxλ e− λx dx = .
0 λ − it
iλ c' (0) 1
Deoarece c' (t ) = , din (2.38) rezultă E[ X ] = = .
(λ − it ) 2
i λ

2.4. Variabile aleatoare cu valori în R . Media unei variabile aleatoare este un

caz particular de “integrală pe un spaŃ iu cu măsură”. Deoarece două variabile aleatoare

care coincid “aproape sigur” (adică în afara unui eveniment de probabilitate 0) au aceeaş i

medie, ea poate fi definită şi pentru aplicaŃ ii

X: Ω → R = R » { ± ¶}

care satisfac condiŃ ia

{ X ≤ a}e , " ae R
(2.39)

din definiŃ ia variabilelor aleatoare uzuale, ceea ce atrage după sine relaŃiile

{X=¶}e , {X =-¶}e . (Astfel de variabile aleatoare luând şi valori infinite apar în

mod natural ca limite ale unor şiruri monotone de variabile aleatoare obişnuite.)

E suficient să considerăm cazul X ¥ 0. Dacă P(X = ¶)>0, se ia prin definiŃ ie

E[X ] = ¶; dacă P(X = ¶) = 0 (ceea ce implică P(X < ¶) = 1: X este “aproape sigur”

finit ă), E[X] este definită ca media variabilei aleatoare X0, obŃinută modificând valorile

lui X în punctele w în care X(w) = ± ¶, prin atribuirea lui X0(w) a unei valori arbitrare,
de exemplu valoarea zero. ProprietăŃile integralei, în particular teorema convergenŃei

monotone, rămân valabile şi în acest cadru mai general.

Exemplul. 4.1. Fie X o variabilă aleatoare cu valori în N = N » {¶}, pentru care

1
P(X= 0) = 0, P(X = n) = , (n ¥1).
3n
De aici rezultă

1 1
P(X<¶) = ∑
n =1 3
n
=
2
,

deci P(X = ¶) >0 şi astfel E[X] = ¶.

Exemplul 4.2. În aceeaşi ipoteză asupra valorilor lui X, dacă

1 1
P(X= 0) = , P(X = n) = n , (n ¥1),
2 3
atunci

1 1
P(X<¶) =
2
+ ∑
n =1 3
n
= 1,

deci P(X = ¶) = 0, iar media lui X va fi egală cu media unei variabile aleatoare X0 care ia

numai valori naturale (cu aceleaşi probabilităŃi ca şi X), adică



n 1 ∞ n 3
E[X] = ∑
n =1 3
n
= ∑
3 n =1 3 n -1
= .
4

AplicaŃia 4.1. Numărul mediu de realizări ale unui şir de evenimente. Oricărui şir

de evenimente (An)n¥1 i se asociază o variabilă aleatoare N: Ω → N ,



N= ∑
n =1
I n , (2.40)

unde In este indicatorul evenimentului An. Pentru fiecare wœW, N(w) “numără” atunci

evenimentele An care se realizează prin experimentul cu rezultatul w. Avem deci

∞ ∞ ∞ ∞
 
{N = 0}= I An , {N = 1}= U  An \ U Am  , {N = ¶}= I UA n , etc.
n =1 n =1 m≠ n  m=0 n=m
Aplicând teorema convergenŃei monotone sub forma 2.17, obŃinem

E[N] = ∑
n =1
P( A ) ,
n (2.41)

deci ∑
n =1
P( A )
n reprezintă numărul mediu de realizări ale evenimentelor An. Regăsim în

particular prima parte a lemei Borel-Cantelli: Dacă E[N] = ∑
n =1
P( A ) <¶, atunci variabila
n

aleatoare N trebuie să fie “aproape sigur finită”, deci


 
 ∞ ∞ 
P(N = ¶) = P I U n  = 0.
A
 m= 0 n=m 

 
AplicaŃia 4.2. Formule pentru media unei variabile aleatoare nenegative. i) Dacă X

este o variabilă aleatoare discretă, luând numai valori naturale, atunci luând în cele de

mai sus An = {Xbn}, variabila N definită prin (2.40) coincide cu X (exerciŃ iu!), deci (2.41)

arată că media (finită sau infinită a lui X) poate fi calculată cu formula



E[X ] = ∑
n =1
P( X ≥ n).

(2.42)
ii) Pentru o variabilă aleatoare nenegativă oarecare X, notând cu [X ] partea

întreagă a lui X şi Ń inând seama de inegalităŃ ile

[X] b X <1 + [X],


formula (2.20) aplicată variabilei cu valori naturale [X] ne dă inegalităŃ ile
∞ ∞
∑ P( X ≥ n) b
n =1
E[X] < 1 + ∑
n =1
P( X ≥ n) .

(2.43)
AplicaŃia 4.3. Criteriu de existenŃă a mediei. Fie X o variabilă aleatoare. Atunci

X admite o medie finită ñ ∑
n =1
P(| X | ≥ n) < ¶.

(2.44)
Rezultă din inegalităŃ ile (2.43) aplicate variabilei aleatoare | X |, Ńinând seama că X

admite o medie finită dacă şi numai dacă E[| X |] <¶.

§ 3. Legi clasice de repartiŃie


În acest paragraf vor fi prezentate câteva din cele mai importante repartiŃii de tip
discret sau absolut continuu.
3.1. RepartiŃii discrete. 1. RepartiŃia Bernoulli cu parametrul p. Este repartiŃia

indicatorului X al unui eveniment A ⊂ Ω cu P(A) = p, pentru care


0 1
X:  .
q p 

Din definiŃ ie rezultă imediat E[X] = p, Var(X) = pq (unde q = 1- p), gX(t) = pt +

q.
2. RepartiŃia binomială B(m, p) este repartiŃia unei variabile aleatoare X care

numără succesele obŃ inute din m „experimente Bernoulli” (experimente independente,

având două rezultate posibile - A = „succes” şi A = „eşec”) cu probabilitatea de succes

P(A) = p.
Valorile posibile ale lui X sunt în număr de m + 1 (de la 0 la m). Rezultatele celor

m experimente pot fi reprezentate sub forma unei secvenŃe a1…am de cifre binare (1

pentru succes şi 0 pentru eşec). Datorită independenŃei, orice secvenŃă conŃinând n cifre

de 1 va avea probabilitatea pnqm-n, unde q = 1 - p; cum există în total C mn astfel de

secvenŃe, vom avea

P ( X = n ) = C mn p n q m − n , (n =0, 1, ..., m). (3.1)

Denumirea de „repartiŃ ie binomială” provine din faptul că valorile de mai sus ale

funcŃ iei de masă asociată acestei repartiŃii coincid cu coeficienŃ ii binomiali din

dezvoltarea binomului (p + q)m. Ca urmare, funcŃ ia generatoare


m n
gX(t) = ∑C
n =0
n
m p q m−n t n = (pt + q)m. (3.2)

Media şi varianŃa unei variabile binomiale cu parametrii m, p sunt

E[X ] = mp, Var [X ] = mpq.


Aceste valori pot fi obŃ inute:

a) Folosind formulele (2.30) şi (2.32) aplicate funcŃiei generatoare (3.2).

b) Observând că X se poate exprima ca suma a m variabile independente de tip

Bernoulli
X = Y1 + … + Ym, (3.3)
(unde Yi este variabila care ia valoarea 1 sau 0, după cum în experimentul nr. i s-a

obŃinut un succes sau un eşec) şi folosind valorile mediei şi varianŃei unei variabile

Bernoulli..
3. RepartiŃia Poisson cu parametrul l > 0 este repartiŃia unei variabile aleatoare

discrete X care ia orice valoare naturală n cu probabilitatea

λn − λ
P(X = n) = e , (nœN).
n!
(3.4)
Este un caz limită al repartiŃiei binominale B(m, p) pentru m → ∞ şi p → 0 , cu
condiŃia mp = λ = constant.
Dacă v.a. X urmează o repartiŃie Poisson cu parametrul l, atunci
pt
E[X] = Var(X) = l; gX(t) = .
1 − qt

4. RepartiŃia geometrică cu parametrul p este repartiŃia unei variabile aleatoare

discrete X care reprezintă numărul de experimente Bernoulli cu probabilitatea p de

succes, efectuate până la obŃ inerea primului succes. Avem

P(X = n) = p(1 - p)n - 1, (n = 1, 2, ...); (3.5)


1 1− p pt
E[X ] = , Var [X ] = 2
; gX(t) = .
p p 1 − qt
5. RepartiŃia binomială negativă cu parametrii m, p este repartiŃia unei variabile

aleatoare discrete X care reprezintă numărul de experimente Bernoulli cu probabilitatea p

de succes, efectuate până la obŃinerea a m succese. Avem


−1 m n-m
P(X = n) = C m
n −1 p q , (n = m, m + 1, ...); (3.6)
m m
m mq p t
E[X] = , Var (X) = 2 ; gX(t) = .
p p (1 - qt ) m

6. RepartiŃia hipergeometrică cu parametrii a, b este repartiŃ ia unei variabile

aleatoare discrete X care reprezintă numărul de bile albe obŃ inute după m extrageri fără

înlocuire dintr-o urnă conŃinând a bile albe şi b bile negre. Avem

C na C m - n
b
P(X = n) = , max (0, m - b)  n  min(a, m); (3.7)
m
C
a+b

a+b−n
E[X] = mp; Var(X ) = npq ,
a + b −1
unde
a b
p= , q= .
a+b a+b
3.2. RepartiŃii absolut continue. 1. RepartiŃia uniformă în intervalul [a ,b] este

repartiŃia unei variabile aleatoare cu densitatea de probabilitate

 1
 , x ∈ [a , b],
p(x ) =  b − a . (3.8)
 0, x ∉ [a , b]

Fig. 3.1. Graficele unei densităŃ i şi unei funcŃ ii de repartiŃ ie uniforme

În acest caz
 0, x < a ,

x − a
F(x) =  , a ≤ x ≤ b , E[X] =
a+b
, Var(X) =
(b − a)
2
; cX(t) =
1
[
eitb−ita . ]
 x − b 2 12 it (b − a )
 1, x > b.

2. RepartiŃia exponenŃială cu parametrul λ >0, este repartiŃ ia unei variabile

aleatoare X cu densitatea de probabilitate


λ e −λx , x ≥ 0
p(x) =  . (3.9)
 0 , x < 0

În acest caz

 1 1 λ
F(x) =  0, −xλ<0x , E[ X ] = , Var( X ) = 2 ; c X (t ) = .
1−e x ≥0 λ λ λ − it

Fig. 3.2. Graficele unei densităŃ i şi unei funcŃii de repartiŃ ie exponenŃ iale

3. RepartiŃia normală. a) Cazul standard. Se spune că o variabilă aleatoare Z are o

repartiŃie normală standard dacă densitatea ei de probabilitate este de forma


x2

p(x) = C e 2
.
1
Punând condiŃ ia (2.10), se obŃine C = , deci

x2
1 −
p(x) = e 2
. (3.10)

De aici rezultă
t2

E[Z] = 0, Var (X) = 1; cZ(t) = e 2
. (3.11)
FuncŃ ia de repartiŃie a unei astfel de variabile se notează Φ (t) şi se numeşte

funŃia lui Laplace. După definiŃ ie,

t x2
1 −
Φ (t ) = ∫e 2 dx , (3.12)
2π −∞
dar densitatea (3.10) neavând primitivă exprimabilă prin funcŃ ii elementare, valorile

funcŃ iei lui Laplace (calculate cu metode aproximative pentru argumente variind, de

obicei, între 0 şi 3) se găsesc în tabele. Pentru valori negative ale argumentului,

deoarece densitatea (3.10) este o funcŃ ie pară, se foloseşte formula

Φ (-t) = 1 - Φ (t). (3.13)


b) Cazul general. Se numeşte variabilă normală cu parametrii m, s (cu m arbitrar

în R şi s >0) o variabilă de forma

X = s Z + m, (3.14)

unde Z este o variabilă normală standard.

În acest caz se foloseşte notaŃia X ~ N(m, s ). (În particular, dacă X este o variabilă

normală standard, atunci X ~ N(0, 1).) Din (3.11) şi (3.14) rezultă

 σ2t 2 
E[X] = m, Var (X) = s 2, cX(t) = exp itm − .
 2 

Din (3.14) rezultă de asemeni

 x- m
P(Xx) = P  Z ≤ ,
 σ 

deci funcŃia de repartiŃ ie a variabilei X este

 x-m
F(x) = Φ  ,
 σ 
(3.15)
unde Φ este funcŃ ia lui Laplace; în particular, pentru orice interval [a, b], relaŃ ia (2.8) ne

permite să calculăm probabilitatea ca X să cadă în [a, b] cu formula


b-m a-m
P(Xœ[a, b]) = Φ  - Φ  .
 σ   σ 
(3.16)

Fig. 3.2. Graficele densităŃ ii şi funcŃ iei de repartiŃie normale standard

Exemplul 2.1. (Legea 3s). Dacă X ~ N(m, s ), atunci folosind formula (3.16),

obŃinem P(Xœ[m - 3 s, m + 3 s]) = Φ (3) - Φ (-3) = 2 Φ (3) - 1.

Din tabelul de valori ale funcŃ iei lui Laplace găsim Φ (3) ≅ 0,999, deci

P(Xœ[m - 3 s, m + 3 s]) ≅ 0, 998. (3.17)

(Cu o probabilitate foarte mare, X aparŃine intervalului centrat în m, de lungime 6s.)

ObservaŃia 2.1. łinând cont de continuitatea densităŃii normale standard definite

prin relaŃ ia (3.10), funcŃ ia lui Laplace (3.12) este derivabilă şi are derivata egală cu

această densitate; ca urmare, densitatea de probabilitate a unei variabile aleatoare X cu

repartiŃia N(m, s ) poate fi obŃinută prin derivarea funcŃiei sale de repartiŃ ie (3.15):

( x − m )2
1 −
2 σ2
pX(x) = e , (3.18)
2πσ
o formulă cu relevanŃă exclusiv teoretică.

4. RepartiŃia Gamma cu parametrii l, p >0, este repartiŃia unei variabile aleatoare

cu densitatea de probabilitate
λp −λx p−1
p( x ) = e x , (x >0) (3.19)
Γ( p )
unde

G(p) = ∫ e −x x p−1dx .
0

Media şi varianŃa ei sunt


p p
E[ X ] = ; Var( X ) = 2 .
λ λ
3.3. RepartiŃii fără memorie. Să considerăm o variabilă aleatoare X ¥ 0

reprezentând “timpul de aşteptare” până la producerea unui anumit eveniment. Variabila

X se numeşte fără memorie dacă ea satisface o condiŃ ie de forma

P(X >x + y | X > y) = P (X > x), (x, y >0). (3.20)


(Cu alte cuvinte, ştiind că evenimentul respectiv nu s-a produs la momentul y,

timpul de aşteptare pornind de la acel moment are aceeaşi repartiŃ ie ca şi timpul de

aşteptare iniŃ ial.)

Deoarece evenimentul {X > x + y} este evident inclus în evenimentul {X > y},

relaŃ ia precedentă se poate transcrie

P(X >x + y) = P (X > x) P (X > y). (3.21)


Vom considera separat cazul discret şi cel absolut continuu.

i) Dacă X este o variabilă discretă luând valori naturale şi satisfăcând relaŃ ia

(3.21) pentru orice x, yœ N, atunci notând P(X > 1) = q, vom avea


P(X > n) = qn,
deci
P(X = n) = P(X > n - 1) - P(X > n) = qn-1 - qn = qn-1 (1 - q),
şi astfel X are o repartiŃie geometrică cu parametrul p = 1 - q.

ii) Da că X este o variabilă continuă , atunci notând

P(X > x) = G(x), ln G(x) = g(x),


relaŃ ia (3.21) se transcrie
g (x + y) = g(x) + g(y), (x, y >0),
de unde
g(x) = ax
pentru un anumit aœR, şi astfel G(x) = eax, deci a<0 (pentru a avea lim G(x) = 0), iar în
x →∞

final, notând a = -l,


P(X  x) = 1 - G(x) = 1 - e-lx, (x > 0),
care este funcŃ ia de repartiŃ ie a unei variabile exponenŃiale cu parametrul l>0.

§4. Vectori aleatori


4.1. RepartiŃii discrete şi continue. În multe cazuri un fenomen aleator este

caracterizat prin variaŃia mai multor mărimi aleatoare. Din punct de vedere matematic
astfel de cazuri sunt descrise de conceptul de vector aleator.
DefiniŃia 1. Fie (W, , P) un câmp de probabilitat. Un vector aleator n-

dimensional definit pe (W, , P) este un sistem (X1, …, Xn) de n variabile aleatoare

definite pe acest spaŃiu.

Deoarece fiecare Xi este o funcŃ ie Xi: W → R, cele n variabile definesc o funcŃ ie

vectorială cu valori în Rn

X: W → Rn, X(w) = (X1(w), …, Xn(w)), (w∈W),


care se numeşte atunci vectorul aleator cu componentele X1, …, Xn.

Dacă fiecare componentă admite o medie mi, atunci vectorul mœRn cu

componentele m1, …, mn se numeşte centrul de dispersie al vectorului X şi se notează

E[X].
DefiniŃia 2. Fie X = ( X1, X 2 ,K, X n ) un vector aleator n-dimensional. FuncŃia

FX : R n → [0,1] definită prin relaŃia

FX (a1 ,K, a n ) = P ( X 1 ≤ a1 ,K, X n ≤ an ) (4.1)

se numeşte funcŃia de repartiŃie n-dimensională a vectorului aleator X (sau funcŃia

comună de repartiŃie a celor n componente X1, …, Xn. FuncŃiile de repartiŃie


multidimenionale au proprietăŃi similare cu cele ale funcŃiilor de repartiŃie
unidimensionale.
i) FX este crescătoare în raport cu fiecare variabilă.
ii) FX este continuă la dreapta în raport cu fiecare variabilă.
iii) FX(a1, …, an)Ø0 dacă cel puŃin una din variabilele ai tinde spre − ∞ ;
FX(a1, …, an)Ø1 dacă variabilele ai tind spre ¶.

Ca şi în cazul 1-dimensional, pentru orice submulŃ ime boreliană M din Rn, putem

arăta că imaginea inversă X-1(M) aparŃine atunci σ-algebrei , deci este un eveniment

căreia i se poate asocia o probabilitate notată P(XœM):

PropoziŃia 1.1. Dacă X este un vector aleator n-dimensional, atunci pentru orice

submulŃime boreliană Mœn avem X-1(M) œ .

DemonstraŃie. Familia * a submulŃ imilor M ale lui Rn cu proprietatea că

X-1(M)∈ este o σ-algebră de părŃ i ale lui Rn, care, deoarece fiecare Xi este o variabilă

aleatoare, conŃine familia  a mulŃ imilor de forma M1µ…µMn, cu Mi mulŃ imi boreliene

din R. (Imaginea inversă a unei astfel de mulŃ imi fiind X1-1(M1) ∪… ∪Xn-1(Mn), cu

Xi-1(Mi)∈.) Ca urmare, * va conŃ ine şi σ-algebra generată de , care prin definiŃ ie este

familia n a mulŃ imilor boreliene din Rn. Ö

Corolar. Dacă X este un vector aleator cu componentele X1, …, Xn, atunci pentru

orice submulŃime boreliană Mœn avem X-1(M)∈σ(X1, …, Xn).

DemonstraŃie. Rezultă luând în PropoziŃ ia precedentă  = σ(X1, …, Xn), unde

σ(X1, …, Xn) este cea mai mică σ-algebră de părŃi ale lui W în raport cu care fiecare din

funcŃ iile Xi este măsurabilă (ObservaŃ ia 2.1.1. ii). Ö

ObservaŃia 1.1. Notând

mX (M ) = P(XœM), Mœ,
se obŃ ine o măsură de probabilitate mX pe s-algebra n a mulŃ imilor boreliene din Rn,
măsură numită repartiŃia vectorului X.

Cunoscând această repartiŃ ie, putem determina repartiŃ iile oricărui vector

X' = ( X i1 , X i2 ,K, X ie ) extras din X; de exemplu, pentru X' = (X1, …, Xn-1), şi pentru

orice submulŃ imi boreliene M1, …, Mn-1ÕR, avem

P(X'œ M1µ …µ Mn-1) = P(Xœ M1µ …µ Mn-1µR),

şi astfel repartiŃ ia vectorului X' satisface relaŃ ia

mX ' (M1µ …µ Mn-1) = mX(M1µ …µ Mn-1µR)


(4.2)
DefiniŃia 3. i) Vectorul X = ( X1, X 2 ,K, X n ) se numeşte discret dacă fiecare din

componentele sale este o variabilă aleatoare discretă.

ii) Vectorul X = ( X1, X 2 ,K, X n ) se numeşte absolut continuu dacă există o funcŃie

reală p: Rn → R, astfel încât funcŃia sa de repartiŃ ie să fie dată de


a a
1 n
F(a1, …, an) = ∫ ... ∫ p( x ,..., x
-∞ -∞
1 n )dx1 ...dx n . (4.3)

FuncŃia p se numeşte densitatea de probabilitate a vectorului aleator X (sau

densitatea comună de probabilitate a componentelor sale X1, X 2 ,K, X n ). Făcând în

(4.3) a1ض, …, anض, obŃinem

∫ ... ∫ n p( x1, ..., xn) dx1…dxn =1.


R
(4.4).

ObservaŃia 1.2. łinând seama de definiŃ ia funcŃ iei de repartiŃ ie n-dimensionale,

relaŃ ia (4.3) exprimă faptul că orice submulŃ ime M de forma (-¶, a1]µ …µ (-¶, an] din

Rn satisface relaŃ ia

P(X∈M) = ∫ ...∫ p (x1,…, xn) dx1…dxn . (4.5)


M
Cum familia  a acestor submulŃ imi generează σ-algebra n a submulŃ imilor

boreliene din Rn, de aici rezultă (v. Anexa 1) că formula este adevărată pentru orice

submulŃ ime boreliană din Rn.

ExistenŃa densităŃii de probabilitate p( x1, x2 ,K, xn ) pentru vectorul aleator X

implică existenŃa densităŃii pentru orice vector ( X i1 ,K X ie ) , dată de integrala în raport cu

toate variabilele xi , i ≠ i1,K, ie .

În particular pentru un vector aleator bidimensional (X, Y), densităŃile marginale ale

celor două variabile sunt date de



p1(x) = ∫−∞p( x, y)dy , (4.6)

respectiv

p2(y) =
−∞
∫ p( x, y)dx .
(4.7)
Într-adevăr, pentru orice aœR, avem

P(Xba) = P((X, Y)œMa),


unde
Ma = {(x, y) œR2| xba},
iar formula (4.5) ne dă

∞a

P(Xba) = ∫ dx ∫ p( x, y )dy  ,
−∞  − ∞ 
deci densitatea de probabilitate a variabilei aleatoare X este dată de (4.6).

Analog, dacă (X, Y) este un vector aleator discret pentru care X ia valorile (am) şi Y ia

valorile (bn), atunci cunoaşterea repartiŃ iei vectorului respectiv presupune cunoaşterea

funcŃ iei de masă

P(X = am, Y = bn) = pmn (4.8)


care trebuie să satisfacă relaŃia
∑ pmn = 1,
m,n
(4.9)

iar repartiŃiile marginale ale celor două variabile sunt date atunci de

P(X = am) = ∑n pmn ,


(4.10)
respectiv de
P(Y = bn) = ∑
m
p mn .

(4.11)
Exemplul 1.1. Fie p( x , y) = Ce −2 x e −4 y , dacă x ≥ 0 şi y ≥ 0 , şi zero în rest. Punând

condiŃ ia (4.5), obŃinem C = 8. Atunci


∞ −2x
p1 (x ) = ∫
0
8e − 2 x e − 4 ydy = 2e , (x ≥ 0 )

şi

p 2 ( y) = ∫ 8e − 2 x e −4 y dx = 4e −4 y , ( y ≥ 0 ).
0

Exemplul 1.2. Fie (X, Y) vectorul aleator care ia valorile întregi m = 0,…, n - 1,

n = 1, 2,… cu probabilităŃ ile

P(X = m, Y = n) = Cpn - 1,
unde pœ (0, 1).
Punând condiŃ ia (4.9), obŃinem

C ∑ np n-1 = 1 ,
n =1

deci
C
= 1,
(1 − p) 2

şi astfel C = q2, cu q = 1 - p. RepartiŃ iile marginale sunt date de



q2 pm
P(X = m) = ∑q
n = m+1
2
p n -1
=
1- p
= qp m , (m = 0, 1,…),

respectiv
P(Y = n) = n q2 pn - 1, (n = 1, 2, …).
DefiniŃia 4. Variabilele aleatoare X1, …, Xn se numesc independente, dacă pentru
orice a1, …, anœR, este satisfăcută relaŃia

P( X 1 ≤ a1 ,K , X n ≤ a n ) = P ( X 1 ≤ a1 )…P ( X n ≤ an ) (4.12)

cu alte cuvinte, funcŃ ia de repartiŃ ie a vectorului aleator X = ( X1, …, Xn) este produsul

funcŃ iilor de repartiŃie ale componentelor sale:

FX(a1, …, an) = FX (a1)… (a1) FX n (an). (4.13)


1

ObservaŃia 1.3. i) Făcând o parte din variabilele xi să tindă la ¶, din (4.12) rezultă o

relaŃ ie analogă satisfăcută de componentele oricărui vector aleator extras din X, deci

relaŃ ia respectivă exprimă independenŃa evenimentelor {X1b a1}, …, {Xnb an}.

ii) Folosind faptul că

PropoziŃia 1.2. Fie X = (X1, …, Xn) un vector aleator n-dimensional admiŃând

densitatea de probabilitate p(x1, …, xn). Atunci cele n componente X1, …, Xn sunt


independente dacă şi numai dacă,

p(x1, …, xn) = p1(x1)…pn(xn), (4.14)


unde p1(x1),…, pn(xn) sunt densităŃile celor n componente ale lui X.

DemonstraŃie. Dacă X1, …, Xn sunt independente, atunci relaŃ ia (4.13) poate fi

transcrisă sub forma

 a1   an  a a
1 n
   
FX(x1, …, xn) =  ∫ p1 ( x1 )x1 ... ∫ p n ( xn )d x n  = ∫ ... ∫ p ( x )... p (x
1 1 n n )dx1 ...dx n ,
 −∞   −∞  -∞ -∞
   
deci funcŃ ia cu variabile separate p1(x1)…pn(xn) satisface condiŃ ia din definiŃ ia densităŃii

de probabilitate a vectorului X. Reciproc, dacă densitatea de probabilitate a vectorului X

este produsul celor n densităŃ i marginale, atunci egalităŃ ile


a a
1 n  a1   an 
   
FX(a1, …, an) = ∫ ... ∫ p1 ( x1 )... p n (x n )dx1 ...dx n =  ∫ p1 ( x1 )x1 ... ∫ p n ( xn )d x n  =
-∞ -∞  −∞   −∞ 
   
= FX (a1)… (a1) FX n (an)
1

arată independenŃa celor n componente X1, …, Xn. Ö

ExerciŃiul 1.1. ArătaŃi că dacă variabilele aleatoare X1, …, Xn sunt discrete, atunci

independenŃa lor echivalează cu relaŃ iile

P ( X 1 = a1 ,K , X n = a n ) = P ( X 1 = a1 )... P ( X n = an ) . (4.15)
Exemplul 1.3. Fie vectorul aleator ( X , Y ) cu densitatea de probabilitate

2 x
p( x, y ) = exp( −( x + y )) pentru x > 0 , y > 0 şi zero în rest.
π y

Să se arate că variabilele X şi Y sunt independente între ele şi să se calculeze cele

două densităŃi marginale.

SoluŃie. Deoarece p(x, y) este o funcŃie cu variabile separate, cele două componente

sunt independente între ele, iar densităŃ ile marginale sunt de forma

p1(x) = C1 x e − x
1 −y
p2 (y) = C2 e ,
y

2 2 1
cu C1C2 = . Punând condiŃ ia (2.10), se obŃine C1 = , C2 = .
π π π

ObservaŃia 1.4. Fie variabilele aleatoare

M = max (X1, …, Xn),


m = min (X1, …, Xn),
unde X1, X 2 ,K, X n sunt variabile aleatoare independente având funcŃiile de repartiŃie

F1, F2 ,K, Fn . Din definiŃ ii rezultă imediat

FM(x) = F1(x)…Fn(x) (4.16)


Fm(x) = 1 - (1 - F1(x))…(1 - Fn(x)). (4.17)
Exemplul 1.4. În condiŃ iile de mai sus, presupunând că variabilele Xi urmează câte

o repartiŃ ie exponenŃ ială cu parametrul l>0, fiecare din funcŃ iile de repartiŃie Fi(x) va fi

egală cu
x
-lx -lx
∫λ e
0
dx = 1 - e , (x¥0),

iar formula (4.17) ne dă atunci


- nlx
Fm(x) = 1 - e ,

deci minimul a n variabile exponenŃiale cu parametrul l este o variabilă exponenŃială cu

parametrul n l.
4.2. FuncŃii de mai multe variabile aleatoare. NoŃiunea de funcŃ ie de argument

aleator se extinde la cazul funcŃ iilor de mai multe variabile. Fie X = ( X1, X 2 ,K, X n ) un

vector aleator n-dimensional şi f: Rn Ø R o funcŃ ie boreliană - o funcŃ ie care inversează

mulŃ imile boreliene din R în mulŃ imi boreliene din Rn (Exemplul 2.1.1). Atunci aplicaŃ ia

compusă Y = f ° X este o variabilă aleatoare care se notează f(X1, …, Xn): Pentru orice

submulŃ ime boreliană A din R, vom avea

Y-1(A) = X-1(f-1(A)) ∈

deoarece prin ipoteză f-1(A) ∈ n, iar X inversează mulŃ imile boreliene din Rn în mulŃ imi

din .

ObservaŃia 2.1. Din cele de mai sus rezultă că dacă notăm  = σ(X1,…, Xn)

σ-algebra asociată variabilelor X1, …, Xn (ObservaŃ ia 2.1), atunci variabila aleatoare

Y = f(X1, …, Xn) este -măsurabilă - în particular σ(Y) Õ σ(X1, …, Xn). Reciproc, se

poate arăta că dacă o variabilă aleatoare Y fare această ultimă proprietate, atunci există o

funcŃ ie boreliană f (x1,…, xn), astfel încât Y = f(X1,…, Xn).

Dacă vectorul X admite densitatea de probabilitate p(x1, …, xn), atunci media

variabilei aleatoare f(X) este


∞ ∞
E[f(X1, …, Xn)] = ∫−∞ K∫
−∞
f ( x1 , ..., x n ) p( x1 , ..., x n )dx1 ...dxn .

(4.18)
AplicaŃia 2.1. (Densitatea sumei a două variabile aleatoare). În cazul n = 2, luând

h(x, y) = x + y, obŃinem pentru orice vector aleator bidimensional (X, Y ), variabila

aleatoare Z = h(X, Y) = X + Y. În ipoteza existenŃei densităŃ ii comune de probabilitate

p(x, y), densitatea variabilei aleatoare Z poate fi calculată după cum urmează: Pentru

orice a > 0, folosind relaŃ ia (4.5), putem scrie

P(Z ≤ a) = ∫∫M
p( x, y)dx dy ,

unde
M = {(x, y)œR2 | x + y ≤ a}
este semiplanul mărginit superior de dreapta x + y = a (fig. 4.1), semiplan în care, pentru

un x dat, y variază de la -¶ la a - x. Aplicând teorema lui Fubini, ultima integrală,

devine
∞ a−x


−∞
dx ∫ p( x, y) dy.
−∞

Făcând în a doua integrală schimbarea de variabilă y = z - x şi schimbând apoi

ordinea de integrare, obŃinem astfel


∞ a a
∞ 
P(Z ≤ a) = ∫
−∞
dx ∫ p( x, z − x ) dz =
−∞
∫−∞  −∫∞p( x, z − x )dx dz , aœR.

Fig. 4.1. MulŃimea definită prin inegalitatea x + y ≤ a

Comparând cu definiŃ ia densităŃii de probabilitate (relaŃ ia (2.9)), rezultă că

densitatea variabilei Z = X + Y este



pZ(z) =
−∞
∫ p( x, z − x )dx . (4.19)

În particular, dacă cele două variabile X şi Y sunt independente, atunci notând

densităŃile lor cu p1(x) şi p2(y), avem

p(x, y) = p1(x) p2(y),


iar relaŃ ia precedentă devine

pZ(z) = ∫−∞p (x )p
1 2 (z − x )dx , (4.20)

relaŃ ie al cărui membru drept poartă numele de convoluŃia funcŃ iilor p1(x) şi p2(y), şi care,

dacă densităŃile p1 şi p2 sunt nule la stânga originii, devine


x
pZ(z) = ∫ p1 ( x )p 2 (z − x )dz (4.21)
0

Am demonstrat astfel că densitatea sumei a două variabile aleatoare independente şi

absolut continue este convoluŃia densităŃilor respective.

Dacă (X, Y) este un vector aleator discret ale cărui componente iau valori întregi,

atunci notând ca mai sus Z = X + Y, vom avea



P(Z = n) = ∑ P( X = k,Y = n - k ) ,
k = −∞
(4.22)

Dacă variabilele X şi Y sunt independente între ele, atunci

P(X = m, Y = n) = P(X = m) P(Y = n)


iar relaŃ ia precedentă devine

P(Z = n) = ∑ P( X = k ) P(Y = n - k ) ,
k = −∞

sau, notând
P(X = m) = pm, P(Y =n) = qn,

P(Z = n) = ∑
k = −∞
pk qn-k, (4.23)
relaŃ ie al cărui membru drept reprezintă termenul general al convoluŃiei şirurilor {pm} şi

{qn}şi care, dacă pn = qn= 0 pentru n<0, devine


n
P(Z = n) = ∑ pk qn-k, (n¥0). (4.24)
k =0

AplicaŃia 2.2. (Media produsului a două variabile aleatoare independente). Dacă

X şi Y sunt două variabile independente admiŃând câte o medie finită, atunci

E[XY] = E[X] E[Y] (4.25)


(media produsului este produsul mediilor). Probăm această proprietate în cazul când cele

două variabile sunt absolut continue. Densitatea lor comună de probabilitate este atunci

p(x, y) = p1(x) p2(y),


unde p1(x) şi p2(y) reprezintă densităŃ ile lui X şi Y. Aplicând formula (4.18) pentru n = 2

şi h(x, y) = xy, obŃinem


∞ ∞ ∞ ∞
E[XY] = ∫ ∫
−∞ −∞
xy p1(x) p2(y) dxdy = (
−∞
∫ x p1(x) dx) ( ∫
−∞
y p2(y) dy) = E[X] E[Y].

ConsecinŃă. Dacă X şi Y sunt două variabile aleatoare independente, atunci

funcŃ ia caracteristică a sumei este produsul celor două funcŃii caracteristice:

c X + Y (t ) = c X (t )cY (t ) (4.26)

(şi analog pentru funcŃ ia gX(t) atunci când ea există).

Într-adevăr
c X +Y ( t ) = E[e it ( X + Y ) ] = E[e itX ] E[e itY ] = c X ( t )c Y ( t ) .

Exemplul 2.1. Fie X, Y două variabile aleatoare independente de tip N(m1, s1),

respectiv N(m2, s2). Atunci suma lor este o variabilă normală de tip N(m1+ m2,

σ12 + σ 22 ) .

AfirmaŃ ia, care se extinde prin inducŃ ie la orice combinaŃ ie liniară de variabile

normale independente, se poate demonstra fie calculând funcŃ ia caracteristică a sumei


celor două variabile cu ajutorul formulei (4.26), fie efectuând direct convoluŃ ia celor două

densităŃi de probabilitate, pentru a obŃine o densitate de tipul indicat.

PropoziŃia 2.1. (Proprietatea de reproducere a repartiŃiei Gamma). Dacă X şi Y

sunt două variabile aleatoare independente, avănd cea dintâi repartiŃia Gamma cu

parametrii l, p iar cea de a doua - repartiŃia Gamma cu parametrii l, q, atunci suma

Z=X+Y
are repartiŃia Gamma cu parametrii l, p + q.

DemonstraŃie. Calculând convoluŃ ia dintre densitatea (3.19) şi o densitate de forma

λq −λx q-1
e x , (x >0),
Γ( q )

se obŃine funcŃ ia
λ p +q
e −λx x p +q-1 , (x >0),
Γ( p + q)

care este densitatea repartiŃ iei Gamma cu parametrii l, p + q. Ö

Făcând o inducŃie după n, se arată că suma a n variabile aleatoare independente,

având repartiŃ ia Gamma cu parametrii l, pi (i = 1, ..., n), are repartiŃia Gamma cu

parametrii
l, p1 + ...+ pn.
Exemplul 2.2. (RepartiŃia χ 2 cu n grade de libertate). Dacă X este o variabilă

normală standard atunci funcŃ ia de repartiŃ ie a variabilei Y = X2 este nulă pentru a0, iar

pentru a>0, este dată de


a a
( ) (
F (a ) = P X ≤ a = P − a ≤ X ≤ a =
2
) 1  t2
∫ exp − 2

dt =
2

 t2
exp −

dt ,
2π − a  2π 0  2 

sau, făcând schimbarea de variabilă t2 = x,


a
1 1  x
F(a) =

∫ 0 x
exp − dx,
 2
de unde rezultă că densitatea variabilei Y este
1  x
p X (x ) = exp − , (x>0), (4.27)
2π x  2
şi astfel, comparând cu relaŃ ia (3.19), Y are o repartiŃie Gamma cu parametrii l = p =

1/2, care se mai numeşte şi repartiŃia χ 2 . Aplicând proprietatea de reproduceere a

repartiŃiei Gamma, de aici rezultă că suma pătratelor a n variabile aleatoare

independente, urmând fiecare o repartiŃie normală standard, va avea repartiŃia Gamma

cu parametrii l = 1/2 şi p = n/2, numită repartiŃia χ 2 cu n grade de libertate, şi având

densitatea
n
1 −1  x
p( x ) =
n x 2 exp − , x ≥ 0. (4.28)
 n   2 
2 2 Γ 
 2
Exemplul 2.3. (RepartiŃia Erlang). Pentru p = 1 repartiŃ ia Gamma se reduce la

repartiŃia exponenŃială cu parametrul l. Aplicând proprietatea de reproducere a repartiŃ iei

Gamma, deducem că suma a n variabile aleatoare independente, urmând fiecare o

repartiŃie exponenŃială cu parametrul l are o repartiŃie Gamma cu parametrii l şi n,

având densitatea
λn
p(x) = x n-1e −λx , (x > 0).
(n - 1)!
(4.29)
PropoziŃia 2.2. Fie vectorul aleator X = ( X 1 ,..., X n ) cu densitatea de

probabilitate
p(x) = p(x1,…, xn),
f un difeomorfism între doi deschişi din Rn cu componentele f1(x), …, fn(x), şi Y = f(X)

vectorul aleator cu componentele f1(X), …, fn(X). Atunci, notând g = f-1, densitatea de


probabilitate a lui Y este
Dg
q(y) = p(g(y)) .
Dy
(4.30)
DemonstraŃie. Fie F funcŃ ia de repartiŃ ie a vectorului Y. Pentru orice

a = (a1, …, an)œRn, notând


M = {yœRn | y1 a1, …, yn an},
avem
F(a1, …, an) = P(YœM) = P(f(X)œM) = P(Xœg(M)),
de unde, aplicând formula (4.5),
F(a1, …, an) = ∫ ...∫ p ( x1 , ..., x n ) dx1 ...dxn .
g(M )

Concluzia rezultă atunci efectuând în membrul drept al acestei relaŃ ii schimbarea de

variabile x = g(y), care conduce la

Dg
F(a1, …, an) = ∫ ...∫ p(g(y)) dy1 ...dy n . Ö
M Dy

Exemplul 2.4. Fie vectorul aleator (X1, X2) cu densitatea de probabilitate


x12 + x22
1 − 2 ,
p( x1, x2 ) = e x1 ∈ R , x2 ∈ R .

Se cere densitatea de probabilitate a vectorului aleator (Y1, Y2 ) , unde
X1 + X 2 X − X2
Y1 = , Y2 = 1 .
2 2
Deoarece difeomorfismul f cu componentele
 x1 + x 2
 f1 ( x1 , x 2 ) =
 2

 f ( x , x ) = x1 − x 2
 2 1 2 2
coincide cu inversul său şi are jacobianul egal cu -1, vom avea

y12 + y 22 y12 + y 22
1 − 2 1 − 2
q( y1, y2 ) = e | −1 |= e ,
2π 2π
deci Y are aceeaşi repartiŃie ca şi X.

Exemplul 2.5. Cu notaŃiile din exemplul precedent, se cere densitatea de

probabilitate a variabilei aleatoare Z = X1 + X2.


SoluŃie. Aplicând formula (4.19), obŃinem
2
 x  x2
− [ z 2 + ( x − z )2 ]
1 
∞ ∞ − z −  − x2
1 2 1  2  4 1 −

2π −∫∞ 2π −∫∞
pZ(x) = e dz = e 
dz = e 4 .
2 π

4.3. CovarianŃa a două variabile aleatoare. Fie X, Yœ L2(W) două variabile

aleatoare cu mediile m1 , respectiv m2 .

DefiniŃia 1. Cu notaŃiile de mai sus, mărimea

Cov (X, Y) = E[ ( X − m1)(Y − m2 ) ] (4.31)


se numeşte covarianŃa variabilelor X şi Y.

ProprietăŃile covarianŃei.

a) Biliniaritate: Cov (X1+ X2, Y ) = Cov (X1, Y ) + Cov (X2, Y ), etc.


b) Simetrie: Cov(X, Y) = Cov(Y, X)
c) Formula de calcul a covarianŃei:

Cov (X, Y) = E[XY] - E[X] E[Y].


(4.32)
d) Cov(X, X) = Var (X). (4.33)
e) Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov(X, Y).
(4.34)
Dacă variabilele aleatoare X şi Y au covarianŃa nulă: Cov (X, Y) = 0, se spune
că ele sunt necorelate.
ConsecinŃe. i) Două variabile aleatoare independente sunt necorelate.

ii) VarianŃa sumei a două variabile aleatoare independente este suma

varianŃelor.

DemonstraŃie. i) Rezultă din AplicaŃ ia 2.2 şi din formula (4.32) de calcul a

covarianŃei.

ii) Rezultă din i) şi din (4.34). Ö


Reciproca acestui corolar nu este adevărată:

Exemplul 3.1. Fie X, Y componentele unui vector aleator repartizat uniform în

discul unitate D din plan, deci având densitatea de probabilitate


1
 , ( x 2 + y 2 ≤ 1),
p(x, y) =  π
0, (x 2 + y 2 > 1).

Atunci, datorită simetriei lui D, se constată imediat că

1
E[XY] = ∫∫ xy dxdy = 0,
D π
şi analog

1 1
E[X] = ∫∫ x dxdy = 0 = ∫∫ y dx dy = E[Y],
D π D π
deci Cov(X, Y) = 0, deşi densitatea comună de probabilitate nu este o funcŃie cu variabile

separate, deci cele două variabile aleatoare nu sunt independente.

DefiniŃia 2. Raportul

Cov ( X,Y )
r ( X,Y ) := (4.35)
Var ( X ) Var (Y )

se numeşte coeficientul de corelaŃie al variabilelor aleatoare X şi Y .


PropoziŃia 3.1. Orice două variabile aleatoare X, Yœ L2(W) satisfac inegalitatea

lui Schwarz

|E[XY]| ≤ E[ X 2 ] E[Y 2 ] ,
(4.36)
cu egalitate, în ipoteza că X nu este aproape sigur nulă, doar dacă Y este aproape sigur

E[ XY ]
egală cu λ X, unde λ = .
E[ X 2 ]

DemonstraŃie. Ambele afirmaŃ ii rezultă aplicând inegalitatea lui Schwarz

|XY | ≤ || X || ||Y ||
variabilelor X , Y privite ca elemente ale spaŃiului L2(W) înzestrat cu produsul scalar

(2.16). Ö
Corolar. Coeficientul de corelaŃie r a două variabile aleatoare X, Y satisface

inegalitatea
| r | ≤ 1,
cu egalitate doar dacă Y - E[Y] este aproape sigur egală cu λ (X - E[X]), unde

Cov( X,Y )
λ = .
Var ( X )

Dreapta de ecuaŃie
Cov( X,Y )
y- E[Y] = (x - E[X])
Var ( X )
(4.37)
se numeşte dreapta de regresie a lui Y în raport cu X.

ObservaŃia 3.1. i) Din cele de mai sus se vede că dacă |r(X, Y)| este aproape de 1

(situaŃie în care se spune că variabilele X, Y sunt puternic corelate), atunci valorile

vectorului cu componentele X, Y tind să fie situate pe dreapta de regresie, deci Y se

apropie de variabila aleatoare


^ Cov( X,Y )
Y = E[Y] + (X - E[X]). (4.38)
Var ( X )
^ ^
Un calcul imediat arată că E[Y] = E[ Y ] şi E[Y X] = E[ Y X], cu alte cuvinte, privită
^
ca element al spaŃ iului Hilbert L2(W), diferenŃa Y - Y este ortogonală pe elementele 1 şi X
^
, deci Y coincide cu proiecŃia ortogonală a lui Y pe subspaŃiul generat de 1 şi de X.

Ca urmare, dintre toate variabilele aleatoare de forma


Y1 = a + bX,
^
estimatorul Y are proprietatea că minimizează “eroarea în medie pătratică” (adică în

norma spaŃ iului L2(W))

||Y - Y1||2 = E[(Y - Y1||)2].


^
Pentru acest motiv, variabila Y astfel definită se numeşte estimatorul liniar

neomogen al lui Y în funcŃ ie de X.

ii) În particular, semnul coeficientului de corelaŃ ie r(X, Y) (care este acelaşi cu


semnul covarianŃei cov( X, Y)) are următoarea interpretare:

^
- Pentru r (X, Y) >0, panta dreptei de regresie este pozitivă. La creşterea lui X, Y
are tendinŃa să crească.
^
- Pentru r (X, Y) < 0, panta dreptei de regresie este negativă. La creşterea lui X, Y
are tendinŃa să descrească.

^
- Pentru r (X, Y) = 0, drepta de regresie este o dreaptă orizontală, iar estimatorul Y
se reduce la constanta E[Y], care nu oferă nicio informaŃ ie asupra lui Y pornind de la
cunoaştererea valorii luate de X.

iii) Dacă ambele medii sunt nule, estimatorul liniar (4.38) coincide cu estimatorul

liniar omogen

^
E[ XY ]
Y= X, (4.39)
E[ X 2 ]

care (în cazul general) reprezintă proiecŃia ortogonală a lui Y pe subspaŃ iul vectorial

generat de X şi are proprietatea că dintre toate variabilele aleatoare de forma Y1 = aX este

cea care minimizează eroarea în medie pătratică E[(Y - Y1)2]. Din acestr motiv, el se

numeşte estimatorul liniar omogen al lui Y în funcŃie de X.

4.4. Matrice de corelaŃie şi de covarianŃă. Dându-se vectorii aleatori X = (X1, …,

Xm) şi Y = (Y1, …, Yn) de dimensiune m, respectiv n, matricea de corelaŃie a acestor

vectori, este prin definiŃ ie matricea de tip m × n

RXY = [E[XiYj]]. (4.40)


Înlocuind în formula precedentă variabilele aleatoare Xi şi Yj prin variabile centrate

Xi - E[Xi], Yj - E[Yj], se obŃine matricea de covarianŃă a celor doi vectori


KXY = [Cov(Xi, Yj)]. (4.41)
În cazul când X = Y, aceste matrice se numesc matricea de autocorelaŃie, respectiv

matricea de autocovarianŃă a vectorului n-dimensional X, şi se notează RX, respectiv KX.

Introducând operatorul de mediere al unei matrice aleatoare care acŃionează luând media

fiecărei variabile aleatoare apărând drept element al matricei respective, şi reprezentând

pe X ca un vector coloană

 X1 
X =  ... 
 X n 

putem scrie
RX = E[XXt], (4.42)
unde
Xt = [X1 … Xn]
este transpusa matricei coloană X, iar X t X este matricea aleatoare cu componentele XiXj.

ObservaŃia 4.1. ProprietăŃile matricei de autocorelaŃie. i) Din definiŃ ie rezultă că

orice matrice de autocorelaŃie este o matrice simetrică, semipozitiv definită: pentru orice

alegere a scalarilor λ1, … , λneR, notând


Y = λ1X1 + … + λnXn,
avem
n
E[Y2] = ∑ E [XiXj] λi λj,
1

i, j =

deci forma pătratică asociată matricei RX este semipozitiv definită.

ii) Ea este chiar pozitiv definită, (în particular determinantul ei este strict pozitiv) cu

excepŃia cazului când E[Y2] = 0 pentru o anumită alegere a constantelor nu toate nule,

ceea ce se poate întâmpla doar dacă Y este aproape sigur nulă, adică vectorul X este cu

probabilitate 1 situat într-un anumit hiperplan trecând prin origine. (Se spune atunci că X

este concentrat în hiperplanul respectiv.)


iii) Aplicând vectorului X o transformare liniară dată de înmulŃ irea cu o matrice A se

obŃine un vector aleator Y = AX, a cărui matrice de autocorelaŃie este, conform relaŃ iei

(4.42),
RY = E [AX (AX)t] = E [AX Xt A t ] = A E[X Xt ] At = ARX At,
deci, la o transformare liniară aplicată vectorului X, matricea de autocorelaŃ ie se schimbă

după regula

RAX = ARX At.


(4.43)
ObservaŃia 4.2. łinând seama că matricea de autocovarianŃă este prin definiŃ ie

matricea de autocorelaŃ ie asociată vectorului aleator centrat X - E[X] (unde E[X] e Rn

reprezintă centrul de dispersie al vectorului X ), de aici rezultă următoarele

ProprietăŃi ale matricei de autocovarianŃă: i) Matricea KX este o matrice simetrică,

având pe diagonala principală varianŃele componentelor vectorului aleator X.

ii) KX este o matrice pozitiv definită, în particular det (KX ) > 0, cu excepŃ ia cazului

când vectorul X este concentrat într-un hiperplan din Rn, trecând prin centrul de

dispersie E[X].
iii) Dacă cele n componente ale lui X sunt necorelate (în particular dacă ele sunt

independente), atunci matricea KX este o matrice diagonală.

iv) Dacă A este o matrice pătratică, iar m un vector din Rn, atunci notând

Y = AX + m,
avem
KY = A KX At, (4.44)
t
unde A este transpusa matricei A.
4.5. Estimatori liniari. În diverse situaŃ ii practice avem de a face cu o anumit ă

mărime fizică, modelată ca o variabilă aleatoare Y care nu poate fi măsurată direct, ci

doar estimată pe baza valorilor altor variabile aleatoare X1, …, Xn considerate observabile
(adică susceptibile de a fi măsurate exact). Aceasta conduce la problema estimării, pe

care, în varianta ei liniară, am întâlnit-o deja în secŃiunea 4.3 pentru cazul particular n = 1

(al unei singure variabile observabile X). În cazul general, continuăm să căutăm

estimatorii care minimizează eroarea în medie pătratică (adică media pătratului

diferenŃei dintre Y şi estimatorul său).

a) Estimatori liniari omogeni. Estimatorul lui Y este căutat sub forma unei

combinaŃ ii liniare a componentelor vectorului X:


^
Y = a1X1 + …+ anXn. (4.45)
Folosind acelaşi raŃionament ca şi în cazul n = 1, minimizarea erorii în medie
^
pătratică revine la alegerea lui Y ca fiind proiecŃia ortogonală a lui Y pe subspaŃiul

generat în L2 (W) de cele n variabile aleatoare X1, …, Xn. În continuare se aplică

procedeul obişnuit de calcul al proiecŃiei ortogonale a unui vector pe un subspaŃ iu finit

dimensional al unui spaŃ iu cu produs scalar:


^
Cei n coeficienŃ i a1, …, an trebuie astfel aleşi încât diferenŃa Y - Y să fie

ortogonală pe cele n variabile X1, …, Xn. RelaŃ iile care rezultă sunt
^
E[ Y Xi] = E[YXi], (i = 1, …, n),
şi, Ńinând seama de (4.45) ele conduc la sistemul de n ecuaŃii cu n necunoscute
n

j =1
E[ X i X j ] a j = E[XiY], (i = 1, …, n), (4.46)

sistem care, notând cu a vectorul coloană cu componentele a1, …, an, poate fi scris

matricial
RX a = RXY .
Presupunând că X nu este concentrat într-un plan trecând prin origine, deci RX

este o matrice nesingulară (cf. ObservaŃ ia 4.1 iii), sistemul precedent admite soluŃ ia unică
-1
a = (RX) RXY. (4.47)

Scriind relaŃ ia (4.45) sub forma matricială


^
Y = atX, (4.48)
unde X este vectorul coloană cu componentele X1, …, Xn, şi Ńinând seama că (RXY)t = RYX,

iar (RX)t = R X, (deoarece RX este o matrice simetrică), obŃinem în final estimatorul lui Y

în funcŃ ie de X sub forma matricială


^
-1
Y = RYX (RX) X, (4.49)

care în cazul n = 1 coincide cu expresia dată de relaŃia (4.39).

b) Estimatori liniari neomogeni. Sunt estimatori de forma


^
Y = a0 + a1X1 + …+ anXn. (4.50)
Spre deosebire de cazul precedent, în care proiectam variabila aleatoare Y pe
^
subspaŃ iul vectorial generat de X1, …, Xn, de această dată Y va fi proiecŃia lui Y pe

subspaŃ iul generat de cele n + 1 variabile aleatoare 1, X1, …, Xn (constanta 1 fiind tratată
^
tot ca o variabilă aleratoare). Punând condiŃ ia ca diferenŃa Y - Y să fie ortogonală pe 1,

obŃinem
^
E[ Y ] = E[Y],
deci
a0 + a1E[X1] + …+ an E[Xn] = E[Y].
ScoŃându-l de aici pe a0, înlocuindu-l în (4.50) şi regrupând termenii, obŃinem
^ o o
Y = E[Y] + a1 X 1 + …+ an X n . (4.51)
o
unde fiecare X i reprezintă variabila centrată Xi - E[Xi]. De aici rezultă
^ o o o
Y - Y = Y - (a1 X 1 + …+ an X n ),
o o
deci eroarea în medie pătratică va fi minimă atunci când a1 X 1 + …+ an X n reprezintă
o o o o
estimatorul liniar omogen al lui Y în raport cu vectorul X cu componentele X 1 ,..., X n .
o o
Conform relaŃ iei (4.49) aplicate pentru X şi Y , vom avea deci
o o o
-1
a1 X 1 + …+ an X n = KYX (KX) X,

şi înlocuind în (4.51) obŃimem exprimarea matricială a estimatorului liniar neomogen


^ o
-1
Y = E[Y ] + KYX (KX) X. (4.52)

Exemplul 5.1. Se fac n măsurători ale unei anumite mărimi fizice Y, rezultatul Xi al

fiecărei măsurători conŃ inând o eroare Zi :

Xi = Y + Zi, (i = 1, …, n),
unde
Y~ N(0, s), Zi ~ N(0, t),
cele n erori Z1, …, Zn fiind independente între ele şi independente de Y. Se cere cea mai

bună estimare a lui Y în funcŃ ie de rezultatele celor n măsurători.

SoluŃie. Mediile fiind nule, cei doi estimatori (omogen şi neomogen) coincid între ei

şi sunt daŃi de formula (4.49). Din ipoteză, rezultă

RYX = [ σ 2 ... σ 2 ] = σ 2 [1 … 1],

σ 2 + τ 2 σ2 ... σ2 
 
. . ... . 
RX =  ,
 . . ... . 
 2 2 
 σ σ σ2 σ 2 + τ 2 
^
-1
deci Y = RYX (RX) X . Este suficient să observăm că, datorită formei lui RYX , vom avea

atunci
RYX RX = (n σ 2 + τ 2 ) RYX,
-1
de unde, înmulŃ ind la dreapta cu (RX) ,

-1 1
RYX (RX) = RYX ,
nσ + τ 22
şi astfel
^
1 X + ... X n
Y= 2 2
RYX X = σ 2 1 2 ,
nσ + τ nσ + τ 2

expresie care, pentru τ → 0 , tinde către media aritmetică a celor n măsurători.

4.6. RepartiŃia normală n-dimensională. a) Cazul standard. Se spune că vectorul

X are repartiŃia normală n-dimensională standard dacă cele n componente sunt

independente între ele şi urmează fiecare o repartiŃ ie normală 1-dimensională standard.

Densitatea lui X este atunci


1 2 2
e- 2 ( x1 + ... + x n ) ,
1
p X (x1, …, xn) =
( 2π ) n

(4.53)
 x1 
sau, sub formă vectorială, notând x =  ...  ,
 x n 

1
p X (x) = exp  − 1 t  , (4.54)
( 2π ) n
 2
x x

unde vectorul-linie
xt = [x1, …, xn]
este transpusul vectorului-coloană x.

b) Cazul general este cel al unui vector de forma


Y = AX + m, (4.55)
unde X este un vector n-dimensional cu repartiŃ ie normală standard, A o matrice

nesingulară, (pentru ca Y să admită densitate), iar m un vector din Rn.

Pentru a determina densitatea lui Y, aplicăm difeomorfismului

f(x) = Ax + m,
formula (4.30)
Dg
pY (y) = p X ( g (y))
Dy
în care

g(y) = f-1(y) = A-1(y - m),


Dg 1
= ,
Dy | detA |
deci
1
pY (y) = p X ( A-1(y - m)).
| detA |

Introducând în această relaŃie densitatea p X dată de (4.53), folosind relaŃ iile

( A-1(y - m)) t = (y - m) t (A-1) t = (y - m) t (At)-1,


(At)-1A-1 = (AAt)-1,
şi notând
AAt = K, (4.56)

obŃinem
1
pY (y) = exp  − 1 ( y - m ) t K -1 ( y - m )  , (4.57)
n
(2π) detK  2 

în care exponentul

(y - m) tK-1(y - m)
este o formă pătratică în raport cu y1 - m1, …, yn- mn având matricea coeficienŃ ilor egală

cu K-1, iar K este matricea de covarianŃă KY a vectorului Y.

(Într-adevăr, conform ObservaŃ iei 4.2, în cazul unui vector normal standard, KX

coincide cu matricea unitate In, deci ultima afirmaŃie este o consecinŃă a formulei (4.44)

de schimbare a matricei de autocovarianŃă la o transformare de forma (4.55) aplicată

vectorului X.)
c) Cazul n = 2. În acest caz,
 σ2 rσ1σ 2 
K=  1 2 
,
 rσ1σ 2 σ2 
σ1, σ2 sunt abaterile celor două componente X, Y ale vectorului considerat, iat r este

coeficientul lor de corelaŃ ie, în mod necesar diferit de ± 1, deoarece K este inversabilă.

Rezultă

-1 1  σ2 2 - rσ1σ 2 
K = 2 2  2 .
σ1 σ 2 (1 − r 2 ) - rσ1σ 2 σ1 

Ca urmare, densitatea unui vector aleator normal bidimensional se explicitează sub

forma

1 1  ( x − m1 ) 2 ( x − m1 )( y − m 2 ) (y − m 2 )2 
p(x, y) = exp -  − 2 r + .
2πσ1σ 2 1 − r 2 2(1 − r 2 )  σ1 2 σ 1σ 2 σ2
2

(4.58)
ObservaŃia 6.1. Din expresia precedentă a densităŃii normale bidimensionale

rezultă că dacă cele două componente X, Y sunt necorelate (adică r = 0), atunci ele sunt

independente, densitatea respectivă fiind produsul celor două densităŃ i 1-dimensionale

pX(x) şi pY(y).

4.7. RepartiŃia multinomială. Considerăm un experiment cu 3 rezultate posibile,

corespunzând unei partiŃ ii a evenimentului sigur W în trei evenimente A1, A2, A3, având

respectiv probabilităŃile p1, p2, p3, şi notăm cu Xi numărul de apariŃ ii ale evenimentului Ai

în repetarea a m experimente independente de acest tip. Se obŃin astfel 3 variabile

aleatoare X1, X2, X3, cu X1 + X2 + X3 = m, fiecare Xi având o repartiŃ ie binomială cu

parametrii m, pi.
Pentru a determina repartiŃia vectorului X = (X1, X2, X3), observăm că rezultatul

celor m experimente poate fi descris printr-o secvenŃă de m cifre cuprinse între 1 şi 3, iar

pentru orice triplet (i, j, k) cu i + j + k = m, probabilitatea oricărei secvenŃe conŃinând i

cifre de 1, j cifre de 2 şi k cifre de 3 fiind p1i p 2j p3k . Există însă


m!
C mi C mj -i =
i! j!k!

astfel de secvenŃe, deci

m!
P(X1= i, X2 = j, X3 = k ) = p1i p 2j p3k . (4.59)
i! j!k!
Acest rezultat se extinde imediat la cazul a n rezultate posibile, având
probabilit ăŃile p1, …, pn. Se obŃine un vector aleator n-dimensional X, ale cărui valori

posibile sunt sisteme de n numere naturale (i1, …, in) cu i1 + …+ in = m, fiecare astfel de


sistem având probabilitatea
m! i i
P(X1 = i1, …, Xn = in) = p11 … p nn . (4.60)
i1!...in !

Calculul matricei de autocovarianŃă KX : Pe diagonala principală a lui KX vor

figura varianŃele variabilelor binomiale Xi, egale cu mpiqi (unde qi = 1 - pi). Pentru i ≠ j,

considerăm pentru fiecare din vatiabilele Xi şi Xj câte o exprimare de forma (3.3):

Xi = Y1 + … + Ym,
Xj = Z1 + … + Zm,
unde Yh, Zk sunt variabile Bernoulli cu parametrul pi, respectiv pj, Yh este independentă de

Zk pentru h ≠ k, iar Yh Zk = 0 pentru h = k. De aici rezultă


m
E[XiXj] = ∑ E[Yh Z k ] = ∑ E[Yh ] E[Z k ] = (m2 - m)pi pj,
h,k =1 h≠ k

de unde, aplicând formula


Cov (Xi, Xj) = E[XiXj] - E[Xi] E[Xj],
obŃinem

Cov (Xi, Xj) = (m2 - m)pi pj - m2pi pj = - mpi pj,


şi astfel
 mp1q1 - mp1 p 2 ... - mp1 p n 
 
 - mp 2 p1 mp 2 q 2 ... - mp 2 p n 
KX =  .
... ... ... ... 
 
 - mp p - mp n p 2 ... mp n q n 
 n 1

(4.61)
(Semnul minus în faŃa covarianŃei dintre Xi şi Xj pentru i ≠ j corespunde faptului că,

deoarece suma celor n variabile este m, orice creştere a uneia din ele este însoŃită de o

scădere a celorlalte n - 1.)

§5. Şiruri de variabile aleatoare

5.1 InegalităŃi probabilistice. Următoarele inegalităŃ i joacă un rol important în

studiul convergenŃei variabilelor aleatoare.

Teorema 1.1. (Inegalitatea lui Jensen). Dacă funcŃia g : R → R este convexă, iar X

este o v.a. admiŃând medie o medie finită, atunci

g(E[X]) ≤ E[g(X)]. (5.1)


DemonstraŃie. Dacă funcŃia g este convexă, atunci există o dreaptă
y = ax + b ,( a, b ∈ R , constante) cu proprietatea că există un punct x0 asfel ca :

10 ax0 + b = g ( x0 )

20 ax + b ≤ g ( x ).
În 10 înlocuim x0 = E[X] şi obŃinem
a E[X] + b = g (E[X]),
sau
E[aX + b] = g (E[X]) (5.2)
Din 20 , înlocuind x = X obŃinem aX + b ≤ g ( X ) şi apoi E[aX + b] ≤ E[g(X)]. Din
această
inegalitate şi din (5.2) rezultă (5.1). Ö

Exemplul 1.1. FuncŃia g ( x ) = x p este convexă pentru p ≥ 1 , deci |E[X]| p ≤ E[| X |


p
].
{→ R, E  X  < ∞, p > 0 .
Notăm Lp = X : Ω 

p

 }
s
Teorema 1.2. Dacă 0 < r < s , atunci Lr ⊂ Ls , adică dacă E[ X ], s > 0, este finită,

atunci E X( ) este finită pentru orice r ∈ [0, s]. ***


r

r s r s
Demonstratie. Din inegalitatea X < 1 + X , 0 < r < s , rezultă E[ X ] ≤ 1 + E[ X ] < ∞ ,
r
deci E[ X ] < ∞. Ö

1 1
Teorema 1.2. (Inegalitatea lui Hölder) Fie p > 1 şi q > 1 astfel ca + = 1,
p q
X ∈ Lp şi Y ∈ Lq ; atunci
p 1 q 1
E[ XY ] ≤ [ E X ] p [ E X ] q
. (5.3)
DemonstraŃie. a) Membrul drept al inegalităŃii este nul. În acest caz un factor din

( )
1
p p
partea dreaptă a inegalit ăŃii este nul. Dacă, de exemplu, E X = 0, atunci

X = 0, a.s. , deci XY = 0, a.s. Rezultă E ( XY = 0 ) şi inegalitatea este verificată.


s t

b) Membrul drept al inegalităŃ ii este pozitiv. Fie a = e p si b = e q . Deoarece funcŃ ia


s
+
t
1 s 1 t a p bq
e x este convexă, avem e p q
≤ e + e sau ab ≤ + . Înlocuind în aceasta
p q p q
inegalitate
X Y
a= , b=
( E[ X ]) ( E[ X ] )
1 1
p p p q

obŃinem
p q
XY 1 X 1 Y
≤ + .
( ) ( )
1 1 p q
p
E[ X ]
p
E[ Y ]
q q p E[ X ] q E[ Y ]

1 1
Luând media în aceasta inegalitate şi Ńinând seama că + = 1 , rezultă (5.3).Ö
p q
Pentru p = q = 2 , inegalitate lui Hölder devine inegalitatea lui Schwarz:

E[ XY ] ≤ E[ X 2 ] E[Y 2 ] (5.4)

Teorema 1.3. (Inegalitatea lui Kolmogorov). Dacă X1, ..., Xp sunt variabile

aleatoare independente, cu medii nule şi varianŃe finite V1, ..., Vp, atunci, notând

Sm = X1+ ...+ Xm, (m = 1,..., p),


pentru orice ε >0, avem
 p  1
P U {| S m | ≥ ε} ≤ 2 (V1 + ... + V p ) . (5.5)
 m=1  ε
DemonstraŃie. Notând
p
A= U {| S m | ≥ ε} , Am = {| S m | ≥ ε} , (m = 1, …, p),
m=1

evenimentul A este reuniunea disjunctă a evenimentelor

B1 = A1, B2 = A2 \ A1, …, Bp =Ap\ (A1(…(Ap-1),


deci
P(A) = P(B1) + … + P(Bp),
(5.6)
iar indicatorii I, I1, …, Ip ai evenimentelor A, B1, …, Bp satisfac relaŃ ia

I = I1 + … + Ip.
(5.7)
Pe de altă parte, prin ipoteză,

E[S 2p ] = V1 + ... + V p ,
(5.8)
iar din cele de mai sus,
E[S 2p ] ¥ E[S 2p I ] = E[S 2p I1] + …+ E[S 2p Ip].

(5.9)
În sfârşit, pentru m = 1, …, p-1, aplicând Coroalrul 2 al Teoremei 1 (Anexa 2),

variabilele SmIm = (X1+ ...+ Xm) Im şi (Sp - Sm) = Xm+1 + …+ Xp sunt independente între

ele, deci E[Sp - Sm] = 0 implică

E [SmIm (Sp - Sm)] = 0,


şi astfel, scriind
S 2p = S 2m + (Sp - Sm)2 + 2 Sm (Sp - Sm),

obŃinem
E[S 2p Im] ¥ E[S 2m Im],
de unde, înlocuind în (5.9), şi folosind apoi inegalitatea evidentă S 2m Im ¥ ε 2 Im,

E[S 2p ] ¥ E[S 12 I1] + …+ E[S 2p Ip] ¥ ε 2 (P(B1) + ... + P(Bp)) = ε 2 P (A),

ceea ce, Ńinând seama de (5.8), ne dă inegalitatea (5.5). Ö

5.2. Tipuri de convergenŃă. Fie câmpul de probabilitate (W, , P) şi şirul de

variabile aleatoare Xn: WØ R.


DefiniŃia 1. Şirul (Xn) converge aproape sigur către variabila aleatoare X , dacă

P({ X n → X }) = 1. (5.10)

(MulŃ imea evenimentelor elementare wœW pentru care Xn(w) → X(w) formează un eveniment
a. s .
de probabilitate 1.) Se notează X n → X.

PropoziŃia 2.1. Şirul (Xn) converge a.s. către X dacă şi numai dacă pentru fiecare

ε >0
 ∞ 
P  I U {| X m − X | ≥ ε} = 0. (5.11)
 n =0 m =n 

DemonstraŃie. Notând

D = {w∈W | Xn(w) nu converge către X(w)}

avem
D = U D (ε ) ,
ε >0

(5.12)
unde, pentru fiecare ε >0,

D( ε ) = I U {| X m − X |≥ ε}
n =0 m = n
(5.13)
reprezintă mulŃ imea evenimentelor elementare w cu proprietatea că |Xn(w) - X(w)| ¥ ε

pentru o infinitate de indici n.


a. s .
Dacă X n → X , atunci P(D) = 0, deci P(D( ε )) = 0 pentru orice ε >0.
Reciproc, dacă această condiŃ ie este îndeplinită pentru orice ε >0, atunci observând



1
D= U D k  ,
k =1
a. s .
deducem că P(D) = 0, deci X n → X.

Corolar. Şirul de variabile aleatoare (Xn) converge a.s. către X dacă şi numai

dacă, pentru orice ε >0,

 ∞ 
lim P U{| X m − X | ≥ ε} = 0.
n →∞
 m =n 
(5.14)
DemonstraŃie. Rezultă din PropoziŃia precedentă aplicând continuitatea măsurii de
 ∞ 
probabilitate şirului descrescător de evenimente  U {| X m − X | ≥ ε} .
 m =n  n ≥0
Cu aceeaşi metodă se poate demonstra criteriul Cauchy de convergenŃă a.s.:

PropoziŃia 2.2. Şirul de variabile aleatoare (Xn) converge a.s. către o anumită

variabilă aleatoare dacă şi numai dacă, pentru orice ε >0,

 ∞ 
lim P U {| X m − X n |> ε} = 0.
n →∞
 m =n+1 
(5.15)

Corolar. Seria de variabile aleatoare ∑X
n =0
n este aproape sigur convergentă dacă şi

numai dacă, pentru orice ε >0,


 ∞ 
lim P U {| X n+1 + ... + X n+ m | ≥ ε} = 0.
n →∞
 m =1 
(5.16)
DemonstraŃie. Rezultă din PropoziŃ ia precedentă, aplicată şirului sumelor parŃiale

Sn= X0 + ...+Xn.
PropoziŃia 2.3. Dacă (Xn) este un şir de variabile aleatoare cu medii nule, iar
∞ ∞

n =0
Var (Xn) < ¶, atunci seria ∑
n =0
Xn converge a.s.
DemonstraŃie. Pentru orice m¥1, aplicând inegalitatea lui Kolmogorov variabilelor

aleatoare Xn+1 + ...+ Xn+ m, obŃinem

 p  1
P U {| X n+1 + ... + X n+ m | ≥ ε} ≤ 2 [Var( X n +1 ) + ... + Var( X n+ p )) ≤
 m=1  ε

1 1
b
ε2
∑ Var ( X
m=1
n+ m )=
ε2
Rn.

Făcând pض, de aici rezultă

 ∞  1
P U {| X n +1 + ... + X n+ m | ≥ ε} ≤ 2 Rn,
 m=1  ε

unde Rn este restul unei serii convergente, deci Rn Ø 0 pentru nض, şi astfel seria ∑X
n =0
n

satisface condiŃ ia de convergenŃă (5.11). Ö


Exemplul 2.1. Fie W = [0, 1],  =  [0, 1] (s-algebra submulŃ imilor boreliene din

[0,1]), P = măsura Lebesgue, şi ***


 n, ω ∈ A = Q ∩ [ 0,1]

X n (ω ) =  1 .
 n , ω ∈ B = [ 0,1] \ Q

Şirul X n (ω) → 0 , dacă wœB, şi X n → ∞ , dacă ω ∈ A . Cum P(B) = 1, rezultă X n →


a. s .
0.

DefiniŃia 2. Şirul de variabile aleatoare (Xn) converge în probabilitate către variabila


aleatoare X , dacă pentru orice ε > 0 este îndeplinită relaŃia
lim P(| X n − X |> ε ) = 0. (5.17)
n →∞

Se foloseşte notaŃia X n 
P
→ X.
a. s .
ObservaŃia 2.1. Dacă X n → X , atunci X n 
P
→ X . Avem

 ∞ 
P(|Xn- X | > ε ) b P U{| X m − X | > ε} ,
 m= n 

 
deci dacă P U{| X m − X | > ε} Ø0, şirul P(|Xn- X | > ε ) va avea aceeaşi proprietate, iar
 m= n 
afirmaŃ ia rezultă aplicând PropoziŃ ia 2.2.
r
DefiniŃia 3. Fie şirul de v.a. (Xn), cu E[ X n ] < ∞, r > 0, ∀ n ∈ N * . Şirul converge în

medie de ordinul r către X dacă


r
lim E[ X n − X ] = 0.
n→∞

(5.18)
r
Se notează X n 
→ X . Dacă r = 2 convergenŃa se numeşte convergenŃă în medie
pătratică.
ObservaŃia 2.2. Din inegalitatea (2.29)
E[| X n − E[ X ] |r ]
P(| X n − E[ X ] |≥ ε ) ≤ ,***
εr
r P
rezultă că, dacă X n 
→ X , atunci X n 
→X .

DefiniŃia 4. Fie şirul de variabile aleatoare (Xn) şi Fn ( x ) = P( X n ≤x) . Şirul (Xn)

converge în repartiŃie (sau slab) către v.a. X dacă lim FX n ( x ) = FX ( x) în punctele de


n→ ∞

continuitate ale funcŃiei de repartiŃie FX ( x ).

Se notează Xn 
→
s
X. ***
Exemplul 2.2. Dacă (Xn) este un şir de variabole aleatoare cu densităŃ ile de
n
probabilitate f n ( x) = 2 2
atunci Xn  →s
X= 0. Într-adevăr,
π(1 + n x )
0 x < 0 n x dt 1 π
FX ( x ) =  . FX n ( x) = ∫ = (arctg (nx ) + )
1 x ≥ 0 π −∞ 1 + n t π
2 2
2

0 x < 0
lim FX n ( x) =  ; lim FX n ( x ) = FX ( x) x ≠ 0.
n→∞ 1 x > 0 n→ ∞

1
Dacă x = 0 , atunci lim FX n (0) = ≠ FX (0) , dar x = 0 nu este punct de continuitate
n→ ∞ 2
al funcŃiei F ( x ).
P
PropoziŃia 2.4. Dacă X n 
→ X , atunci Xn 
→
s
X.
P
DemonstraŃie. Presupunem X n 
→ X şi fie

Fn(x) = P(Xnbx), F(x) = P(Xbx)


funcŃ iile de repartiŃ ie ale variabilelor Xn, respectiv X. Pentru orice ε >0, vom avea atunci

Fn(x) = P(Xnbx, Xbx+ ε ) + P(Xnbx, X>x+ ε ) b F(x+ ε ) + P(|Xn- X|> ε )


şi analog

F(x - ε )b Fn(x) + P(|Xn- X|> ε ),


de unde
F(x - ε ) - P(|Xn- X|> ε ) b Fn(x) b F(x + ε ) + P(|Xn- X|> ε ).
Dacă F este continuă în x, din faptul că P(|Xn- X|> ε ) Ø0, de aici rezultă că şirul

(Fn(x)) este Cauchy, şi făcând succesiv nض şi ε Ø 0, obŃinem Fn(x) ØF(x). Ö

Între tipurile de convergenŃă definite mai sus există deci următoarele implicaŃii:
a. s . P
a) Dacă X n 
→ X , atunci X n 
→ X . (ObservaŃ ia 2.1).
r P
b) Dacă X n 
→ X , atunci X n 
→ X . (Observatia 2.2).
P
c) Dacă X n 
→ X , atunci Xn 
→
s
X . (PropoziŃ ia 2.4).

ImplicaŃiile inverse nu sunt adevărate. Următoarele exemple ilustrează această


afirmaŃie:
Exemplul 2.3. Fie (Xn) un şir de variabile aleatoare independente, cu

 0 1 
Xn:  .
1 − n
−1
n −1 

Evident, pentru ε >0, P(|Xn|¥ ε ) = n −1 Ø0, deci şirul (Xn) tinde în probabilitate către 0.

Pentru 0< ε <1 vom avea însă

 ∞   ∞   k 
P U Am (ε)  = 1 - P  I{| X n − X |< ε} = 1 - lim P I{| X n − X |< ε}.
k →∞
 m= n   m =n   m= n 
Folosind independenŃa variabilelor (Xn), de aici rezultă

 ∞   1  1   1  n −1
P U Am (ε)  = 1 - lim 1 − 1 − ...1 −  = 1 − lim =1
 m= n  k →∞ n  n + 1   n + k  k →∞ n + k

pentru orice m, deci şirul nu converge a.s. către 0.

Exemplul 2.4. Fie şirul de v.a. (Xn) cu repartiŃiile


 0 n3 
Xn:  .
1 − n
−2
n − 2 

Pentru ε >0, P(|Xn|¥ ε ) = n −2 Ø0, deci şirul converge în probabilitate, dar nu converge în

medie de ordinul r¥1, deoarece E[|Xn|r] = n3r-2ض.


Exemplul 2.5. Fie
 0 1 
X :  
1 / 2 1 / 2 
şi (Xn) un şir de variabile aleatoare cu Xn = X pentru orice n. Dacă Y = 1 - X, atunci Y are

aceeaşi funcŃ ie de repartiŃie ca şi X, deci (Xn) converge slab către Y. Cum Xn - Y = 1

pentru orice n, şirul respectiv nu va converge către Y în niciun alt mod.

5.3. Legea numerelor mari. Fie câmpul de probabilitate (W, , P). Diversele

variante ale legii numerelor mari formulează condiŃ ii pentru ca, dându-se un şir de

1 n
variabile aleatoare Xn: WØR, şirul mediilor aritmetice Sn = ∑ X i să aibă proprietatea
n i =1

Sn - E[Sn] 
→ 0
în sensul convergenŃei în probabilitate sau aproape sigure.

Deoarece convergenŃa în probabilitate este „mai slabă” decât convergenŃa a.s.,

(deoarece este implicată de ea), orice condiŃ ie suficientă pentru ca


P
Sn- E[Sn] 
→ 0
este numită o lege slabă a numerelor mari, în vreme ce o condiŃ ie suficientă pentru ca

Sn- E[Sn] a.s.


→ 0
este numită o lege tare a numerelor mari.

Teorema 3.1. (Cebâşev). Fie (Xn)n¥1 un şir de v.a. independente cu medii (mn) şi

varianŃe (Vn) . Dacă şirul varianŃelor (Vn) este majorat de o anumită constantă C>0,

atunci
1 n

n i =1
P
( X i (ω) − mi ) → 0.

1 n
Din inegalitatea lui Cebâşev aplicată şirului Sn = ∑ X i , pentru orice ε > 0 ,
n i =1
avem
Var( S )
P(|Sn - E[Sn]| ≥ ε ) ≤ n
2
ε
(5.19) în vreme ce, datorită independenŃei şi mărginirii

şirului varianŃelor,

1 n C
Var(Sn) =
n2
∑ Var( X ) ≤i
n
. (5.20)
i =1

Din (5.19) şi (5.20) rezultă

lim P(|Sn - E[Sn]| ≥ ε ) = 0, ( " ε > 0 ),


n→∞

1 n
de unde, Ńinând cont că E[Sn] = ∑ mi , rezultă concluzia cerută. Ö
n i =1

Exemplul 3.1. Şirul de variabile aleatoare (Xn), independente şi având repartiŃiile

− n 0 n 
X n:  1 1 1 
 n 1 − n −1 
2 2 2n 
îndeplineşte condiŃ iile teoremei lui Cebâşev:

n2
Avem E[Xn] = 0; Var (Xn) = n −1 . Şirul (Var (Xn))n este mărginit, deoarece este
2

convergent, având limita nulă.

Corolar. (Teorema lui Bernoulli). Fie ν n numărul de realizări ale unui eveniment

A , în n experimente independente şi p = P( A) , probabilitatea de producere a


evenimentului A în fiecare experiment. Atunci pentru orice ε > 0
νn
lim P(| − p |≥ ε ) = 0 (5.21)
n →∞ n
DemonstraŃie. Fie (Xn) un şir de variabile aleatoare având aceeaşi repartiŃ ie ca

indicatorul IA al evenimentului A. Atunci


ν n (ω ) = X 1 (ω ) + X 2 (ω ) + L + X n (ω ) ,

iar (5.21) rezultă aplicând Teorema lui Cebâşev, ale cărei ipoteze sunt îndeplinite

deoarece
1
Var(Xn) = pq b .Ö
4
ObservaŃia 3.1. (Teorema lui Markov). Din demonstraŃia Teoremei lui Cebâşev

rezultă că aceeaşi concluzie este valabilă pentru orice şir (Xn) de variabile aleatoare

satisfăcând condiŃ ia
n
1
n→∞
lim
n2

i =1
Var ( X ) = 0.
i (5.22)

Exemplul 3.2. Şirul de variabile aleatoare (Xn) independente, având repartiŃiile


 − ln n ln n 
X n:  1 1 ,
 
 2 2 
urmează legea slabă a numerelor mari. Avem E[Xn] = 0, Var(Xn) = (ln n)2, deci şirul
varianŃelor nu este mărginit, iar teorema lui Cebâşev nu se poate aplica. Este în schimb

satisfăcută condiŃia (5.22), deoarece

n 2

i =1
(ln i)
(ln( n + 1)) 2
lim = lim = 0,
n→∞ n2 n →∞ (n + 1) 2 − n 2

deci concluzia rezultă folosind teorema lui Markov.

Teorema care urmează arată că un şir de variabile aleatoare independente, identic

repartizate şi având medii finite, fără a impune condiŃii asupra varianŃelor, urmează legea

slabă a numerelor mari.


Teorema 3.2. (Hincin). Fie (Xn) un şir de variabile aleatoare independente şi

identic repartizate, E[Xn] = m; atunci


1 n 
 ∑ Xi - m P
→ 0. (5.23)
 n i =1 
Această teoremă este o consecinŃă a celei de a doua teoreme lui Kolmogorov care

va fi demonstrată în secŃ iunea următoare.

Exemplul 3.3. Şirul de v.a. aleatoare independente având funcŃiile de masă

1
*** P(X = n) = , (n = 1, 2, …),
cn 3

1
unde c=∑ , îndeplineşte condiŃiile teoremei lui Hincin, deoarece mediile
n =1 n3
1 ∞ 1 π2 ∞
n2 1 ∞ 1
E[ X n ] = ∑ =
c n =1 n 2 6c
sunt finite. Cum E [ X 2
] = ∑
n =1 cn
3
= ∑ = ∞ iar mediile sunt
c n=1 n
finite, rezultă că Var(Xn) = ¶, deci teorema lui Markov nu putea fi aplicată în acest

exemplu.
5.4. Legea tare a numerelor mari. În această secŃiune demonstrăm două teoreme

despre legea tare a numerelor mari, ambele datorate lui Kolmogorov.


Lemă. (Kronecker) Dacă (an) este un şir numeric pentru care seria ∑a
n
n / n este

convergentă, atunci lim (a1 +... + an)/n = 0.


n→∞

DemonstraŃie. Notând cu Sn suma parŃială de ordin n a seriei din enunŃ, avem

(a1 +... + an)/n = [S1 + 2(S2 - S1) + …+ n(Sn - Sn-1)] / n = Sn - (S1 + … + Sn)/n,
iar concluzia rezultă din lema lui Stolz, care în cazul de faŃă arată că cele două şiruri (Sn)

şi

((S1 + … + Sn)/n) au limita comună S = ∑a n


n /n. Ö

Teorema 4.1. (Kolmogorov). Fie şirul de variabile aleatoare ( X n )n≥1 independente



Vn
cu medii mn şi varianŃe Vn . Dacă seria ∑=1 n
n
2
este convergentă, atunci

1 n
∑ ( X i − mi ) a.s.
n i =1
→ 0 . (5.24)
 X − mn 
DemonstraŃie. Aplicând PropoziŃ ia 2.3 şirului de variabile aleatoare  n ,
 n 
∞ X −m
obŃinem convergenŃa a.s. a seriei ∑ n n
, deci notând
n =1 n
 ∞ X (ω) − m 
A = ω ∈ Ω ∑ n n
converge ,
 n =1 n 
avem P(A) = 1. Conform Lemei precedente, are loc incluziunea AÕB, unde
 1 n 
B = ω ∈ Ω lim ∑ ( X i (ω) − mi ) = 0 ,
n →∞ n
 i =1 
deci P(B) = 1, ceea ce reprezintă concluzia cerută. Ö

Teorema 4.2. (Kolmogorov). Fie (Xn) un şir de variabile aleatoare

independente şi identic repartizate. Atunci

1 n 
 ∑ X i  − m →
a.s.
0 (5.25)
 n i =1 
pentru o anumită constantă reală m dacă şi numai dacă E[X1] există şi este egală cu m.

DemonstraŃie. a) Să presupunem că X1 (deci şi toate celelalte variabile aleatoare

ale şirului considerat) admite media finit ă m. Atunci E[| X1 |] <¶, iar din criteriul (2.44)

rezultă
∞ ∞
∑ P(| X 1 | > n) = ∑ P(| X n | > n) < ∞ .
n =1 n =1
(5.26)

Considerând atunci şirul variabilelor trunchiate Yn = XnIn, unde In este indicatorul

evenimentului An = {| Xn | < n}, vom avea


{Yn ≠ Xn} = {| Xn | > n}.
RelaŃ ia (5.26) şi Lema Borel-Cantelli (PropoziŃia 1.5.1) arată atunci că evenimentul
∞ ∞
U I{ X m = Ym } = {Xn = Yn cu excepŃia unui număr finit de termeni}
n =1m =n
are probabilitatea 1, în particular

1 n

n i =1
( X i - Yi) →
a.s.
0. (5.27)
b) Arătăm că şirul (Yn) satisface ipotezele Teoremei 4.1. Notând Vn = Var (Yn), avem
n
Vn b E[Y 2n ] = E[X 12 In ] = ∑ E [X
m=1
2
1 Jm ],

unde Jm este indicatorul evenimentului Bm = {m -1 b | Xn | < m}. Evident,


X 2n Jm b m | Xn | Jm,
deci
n
Vn b ∑ mE [ |X1| Jm ],
m=1

şi astfel
∞ ∞ ∞
Vn 1  n
  ∞ 1 
∑=1 n 2
b ∑=1 n  m∑=1m E[ | X
2 1 | J m ] = ∑=1E[ | X 1 | J m ] m ∑ 2  . (5.28)
n n  m  n=m n 
Dar
∞ ∞
∑ J m = 1fl
m=1
∑ E[ | X
m =1
1 | J m ] = E[|X1|],

iar
∞ ∞ ∞
1 1 1 1
n=m
∑ n 2
b ∑
n = m n( n - 1)
=
m -1
fl m ∑
n =m n
2
b2,

deci din (5.28) rezultă



Vn
∑=1 n
n
2
b 2 E[|X1|] b ¶.

c) Aplicând Teorema 4.1, obŃinem

1 n
∑ (Yi − E[Yi ]) a.s.
n i =1
→ 0.

(5.29)
Din lema lui Stolz şi teorema convergenŃei monotone,

1 n
lim
n→∞ ∑ E[Yi ] = nlim
n i =1 →∞
E[Yn] = lim E[Y1In] = E[X1] = m,
n→∞

deci
1 n 
 ∑ Yi  − m →
a.s.
0,
 n i =1 
ceea ce, Ńinând seama de (5.27), implică (5.25).
d) Reciproc, dacă pentru o anumită constantă m,

1 n 
 ∑ X i  − m →
a.s.
0,
 n i =1 
(5.30)
n
atunci, notând ∑
i =1
X i = Sn, vom avea

1
S n →
a.s.
m,
n
deci
1 1
X n = ( S n − S n-1 ) →
a.s.
0,
n n
în particular
 ∞ ∞ 
P({| Xn | rn pentru o infinitate de indici n}) = P  I U {| X n | ≥ n} = 0.
 m =0 n=m
 
Folosind Corolarul Lemei Borel-Cantelli, de aici rezultă
n n


n =1
P(| X1| r n ) = ∑ P(| Xn| r n ) < ¶,
n =1
iar o nouă aplicare a criteriului (2.44) arată X1 admite atunci o medie finită E[X1 ]. Dar în

acest caz prima parte a teoremei arată că

1 n 
 ∑ X i  − E[X1] →
a.s.
0,
 n i =1 
deci, Ńinând seama de (5.30), m = E[X1]. Ö

§6. Teorema limită centrală


Teorema 1. Fie (Xn) un şir de variabile aleatoare independente, identic

repartizate. Dacă E[Xn] = a şi Var(Xn) = s2, atunci şirul de variabile aleatoare


n
∑X
k =1
k − na
Zn = (6.1)
σ n
tinde în repartiŃie către o variabilă normală N(0, 1).

DemonstraŃie. Vom utiliza următoarea proprietate a funcŃiilor caracteristice.


Fie Fn(x) funcŃ ia de repartiŃ ie a variabilei aleatoare Zn şi cn(t) funcŃia caracteristică a

acestei variabile. Dacă lim cn(t) = cZ(t), atunci lim Fn(x) = F ( x) , unde F ( x) este funcŃia
n →∞ n →∞

de repartiŃie a v.a. Z.
łinând seama de această proprietate, avem de arătat că
t2

lim cn(t) = e 2
,
n →∞

care este funcŃ ia caracteristică a unei variabile normale standard.

Notând
Xk −a
Yk = ,
σ
putem scrie
n
∑X k − na
1 n
Zn = k =1
σ n
= ∑Y
n k =1
k .

Variabilele aleatoare (Yn) sunt independente şi identic repartizate, deci funcŃia


n
caracteristică gn(t) a sumei ∑
k =1
Y k va fi puterea a n-a a funcŃ iei lor caracteristice comune

g(t). łinând seama că

g(0) = 1, E[Yk] = 0, E[Yk2 ] = 1


şi aplicând relaŃia (2.41), obŃinem

t2
g (t) = 1 − + o( t 2 ) ,
2
de unde
n
t2 ,
gn ( t) = [ 1 − + o (t 2 ) ]
2

iar (2.34) ne dă

t2  t2  n
cn(t) = [ 1 − + o   ] ,
2n n
şi astfel
t2

lim cn(t) = e 2

n →∞

Teorema 2. (Moivre-Laplace). Dacă X 1 , X 2 ,L , X n ,L sunt v.a. independente,


identic repartizate, unde
 1 0
X1 :  , p + q = 1,
 p q
atunci

∑X k − np
1
x

t2
lim P(
n →∞
k =1

npq
≤ x) =
2π ∫e
−∞
2
dt . (6.2)

DemonstraŃie. Se aplică Teorema 1, înlocuind în (6.1) E[Xk] = p, Var(Xk) = pq. Ö


Anexa 1
Teorema clasei monotone
Este un rezultat care, în anumite condiŃ ii uşor de verificat, permite demonstrarea

faptului că, dându-se o anumită familie  de submulŃ imi ale lui W, o dată cu o altă

familie de submulŃ imi ,  conŃine σ-algebra generată de .

DefiniŃie. Familia de submulŃ imi  ale unei mulŃ imi W este o clasă monotonă dacă

satisface condiŃ iile:

1o W∈.

2 o Pentru orice şir ascendent de submulŃ imi An∈, U An ∈.


n

3 o Dacă A, B∈, atunci A\B∈.

ObservaŃie. Din această definiŃ ie rezultă în particular că orice σ-algebră este o clasă

monotonă, deci notând cu µ() cea mai mai mică dintre clasele monotone care conŃin o

anumită familie  de submulŃ imi ale lui W, (intersecŃia tuturor claselor monotone cu

această proprietate), avem totdeauna

µ( ) Õ σ (). (1)

Lemă. Dacă  este stabilă faŃă de intersecŃii finite, atunci µ( ) este o σ-algebră.

DemonstraŃia acestei leme rezultă din următoarele afirmaŃ ii, ale căror demonstraŃii
sunt lăsate ca exerciŃ ii:
1. O clasă monotonă şi stabilă faŃă de intersecŃii finite este o σ-algebră.
2. Pentru fiecare submulŃ ime fixată A∈µ(), notând
(A) = familia mulŃ imilor X∈µ(), cu A∪X∈µ() ,
(A) este o clasă monotonă.
3. A ∈ fl {(A) € } fl {(A) € µ()}.
4. {A ∈ , B∈µ()} fl B∈ (A) fl A∈ (B).
5. B∈µ() fl {(B) € }fl {(B) € µ()}, deci µ() este stabilă faŃă de intersecŃ ii
finite. Ö
Corolar. În condiŃiile lemei, µ( ) = σ( ).
DemonstraŃie. Fiind o σ-algebră care conŃ ine pe , µ( ) va conŃine cea mai mică

σ-algebră cu această proprietate, care este σ(), în vreme ce incluziunea inversă este

totdeauna adevărată (ObservaŃ ia 1). Ö

Teorema 1. (Teorema clasei monotone). Fie  o clasă monotonă şi  o familie de

submulŃimi care este stabilă faŃă de intersecŃii finite. Dacă  € , atunci  € σ ( ).

DemonstraŃie. Fiind o clasă monotonă care conŃine pe ,  va conŃ ine familia

µ( ), care conform Corolarului precedent coincide cu σ (). Ö

Corolar. Fie P1 şi P2 două măsuri de probabilitate definite pe o σ-algebră , astfel

încât

P1(M) = P2(M) (2)


pentru orice M∈, unde  este o clasă de submulŃimi care este stabilă faŃă de intersecŃii

finite, atunci P1(M) = P2(M) pentru orice M∈σ().

DemonstraŃie. Se aplică Teorema 1 familiei  a tuturor submulŃ imilor din 

pentru care este satisfăcută relaŃia (2), familie care este o clasă monotonă. Ö

AplicaŃie. Dacă p(x1,…, xn) este densitatea de probabilitate a unui un vector aleator

n-dimensional X, atunci pentru orice submulŃ ime boreliană M din Rn.

P(X∈M) = ∫ ...∫ p (x1,…, xn) dx1…dxn . (3)


M

Rezultă aplicând Corolarul precedent măsurilor P1 şi P2 definite pe σ-algebra n, a

mulŃ imilor boreliene din Rn, unde

P1(M) = P(X∈M), P2(M) = ∫ ...∫ p (x1,…, xn) dx1…dxn,


M

care prin ipoteză coincid pentru M aparŃinând clasei  a semidreptelor de forma

(-¶, a1]µ …µ (-¶, an],


care este stabilă faŃă de intersecŃii finite şi generează σ-algebra n (Exemplul 2.1.1).
BIBLIOGRAFIE

1. K. L. Chung, Markov Chains with Stationary Transition Probabilities,


Springer, 1967.
2. E. Cinlar, Introduction to Stochastic Processes, Prentice Hall, 1975.
3. I. Cuculescu, Teoria probabilităŃilor, ALL, 1998.

4. I . Cuculescu, Elemente de Teoria Proceselor Stocastice,


Ed. UniversităŃ ii Bucureşti, 1978.

5. W. Feller, Introduction to Probability Theory and its Applications vol. I, II,


Wiley, 1971.
6. G. R. Grimmett, D. R. Stirzaker, Probability and Random Processes,
Clarendon Press, 1992.
7. P. G. Hoel, Introduction to Stochastic Processes, Houghton Mifflin Co., 1972.
8. M. Lefebvre, Applied Stochastic Processes, Springer, 2007.
9. A. Papoulis, Probability, Random variables and Stochastic Processes,
McGraw Hill, 1991.
10. E. Parzen, Stochastic Processe, Holden-Day, 1962.
11. S. Ross, Introduction to Probability Models, Academic Press, 1985.
12. S. Ross, Stochastic Processes, Wiley, 1996.
13. J. B. Thomas, Introduction to Probability, Springer, 1986.
14. C. Tudor, Teoria ProbabilităŃilor, Ed. UniversităŃ ii Bucureşti, 2004.

15. C. Tudor, Stochastic Processes, Ed. UniversităŃ ii Bucureşti, 2009.

16. P. Whittle, Probability, Penguin Books, 1980.

S-ar putea să vă placă și