Sunteți pe pagina 1din 71

Chapter 1

Elemente de Teoria
Probabilităţilor

1.1 Spaţiu de probabilitate


Pentru a defini conceptul de spaţiu de probabilitate, vom considera un experi-
ment, al carui rezultat nu se poate preciza cu siguranţă inaintea efectuării lui,
dar pentru care mulţtimea tuturor rezultatelor posibile este cunoscută.
Numim eveniment elementar oricare din rezultatele efectuării experimen-
tului considerat. Spre exemplu, in cazul aruncării unui zar, apariţia feţei cu
numărul 5 este un eveniment elementar.
Vom nota prin Ω mulţimea tuturor evenimentelor elementare (mulţimea tu-
turor rezultatelor posibile ale experimentului considerat).
Numim eveniment o submulţime de a lui Ω (un eveniment este deci o mulţime
de evenimente elementare).
In general, vom nota evenimentele cu majuscule (spre exemplu A, B, C, . . .)
iar evenimentele elementare cu minuscule (spre exemplu ω, ω 1 , ω 2 , . . .) sau prin
alte simboluri (spre exemplu prin 1, 2, . . . , 6 în cazul aruncării unui zar).
Distingem două evenimente importante:
— evenimentul sigur (notat Ω): este evenimentul ce apare la fiecare efectuare
a experimentului;
— evenimentul imposibil (notat ∅): este evenimentul ce nu apare la nici o
efectuare a experimentului.

Exemplul 1.1.1 La aruncarea unui zar (considerând Ω = {1, 2, . . . , 6}) putem


considera ca evenimente:
— A : apariţia feţei 3 (adică A = {3})
— B : apariţia unui număr par (adică A = {2, 4, 6})
— C : apariţia unui număr mai mare sau egal cu 3 (adică C = {3, 4, 5, 6})

Exemplul 1.1.2 La aruncarea unui ban (considerând Ω = {B, S}) putem con-
sidera ca evenimente:

4
— A1 : apariţia banului (adică A1 = {B})
— A2 : apariţia stemei (adică A1 = {S})

Dat fiind un spaţiu Ω de evenimente elementare, pentru două evenimente


A, B ⊂ Ω introducem următoarele definiţii:

Spunem că evenimentele A şi B sunt incompatibile dacă ele nu pot apare
simultan la nici o efectuare a experimentului;
Spunem că evenimentul A este conţinut in evenimentul B şi notăm A ⊂ B,
dacă realizarea evenimentului A atrage după sine realizarea evenimentului
B;
Definim reuniunea evenimentelor A şi B, notată prin A ∪ B, ca fiind eveni-
mentul ce constă in realizarea lui A sau realizarea lui B;
Definim intersecţia evenimentelor A şi B, notată prin A ∩ B, ca fiind eveni-
mentul ce constă in realizarea simultană a evenimentelor A şi B;
Definim evenimentul contrar evenimentului A, notat prin Ac , ca fiind eveni-
mentul ce constă în nerealizarea evenimentului A;
Definim diferenţa evenimentelor A şi B (in această ordine), notată prin A − B,
ca fiin evenimentul ce constă in realizarea lui A şi nerealizarea lui B.
Spunem ca evenimentele A1 , A2 , . . . , An ⊂ Ω formează un sistem complet de
evenimente dacă sunt două câte două incompatibile şi reuniunea lor este
întreg spaţiul de evenimente Ω, adică dacă au loc:

i) A1 ∪ A2 ∪ . . . ∪ An = Ω

ii) Ai ∩ Aj = ∅, oricare ar fi 1 ≤ i, j ≤ n

Observaţia 1.1.3 Pentru a defini probabilitatea asociată unui eveniment A,


o posibilitate ar fi sa repetăm experimentul de un numar n ≥ 1 de ori, şi să
determinăm numărul ( frecvenţa) fn (A) de apariţii a evenimentului A in cele n
repetări ale experimentului.
Raportul
fn (A)
f rn (A) =
n
dă frecvenţa relativă a realizării lui A în cele n repetări ale experimentului, şi
am putea defini probabilitatea evenimentului A ca fiind

fn (A)
P (A) = lim f rn (A) = lim .
n→∞ n→∞ n
Această definiţie ar prezenta însă lacune din punct de vedere matematic (spre
exemplu garantarea existenţei limitei de mai sus, a independenţei valorii limitei
de o eventuală repetare a experimentelor de către “o altă persoană”, şamd).

5
Pentru a defini conceptul de probabilitate asociată unui eveniment, vom
folosi o abordare moderna, axiomatică. Începem prin a defini noţiunea de alge-
bră / σ—algebră, după cum urmează:

Definiţia 1.1.4 Dată fiind o mulţime nevidă Ω 6= ∅, numim algebră / corp de


părţi a lui Ω o familie nevidă F ⊂ P(Ω) = {A : A ⊂ Ω} de părţi a lui Ω, cu
proprietăţile:
i) F este închisă la complementară, adică

A ∈ F =⇒ Ac ∈ F

ii) F este închisă la reuniune, adică

A, B ∈ F =⇒ A ∪ B ∈ F.

Exemplul 1.1.5 Pentru Ω = {B, S}, F1 = {∅, Ω} (algebra “minimală”), F2 =


P(Ω) = {∅, {B} , {S} , Ω} (algebra “maximală”) sunt algebre ale lui Ω.
In general, pentru o algebră F arbitrară a unei mulţimi de evenimente ele-
mentare Ω are loc
F1 ⊂ F ⊂ F2 ,
unde F1 = {∅, Ω} şi F2 = P(Ω)

Propoziţia 1.1.6 Dacă F este o algebră a lui Ω, atunci au loc următoarele:


a) ∅, Ω ∈ F
b) A, B ∈ F =⇒ A ∩ B ∈ F
c) Pentru orice n ≥ 1 şi A1, . . . , An ∈ F, avem A1 ∪. . .∪An , A1 ∩. . .∩An ∈ F
def
d) A, B ∈ F =⇒A − B, B − A, A∆B = (A − B) ∪ (B − A) ∈ F

Definiţia 1.1.7 Dată fiind o mulţime nevidă Ω 6= ∅, numim σ—algebră / σ—


corp de părţi a lui Ω o familie nevidă F ⊂ P(Ω) = {A : A ⊂ Ω} de părţi a lui
Ω, cu proprietăţile:
i) F este închisă la complementară, adică

A ∈ F =⇒ Ac ∈ F

ii) F este închisă la reuniuni numărabile, adică



[
A1 , A2 , . . . ∈ F =⇒ An ∈ F.
n=1

Are loc următoarea:

Propoziţia 1.1.8 Dacă F este o σ—algebră a lui Ω, atunci au loc următoarele:


a) ∅, Ω ∈ F
b) Pentru orice n ≥ 1 şi A1, . . . , An ∈ F, avem A1 ∪. . .∪An , A1 ∩. . .∩An ∈ F
T

c) Pentru orice şir de evenimente A1, A2 , . . . ∈ F, avem ∈F
n=1
def
d) A, B ∈ F =⇒A∆B = (A − B) ∪ (B − A) ∈ F

6
O mulţime nevidă Ω pentru care s-a definit o σ—algebră F se numeşte spaţiu
măsurabil, şi se notează (Ω, F).

Definiţia 1.1.9 Numim (măsură de) probabilitate pe spaţiul măsurabil (Ω, F)


o funcţie P : F → [0, ∞) cu proprietăţile:
i) P (Ω) = 1
ii) Oricare ar fi evenimentele A1 , A2 , . . . ∈ F incompatibile (disjuncte) două
câte două, avem Ã∞ !
[ X ∞
P An = P (An ) .
n=1 n0 1

Definiţia 1.1.10 Numim spaţiu (câmp) de probabilitate complet aditiv un triplet


(Ω, F, P ) unde

• Ω 6= ∅ este mulţimea evenimentelor elementareş


• F este o σ—algebră a lui Ω;
• P este o măsură de probabilitate pe spaţiul masurabil (Ω, F).

Are loc următoarea:

Propoziţia 1.1.11 Dacă (Ω, F, P ) este un spaţiu de probabilitate complet adi-


tiv, atunci au loc următoarele:

1. P (∅) = 0
2. P (A1 ∪ . . . ∪ An ) = P (A1 ) + . . . + P (An ), oricare ar fi A1 , . . . , An ∈ F
disjuncte două câte două
3. P (A) ≤ P (B), oricare ar fi A, B ∈ F cu A ⊂ B
4. 0 ≤ P (A) ≤ 1, oricare ar fi A ∈ F
5. P (Ac ) = 1 − P (A), oricare ar fi A ∈ F
6. P (B − A) = P (B) − P (A), oricare ar fi A, B ∈ F cu A ⊂ B
7. P (A ∪ B) = P (A) + P (B) − P (A ∩ B), oricare ar fi A, B ∈ F.

Demonstraţie. Exerciţiu.

Exemplul 1.1.12 În cazul aruncării unui zar, putem considera ca spaţiu de


probabilitate (Ω, F, P ), unde

• Ω = {1, 2, . . . , 6}
• F = P(Ω) = {∅, {1} , {2} , . . . {6} , {1, 2} , {1, 3} , . . . , {5, 6} , . . . , {1, 2, . . . , 6}}
1
• P : F → [0, ∞), P ({1}) = P ({2}) = . . . = P ({6}) = 6

7
Exemplul 1.1.13 În cazul aruncării unui ban, putem considera ca spaţiu de
probabilitate (Ω, F, P ), unde

• Ω = {B, S}
• F = P (Ω) = {∅, {B} , {S} , {B, S}}
• P : F → [0, ∞), P ({B}) = P ({S}) = 12 (sau P ({B}) = p, P ({S}) =
1 − p, 0 < p < 1, în cazul în care banul este “măsluit”)

Exemplul 1.1.14 În cazul aruncării a două monede, putem considera ca spaţiu


de probabilitate (Ω, F, P ), unde

• Ω = {(B, B) , (B, S) , (S, B) , (S, S)}


• F = P (Ω)
1
• P : F → [0, ∞), P ((B, B)) = P ((B, S)) = P ((S, B)) = P ((S, S)) = 4

1.1.1 Exerciţii
1. În câte moduri se pot forma cuvinte cu 3 litere a, b, c?
2. La un examen se prezintă 2 băieţi si 3 fete. Câte liste de rezultate )pre-
supunând notele obţinute distincte) se pot obţine? Dar dacă rezultatele
obţinute sunt afişate pe liste diferite pentru băieţi şi fete?
3. 4 cărţi de matematică, 3 cărţi de chimie şi două de geografie trebuiesc
aranjate pe un raft, grupate pe subiecte. În câte moduri diferite se poate
face aceasta?
4. În câte moduri diferite se pot acorda premiile I, II şi III la 5 elevi?
5. În câte moduri se pot acorda 3 menţiuni la 5 elevi?
6. În câte moduri se poate forma un comitet de 3 persoane din 20 de oameni?
7. Câte grupuri de 5 persoane, formate din 2 bărbaţi şi 3 femei se pot forma
cu 5 bărbaţi şi 7 femei?
8. Fie E, F şi G trei evenimente. Să se descrie evenimentele:

(a) Numai E
(b) E şi G dar nu F
(c) Cel puţin unul din evenimentele E, F , G
(d) Cel puţin două din evenimentele E, F , G
(e) Toate trei evenimentele E, F , G
(f) Nici unul din evenimentele E, F , G
(g) Cel mult unul din evenimentele E, F , G

8
(h) Cel mult două din evenimentele E, F , G
(i) Exact două din evenimentele E, F , G
(j) Cel mult trei din evenimentele E, F , G

9. Să se simplifice expresiile:

(a) (E ∪ F ) ∩ (E ∪ F c )
(b) (E ∪ F ) ∩ (E c ∪ F ) ∩ (E ∪ F c )
(c) (E ∪ F ) ∩ (F ∪ G)

10. Să se demonstreze inegalitatea lui Boole:


Ãn ! n
\ X
P Ei ≤ P (Ei )
i=1 i=1

11. Dacă P (E) = 0.9 şi P (F ) = 0.8, să se demonstreze că P (E ∩ F ) ≥ 0.7.
Mai general, să se demonstreze inegalitatea lui Bonferroni:

P (E ∩ F ) ≥ P (E) + P (F ) − 1.

12. Să se arate că ăprobabilitatea ca exact unul din evenimentele E şi F are
loc este
P (E) + P (F ) − P (E ∩ F )

13. Să se demonstreze relaţia

P (E ∩ F c ) = P (E) − P (E ∩ F )

14. Să se demonstreze relaţia

P (E c ∩ F c ) = 1 − P (E) − P (F ) + P (E ∩ F )

15. O urnă conţine M bile negre şi N bile albe. Dacă din urnă se extrag r bile,
care este probabilitatea ca exact k să fie bile albe? Dar dacă N = k = 1?

9
1.2 Continuitatea măsurii de probabilitate
Considerăm un spaţiu de probabilitate (Ω, F, P ) arbitrar fixat.
Una din conceptele importante în Analiză este cel de continuitate al unei
funcţii. Reamintim că o funcţie reală de variabilă reală f : R → R este continuă
in punctul x dacă
lim f (y) = f (x), (1.1)
y→x

sau echivalent (caracterizarea cu şiruri a continuităţii) daca pentru orice şir xn


convergent la x avem
lim f (xn ) = f (x), (1.2)
n→∞
adică dacă limita comută cu funcţia f
³ ´
lim f (xn ) = f lim xn . (1.3)
n→∞ n→∞

In secţiunea de faţă vom vedea, că pentru definiţia corespunzătoare a limitei


unui şir de mulţimi, măsura de probabilitate (funcţia) P este o funcţie continuă
de mulţime.
Pentru aceasta, introducem mai întâi următoarea:
Definiţia 1.2.1 Dat fiind şirul de evenimente (Fn )n≥1 ⊂ F, definim eveni-
mentele:
S
∞ T ∞
i) lim inf Fn = Fi ∈ F
n=1 i=n
T
∞ S ∞
ii) lim sup Fn = Fi ∈ F
n=1 i=n
iii) Dacă lim inf Fn = lim sup Fn , definim limita şirului Fn (notată lim Fn )
prin
def
lim Fn = lim inf Fn = lim sup Fn ∈ F
Are loc următoarea:
Propoziţia 1.2.2 Fie (Fn )n≥1 ⊂ F un şir arbitrar de evenimente. Au loc
următoarele:
i) lim inf Fn ⊆ lim sup Fn
ii) Dacă (Fn )n≥1 este un şir crescător de evenimente (adică dacă F1 ⊂ F2 ⊂
. . .), atunci există limita şirului Fn şi are loc

[
lim Fn = Fn
n→∞
n=1

(adică limita şirului Fn este reuniunea tuturor evenimentelor Fn )


iii) Dacă (Fn )n≥1 este un şir descrescător de evenimente (adică dacă F1 ⊃
F2 ⊃ . . .), atunci există limita şirului Fn şi are loc

\
lim Fn = Fn
n→∞
n=1

(adică limita şirului Fn este intersecţia tuturor evenimentelor Fn ).

10
Demonstraţie. i) Să observăm că pentru m, n ≥ 1 arbitrar fixaţi are loc
incluziunea

\ ∞
[
Fi ⊂ Fm∗n ⊂ Fi .
i=m i=n

Cum n ≥ 1 este arbitrar, obţinem



\ ∞ [
\ ∞
Fi ⊂ Fi = lim sup Fn ,
i=m n=1 i=n

oricare ar fi m ≥ 1.
Rezultă de aici că reuniunea tutror mulţimilor din membrul stâng al acestei
incluziuni este de asemenea conţinută in membrul drept, adică
∞ \
[ ∞
lim inf Fn = Fi ⊆ lim sup Fn ,
m=1 i=m

incheiând demonstraţia.
T

ii) Să observăm că deoarece Fn este un şir crescător, avem Fi = Fn
i=n
pentru orice n ≥ 1, şi deci avem:
[ ∞
∞ \ ∞
[
lim inf Fn = Fi = Fn .
n=1 i=n n=1

De asemenea, avem
∞ [
\ ∞ ∞
[
lim sup Fn = Fi ⊂ Fi = lim inf Fn ,
n=1 i=n i=1

şi cum din punctul anterior avem şi incluziunea contrară, lim inf Fn ⊂ lim sup Fn ,
rezultă că avem egalitatea

lim inf Fn = lim sup Fn ,

adică limita şirului Fn există, şi are loc



[
lim Fn = lim inf Fn = Fi .
n→∞
n=1

S

iii) Similar cu punctul anterior, sa observăm ca avem in acest caz Fi = Fn
i=n
pentru orice n ≥ 1, şi deci avem:
\ ∞
∞ [ ∞
\
lim sup Fn = Fi = Fn .
n=1 i=n n=1

11
De asemenea, avem
[ ∞
∞ \ ∞
[
lim inf Fn = Fi ⊃ Fi = lim sup Fn ,
n=1 i=n i=1

şi cum din punctul i) avem şi incluziunea contrară, lim inf Fn ⊂ lim sup Fn ,
rezultă că avem egalitatea

lim inf Fn = lim sup Fn ,

adică limita şirului Fn există, şi are loc



\
lim Fn = lim sup Fn = Fi ,
n→∞
n=1

încheiând demonstraţia propoziţiei.

Observaţia 1.2.3 Să observăm că un eveniment elementar ω aparţine eveni-


S T

mentului lim inf Fn = ∞n=1 Fi dacă şi numai dacă există un indice n ≥ 1 cu
i=n
T

proprietatea că ω ∈ Fi , adică dacă ω aparţine tuturor evenimentelor Fm pen-
i=n
tru m ≥ n. Evenimentul lim inf Fn este aşadar format din toate evenimentele
elementare ce aparţin tuturor evenimentelor Fn , începând de la un anumit rang.
Similar se poate arăta că evenimentul lim sup Fn este format din toate eveni-
mentele elementare ω ce aparţin unui număr infinit de evenimente Fn (adică
există un şir n1 < n2 < . . . astfel încât ω ∈ Fn1 ∩ Fn2 ∩ . . .).

Observaţia 1.2.4 Se poate arăta că definiţiile pentru lim inf şi lim sup din
Definiţia 1.2.1 corespund celor pentru numere reale, în următorul sens: notând
cu IF : Ω → {0, 1} funcţia caracteristică a unei mulţimi F ⊂ Ω, definită prin
½
1, dacă ω ∈ F
IF (ω) = ,
0, dacă ω ∈ Ω − F
se poate arăta că au loc următoarele egalităţi:
i) lim inf Fn = {ω ∈ Ω : lim inf IFn (ω) = 1}
ii) lim sup Fn = {ω ∈ Ω : lim sup IFn (ω) = 1}
iii) Dacă există limn→∞ Fn , atunci
n o
lim Fn = ω ∈ Ω : există lim IFn (ω) şi lim IFn (ω) = 1
n→∞ n→∞ n→∞

Cu această pregătire putem demonstra următoarea proprietate de continui-


tate a măsurii de probabilitate P , ca o funcţie de mulţime:

Propoziţia 1.2.5 (Continuitatea măsurii de probabilitate) Dacă (Fn )n≥1 ⊂


F este un ţir de evenimente pentru care există limn→∞ Fn , atunci
³ ´
P lim Fn = lim P (Fn ) .
n→∞ n→∞

12
În particular, dacă (Fn )n≥1 este un şir crescător de evenimente atunci are
loc ̰ !
[
P Fn = lim P (Fn ) ,
n→∞
n=1

iar dacă (Fn )n≥1 este un şir descrescător de evenimente are loc
̰ !
\
P Fn = lim P (Fn )
n→∞
n=1

Demonstraţie. Considerăm mai întâi cazul particular ăn care F1 ⊂ F2 ⊂


.S. . este un şir crescător de evenimente (şi deci conform Propoziţiei 1.2.2 limn→∞ Fn =

n=1 Fn în acest caz).
Să notăm ⎧

⎪ E1 = F1

E2 = F2 − F1
,

⎪ ···

En = Fn + Fn−1 , n≥2
şi să observăm că evenimentele En sunt incompatibile (Ei ∩ Ej = ∅ for i 6= j) şi
au loc relaţiile
N
[
En = FN ,
n=1
oricare ar fi N ≥ 1, şi

[ ∞
[
Fn = En .
n=1 n=1
Avem
à ! à !
³ ´ ∞
[ ∞
[
P lim Fn = P Fn =P En
n→∞
n=1 n=1

X
= P (En )
n=1
N
X
= lim P (En )
N →∞
n=1
à N
!
[
= lim P En
N →∞
n=1
= lim P (FN ) .
N →∞

Să considerăm acum cazul în care F1 ⊃ F2 ⊃ . . . este un şir descrescător


de evenimente. Notând En = Fnc = Ω − Fn , n ≥ 1, (En )n≥1 formează un şir
crescător de evenimente. Conform demonstraţiei anterioare avem deci
³ ´
P lim En = lim P (En ) ,
n→∞ n→∞

13
sau echivalent à !

[
P (Ω − Fn ) = lim P (Ω − Fn ) ,
n→∞
n=1

de unde obţinem
à ∞
! Ã ∞
!
\ \
1−P Fn = P Ω− Fn
n=1 n=1
= lim P (Ω − Fn )
n→∞
= 1 − lim P (Fn ) ,
n→∞

adică Ã !

\
P Fn = lim P (Fn ) .
n→∞
n=1

Pentru cazul general, să presupunem că există limn→∞ Fn , şi deci lim inf Fn =
lim sup Fn .
Conform demonstraţiilor anterioare avem:

\ ∞
[ ∞
[ ∞
[
P (lim sup Fn ) = P ( Fi ) = lim P ( Fi ) = lim sup P ( Fi ) ≥ lim sup P (Fn ) ,
n→∞
n=1 i=n i=n i=n
| {z }
şir descrescător

şi similar

[ ∞
\ ∞
\ ∞
\
P (lim inf Fn ) = P ( Fi ) = lim P ( Fi ) = lim inf P ( Fi ) ≤ lim inf P (Fn ) .
n→∞
n=1 i=n i=n i=n
| {z }
şir crescător

Din inegalităţile anterioare (şi folosind faptul că lim inf ≤ lim sup) rezultă

P (lim inf Fn ) ≤ lim inf P (Fn ) ≤ lim sup P (Fn ) ≤ P (lim sup Fn ) ,

şi cum lim inf Fn = lim sup Fn , rezultă că avem există limn→∞ P (Fn ) (deoaerece
lim inf P (Fn ) = lim sup P (Fn )) şi are loc
³ ´
P lim Fn = lim P (Fn ) ,
n→∞ n→∞

încheiând demonstraţia.
Are loc următoarea

Propoziţia 1.2.6 (Inegalitatea lui Boole) Pentru un şir (Fn )n≥1 ⊂ F de


evenimente are loc inegalitatea
Ã∞ ! ∞
[ X
P Fn ≤ P (Fn ) .
n=1 n=1

14
Demonstraţie. Definim


⎪ E1 = F1


⎨ E2 = F2 − F1
E3 = F3 − (F1 ∪ F2 ) .


⎪ ··
⎪ ·

En = Fn − (F1 ∪ . . . ∪ Fn−1 ) , n≥2

Observăm că evenimentele En sunt incompatibile (Ei ∩ Ej = ∅ pentru i 6= j)


şi ∪∞ ∞
n=1 En = ∪n=1 Fn . Avem

P (∪∞ ∞
n=1 Fn ) = P (∪n=1 En )
X∞
= P (En ) (En ⊂ Fn )
n=1
X∞
= P (Fn ) ,
n=1

încheiând demonstraţia.

1.2.1 Exerciţii

15
1.3 Probabilitate condiţionată
Considerăm un spaţiu de probabilitate (Ω, F, P ).

Definiţia 1.3.1 Pentru un eveniment B ∈ F cu P (B) > 0 arbitrar fixat,


definim probabilitatea condiţionată de evenimentul B (notată P (·|B) : F → R)
prin raportul
P (A ∩ B)
P (A|B) = , A ∈ F. (1.4)
P (B)
Exemplul 1.3.2 Un producător ce asamblează componente electronice deter-
mină că din 500 de piese asamblate, unele sunt greşit asamblate (G), iar unele
conţin părţi defecte (D), conform diagramei alăturate.

465

G D
20 10 5

Figure 1.1: Spa ţiul de probabilitate Ω din Exemplul 1.3.2

Presupunând că se extrage arbitrar o piesă din cele 500 asamblate, probabil-
itatea acesteia de a avea părţi defecte este
15 3
P (D) = = .
500 100
Aceeaşi probabilitate, în cazul în care se alege însă numai dintre piesele greşit
asamblate este
P (D ∩ G) 10 1
P (D|G) = = = .
P (G) 30 3
Să observăm că
10 20
P (D ∩ G) = şi P (Dc ∩ G) = ,
500 500
şi deci raportul P (D ∩ G) ÷ P (Dc ∩ G) este egal cu 1 ÷ 2.

16
Alegând deci ca şi spaţiu de probabilitate G (în loc de Ω), cum suma proba-
bilităţilor unei piese de a fi defecte (D) sau nu (Dc ) este egală cu 1, rezultă că
trebuie să avem
1 2
P (D|G) = şi P (Dc |G) = ,
3 3
regăsind rezultatul obţinut folosind Definiţia 1.3.1 a probabilităţii condiţionate.
Aceasta explică de ce în definiţia (1.4) a probabilităţii condiţionate P (A|B)
trebuie să împărţim prin P (B) )pentru a obţine rezultatul corect).

Are loc următoarea:

Teorema 1.3.3 Dacă (Ω, F, P ) este un spaţiu de probabilitate fixat şi B ∈ F


este un eveniment cu P (B) > 0, atunci P (·|B) este o măsură de probabilitate
pe (Ω, F) (adică (Ω, F, P (·|B)) este de asemeni un spaţiu de probabilitate).

Demonstraţie. Verificăm axiomele probabilităţii:


P (A∩B)
• P (A|B) = P (B) ≥ 0, pentru orice eveniment A ∈ F
P (Ω∩B) P (B)
• P (Ω|B) = P (B) = P (B) =1

• Dacă (An )n≥1 ⊂ F sunt evenimente independente două câte două, atunci
şi evenimentele (An ∩ B)n≥1 sunt independente două câte două, şi avem:

P ((∪∞n=1 An ) ∩ B)
P (∪∞
n=1 An |B) =
P (B)
P (∪∞n=1 (An ∩ B))
=
P (B)
P∞
n=1 P (An ∩ B)
=
P (B)

X P (An ∩ B)
=
n=1
P (B)
X∞
= P (An |B) ,
n=1

adică P (·|B) verifică axiomele probabilităţii (este o măsură de probabili-


tate pe (Ω, F)).

Următoarea formulă este utilă în exerciţii pentru calculul probabilităţilor de


intersecţie a anumitor evenimente:

Propoziţia 1.3.4 (Formula de înmulţire a probabilităţilor) Dacă A1 , . . . , An ∈


F cu P (A1 ∩ ... ∩ An−1 ) > 0 atunci are loc

P (A1 ∩ . . . ∩ An ) = P (A1 ) P (A2 |A1 ) P (A3 |A1 ∩ A2 )·. . .·P (An |A1 ∩ . . . An−1 ) .

17
Demonstraţie. Folosind definiţia probabilităţii condiţionate avem
P (A1 ) P (A2 |A1 ) P (A3 |A1 ∩ A2 ) · . . . · P (An |A1 ∩ . . . ∩ An−1 ) =
P (A2 ∩ A1 ) P (A3 ∩ (A1 ∩ A2 )) P (An ∩ (A1 ∩ . . . ∩ An−1 ))
= P (A1 ) · ... ·
P (A1 ) P (A1 ∩ A2 ) P (A1 ∩ . . . ∩ An−1 )
P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 ) P (A1 ∩ . . . ∩ An−1 ∩ An )
= P (A1 ) · ... ·
P (A1 ) P (A1 ∩ A2 ) P (A1 ∩ . . . An−1 )
= P (A1 ∩ . . . ∩ An−1 ∩ An )

Următoarea formulă este de utilă în aplicaţii, atunci când spaţiul Ω al eveni-


mentelor se poate partiţiona în mod convenabil (reamintim că o partiţie a lui Ω
este formată din evenimente incompatibile A1 , A2 , ...An , a cărui reuniune este
Ω):
Teorema 1.3.5 (Formula probabilităţii totale) Daca evenimentele A1 , . . . , An ∈
F formează o partiţie disjunctă a lui Ω şi P (A1 ) , . . . , P (An ) > 0, atunci pentru
orice B ∈ F are loc egalitatea
P (B) = P (B|A1 ) P (A1 ) + . . . + P (B|An ) P (An ) .
Demonstraţie. Deoarece evenimentele A1 , . . . , An formează o partiţie dis-
junctă a lui Ω (adică ∪ni=1 Ai = Ω şi Ai ∩ Aj = ∅ oricare ar fi i 6= j), avem
P (B) = P (B ∩ Ω)
= P (B ∩ (∪ni=1 Ai ))
= P (∪ni=1 (B ∩ Ai ))
Xn
= P (B ∩ Ai )
i=1
n
X P (B ∩ Ai )
= P (Ai )
i=1
P (Ai )
Xn
= P (B|Ai ) P (Ai )
i=1

Teorema 1.3.6 (Formula lui Bayes) Dacă evenimentele A1 , . . . , An ∈ F formează


o partiţie disjunctă a lui Ω şi P (A1 ) , . . . , P (An ) > 0, atunci pentru orice B ∈ Ω
cu P (B) > 0 şi orice i = 1, ...n are loc
P (Ai ) P (B |Ai ) P (Ai ) P (B |Ai )
P (Ai |B ) = =
P (B) P (B|A1 ) P (A1 ) + . . . + P (B|An ) P (An )
Demonstraţie. Conform definiţiei probabilităţii condiţionate, avem:

P (Ai ) P (B |Ai ) P (Ai ) P P(B∩A


(Ai )
i)
P (B ∩ Ai )
= = = P (Ai |B ) .
P (B) P (B) P (B)

18
Cea de-a doua egalitate din enunţ rezultă folosind formula probabilităţii
totale (înlocuind P (B) prin P (B|A1 ) P (A1 ) + . . . + P (B|An ) P (An )).

1.3.1 Exerciţii
1. Se aruncă două zaruri. Să se calculeze probabilitatea ca primul zar să fie
6, ştiind că suma celor două zaruri este 9.
2. O monedă se aruncă de 3 ori. Să se calculeze probabilitatea P (A|B) unde

A = {stema apare de mi multe ori decât banul} ,


B = {prima aruncare este stema} .

3. Se aruncă de 2 ori un zar cu 4 feţe, şi presupunem că toate cele 16 rezul-
tate posibile sunt egal probabile. Fie X, respectiv Y , rezultatul primei,
respectiv celei de-a doua aruncări. Să se determine P (Ai |B), unde

Ai = {max (X, Y ) = i} , i = 1, 2, 3, 4,
B = {min (X, Y ) = 2} .

4. Dintr-un pachet de 52 cărţi de joc se extrag cărţi fără înlocuire (cărţile


extrase nu se introduc în pchet înainte de extragerea celorlalte cărţi). Să
se determine probabilitatea ca nici una din cărţile extrase să nu fie ”inima
roşie”.
5. Într-o urnă sunt 5 bile albe şi 5 bile negre. Din urnă se extrag 3 bile (fără
întoarcerea bilelor în urnă înainte de extragerea celorlalte bile). Care este
probabilitatea extragerii a 3 bile albe? Dar a 2 bile albe şi 1 neagră?
6. Trei trăgători trag asupra unei ţinte, probabilitatea trăgătorului i de a
nimeri ţinta fiind pi , i = 1, 2, 3. După tragere se constată că ţinta a fost
nimerită exact o dată. Care este probabilitatea ca trăgătorul 1 să fi nimerit
ţinta?
7. La o petrecere, 3 bărbaţi îşi încurcă pălăriile. Care este probabilitatea ca
nici unul să nu aibă propria pălărie?

19
1.4 Evenimente independente
Fie (Ω, F, P ) un spaţiu de probabilitate fixat.

Definiţia 1.4.1 (Independenţa a două evenimente) Spunem că evenimentele


A, B ∈ F sunt independente dacă

P (A ∩ B) = P (A) P (B) .

În caz contrar spunem că evenimentele A şi B sunt dependente.

Exemplul 1.4.2 Se aruncă de două ori un zar cu 4 feţe, şi se consideră eveni-
mentele:
A = { prima aruncare este 1 },
B = { a doua aruncare este 1},
C = { suma aruncărilor este 4},
D = { suma aruncărilor este 5 }.
Avem:
1 1 3 4
P (A) = , P (B) = , P (C) = , P (D) = ,
4 4 16 16
1 1 1
P (A ∩ B) = , P (A ∩ C) = , P (A ∩ D) = ,
16 16 16
şi deci:
1
evenimentele A şi B sunt independente (P (A ∩ B) = 16 = P (A) P (B));
1 3
evenimentele A şi C sunt dependente (P (A ∩ C) = 16 6= 16 = P (A) P (C));
1
evenimentele A şi D sunt dependente (P (A ∩ D) = 4 = P (A) P (D)).

Observaţia 1.4.3 dacă evenimentele A şi B sunt independente şi P (B) 6= 0,


atunci
P (A ∩ B) P (A) P (B)
P (A|B) = = = P (A) ,
P (B) P (B)
şi deci realizarea/nerealizarea lui B nu modifică probabilitatea de realizare a
evenimentului A (adică informaţia despre evenimentul B nu dă nici o informaţie
suplimentară despre realizarea evenimentului A).

Observaţia 1.4.4 Dacă A şi B sunt evenimente incompatibile (disjuncte), ele


nu sunt în general evenimente independente, deoarece

P (A ∩ B) = 0 6= P (A) P (B)

(dacă P (A) , P (B) 6= 0).

Un alt tip de independenţă este independenţa condiţionată a două eveni-


mente:

20
Definiţia 1.4.5 (Independenţa condiţionată a două evenimente) Spunem
că evenimentele A, B ∈ F sunt independente condiţionat de evenimentul C ∈ F
dacă are loc
P (A ∩ B ∩ C) P (C) = P (A ∩ C) P (B ∩ C) .
În caz contrar spunem că evenimentele A şi B sunt dependente condiţionat de
evenimentul C.

Observaţia 1.4.6 Dacă P (C) 6= 0, relaţia anterioară se poate scrie sub forma
P (A ∩ B ∩ C) P (A ∩ C) P (B ∩ C)
P (A ∩ B|C) = = = P (A|C) P (B|C) ,
P (C) P (C) P (C)
ceea ce arată că evenimentele A şi B sunt independente condiţionat de eveni-
mentul C dacă ele sunt independente pe spaţiul de probabilitate (Ω, F, P (·|C)).

Observaţia 1.4.7 În general, nu există nici o implicaţie între independenţa


a două evenimente si independenţa condiţionată a două evenimnete (adică, in
general, independenţa a două evenimente nu implică independenţa lor condiţion-
ată, şi nici independenţa condiţionată nu implică independenţa), aşa după cum
rezultă din următoarele două exemple.

Exemplul 1.4.8 se aruncă de două ori un ban şi se consideră evenimentele:


A = { prima aruncare este stema }
B = { a doua aruncare este stema }
C = { cele două aruncări au rezultate diferite }.
Se verifică uşor că avem P (A|C) = P (B|C) = 12 , P (A ∩ B) = 14 şi P (A ∩ B|C) =
0, şi deci evenimentele A şi B sunt independente (P (A ∩ B) = 14 = P (A) P (B))
dar nu sunt independente condiţionat de evenimentul C (P (A ∩ B|C) = 0 6=
1
4 = P (A) P (B)).

Exemplul 1.4.9 Se alege cu probabilitate 1/2 dintre două monede, una albă şi
una neagră, şi se aruncă moneda aleasă de două ori. Presupunem că pentru
moneda albă stema apare cu probabilitate 0.99, iar pentru cea neagră stema
apare cu probabilitate 0.01.
Considerăm evenimentele:
A = { prima aruncare este stema }
B = { a doua aruncare este stema }
C = { moneda aleasă a fost cea albă }.
Se verifică uşor că avem P (A ∩ B|C) = 0.992 , P (A|C) = P (B|C) = 0.99,
şi deci evenimentele A şi B sunt independente condiţionat de evenimentul C.
Evenimentele A şi B sunt însă dependente, deoarece (folosind formula prob-
abilităţii totale cu n = 2, A1 = C şi A2 = C c ), avem:

P (A) = P (A|C) P (C) + P (A|C c ) P (C c )


1 1
= 0.99 · + 0.01 ·
2 2
1
= ,
2

21
şi similar P (B) = 12 , şi deci

P (A ∩ B) = P (A ∩ B|C) P (C) + P (A ∩ B|C c ) P (C c )


1 1
= 0.992 · + 0.012 ·
2 2
1
= 0.4901 6= = P (A) P (B) .
4
Definiţia 1.4.10 (Independenţa unui număr finit de evenimente) Spunem
că evenimentele A1 , A2 , . . . , An ∈ F (n ≥ 2) sunt independente dacă are loc re-
laţia
P (Ai1 ∩ Ai2 ∩ . . . ∩ Aim ) = P (Ai1 ) P (Ai2 ) · . . . · P (Aim ) , (1.5)
oricare ar fi m ∈ {2, . . . , n} şi indicii 1 ≤ i1 < i2 < . . . < im ≤ n.
În caz contrar spunem că evenimentele A1 , A2 , . . . , An ∈ F sunt dependente.

Observaţia 1.4.11 Dacă evenimentele A1 , . . . , An sunt independente două câte


două, nu rezultă în general că ele sunt independente, după cum rezultă din ur-
mătorul exemplu:

Exemplul 1.4.12 Se aruncă de două ori o monedă, şi se consideră eveni-


mentele:
A = { prima aruncare este stema } ,
B = { a doua aruncare este stema } ,
C = { cele două aruncări sunt diferite }.
Se verifică faptul că evenimentele A şi B, A şi C, respectiv evenimentele B şi
C sunt independente, dar evenimentele A, B, C nu sunt independente, deoarece
1 1 1
P (A ∩ B ∩ C) = 0 6= · · = P (A) P (B) P (C) .
2 2 2
Observaţia 1.4.13 În cazul n = 3 a trei evenimente A1 , A2 , A3 ∈ F, condiţia
(1.5) de mai sus revine la

P (A1 ∩ A2 ) = P (A1 ) P (A2 ) ,


P (A1 ∩ A3 ) = P (A1 ) P (A3 ) ,
P (A2 ∩ A3 ) = P (A2 ) P (A3 ) ,
P (A1 ∩ A2 ∩ A3 ) = P (A1 ) P (A2 ) P (A3 ) .

Are loc următoarea:

Propoziţia 1.4.14 Evenimentele A1 , A2 , . . . , An ∈ F sunt independente dacă


şi numai dacă are loc
³ ´ ³ ´ ³ ´ ³ ´
P A e1 ∩ Ae2 ∩ . . . ∩ A
en = P A
e1 P A e2 · . . . · P A
en , (1.6)

ei ∈ {Ai , Ac }, i = 1, 2, . . . , n.
oricare ar fi A i

22
Demonstraţie. Pentru implicaţia directă, să presupunem că are loc relaţia
(1.5), şi să demonstrăm că are loc şi relaţia (1.6).
ei = Ai , 1 ≤ i ≤ n, atunci are loc relaţia (1.6). Avem:
Să observăm că dacă A

P (A1 ∩ . . . ∩ An−1 ∩ Acn ) = P ((A1 ∩ . . . ∩ An−1 ) − (A1 ∩ . . . ∩ An−1 ∩ An ))


= P (A1 ∩ . . . ∩ An−1 ) − P (A1 ∩ . . . ∩ An−1 ∩ An )
= P (A1 ) · . . . · P (An−1 ) − P (A1 ) · . . . · P (An−1 ) P (An )
= P (A1 ) · . . . · P (An−1 ) (1 − P (An ))
= P (A1 ) · . . . · P (An−1 ) P (Acn ) ,

en = Acn . În mod similar, în continuare se


şi deci relaţia (1.6) are loc pentru A
poate demonstra inductiv că relaţia (1.6) are loc oricare ar fi A ei ∈ {Ai , Ac },
i
1 ≤ i ≤ n.
Reciproc, dacă are loc relaţia (1.6), atunci alegând A e1 = A1 , . . . , A
en−1 =
An−1 şi A en = An , respectiv A en = An , obţinem relaţiile:
c

P (A1 ∩ . . . ∩ An−1 ∩ An ) = P (A1 ) · . . . · P (An−1 ) P (An )


P (A1 ∩ . . . ∩ An−1 ∩ Acn ) = P (A1 ) · . . . · P (An−1 ) P (Acn ) ,

de unde prin adunare obţinem relaţia

P (A1 ∩ . . . ∩ An−1 ) = P (A1 ∩ . . . ∩ An−1 ∩ (An ∪ Acn ))


= P ((A1 ∩ . . . ∩ An−1 ∩ An ) ∪ (A1 ∩ . . . ∩ An−1 ∩ Acn ))
= P (A1 ∩ . . . ∩ An−1 ∩ An ) + P (A1 ∩ . . . ∩ An−1 ∩ Acn )
= P (A1 ) · . . . · P (An−1 ) P (An ) + P (A1 ) · . . . · P (An−1 ) P (Acn )
= P (A1 ) · . . . · P (An−1 ) (P (An ) + P (Acn ))
= P (A1 ) · . . . · P (An−1 ) ,

adică are loc relaţia (1.5) pentru m = n − 1 şi i1 = 1, . . . , in−1 = n − 1.


În mod similar, inductiv se poate demonstra relaţia (1.5).
Propoziţia următoare arată că dacă mai multe evenimente sunt indepen-
dente, atunci lasând la o parte unele dintre ele, evenimentele rămase sunt de
asemenea independente:

Propoziţia 1.4.15 Dacă A1 , . . . , An ∈ F sunt evenimente independente, atunci


pentru orice m ∈ {2, . . . , n} şi orice indici 1 ≤ i1 < . . . < im ≤ n, evenimentele
Ai1 , . . . , Aim sunt de asemenea independente.

Demonstraţie. Să demonstrăm, spre exemplu, că evenimentele A1 , . . . , An−1


sunt independente.

23
Folosind propoziţia anterioară, avem:
³ ´ ³ ´ ³ ´
P Ae1 ∩ . . . ∩ A
en−1 = P A e1 ∩ . . . ∩ Aen−1 ∩ An + P A e1 ∩ . . . ∩ A
en−1 ∩ Acn
³ ´ ³ ´ ³ ´ ³ ´
= P A e1 · . . . · P A en−1 P (An ) + P A e1 · . . . · P Aen−1 P (Acn )
³ ´ ³ ´
= P A e1 · . . . · P A en−1 (P (An ) + P (Acn ))
³ ´ ³ ´
= P A e1 · . . . · P A en−1 ,

ei ∈ {Ai , Ac }, 1 ≤ i ≤ n − 1, şi din Propoziţia 1.4.14 rezultă că


oricare ar fi A i
evenimentele A1 , . . . , An−1 sunt independente.
Definiţia 1.4.16 (Independenţa unui şir de evenimente) Spunem că eveni-
mentele A1 , A2 , . . . ∈ F formează un şir de evenimente independente, dacă ori-
care ar fi m ≥ 2 şi indicii 1 ≤ i1 < . . . < im , evenimentele Ai1 , . . . , Aim sunt
independente (în sensul Definiţiei 1.4.10).
Lema 1.4.17 (Lema Borel—Cantelli) Fie A1 , A2 , . . . ∈ F un şir de eveni-
mente.
P

i) Dacă P (An ) < +∞, atunci P (lim sup An ) = 0.
n=1
P∞
ii) Dacă P (An ) = +∞ şi evenimentele A1 , A2 , . . . sunt independente,
n=1
atunci P (lim sup An ) = 1.
P

Demonstraţie. Să presupunem că seria P (An ) este convergentă. Folosind
n=1
continuitatea măsurii de probabilitate (Propoziţia 1.2.5) şi Inegalitatea lui Boole
(Propoziţia 1.2.6), obţinem:
Ã∞ ∞ !
\ [
0 ≤ P (lim sup An ) = P Ai
n=1 i=n
̰ !
[
= lim P Ai
n→∞
i=n

X
≤ lim P (Ai )
n→∞
i=n

X n−1
X
= P (Ai ) − lim P (Ai )
n→∞
i=1 i=1
X∞ ∞
X
= P (Ai ) − P (Ai )
i=1 i=1
= 0,
P∞
seria i=1 P (Ai ) fiind presupusă convergentă. Obţinem deci în acest caz P (lim sup An ) =
0.

24
P
Pentru partea a doua, să presupunem că seria ∞ i=1 P (Ai ) este divergentă.
Deoarece evenimentele A1 , A2 , . . . sunt independente, şi folosind inegalitatea

1 − x ≤ e−x , x ≥ 0,

pentru orice 1 ≤ n ≤ N fixaţi, avem:


Ã∞ ! ÃN !
\ \
c c
P Ai ≤ P Ai
i=n i=n
N
Y
= P (Aci )
i=n
N
Y
= (1 − P (Ai ))
i=n
N
Y
≤ e−P (Ai )
i=n
S
− Ni=n P (Ai )
= e .

Trecând la limită cu N → ∞, obţinem:


̰ !
\ SN S∞
P Ai ≤ lim e− i=n P (Ai ) = e− i=n P (Ai ) = e−∞ = 0,
c
N →∞
i=n

şi deci Ã∞ !
\
P Aci = 0, n ≥ 1.
i=n

Folosind inegalitatea lui Boole (Propoziţia 1.2.6) obţinem:


Ã∞ ∞ ! ∞
̰ !
[ \ X \
c c
P Ai ≤ P Ai = 0,
n=1 i=n n=1 i=n
S∞ T∞
şi deci obţinem P ( n=1 i=n Aci ) = 0. Trecând la complementară, obţinem
Ã∞ ∞ ! Ãà ∞ ∞ !c ! Ã∞ ∞ !
\ [ [ \ [ \
c c
P (lim sup Ai ) = P Ai = P Ai = 1−P Ai = 1,
n=1 i=n n=1 i=n n=1 i=n

încheiând demonstraţia.

Observaţia 1.4.18 Prima parte a demonstraţiei nu foloseşte independenţa eveni-


mentelor A1 , A2 , . . ., dar această ipoteză este necesară pentru cea de-a doua
parte, afirmaţia ii) a lemei nefiind adevarată în general fără această ipoteză,
aşa după cum rezultă din următorul exemplu.

25
Exemplul 1.4.19 Considerăm şirul de evenimente A1 = A2 = . . . = A ∈ F cu
P (A) ∈ (0, 1). Să observăm că deoarece P (A1 ∩ A2 ) = P (A) 6= P (A) P (A) =
P (A1 ) P (A2 ), evenimentele A1 şi A2 (şi deci şi evenimentele A1 , A2 , . . .) sunt
dependente.
Avem ∞ ∞
X X
P (An ) = P (A) = +∞,
n=1 n=1

deoarece P (A) ∈ (0, 1), dar


à ∞
∞ [
!
\
P (lim sup An ) = P Ai = P (A) ∈ (0, 1) ,
n=1 i=n

şi deci P (lim sup An ) 6= 1, ceea ce arată că punctul ii) al lemei Borel—Cantelli nu
este în general adevărat fără ipoteza suplimentară a independenţei evenimentelor
A1 , A2 , . . ..

1.4.1 Exerciţii
1. Se aruncă de 2 ori un zar cu 4 feţe. Care dintre evenimentele indicate mai
jos sunt independente?

(a) Ai = {prima aruncare este i}, Bj = {a doua aruncare este j}, i, j =


1, 2, 3, 4;
(b) A = {prima aruncare este 1}, B = {suma aruncărilor este 5} ;
(c) A = {minimul aruncărilor este 2}, B = {maximul aruncărilor este 2} .

2. Se aruncă de 2 ori un zar, şi se consideră evenimentele:

A = {prima aruncare este 1, 2 sau 3} ,


B = {prima aruncare este 3, 4 sau 5} ,
C = {suma aruncărilor este 9} .

Să se arate că P (A ∩ B ∩ C) = P (A) P (B) P (C), dar că evenimentele


A, B, C nu sunt independente.
Observaţie: exerciţiul arată că P (A ∩ B ∩ C) = P (A) P (B) P (C) nu
asigură independenţa evenimentelor A, B, C.
3. O persoană participă la un campionat de şah, având probabilitatea de
câştig de 0.3 cu jumătate din participanţi (de tip 1), 0.4 cu 1/4 din jucătorii
rămaşi (de tip 2), şi de 0.5 cu restul jucătorilor (de tip 3). Care este
probabilitatea de a căştiga o partidă cu un oponent ales arbitrar?
Indicaţie: se foloseşte formula probabilităţii totale cu B = { se câştigă partida },
Ai = { oponentul ales e de tip i }, i = 1, 2, 3.

26
4. Se aruncă un zar cu 4 feţe. Dacă rezultatul este 1 sau 2, se mai aruncă zarul
o dată, altfel ne oprim. Care este probabilitatea ca totalul aruncărilor să
fie de cel puţin 4?
5. Un test de sânge este 95% eficient în detectarea unei boli (atunci când
boala este de fapt prezentă). Cu toate acestea, testul poate da ”alarme
false” de 1%, pentru persoane care sunt de fapt sănătoase (adică, cu prob-
abilitate de 0.01, când o persoană sănătoasă este testată, testul indică
faptul că aceasta este bolnavă).
Dacă 0.5% din populaţie are această boală, care este probabilitatea ca o
persoană care a testat pozitiv să aibă boala?
Indicaţie: considerăm evenimentele A = {persoana are boala respectivă},
B = {rezultatul testului este pozitiv}, şi calculăm P (A|B) = P (A)P (B|A)
P (B) .

6. O scrisoare se află, cu probabilităţi egale într-unul din 3 sertare. Fie pi


probabilitatea de a găsi scrisoarea în sertarul i, atunci când ea se află în
acest sertar. Care este probabilitatea condiţionată ca scrisoarea să se afle
în sertarul i, dat fiind că la o căutare în sertarul 1 ea nu a fost găsită?
Indicaţie: notăm

Ai = {scrisoarea se află în sertarul i} ,


B = {scrisoarea nu a fost găsită la căutarea in sertarul 1} ,
P (A)P (B|A)
şi calculăm P (Ai |B) = , iar pentru P (B) folosim P (B) =
P P (B)
P (B|Ai ) P (Ai ).
7. 3 cărţi de joc sunt identice, cu excepţia faptului că una are ambele feţe
roşii, una are ambele feţe negre, iar cea de-a treia are o faţă roşie şi una
neagră. Se alege la întâmplare o carte şi se constată că are o faţă roşie.
Care este probabilitatea ca cealaltă faţă este neagră?
Indicaţie: răspunsul corect este 13 !

27
1.5 Variabile aleatoare
În practică, atunci când se efectuează un anumit experiment, în mod frecvent
suntem în principal interesaţi de o anumită funcţie ce depinde rezultatul exper-
imentului, şi nu de rezultatul în sine al experimentului.
Spre exemplu, la aruncarea a două zaruri, deseori suntem interesaţi de suma
valorilor obţinute, şi nu neapărat de valorile individuale ale zarurilor (spre ex-
emplu, suntem interesaţi dacă suma celor două zaruri este 7, fără a conta dacă
valorile celor două zaruri sunt (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) sau (6, 1)), iar la
aruncarea repetată a unei monede, suntem interesaţi de numărul total de steme
obţinute, şi nu neapărat de valorile stemă/ban obţinute.
Aceste cantităţi de interes, mai pecis aceste funcţii reale ce depind de rezul-
tatul unui anumit experiment, se numesc variabile aleatoare.
Pentru o definiţie mai precisă, reamintim ca am notat prin B = B (R) = σ (S)
σ-algebra mulţimilor boreliene pe R, adică cea mai mică σ−algebră ce conţine
toate mulţimile de forma

S = {(a, b) : a < b, a, b ∈ R} .

Observaţia 1.5.1 se poate arăta că putem înlocui mulţimea S de mai sus prin
oricare din mulţimile:

{(−∞, b) : b ∈ R}
{(a, +∞) : a ∈ R}
{(a, b] : a, b, a, b ∈ R}
{O : O - mulţime deschisă din R} .

Definiţia 1.5.2 Numim variabilă aleatoare (reală) pe spaţiul de probabilitate


(Ω, F, P ) o funcţie f : Ω → R cu proprietatea că

X −1 (B) = {ω ∈ Ω : X (ω) ∈ B} ∈ F,

pentru orice mulţime boreliană B ∈ B.

Exemplul 1.5.3 La aruncarea a două monede, X (ω) = numărul de steme


obţinut este o variabilă aleatoare pe spaţiul (Ω, F, P ), unde
— Ω = {(S, S) , (S, B) , (B, S) , (B, B)}
— F = P (Ω)
— P ({(S, S)}) = . . . = P ({(B, B)}) = 14 ,
deoarece:


⎪ ∅, 0, 1, 2 ∈
/B


⎨ {(B, B)} , 0 ∈ B şi1, 2 ∈ /B
X −1 (B) = {(S, B) , (B, S)} , 1 ∈ B şi 0, 2 ∈ / B ∈ F,



⎪ {(B, B)} , 2 ∈ B şi 0, 1 ∈
/ B

... ...

oricare ar fi mulţimea boreliană B ∈ B.

28
Are loc următoarea propoziţie de caracterizare a variabilelor aleatoare:

Propoziţia 1.5.4 X : Ω → R este o variabilă aleatoare pe spaţiul de probabili-


tate (Ω, F, P ) dacă şi numai dacă are loc una din următoarele relaţii echivalente:
a) X −1 ((−∞, a)) = {ω ∈ Ω : X (ω) < a} ∈ F, oricare ar fi a ∈ R;
b) X −1 ((−∞, a]) = {ω ∈ Ω : X (ω) ≤ a} ∈ F, oricare ar fi a ∈ R;
c) X −1 ((a, +∞)) = {ω ∈ Ω : X (ω) > a} ∈ F, oricare ar fi a ∈ R;
d) X −1 ([a, +∞)) = {ω ∈ Ω : X (ω) ≥ a} ∈ F, oricare ar fi a ∈ R.

Demonstraţie. Evident, dacă X este o variabilă aleatoare, cum (−∞, a) ∈


F pentru orice a ∈ R, din Definiţia 1.5.2 rezultă a).
Reciproc, dacă are loc relaţia din a), să notăm cu A familia tuturor mulţim-
ilor boreliene B ∈ B pentru care X −1 (B) ∈ F, adică
© ª
A = B ∈ B : X −1 (B) ∈ F ⊂ B.

Să observăm că A este o σ-algebră, deoarece:

• A 6= ∅ (R ∈ A, deoarece X −1 (R) = Ω ∈ F);


• Dacă B ∈ A, atunci X −1 (B c ) = Ω − X −1 (B) ∈ F, şi deci B c ∈ F;
| {z }
∈F

−1
• Dacă B1 , B2 , . . . ∈ A, atunci X −1 (∪∞ ∞
i=1 Bi ) = ∪i=1 X (Bi ) ∈ F, şi deci
| {z }
∈F
∪∞
i=1 Bi ∈ F.

Cum din ipoteză familia A conţine toate intervalele de forma (−∞, a), a ∈ R,
rezultă că B ⊂ A (B este cea mai mică σ-algebră ce conţine toate intervalele de
forma (−∞, a)), şi deci avem

X −1 (B) ∈ F, oricare ar fi B ∈ B,

adică X este o variabilă aleatoare.


Demonstraţie similară în cazurile b), c) şi d).
Rezultatul următor ne arată ca infimumul/supremumul unui şir de variabile
aleatoare este de asemenea o variabila aleatoare:

Teorema 1.5.5 Dacă (Xn )n≥1 este un şir de variabile aleatoare, atunci

X (ω) = inf Xn (ω) ,


n≥1
Y (ω) = sup Xn (ω) ,
n≥1
lim inf Xn (ω) = sup inf Xk (ω) ,
n≥1 k≥n
lim sup Xn (ω) = inf sup Xk (ω) ,
n≥1 k≥1

sunt de asemenea variabile aleatoare.

29
Demonstraţie. a) Avem
½ ¾
−1
X ((−∞, a]) = ω ∈ Ω : X (ω) = inf Xn (ω) ≤ a
n≥1

= ∪∞
n=1 {Xn (ω) ≤ a} ∈ F,
| {z }
∈F

şi deci conform propoziţiei anterioare X = inf n≥1 Xn este o variabilă aleatoare.
b) În mod similar, avem:
½ ¾
Y −1 ([a, +∞) = ω ∈ Ω : Y (ω) = sup Xn (ω) ≥ a
n≥1
= ∪∞
n=1 {Xn (ω) ≥ a} ∈ F,
| {z }
∈F

şi deci conform aceleiaşi propoziţii X = supn≥1 Xn este o variabilă aleatoare.


c), d) Rezultă folosind a) şi b).
În particular, obţinem următoarea
Consecinţa 1.5.6 Dacă (Xn )n≥1 este un şir de variabile aleatoare pentru care
există limita X (ω) = limn→∞ Xn (ω), oricare ar fi ω ∈ Ω, atunci X este o
variabilă aleatoare.
Demonstraţie. Dacă există limita limn→∞ Xn , atunci
X (ω) = lim Xn (ω) = lim inf Xn (ω) = lim sup Xn (ω) ,
n→∞

şi conform teoremei anterioare rezultă că X este o variabilă aleatoare.


Are loc următoarea:
Teorema 1.5.7 Dacă X şi Y sunt variabile aleatoare, atunci mulţimile urmă-
toare sunt măsurabile:
{X < Y } = {ω ∈ Ω : X (ω) < Y (ω)} ∈ F,
{X ≤ Y } = {ω ∈ Ω : X (ω) ≤ Y (ω)} ∈ F.
Demonstraţie. Avem
{X < Y } = {ω ∈ Ω : X (ω) < Y (ω)}
⎛ ⎞
⎜ ⎟
= ∪r∈Q ⎝{ω ∈ Ω : X (ω) < r} ∩ {ω ∈ Ω : Y (ω) > r}⎠ ∈ F,
| {z } | {z }
∈F ∈F

şi ⎛ ⎞c
⎜ ⎟
{X ≥ Y } = ⎝{X < Y }⎠ ∈ F.
| {z }
∈F

30
Definiţia 1.5.8 O funcţie ϕ : R → R se numeşte măsurabilă dacă

ϕ−1 (B) ∈ B,

oricare ar fi B ∈ B o mulţime boreliană.

Observaţia 1.5.9 Se poate arăta că dacă o funcţie este continuă pe R atunci ea
este măsurabilă (demonstraţia este similară propoziţiei de mai sus: se consideră
familia © ª
A = B ∈ B : X −1 (B) ∈ B
şi se arată că este o σ-algebră ce conţine toate mulţimile deschise din R, şi deci
A = B).
Reciproca acestei afirmaţii nu este însă in general valabilă, după cum se
poate observa considerând funcţia ϕ : R → R definită de
½
1, x ∈ (0, 1)
ϕ (x) = ,
0, în rest.

care este măsurabilă dar nu este continuă pe R (are discontinuităţi în punctele


x = 0 şi x = 1).

Rezultatul următor ne arată cum putem construi noi variabile aleatoare:

Teorema 1.5.10 Dacă ϕ : R → R este o funcţie măsurabilă şi X este o vari-


abilă aleatoare, atunci Y = ϕ ◦ X este o variabilă aleatoare.

Demonstraţie. Avem

Y −1 (B) = (ϕ ◦ X)−1 (B)


= X −1 (ϕ−1 (B)) ∈ F,
| {z }
∈B

şi deci Y = ϕ ◦ X este o variabilă aleatoare.

Consecinţa 1.5.11 Dacă X este o variabilă aleatoare, atunci |X|p (p > 0) şi
aX + b (a, b ∈ R) sunt de asemenea variabile aleatoare.

Demonstraţie. Se aplică teorema anterioară funcţiei continue (deci mă-


surabile) ϕ (x) = |x|p , respectiv ϕ (x) = ax + b.
Rezultatul de mai sus se poate generaliza astfel:

Definiţia 1.5.12 O funcţie ϕ : Rn → R se numeşte măsurabilă dacă

ϕ−1 (B) ∈ B,

oricare ar fi B ∈ B (Rn ), unde B (Rn ) este σ-algebra mulţimilor boreliene din


Rn , adică cea mai mică σ-algebră pe Rn ce conţine toate mulţimile deschise din
Rn , sau, echivalent, toate mulţimile de forma

(−∞, a1 ) × . . . × (−∞, an ) , a1 , . . . , an ∈ R.

31
Are loc următoarea:
Teorema 1.5.13 Dacă ϕ : Rn → R este o funcţie măsurabilă şi X1 , . . . , Xn :
Ω → R sunt variabile aleatoare, atunci Y (ω) = ϕ (X1 (ω) , . . . , Xn (ω)) este o
variabilă aleatoare.
Demonstraţie. Notând X (ω) = (X1 (ω) , . . . , Xn (ω)), avem Y (ω) = ϕ◦X,
şi deci oricre ar fi B ∈ B (Rn ) avem:
−1
Y −1 (B) = (ϕ ◦ X) (B)
= X −1 (ϕ−1 (B))
| {z }
∈B(Rn )
−1
= X (A) ,
unde A = ϕ−1 (B) ∈ B (Rn ).
Să notăm © ª
A = A ∈ B (Rn ) : X −1 (A) ∈ F ,
şi să observăm că A este o σ-algebră ce conţine in mulţimile de forma (−∞, a1 )×
. . . × (−∞, an ), cu a1 , . . . , an ∈ R, deoarece
n
\
X −1 ((−∞, a1 ) × . . . × (−∞, an )) = Xi−1 ((−∞, ai )) ∈ F.
i=1
| {z }
∈F

Rezultă deci că A = B (R ), şi deci Y (B) ∈ F oricare ar fi B ∈ B (Rn ),


n −1

adică Y = ϕ (X1 (ω) , . . . , Xn (ω)) este o variabilă aleatoare, încheiând demon-


straţia.
Consecinţa 1.5.14 Dacă X1 , . . . , Xn sunt variabile aleatoare, atunci urmă-
toarele sunt de asemenea variabile aleatoare:
Xn Yn
ai Xi (a1 , . . . , an ∈ R), Xi ,
i=1 i=1
à n !1/p
X
k(X1, . . . , Xn )kp = Xip (p > 0),
i=1
min {X1 , . . . , Xn } , max {X1 , . . . , Xn } .
Demonstraţie. Rezultă din teorema anterioară, considerând funcţiile con-
P Q P 1/p
tinue (şi deci măsurabile) ϕ (x1 , . . . , xn ) = ni=1 ai xi , ni=1 xi , ( ni=1 xpi ) ,
min {x1 , . . . , xn }, respectiv max {x1 , . . . , xn }.

1.5.1 Exerciţii
1. Dintr-o urnă ce conţine 20 de bile, numerotate de la 1 la 20, se extrag
3 bile (fără întoarcerea bilelor extrase în urnă). Dacă X este variabila
aleatoare reprezentând maximul celor 3 numere extrase, să se determine
variabila aleatoare X (valorile şi probabilităţile corespunzătoare).

32
2. Dintr-o urnă ce conţine 3 bile albe, 3 bile roşii şi 5 bile negre, se extrag 3
bile (fără întoarcerea bilelor extrase în urnă). Dacă pentru fiecare bilă albă
extrasă se câştigă 1 leu, şi pentru fiecare bilă neagră extrasă se pierde 1 leu,
să se determine variabila aleatoare X reprezentând caştigul net obţinut în
acest joc.
3. Se aruncă 2 zaruri şi se notează cu X produsul numerelor obţinute. Să se
determine variabila aleatoare X.
4. Se aruncă 3 zaruri şi se notează cu X suma numerelor obţinute. Să se
determine variabila aleatoare X.
5. 5 bărbaţi şi 5 femei sunt ordonaţi după scorurile obţinute la un examen
(presupunem că scorurile obţinute sunt distincte şi egal probabile). Să se
determine variabila aleatoare X reprezentând rangul primei femei în lista
de rezultate.
6. Să se determine variabila aleatoare X repreyentând numărul de feţe ”ban”
minus numărul de feţe ”stemă” obţinute la aruncarea de n ori a unei
monede. Caz particular n = 4.
7. Se aruncă de 2 ori un zar. Să se determine următoarele variabile aleatoare:

(a) Maximul celor două aruncări


(b) Minimul celor două aruncări
(c) Suma celor două aruncări
(d) Diferenţa celor două aruncări (mai precis, prima minus a doua arun-
care).

8. La un examen cu 5 întrebări, fiecare având 3 răspunsuri posibile, care


este probabilitatea de a obţine cel puţin 4 răspunsuri corecte doar ghicind
răspunsurile?

33
1.6 Funcţia de distribuţie a unei variabile aleatoare
Fie (Ω, F, P ) un câmp de probabilitate complet aditiv.
Dacă X : Ω → R o variabilă aleatoare, atunci mulţimile de forma

{X < a} = {ω ∈ Ω : X (ω) < a} ∈ F (a ∈ R)

sunt măsurabile, şi deci putem determina probabilităţile acestor evenimente.


Avem următoarea:

Definiţia 1.6.1 Dată fiind o variabilă aleatoare X : Ω → R, funcţia FX :


R → [0, 1] definită de

FX (a) = P (X < a) , a ∈ R,

se numeşte funcţia de distribuţie / funcţia de repartiţie a variabilei aleatoare X.

Are loc următoarea propoziţie de caracterizare a funcţiei de distribuţie a


unei variabile aleatoare:

Propoziţia 1.6.2 Funcţia de distribuţie F = FX a unei variabile aleatoare X


are următoarele proprietăţi

1. F (−∞) = lima→−∞ F (a) = 0;


F (+∞) = lima→+∞ F (a) = 1;
2. F este nedescrescătoare, adică F (a) ≤ F (b) oricare ar fi a < b;
3. F este continuă la stânga, adică limα%a F (α) = F (a).

Reciproc, dacă o funcţie F : R → [0, 1] verifică proprietăţile 1 — 3, atunci


este funcţia de distribuţie a unei variabile aleatoare (adică există o variabilă
aleatoare X astfel incât F = FX ).

Demonstraţie. Să presupunem că F = FX este funcţia de distribuţie a


unei variabile aleatoare X.
Să considerăm un şir arbitrar a1 < a2 < . . . cu limn→∞ an = +∞, şi să
definim mulţimile
An = {ω ∈ Ω : X (ω) < an } ∈ F.
Cum şirul (an )n≥1 este crescător, rezultă că (An )n≥1 formează un şir crescător
de evenimente, şi din continuitatea măsurii de probabilitate obţinem

1 = P (Ω) = P (∪∞ An )
³ ´ n=1
= P lim An = lim P (An )
n→∞ n→∞
= lim P (X < an )
n→∞
= lim F (an ) ,
n→∞

34
oricare ar fi şirul (an )n≥1 cu limn→∞ an = +∞, şi deci lima→∞ F (a) = 1.
Similar, considerând şirul descrescător a1 > a2 > . . . cu limn→∞ an = −∞,
mulţimile An = {ω ∈ Ω : Xn < an } formează un şir descrescător de mulţimi cu
∩∞
n=1 An = ∅, şi din continuitatea măsurii de probabilitate obţinem

0 = P (∅) = P (∩∞ An )
³ ´n=1
= P lim An = lim P (An )
n→∞ n→∞
= lim P (X < an )
n→∞
= lim F (an ) ,
n→∞

oricare ar fi şirul descrescător (an )n≥1 cu limn→∞ an = −∞, şi deci limα→−∞ F (α) =
0.
Să observăm că dacă a, b ∈ R cu a < b, atunci {X < a} ⊂ {X < b} şi deci

P (X < a) ≤ P (X < b) ,

sau echivalent F (a) ≤ F (b), adică F este o funcţie nedescrescătoare.


Pentru a demonstra continuitatea la stânga a funcţiei F , să considerăm un
punct a ∈ R arbitrar fixat şi un şir crescător (an )n≥1 cu limn→∞ an = a. Atunci
An = {X < an } formează un şir crescător de mulţimi cu limita limn→∞ An =
∪∞n=1 An = {X < a}, şi din continuitatea măsurii de probabilitate obţinem

F (a) = P (X < a) = P (∪∞


n=1 An )
³ ´
= P lim An = lim P (An )
n→∞ n→∞
= lim P (X < an )
n→∞
= lim F (an ) ,
n→∞

oricare ar fi şirul (an )n≥1 cu limita a, şi deci limα%a F (α) = F (a), oricare ar fi
a ∈ R, adică F este o funcţie continuă la stânga pe R.

Exemplul 1.6.3 Funcţia de distribuţie a variabilei aleatoare X : Ω → R dată


de X (ω) = 1 pentru orice ω ∈ R este
½
0, dacă a ≤ 1
F (a) = P (X < a) =
1, dacă a > 1

1.6.1 Exerciţii
1. Pentru variabilele aleatoare indicate, să se determine funcţia de distribuţie
corespunzătoare şi să se reprezinte grafic.
µ ¶
1 2 3 4
(a) X =
1/4 1/2 1/8 1/8
µ ¶
1 2 3
(b) Y =
1/2 1/3 1/6

35
2. Se ştie că articolele produse de un anumit producător sunt defecte cu
probabilitate de 0.1, independent unele de altele.

(a) Să se determine variabila aleatoare X reprezentând numărul de piese


defecte într-un lot de 4 piese produse.
(b) Care este probabilitatea ca cel mult două piese produse într-un lot
de 4 piese să fie defecte?

3. Să se determine probabilitatea obţinerii a n feţe stemă şi a n feţe ban


la aruncarea a 2n monede? (rezultatele aruncărilor se presupun indepen-
dente)
4. Fie X variabila aleatoare ce reprezintă diferenţa dintre numărul de feţe
stemă minus numărul de feţe ban ce se obţin la aruncarea de n ori a unui
ban (aruncările se presupun independente).

(a) Să se determine valorile posibile ale variabilei aleatoare X


(b) În cazul n = 3, să se determine variabila aleatoare X.

5. Se aruncă de două ori un zar. Să se determine (valori, probabilităţi)


următoarele variabile aleatoare:

(a) Maximul celor două aruncări;


(b) Minimul celor două aruncări;
(c) Suma celor două aruncări;
(d) Valoarea primei minus celei de-a doua aruncări.

36
1.7 Variabile aleatoare discrete
Numim variabilă aleatoare discretă o variabilă aleatoare ce poate lua un număr
cel mult numărabil de valori (adică fie un număr finit de valori, fie o mulţime
de valori numărabilă, adică ale cărei elemente formează un şir).
Notând cu x1 , x2 , . . . valorile posibile ale variabilei aleatoare X şi cu pi =
P (X = xi ), i = 1, 2, . . ., probabilităţile corespunzătoare, reprezentăm variabila
aleatoare discretă X sub forma
µ ¶
x1 x2 . . .
X= .
p1 p2 . . .
Observaţia 1.7.1 Cum variabila aleatoare X ia numai valorile x1 , x2 , . . . cu
probabilităţile corespunzătoare p1 , p2 , . . ., rezultă că avem
X
pi = 1
i≥1

şi
P (X = x) = 0, oricare ar fi x ∈ R − {x1 , x2 , . . .} .
Graficul funcţiei de distribuţie FX a unei variabile aleatoare discrete X este
o funcţie în scară, ce are discontinuităţi la dreapta in punctele xi (salturi egale
cu pi în aceste puncte).
Câteva caracteristici numerice ale unei variabile aleatoare discrete:
• Media: este suma valorilor luate de variabila aleatoare înmulţite cu prob-
abilităţile corespunzătoare:
X X
M (X) = xi P (X = xi ) = xi pi ,
i≥1 i≥1

dacă această serie este absolut convergentă (în caz contrar, seria fie nu
este convergentă, fie valoarea sumei se poate schimba dacă se rearanjează
termenii x1 , x2 , . . . într-o altă ordine);
• Momentul de ordin r: este media variabilei aleatoare X r , adică
X
Mr (X) = M (X r ) = xri pi ;
i≥1

r
• Momentul centrat de ordin r: este media variabilei aleatoare (X − M (X))
X
µr (X) = M ((X − M (X))r ) = (xi − M (X))r pi ;
i≥1

• Dispersia: este momentul centrat de ordin doi, şi se mai notează


X
σ 2 (X) = µ2 (X) = (xi − M (X))2 pi ;
i≥1

• Media de ordin r:
1/r
mr = (Mr (X)) .

37
1.7.1 Variabila aleatoare uniformă
Modelează efectuarea unui experiment ce are ca rezultat un un număr finit de
posibilităţi egal probabile, spre exemplu aruncarea unei monede, a unui zar,
jocul la ruletă, etc.
O variabilă aleatoare uniformă ce ia valorile 1, . . . , n (n ≥ 1) este de forma
µ ¶
1 2 ... n
X= 1 1 .
n n . . . n1

Media şi dispersia variabilei aleatoare uniforme sunt


n
X 1 1 n (n + 1) n+1
M (X) = i· = · = ,
i=1
n n 2 2

respectiv
Xn µ ¶2
2 n+1 1
σ (X) = i− ·
i=1
2 n
n n n
1 X 2 n+1 X 1 X (n + 1)2
= i − i+
n i=1 n i=1 n i=1 4
1 n (n + 1) (2n + 1) n + 1 n (n + 1) 1 (n + 1)2
= − + n
n 6 n 2 n 4
n2 − 1
= .
12

1.7.2 Variabila aleatoare Bernoulli


Numim experiment Berrnoulli un experiment ce poate rezulta în unul din două
cazuri posibile, pe care le vom numi succes (notat prin 1), respectiv insucces
(notat prin 0).
Notând prin p = P (X = 1) probabilitatea succesului (şi deci q = 1 − p =
P (X = 0) este probabilitatea insuccesului), o variabilă aleatoare Bernoulli se
poate reprezenta sub forma
µ ¶
0 1
X= , p ∈ (0, 1) .
1−p p

Media şi dispersia sunt

M (X) = 0 · (1 − p) + 1 · p = p,

şi respectiv
2 2
σ 2 (X) = (0 − p) · (1 − p) + (1 − p) · p = p (1 − p) = pq.

38
1.7.3 Variabila aleatoare binomială
O variabilă aleatoare X reprezentând numărul de succese obşinute în n repetări
independente ale unui experiment Bernoulli în care probabilitatea succesului
este p, se numeşte variabilă aleatoare binomială cu parametrii n şi p:
µ ¶
0 1 ... n
X= ,
p0 p1 . . . pn
n−i
unde pi = P (X = i) = Cni pi (1 − p) , este probabilitatea obţinerii a i succese
(şi a n − i insuccese), i = 0, 1, . . . , n.

Observaţia 1.7.2 Să observăm că are loc relaţia


n
X n
X
pi = Cni pi (1 − p)n−i = (p + (1 − p))n = 1.
i=0 i=0

Media şi dispersia sunt date de


n
X n−i
M (X) = iCni pi (1 − p) = np,
i=0

şi respectiv
n
X
σ 2 (X) = (i − np)2 Cni pi (1 − p)n−i = np (1 − p) = npq.
i=0

Are loc următoarea:

Propoziţia 1.7.3 Dacă X este o variabilă aleatoare cu parametrii n şi p, atunci


pentru i = 0, 1, . . . , n, P (X = i) creşte, apoi descreşte, având un maxim pen-
tru i = [(n + 1) p] (cel mai mare număr întreg mai mic sau cel mult egal cu
(n + 1) p).

Demonstraţie. Avem:

P (X = i) C i pi (1 − p)n−i (n − i + 1) p
= i−1 n n−i+1 = ≥1
P (X = i − 1) Cn p i−1 (1 − p) i (1 − p)

dacă şi numai dacă


i ≤ (n + 1) p,
şi deci
P (X = i) ≤ P (X = i − 1) ⇔ i ≤ (n + 1) p,
ceea ce arată că P (X = i) creşte, apoi descreşte, având un maxim pentru i =
[(n + 1) p].

39
Exemplul 1.7.4 Se aruncă 4 monede, şi presupunem că aruncările sunt inde-
pendente, în fiecare din ele probabilitatea de apariţie a stemei fiind 1/4. Atunci
variabila aleatoare X ce reprezintă numărul de steme obţinut este o variabilă
aleatoare binomială (ea dă numărul de succese obţinut, apariţia stemei fiind
considerată ca fiind un succes) cu parametrii n = 4 şi p = 1/2, si deci avem
µ ¶ µ ¶
0 1 2 3 4 0 1 2 3 4
X= = 1 4 6 4 1 ,
p0 p1 p2 p3 p4 16 16 16 16 16
¡ 1 ¢k ¡ 1 ¢4−k
unde pk = C4k 2 2 , k = 0, . . . , 4.

1.7.4 Variabila aleatoare geometrică


Numim variabil[ aleatoare geometriocă cu parametrul p ∈ (0, 1) o variabilă
aleatoare reprezentând numărul de încercări efectuate într+un şir de experi-
mente Bernoulli independente, având fiecare probabilitatea succesului egală cu
p, până la obţinerea primului succes.
Variabila aleatoare geometrică este deci
µ ¶
1 2 3 ...
X= ,
p1 p2 p3 . . .
k−1
unde pk = P (X = k) = (1 − p) · p (deoarece primele k − 1 încercări sunt
insuccese iar încercarea k este succes), k ≥ 1.
P
Observaţia 1.7.5 Relaţia ∞ k=1 pk = 1 este verificată:


X ∞
X k−1
pk = (1 − p) p
k=1 k=1
³ ´
= p 1 + (1 − p) + (1 − p)2 + . . .
1
= p
1 − (1 − p)
1
= p
p
= 1.

Exemplul 1.7.6 Se aruncă în mod repetat un zar. Dacă X reprezintă numărul


de aruncări pănă la prima apariţie a feţei 1, atunci X este o variabilă aleatoare
geometrică cu paramaterul p = 1/6 (probabilitatea de apariţie a succesului),
şi spre exemplu probabilitatea ca faţa 1 să apară pentru prima dată la a treia
încercarea este
µ ¶3−1
1 1 25
P (X = 3) = 1 − · = ≈ 0.1157.
6 6 216

40
Media şi dispersia variabilei aleatoare geometrice cu parametrul p sunt

X ∞
X 1
M (X) = k · pk = k · (1 − p)k−1 p = ,
p
k=1 k=1

respectiv
∞ µ
X ¶2 ∞ µ
X ¶2
1 1 k−1 1−p
σ 2 (X) = k− · pk = k− · (1 − p) p= .
p p p2
k=1 k=1

Propoziţia 1.7.7 (“Lipsa de memorie” a v.a. geometrice) Dacă X este


o variabilă aleatoare geometrică cu parametrul p, atunci

P ( X = n + k | X > n) = P (X = k) ,

pentru orice k, n ≥ 1.

Demonstraţie. Avem:
P (X = n + k, X > n) P (X = n + k)
P ( X = n + k | X > n) = =
P (X > n) 1 − P (X ≤ n)
(1 − p)n+k−1 p (1 − p)n+k−1 p
= Pn = Pn i−1
1 − i=1 P (X = i) 1 − i=1 (1 − p) p
(1 − p)n+k−1 p (1 − p)n+k−1 p k−1
= n = n = (1 − p) p
1 − p (1−p) −1
1−p−1
(1 − p)
= P (X = k) .

Observaţia 1.7.8 Spre exemplu, propoziţia anterioară arată ca dacă X reprez-


intă numărul de aruncări ale unui ban până la prima apariţie a stemei, atunci
probabilitatea de apariţie a stemei pentru prima dată la încercarea 106, condiţionat
de faptul că ea nu a apărut în primele 100 de aruncări, este aceeaşi cu proba-
bilitatea de apariţie a stemei la încercarea 106 − 100 = 6:

P ( X = n + 106 | X > 100) = P (X = 6) ,

şi deci variabila aleatoare geometrică nu are “memoria” primelor 100 de insuc-
cese (adică a feţei “ban”).
Se poate arăta că variabila aleatoare geometrică este singura variabilă aleatoare
discretă ce are această proprietate de lipsă a memoriei.

1.7.5 Variabila aleatoare binomială negativă


Numim variabilă aleatoare negativă cu parametrii r ∈ N∗ şi p ∈ (0, 1) o vari-
abilă aleatoare reprezentând numărul de experimente Bernoulli independente

41
efectuate (in fiecare din ele probabilitatea succesului fiind p), până la apariţia a
r succese.
Variabila aleatoare binomială cu parametrii r şi p este deci:
µ ¶
r r + 1 r + 2 ...
X= ,
pr pr+1 pr+2 . . .

r−1 k−r
unde pk = P (X = k) = Ck−1 (1 − p) pr , k = r, r + 1, . . .

Observaţia 1.7.9 Pentru r = 1 se obţine variabila aleatoare geometrică, şi deci


variabila aleatoare binomială negativă este o generalizare a variabilei aleatoare
geometrice.

Observaţia 1.7.10 numele de variabilă aleatoare binomială negativă provine


din faptul că pentru variabila aleatoare binomială numărul de încercări este
determinat (fixat) şi cel al succeselor este aleator, pe când pentru variabila
aleatoare binomială negativă numărul de succese este determinat iar cel al încer-
cărilor este aleator, în acest sens ea fiind opusă (“negativă”) variabilei aleatoare
binomiale, fapt ce justifică acest nume (variabila aleatoare binomială negativă).

Se poate arăta că media şi dispersia unei variabile aleatoare binomiale neg-
ative cu parametrii r ∈ N∗ şi p ∈ (0, 1) sunt date de
1−p
M (X) = r ,
p
respectiv
1−p
σ 2 (X) = r .
p2

1.7.6 Variabila aleatoare Poisson


Numim variabilă aleatoare Poisson o variabilă aleatoare ce ia valorile 0, 1, 2, . . .
k
cu probabilităţile p0 , p1 , p2 , . . ., unde pk = e−λ λk! , k = 0, 1, 2, . . . , adică
µ ¶
0 1 2 ...
X= .
p0 p1 p2 . . .
P∞
Observaţia 1.7.11 Relaţia k=1 pk = 1 este verificată, deoarece

X ∞
X µ ¶
λk λ λ2
pk = e−λ = e−λ 1 + + + . . . = e−λ eλ = 1.
k! 1! 2!
k=1 k=1

Variabila aleatoare Poisson este foarte utilă în practică, deoarece ea poate fi


folosită ca o aproximaţie a variabilei aleatoare binomiale cu parametrii n şi p,
unde relaţia de legătură între parametrii este λ = np.

42
Astfel, pentru n “mare” şi p “mic” astfel încât λ = np are o valoare moderată,
atunci dacă Y este o variabilă aleatoare binomială cu parametrii n şi p, avem:
µ ¶n−k k
n! λ λ
P (Y = k) = Cnk (1 − p)n−k pk = 1−
(n − k)!k! n nk
µ ¶n
n (n − 1) . . . (n − k + 1) λk λ 1
= 1− ¡ ¢k
nk k! n 1 − nλ
λk −λ
≈ 1· ·e ·1
k!
= P (X = k) ,

şi deci putem aproxima variabila aleatoare binomială Y (cu parametrii n şi p)
prin variabila aleatoare Poisson X (cu parametrul λ = np).

Exemplul 1.7.12 Exemple de variabile aleatoare binomiale ce por fi aproxi-


mate prin variabile aleatoare Poisson: numărul de greşeli tipografice de pe o pag-
ină, numărul de greşeli telefonice dintr-o zi, numărul de cutremure de pământ
dintr-o anumită perioadă de timp, numărul de clienţi ce intră într-un maga-
zin (pentru toate aceste exemple, probabilitatea p a succesului este mică, iar n
— numărul de încercări efectuate este mare, astfel încât λ = np are o valoare
moderată).

Se poate arăta că media şi dispersia unei variabile aleatoare Poisson cu para-
metrul λ sunt
X∞ ∞
X λk
M (X) = kpk = ke−λ = λ,
k!
k=0 k=0
respectiv

X ∞
X
2 2 λk
σ 2 (X) = (k − λ) pk = (k − λ) e−λ = λ.
k!
k=0 k=0

1.7.7 Exerciţii
1. Într-un şir de încercări Bernoulli cu probabilitatea succesului p ∈ (0, 1),
care este probabilitatea apariţiei a n succese înainte de apariţia a m in-
succese?
2. Din două cutii de chibrituri, fiecare conţinând N beţe, se scot independent,
cu probabilităţi egale, câte un chibrit. Care este probabilitatea ca atunci
când una din cutii este goală, cealaltă să conţină k chibrituri? (k =
0, 1, . . . , N )
3. Fie X o variabilă aleatoare Poisson cu parametrul λ > 0. Să se arate că
probabilitatea P (X = n) creşte, apoi descreşte, atunci când n = 0, 1, 2, . . ..
Pentru ce valoare a lui n este probabilitatea P (X = n) maximă?
1−p
4. O familie are n ≥ 1 copii cu probabilitate αpn , unde p ∈ (0, 1) şi α ≤ p .

43
(a) Ce procent de familii nu au nici un copil?
(b) Dacă probabilitatea unui copil de a fi băiat este 1/2 şi este indepen-
dentă de sexul celorlalţi copii din familie, ce procent de familii au
exact k băieţi (şi orice număr de fete)?

5. O urnă conţine N bile numerotate 1, 2, . . . , N . Dacă din urnă se ex-


trag (fără întoarcere în urnă) n ≤ N bile, să se determine probabilitatea
P (X = k), unde X este variabila aleatoare reprezentând maximul nu-
merelor extrase.
6. Să se compare aproximaţia variabilei aleatoare binomiale (cu parametrii
indicaţi) prin variabila aleatoare Poisson (cu parametrul corespunzător),
în cazurile:

(a) P (X = 2), în cazul n = 8, p = 0.1;


(b) P (X = 9), în cazul n = 10, p = 0.95;
(c) P (X = 0), în cazul n = 10, p = 0.1;
(d) P (X = 4), în cazul n = 9, p = 0.2;

7. O persoană cumpără 50 de lozuri, pentru fiecare probabilitatea de câştig


fiind 1/100. Care este probabilitatea obţinerii

(a) Măcar a unui loz câştigător?


(b) Exact a unui loz câştigător?
(c) A nici unui loz câştigător?

8. Numărul de ori de care o persoană răceşte într-un an este o variabilă


aleatoare Poisson cu parametrul λ = 5. Un medicament reduce acest
parametru la λ = 3 pentru 75% din populaţie şi este ineficient pentru
restul de 25% al populaţiei.
O persoană, căreia i s-a administrat medicamentul, a răcit de două ori
într-un an. Cât de probabil este că medicamentul a fost eficient pentru
ea?
9. Oamenii intră într-un magazin cu rata de 1 persoană / 2 minute. Folosind
aproximaţia prin variabilă aleatoare Poisson (cu parametru corspunzător),
să se determine:

(a) Care este probabilitatea ca nimeni să nu intre în magazin în intervalul


12 : 00 — 12 : 05?
(b) Cel puţin 4 persoane să intre în magazin în acest interval?

10. O ruletă este marcată cu numerele 1, 2, . . . , 36. Dacă o persoană pariază pe


numerele 1 — 12, care este probabilitatea de a pierde în primele 5 încercări?
Dar de a câştiga pentru prima oară în a 4-a încercare?

44
11. O monedă se aruncă repeptat, până la cea de-a 10-a apariţie a feţei
ban. Dacă X este variabila aleatoare ce reprezintă numărul de feţe stemă
obţinut, să se determine probabilitatea P (X = n), n = 0, 1, 2, . . ..

45
1.8 Variabile aleatoare continue
Definiţia 1.8.1 Numim variabilă aleatoare continuă pe spaţiul de probabilitate
(Ω, F, P ) o variabilă aleatoare X : Ω → R pentru care funcţia de distribuţie
corespunzătoare FX : R → [0, 1], FX (a) = P (X < a) este o funcţie continuă.

Exemplul 1.8.2 timpul de oprire al unui tren în staţie, temperatura într-o


anumită zi, etc. sunt variabile aleatoare continue.

Observaţia 1.8.3
µ Am văzut ¶că funcţia de distribuţie a unei variabile aleatoare
x1 x2 . . .
discrete X = este discontinuă în punctele xi (are un salt egal
p1 p2 . . .
cu pi în aceste puncte), şi deci o variabilă aleatoare discretă nu este o variabilă
aleatoare continuă.

Observaţia 1.8.4 Cerinţa ca funcţia de distribuţie FX să fie o funcţie continuă


este echivalentă cu P (X = a) = 0 pentru orice a ∈ R.
Într-adevăr, dacă FX este o funcţie continuă, atunci avem

P (X = a) = P (X ≤ a) − P (X < a)
= lim P (X < a) − P (X < a)
α&a
= lim FX (α) − FX (a)
α&a
= FX (a) − FX (a)
= 0,

deoarece F este continuă în punctul a, şi reciproc.

Observaţia 1.8.5 Faptul că pentru o variabilă aleatoare continuă avem P (X = a) =


0 oricare ar fi a ∈ R nu înseamnă că X nu poate lua valoarea a (cum este cazul
variabilelor aleatoare discrete). Dacă X nu ar putea lua valoarea a (oricare ar
fi a ∈ R), ar însemna că X nu ar putea lua nici o valoare reală!

Definiţia 1.8.6 Numim densitate de probabilitate a unei variabile aleatoare


continue X o funcţie f = fX : R → [0, +∞) integrabilă cu proprietatea că
Z
P (X ∈ B) = f (x) dx,
B

pentru orice mulţime boreliană B ∈ B.

Observaţia 1.8.7 Pentru B = (−∞, +∞) ∈ B, obţinem


Z +∞
P (X ∈ (−∞, +∞)) = f (x) dx,
−∞

46
adică Z +∞
f (x) dx = 1.
−∞

Reciproc, se poate arăta că dacă f : R → [0, +∞) este o funcţie integrabilă
ce verifică această relaţie, atunci există o variabilă aleatoare continuă având
funcţia f ca densitate de probabilitate.

Observaţia 1.8.8 Am văzut că pentru o variabilă aleatoare continuă avem


P (X = a) = 0, şi deci

P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) .

Alegând B = (a, b) ∈ B în definiţia anterioară, rezultă că toate aceste valori


egale sunt date de:

P (a ≤ X ≤ b) ⎪ ⎪
⎬ Z b
P (a < X ≤ b)
= f (x) dx,
P (a ≤ X < b) ⎪ ⎪ a

P (a < X < b)

pentru orice a, b ∈ R cu a < b.

Observaţia 1.8.9 Pentru B = (−∞, a) ∈ B în definiţia anterioară avem


Z a
F (a) = P (X < a) = P (X ∈ (−∞, a)) = f (x) dx,
−∞

şi deci funcţia de distribuţie F dă aria de sub graficul funcţiei f (a densităţii
variabilei aleatoare X).

Are loc următoarea:

Propoziţia 1.8.10 Dacă variabila aleatoare X are o densitate de probabilitate


fX continuă, atunci ea este egală cu derivata funcţiei de distribuţie FX a lui X:
0
FX (a) = f (a) , a ∈ R.

Demonstraţie. Pentru a ∈ R fixat, avem


ÃZ Z a !
a+∆a
F (a + ∆a) − F (a) 1
= f (x) dx − f (x) dx
∆a ∆a −∞ −∞
Z a+∆a
1
= f (x) dx
∆a a
1
= f (a∗ ) ∆a
∆a
= f (a∗ ) ,

conform teoremei de medie, unde a∗ este un punct intermediar între a şi a + ∆a.

47
Trecând la limită cu ∆a → 0, obţinem
F (a + ∆a) − F (a)
F 0 (a) = lim
∆a→0 ∆a
= lim f (a∗ )
∆a→0
= f (a) ,
deoarece f este continuă în punctul a (şi deci a∗ → a).
Observaţia 1.8.11 Valoarea f (a) a densităţii unei variabile aleatoare X în
punctul a nu este probabilitatea ca X să ia valoarea a (am văzut că pentru o
variabilă aleatoare continuă avem P (X = a) = 0, oricare ar fi a ∈ R).
Interpretarea ce se poate da este următoarea
³ Z a+ ε2
ε ε´
P a− <X <a+ = f (x) dx ≈ f (a) · ε,
2 2 a− ε2

şi deci probabilitatea ca X să ia valori conţinute într-un interval de lungime


ε > 0 mică ce conţine pe a este f (a) · ε, adică este proporţională cu f (a) (f (a)
arată cât este de probabil ca X să ia o valoare apropiată de a, în sensul de mai
sus).

1.8.1 Caracteristici ale variabilelor aleatoare continue


Pentru o variabilă aleatoare X având densitatea f , definim:
• Media/valoarea aşteptată a lui X prin
Z +∞
M (X) = xf (x) dx
−∞

• Dispersia /abaterea pătratică a lui X prin


³ ´ Z +∞
2 2
σ 2 (X) = D2 (X) = M (X − M (X)) = (x − M (X)) f (x) dx,
−∞

dacă integralele respective există şi sunt finite.


Mai general, dacă g : R → R este o funcţie măsurabilă, definim
Z +∞
M (g (X)) = g (x) f (x) dx.
−∞

În particular, pentru g (x) = xr , respectiv pentru g (x) = (x − M (X))r ,


obţinem
• Momentul de ordin r:
Z +∞
Mr (X) = M (X r ) = xr f (x) dx
−∞

48
• Momentul centrat de ordin r:
Z +∞
r r
µr (X) = M ((X − M (X)) ) = (x − M (X)) f (x) dx.
−∞

1.8.2 Variabile aleatoare continue clasice


1. Variabila aleatoare uniformĂ
Numim variabilă aleatoare uniform distribuită pe intervalul [a, b] o variabilă
aleatoare având densitatea
½ 1
f (x) = b−a , a≤x≤b
0, în rest
Observaţia 1.8.12 Să observăm că funcţia f (x) este într-adevăr o densitate
de probabilitate, doarece este integrabilă, ne-negativă (f (x) ≥ 0, oricare ar fi
x ∈ R) şi avem
Z +∞ Z b ¯b
1 x ¯¯ b a
f (x) dx = dx = ¯ = − = 1.
−∞ a b−a b−a a b−a b−a
Densitatea f (x) determină în mod unic funcţia de distribuţie corespunză-
toare F (x): ⎧
⎨ 0, x≤a
x−a
F (x) = , a<x≤b
⎩ b−a
1, b<x
Pentru o variabilă aleatoare uniformă pe intervalul [a, b], avem
Z a Z 0
P (X ≤ a) = f (x) dx = 0dx = 0,
−∞ −∞

şi Z Z
+∞ +∞
P (X ≥ a) = f (x) dx = 0dx = 0,
b b
iar pentru a ≤ α < β ≤ b avem
Z β Z β
1 β−α
P (α ≤ X ≤ β) = f (x) dx = dx = ,
α α b−a b−a
ceea ce arată că X ia valori (numai) în intervalul [a, b], probabilitatea ca X să
ia valori într-un subinterval al lui [a, b] fiind proporţională cu lungimea acestui
subinterval.
Media şi dispersia unei variabile aleatoare uniforme pe intervalul [a, b] sunt
Z +∞ Z b µ 2 ¶
1 1 b a2 a+b
M (X) = xf (x) dx = x· dx = − = ,
−∞ a b−a b−a 2 2 2
respectiv
³ ´ Z µ ¶2
2
b
a+b 1 (b − a)2
σ 2 (X) = M (X − M (X)) = x− · dx = .
a 2 b−a 12

49
Observaţia 1.8.13 Dacă X este o variabilă aleatoare uniformă pe intervalul
[a, b], atunci Y = c1 X + c2 este o variabilă aleatoare uniformă pe intervalul
[ac1 + c2 , bc1 + c2 ].
În particular, dacă X este o variabilă aleatoare uniformă pe intervalul [a, b],
atunci Y = X−a b−a este o variabilă aleatoare uniformă pe intervalul [0, 1].

2. Variabila aleatoare normalĂ

Definiţia 1.8.14 Numim variabilă aleatoare normală cu parametrii µ şi σ 2


(σ > 0) o variabilă aleatoare X având densitatea
1 (x−µ)2
f (x) = √ e− 2σ2 ,
2πσ
¡ ¢
şi notăm X ∈ N µ, σ 2 .

Observaţia 1.8.15 Funcţia f este într-adevăr o densitatea de probabilitate,


deoarece este integrabilă, ne-negativă (f (x) ≥ 0 pentru orice x ∈ R) şi verifică
R +∞
relaţia −∞ f (x) dx = 1 (vezi seminar).

Graficul funcţiei f (x) are forma de clopot, ce are un maxim pentru x = µ


şi puncte de inflexiune pentru x = µ ± σ, graficul fiind simetric faţă de dreapta
x = µ.
Media şi dispersia unei variabile aleatoare normale cu parametrii µ şi σ 2
sunt:
R +∞
— media: M (X) = −∞ xf (x) dx = µ
³ ´ R
+∞
— dispersia: σ2 (X) = M (X − M (X))2 = −∞ (x − µ)2 f (x) dx = σ 2 ,

şi deci media¡şi dispersia


¢ sunt chiar parametrii µ şi σ2 ai variabilei aleatoare
2
normale X ∈ N µ, σ .
Are loc următoarea:
¡ ¢
Propoziţia 1.8.16 Dacă X ∈ N µ, σ 2 este¡ o variabilă aleatoare
¢ normală cu
2 2 2
parametrii µ şi σ , atunci Y = αX + β ∈ N αµ + β, α σ .
¡ ¢
În particular, dacă X ∈ N µ, σ 2 , atunci Y = X−µ σ ∈ N (0, 1) este o
variabilă aleatoare cu medie 0 şi dispersie 1 (numită variabilă aleatoare normală
standard).

Demonstraţie. Să calculăm funcţia de distribuţie FY a variabilei aleatoare


Y:

FY (a) = P (Y < a) = P (αX + β < a)


µ ¶
a−β
= P X<
α
µ ¶
a−β
= FX ,
α

50
adică funcţia de distribuţie a variabilei aleatoare X calculată în punctul a−β α
(am folosit aici faptul că α > 0).
Derivând în raport cu a, şi folosind faptul că derivata funcţiei de distribuţie
este densitatea de probabilitate (adică FY0 = fY şi FX 0
= fX ), obţinem:
µ µ ¶¶0 µ ¶
a−β 1 0 a−β
fY (a) = FY0 (a) = FX = FX
α α α
µ ¶
1 a−β
= fX
α α
2
1 1 −
( a−β
α
−µ)

= ·√ e 2σ 2
α 2πσ
2
1 − (a−(αµ+β))
= √ e 2(ασ)2 ,
2π (ασ)
adică Y ∈ N (αµ + β, ασ).

Observaţia 1.8.17 Pentru o variabilă aleatoare normală standard X ∈ N (0, 1),


valorile funcţiei de distribuţie
Z a
1 x2 not
FX (a) = P (X < a) = √ e− 2 dx = Φ (a)
−∞ 2π
se găsesc tabelate (sau pot fi calculate folosind diverse programe/aplicaţii pe
calculator). ¡ ¢
Dacă Y ∈ N µ, σ 2 , din propoziţia anterioară rezultă că
µ ¶ µ ¶
Y =σX+µ a−µ a−µ
FY (a) = P (Y < a) = P X< =Φ ,
σ σ
şi deci aceste valori se pot calcula folosind funcţia Φ definită anterior.

1.8.3 Exerciţii
1. O variabilă aleatoare are densitatea
½ ¡ ¢
c 4x − x2 , 0<x<2
f (x) =
0, în rest

(a) Să se determine valoarea constantei c


(b) Să se determine probabilitatea P (X > 1)
(c) Care este intervalul valorilor posibile ale lui X?

2. Numărul de ore de funcţionare al unei componente electronice este o vari-


abilă aleatoare cu densitatea
½ + x
ce 100 , x≥0
f (x) =
0, în rest

51
(a) Să se determine valoarea constantei c
(b) Care este probabilitatea ca piesa să funcţioneze între 50 şi 100 de
ore?
(c) Care este probabilitatea ca piesa să funcţioneze mai puţin de 100 de
ore?

3. Durata de viaţă (în ore) a unei componente electronice este o variabilă


aleatoare cu densitatea
½
0, x ≤ 100
f (x) = c
x2 , x > 100

(a) Să se determine valoarea constantei c


(b) Care este probabilitatea ca din 5 astfel de piese, exact 2 să trebuiască
a fi înlocuite în primele 5 ore de funcţionare? (presupunem că piesele
se defectează independent unele de altele)

4. Dacă X este o variabilă aleatoare uniformă pe intervalul (0, 10), să se


calculeze următoarele probabilităţi:

(a) P (X < 3)
(b) P (X > 6)
(c) P (3 < X < 8)

5. Autobuzele sosesc în staţie începând cu ora 7 la intervale de 15 minute.


Un călător soseşte în staţie la o oră ce este uniform distribuită între ora
7 : 00 şi ora 7 : 30. Să se determine:

(a) Probabilitatea de a aştepta cel puţin 5 minute sosirea primului auto-


buz
(b) Probabilitatea de a aştepta cel puţin 10 minute sosirea primului au-
tobuz.

6. Timpul necesar completării unui formular de către un angajat este de o


variabilă aleatoare X uniform distribuită între 1.5 şi 2.2 minute.

(a) Care este probabilitatea ca angajatul să completeze formularul în mai


puţin de 2 minute?
(b) Să se determine funcţia de distribuţie corespunzătoare FX şi să se
reprezinte grafic.

7. Timpul necesar asamblării unui produs are o densitate


½
0.1, 30 ≤ x ≤ 40
f (x) =
0, în rest

52
(a) Să se determine proporţia pieselor ce necesită cel puţin 35 minute
pentru asamblare
(b) Ce durată de timp de asamblare este depăşită pentru 90% din piese?

8. Dacă X este o variabilă aleatoare normală N (3, 9) cu medie µ = 3 şi


dispersie σ 2 = 9, să se determine următoarele probabilităţi:

(a) P (2 < X < 5)


(b) P (X > 0)
(c) P (|X − 3| > 6)

Observaţie: pentru calculul acestor probabilităţi este nevoie de un tabel


de valori a funcţiei de distribuţie normală, sau a unui computer.
9. Notele obţinute
¡ în¢ urma unei examinări se consideră a avea o distribuţie
normală N µ, σ 2 . Există regula de a da evaluări prin litere, A, B, C, D
şi F după următoarea: A dacă nota este mai mare decât µ + σ, B dacă
nota este în intervalul (µ, µ + σ), C dacă nota este în intervalul (µ − σ, µ),
D dacă nota este în intervalul (µ − 2σ, µ − σ), respectiv F dacă nota este
mai mică decât µ − 2σ.
Să se determine procentele de note A, B, C, D şi F acordate conform
acestei reguli.
Observaţie: pentru acest calcul este nevoie de un tabel de valori a funcţiei
de distribuţie normală, sau a unui computer. Răspuns: A → 15.87%, B
→ 34.13%, C → 34.13%, D → 13.59%, respectiv F → 2.28%.
10. Se aruncă o monedă de n = 40 de ori, şi se notează cu X numărul de feţe
stemă obţinute.

(a) Să se determine probabilitatea P (X = 20)


(b) Să se aproximeze această probabilitate folosind aproximaţia prin vari-
abilă aleatoare normală.

11. Presupunem că durata unei convorbiri telefonice este o variabilă aleatoare
1
cu parametrul λ = 10 . Dacă o persoană soseşte la o cabină telefonică exact
când o altă persoană a început convorbirea, să se determine următoarele
probabilităţi:

(a) P (X > 10)


(b) P (10 < X < 20)
1
(c) Să se determine t astfel încât P (X > t) = 2

Răspuns: a) 0.368 b) 0.233 c) t = 10 ln 2 ≈ 0.693

53
1.9 Media unei variabile aleatoare. Proprietăţi.
1.9.1 Cazul variabilelor aleatoare discrete
Exemplul 1.9.1 Să considerăm variabila aleatoare X reprezentând câştigul
obţinut în următorul joc: se aruncă un ban, şi pentru apariţia stemei (cu prob-
abilitatea p1 ) se câştigă x1 lei, iar pentru apariţia banului
µ (cu probabilitatea
¶ p2 )
x1 x2
se câştigă x2 lei. Variabila aleatoare este deci X = , cu x1,2 ∈ R,
p1 p2
0 ≤ p1 , p2 ≤ 1 şi p1 + p2 = 1.
Repetând de n ori experimentul, câştigul mediu obţinut în cele n încercări
este
câştigul din prima aruncare+a doua+. . . +ultima aruncare
n
x1 · nr apariţii ale lui x1 + x2 · nr de apariţii ale lui x2
=
n
nr apariţii ale lui x1 de apariţii ale lui x2
= x1 + x2 · .
n n
Una din teoremele limită ale teoriei probabilităţilor (legea numerelor mari)
arată că frecvenţele relative tind către probabilitate, şi deci
nr apariţii ale lui x1 de apariţii ale lui x2
Media în nîncercări = x1 + x2 · →
| n
{z } | n
{z }
n→∞

frecven ţa de apariţie a lui x1 frecven ţa de apariţie a lui x2


→ x1 · p1 + x2 · p2 .
n→∞

Exemplul anterior sugerează că media variabilei aleatoare X este M (X) =


x1 · p1 + x2 · p2 . Mai general, avem:
µ ¶
x1 x2 . . .
Definiţia 1.9.2 Dacă X = este o variabilă aleatoare discretă
p1 p2 . . .
ce ia valorile distincte x1 , x2 , . . . cu probabilităţile p1 , p2 , . . ., definim media vari-
abilei aleatoare X prin
X
M (X) = xi · pi = x1 · p1 + x2 · p2 + . . . ,
i
P
dacă această serie este absolut convergentă (adică dacă i |xi · pi | < +∞). În
caz contrar spunem că X nu are medie.

Teorema 1.9.3 Dacă X, Y sunt variabile aleatoare discrete pentru care există
mediile M (X) şi M (Y ), atunci:

a) Dacă X = c — constant, atunci atunci M (X) = c


b) Dacă X (ω) ≥ Y (ω), oricare ar fi ω ∈ Ω, atunci M (X) ≥ M (Y )

54
c) M (aX + bY ) = aM (X) + bM (Y ), oricare ar fi a, b ∈ R
µ ¶
x1 x2 . . . P
d) Dacă ϕ : R → R şi X = , atunci M (ϕ (X)) = i ϕ (xi )·
p1 p2 . . .
pi .

Demonstraţie. a) Din definiţie, avem

M (X) = c · P (X = c) = c · 1 = c.
µ ¶
x1 x2 . . .
b) Dacă X = şi X (ω) ≥ 0, oricare ar fi ω ∈ Ω, rezultă că
p1 p2 . . .
xi ≥ 0 oricare ar fi i ≥ 1. Obţinem deci în acest caz:
X
M (X) = xi · pi ≥ 0.
|{z} |{z}
i ≥0 ≥0

Dacă X ≥ Y , rezultă că variabila aleatoare Z = X − Y ≥ 0, şi din demon-


straţia anterioară avem M (Z) = M (X − Y ) ≥ 0. Folosind punctul c) obtinem
M (X) − M (Y ) =µM (X − Y ) ≥ ¶ 0, adică M (X) ≥ M (Y ).
x1 x2 . . .
d) Dacă X = , atunci ϕ (X) ia valorile ϕ (xi ), i = 1, 2, . . .,
p1 p2 . . .
nu neapărat distincte. Avem:
X
M (ϕ (X)) = ϕ (xi ) · P (ϕ (X) = ϕ (xi ))
i:ϕ(xi )−distincte
X X
= ϕ (xi ) · P (X = xj )
i:ϕ(xi )−distincte j:ϕ(xj )=ϕ(x)
X X
= ϕ (xi ) · P (X = xj )
i:ϕ(xi )−distincte j:ϕ(xj )=ϕ(x)
X
= ϕ (xi ) · P (X = xi )
i≥1

µ ¶
−1 0 1
Exemplul 1.9.4 Considerând variabila aleatoare X = şi
µ ¶ 1/3 1/3 1/3
0 1
ϕ (x) = x2 , avem Y = ϕ (X) = , şi deci conform definiţiei avem
1/3 2/3
¡ ¢ 1 2 2
M (Y ) = M X 2 = 0 · + 1 · = .
3 3 3
Folosind punctul d) al teoremei anterioare, putem calcula pe o altă cale

55
această valoare, şi anume:
3
X
¡ 2¢
M X = M (ϕ (X)) = ϕ (xi ) P (X = xi ) =
i=1
1 1 1
= (−1)2 · + 02 · + 12 ·
3 3 3
2
= .
3

1.9.2 Cazul variabilelor aleatoare continue


Considerăm acum cazul unei variabile aleatoare continue X : Ω → R, unde
(Ω, F, P ) este un spaţiu de probabilitate fixat.
Pentru a defini media variabilei aleatoare X, procedăm similar cazului dis-
cret, adică definim media ca suma valorilor înmulţite cu probabilităţile core-
spunzătoare. Cum pentru o variabilă aleatoare continuă avem P (X = a) = 0
oricare ar fi a ∈ R, pentru a defini media procedam astfel: considerăm o partiţie
(xi )i≥1 a lui R şi aproximăm media prin
X X X
xi · P (xi ≤ X < xi+1 ) = xi · (F (xi+1 ) − F (xi )) = xi · ∆F (xi ) .
i≥1 i≥1 i≥1
R
Trecând la limită cu ∆xi = xi+1 − xi → 0 obţinem R
xdF (x), şi avem deci
următoarea:

Definiţia 1.9.5 Definim media variabilei aleatoare continue X prin


Z
M (X) = xdFX (x) ,
R

dacă această integrală este absolut convergentă.

Observaţia 1.9.6 În acest curs vom considera numai variabile aleatoare con-
tinue care admit densitate, şi am văzut că dacă această densitate este o funcţie
continuă, atunci avem dF
dx = fX . Avem deci următoarea definiţie:
X

Definiţia 1.9.7 Dacă X este o variabilă aleatoare continuă cu densitatea fX ,


atunci media variabilei aleatoare X este
Z +∞
M (X) = xfX (x) dx,
−∞
R +∞
dacă această integrală este absolut convergentă (adică dacă −∞
|xfX (x)| dx <
+∞).

Are loc următoarea:

Teorema 1.9.8 Dacă X, Y sunt variabile alatoare continue pentru care există
mediile M (X) şi M (Y ), atunci

56
a) Dacă X (ω) ≥ Y (ω), oricare ar fi ω ∈ Ω, atunci M (X) ≥ M (Y )
b) M (aX + bY ) = aM (X) + bM (Y ), oricare ar fi a, b ∈ R
c) Dacă ϕ : R → R este o funcţie măsurabilă pentru care există media vari-
abilei aleatoare ϕ (X), atunci
Z +∞
M (ϕ (X)) = ϕ (x) fX (x) dx.
−∞

Demonstraţie. a) Dacă X (ω) ≥ 0 oricare ar fi ω ∈ Ω, atunci avem


R0
0 = P (X < 0) = −∞ f (x) dx, şi cum în general f ≥ 0 (fiind o densitatea de
probabilitate), rezultă că avem f (x) = 0 pentru (aproape) orice x ∈ (−∞, 0).
Obţinem
Z +∞ Z +∞
f (x)=0 p e (−∞,0)
M (X) = xf (x) dx = x f (x)dx ≥ 0.
|{z}
−∞ 0 | {z }
≥0 ≥0

Pentru cazul general, dacă X ≥ Y , notând Z = X − Z avem Z (ω) ≥ 0


oricare ar fi ω ∈ Ω, şi conform demonstraţiei anterioare avem M (Z) ≥ 0, de
unde rezultă (folosind punctul b) al teoremei) M (X)−M (Y ) ≥ 0, sau echivalent
M (X) ≥ M (Y ).

1.9.3 Funcţia de distribuţie a unei variabile aleatoare vec-


toriale
Fie X, Y : Ω → R variabile aleatoare pe spaţiul de probabilitate (Ω, F, P ).

Definiţia 1.9.9 Funcţia F = FX,Y : R × R → R definită prin

F (a, b) = P (X < a, Y < b)

se numeşte funcţia de distribuţie comună a variabilelor aleatoare X şi Y (sau


funcţia de distribuţie a variabilei aleatoare vectoriale (X, Y )).
O funcţie f = fX,Y : R × R → R cu proprietatea că
Z Z
P ((X, Y ) ∈ C) = f (x, y) dxdy,
C
¡ ¢
oricare ar fi o mulţime Boreliană C ∈ B R2 se numeşte densitatea de proba-
bilitate comună a variabilelor aleatoare X şi Y / denistatea de probabilitate a
variabilei aleatoare vectoriale (X, Y ).
¡ ¢
Observaţia 1.9.10 Considerând C = A × B ∈ B R2 , unde A, B ∈ B sunt
mulţimi Boreliene din R, obţinem
Z Z
P (X ∈ A, Y ∈ B) = P ((X, Y ) ∈ A × B) = f (x, y) dydx.
A B

57
În particular, pentru A = (−∞, a) şi B = (−∞, b) obţinem
Z a Z b
FX,Y (a, b) = P (X < a, Y < b) = fX,Y (x, y) dydx.
−∞ −∞

Avem următoarea:

Propoziţia 1.9.11 Dacă FX , FY şi fX , fY sunt funcţiile de distribuţie, respec-


tiv densităţile variabilelor aleatoare X şi Y , iar FX,Y şi fX,Y sunt funcţia de
distribuţie şi densitatea variabilei aleatoare vectoriale (X, Y ), atunci:

a) FX (a) = limb→∞ FX,Y (a, b), FY (b) = lima→∞ FX,Y (a, b)


2

b) fX,Y (a, b) = ∂a∂b FX,Y (a, b)
R +∞ R +∞
c) fX (a) = −∞ fX,Y (a, y) dy, fY (b) = −∞ fX,Y (x, b) dx.

Demonstraţie. a) FX (a) = P (X < a) = P (X < a, Y < ∞) = limb→∞ P (X < a, Y < b) =


limb→∞ FX,Y (a, b)
b) În ipoteza că fX,Y este o funcţie continuă, avem
Z a Z b
FX,Y (a, b) = fX,Y (x, y) dydx,
−∞ −∞

de unde derivând în raport cu b, apoi cu a, obţinem:


Z a Z b Z a
∂ ∂
FX,Y (a, b) = fX,Y (x, y) dydx = fX,Y (x, b) dx,
∂b ∂b −∞ −∞ −∞

şi Z a
∂2 ∂
FX,Y (a, b) = fX,Y (a, y) dydx = fX,Y (a, b)
∂a∂b ∂a −∞

c) Pentru orice A ∈ B avem


Z µZ +∞ ¶
P (X ∈ A) = P (X ∈ A, Y ∈ (−∞, +∞)) = fX,Y (x, y) dy dx,
A −∞
R +∞
şi deci conform definiţiei densităţii variabilei aleatoare X avem fX (x) = −∞
fX,Y (x, y) dy,
cealaltă egalitate demonstrându-se în mod similar.

1.9.4 Exerciţii
1. Să se determine valoarea medie la aruncarea unui zar.
2. Să se determine media următoarelor variabile aleatoare:

(a) Variabila aleatoare binomială cu parametrii n şi p


(b) Variabila aleatoare Poisson cu parametrul λ > 0

58
(c) Variabila aleatoare geometrică cu parametrul p
(d) Variabila uniformă pe intervalul [a, b]
(e) Variabila aleatoare exponenţială cu parametrul λ > 0
¡ ¢
(f) Variabila aleatoare normală N µ, σ 2 cu medie µ şi dispersie σ2

3. Se aruncă un ban până la prima apariţie a stemei sau până la a treia


încercare, în caz de nereuşită. Care este numărul mediu de feţe stemă,
respectiv ban, obţinut?
4. Funcţia de distribuţie comună a variabilelor aleatoare X, Y este
½ −x −2y
2e e , x, y > 0
f (x, y) =
0, în rest

(a) Să se determine funcţia de distribuţie FX şi funcţia de densitate fX


a variabilei aleatoare X
(b) Să se determine funcţia de distribuţie FY şi funcţia de densitate fY
a variabilei aleatoare Y
(c) Să se calculeze probabilităţile P (X > 1, Y < 1), P (X < Y ) şi P (X < a).

5. Considerăm un disc de rază R > 0 şi variabilele aleatoare X, Y ce reprez-


intă coordonatele x, respectiv y, a unui punct ales arbitrar în acest disc
(adică acest punct se află în orice regiune din disc cu probabilităţi egale).

(a) Să se determine funcţia de densitate comună fX,Y a variabilelor


aleatoare X, Y
(b) Să se determine densităţile fX , fY ale variabilelor aleatoare X, re-
spectiv Y
(c) Să se determine probabilitatea ca punctul de coordonate (X, Y ) să
se afle la distanţă mai mică decât r faţă de centrul discului dat.

6. Funcţia de densitate comună a variabilelor aleatoare X, Y este dată de


½ −x−y
e , x, y > 0
f (x, y) =
0, în rest

7. Să se determine funcţia de distribuţie şi densitatea variabilei aleatoare


Z=X Y .

8. Două persoane decid să se întălnească într-un anumit loc. Dacă fiecare
persoană soseşte în acest loc, în mod independent, la o oră ce este uniform
distribuită între ora 12 şi ora 13, să se determine probabilitatea ca una
din persoane să aştepte cel puţin 10 minute.
9. Să se determine densitatea fX+Y a variabilei aleatoare X + Y , unde X
şi Y sunt variabile aleatoare independente având densităţile fX , rspectiv
fY .

59
10. Să se determine densitatea fX+Y a sumei a două variabile aleatoare X, Y
uniform distribuite pe intervalul (0, 1).
11. Densitatea comună a variabilelor aleatoare X, Y este
½ ¡ 2 ¢
c x + xy , 0 < x < 1, 0 < y < 2
f (x, y) =
0, în rest

(a) Să se determine valoarea constantei c


(b) Să se determine densitatea fX a variabilei aleatoare X
(c) Să se calculeze probabilitatea P (X > Y )
¡ ¢
(d) Să se calculeze probabilitatea P X < 12 , Y > 12 .

12. Densitatea comună a variabilelor aleatoare X, Y este


½ −x−y
e , x, y > 0
f (x, y) =
0, în rest

(a) Să se determine probabilitatea P (X < Y )


(b) Să se determine probabilitatea P (X < 1).

60
1.10 Variabile aleatoare independente
Fie (Ω, F, P ) un spaţiu de probabilitate fixat.

Definiţia 1.10.1 Două variabile aleatoare X, Y : Ω → R se numesc indepen-


dente dacă
P (X ∈ A, Y ∈ B) = P (X ∈ A) · P (Y ∈ B) ,
oricare ar fi mulţimile Boreliene A, B ∈ B, şi dependente în caz contrar.

Observaţia 1.10.2 Alegând A = (−∞, a) şi B = (−∞, b) în definiţia ante-


rioară, obţinem:

P (X < a, Y < b) = P (X < a) P (Y < b) , a, b ∈ R.

Se poate arăta şi reciproc că dacă această relaţie are loc, atunci variabilele
aleatoare X şi Y sunt independente.

Reamintim că am definit funcţia de distribuţie a variabilei aleatoare vec-


toriale (X, Y ) prin FX,Y : R × R → R, FX,Y (a, b) = P (X < a, Y < b). Din
observaţia anterioară rezultă deci următoarea:

Propoziţia 1.10.3 Variabilele aleatoare X şi Y sunt independente dacă şi nu-
mai dacă

FX,Y (a, b) = FX (a) FY (b) , oricare ar fi a, b ∈ R,

unde FX , FY sunt funcţiile de distribuţie ale variabilelor aleatoare X, respectiv


Y.

Are loc următoarea:

Propoziţia 1.10.4 Dacă fX,Y , fX , fY sunt densităţile variabilelor aleatoare (X, Y ),


X şi respectiv Y , atunci variabilele aleatoare X şi Y sunt independente dacă şi
numai dacă are loc

fX,Y (a, b) = fX (a) fY (b) , oricare ar fi a, b ∈ R.

Demonstraţie. Dacă X şi Y sunt independente, din Propoziţia anterioară


avem FX,Y = FX FY . Folosind legătura între funcţia de distribuţie şi funcţia de
densitate a unei variabile aleatoare (vezi cursul anterior), avem:

∂ 2 FX,Y
fX,Y (a, b) = (a, b)
∂x∂y
∂2
= (FX (a) FY (b))
∂x∂y
∂FX ∂FY
= (a) (b)
∂x ∂y
= fX (a) fY (b) .

61
Reciproc, dacă are loc relaţia din enunţul propoziţiei, atunci
Z Z
P (X ∈ A, Y ∈ B) = fX,Y (a, b) dadb
Z ZA×B
= fX (a) fY (b) dadb
A×B
Z Z
= fX (a) da fY (b) db
A B
= P (X ∈ A) P (Y ∈ B) ,

oricare ar fi mulţimile Boreliene A, B ∈ B, şi deci conform definiţiei variabilele


aleatoare X şi Y sunt independente.
Una din consecinţele importante ale independenţei a două variabile aleatoare
este următoarea:

Teorema 1.10.5 Dacă X şi Y sunt variabile aleatoare independente şi g, h :


R → R sunt funcţii măsurabile pentru care există mediile M g (X) şi M h (Y ),
atunci are loc
M (g (X) h (Y )) = M (g (X)) M (h (Y )) .

Demonstraţie. Vom face demonstraţia în cazul a două variabile aleatoare


continue X şi Y având densităţi fX , respectiv fY , şi vom nota prin fX,Y den-
sitatea comună a variabilelor aleatoare X şi Y .
Din Teorema Fubini rezultă că variabila aleatoare g (X) h (Y ) are medie
finită, şi avem:
Z Z
M (g (X) h (Y )) = g (x) h (y) fX,Y (x, y) dxdy
Z ZR×R
= g (x) h (y) fX (x) fY (y) dxdy
ZR R Z
= g (x) fX (x) dx h (y) fY (y) dy
R R
= M (g (X)) M (h (Y )) .

Consecinţa 1.10.6 Dacă varaibilele aleatoare X şi Y sunt independente şi au


medii finite, atunci şi variabila aleatoare XY are medie finită şi are loc

M (XY ) = M (X) M (Y ) .

Demonstraţie. Rezultă din teorema anterioară pentru g (x) ≡ x şi h (y) ≡


y.

Observaţia 1.10.7 Reciproca acestei teoreme nu este în general adevărată (adică


dacă M (XY ) = M (X) M (Y ) nu rezultă în general că X şi Y sunt indepen-
dente), după cum rezultă din următorul exemplu:

62
Exemplul 1.10.8 Considerăm variabilele aleatoare discrete X şi Y date de:
µ ¶ ½
−1 0 1 0, dacă X (ω) = ±1
X= , Y = ,
1/3 1/3 1/3 Z (ω) , dacă X (ω) = 0

unde µ ¶
−1 0 1
Z (ω) = .
1/3 1/3 1/3
este o variabilă aleatoare independentă de X.
Se verifică uşor că M (X) = M (Y ) = M (XY ) = 0, şi deci are loc egalitate

M (XY ) = M (X) M (Y ) ,

dar variabilele aleatoare X şi Y nu sunt independente, deoarece spre exemplu


avem
1 1
P (X = 1, Y = 1) = 0 6= · = P (X = 1) · P (Y = 1) .
3 9
Definiţia 1.10.9 Două variabile aleatoare X şi Y pentru care

M (XY ) = M (X) M (Y )

se numesc necorelate.

Are loc următoarea:

Teorema 1.10.10 Dacă variabilele aleatoare X şi Y sunt independente


¡ ¢ ¡ (sau
¢
necorelate) şi există (şi sunt finite) momentele de ordin doi M X 2 , M Y 2 <
∞, atunci variabila aleatoare X + Y are dispersie finită, şi are loc

D2 (X + Y ) = D2 (X) + D2 (Y ) .

Demonstraţie. Avem:
³ ´
2
D2 (X + Y ) = M (X + Y − M (X + Y ))
³ ´ ³ ´
2 2
= M (X − M (X)) + M (Y − M (Y )) + 2M ((X − M (X)) (Y − M (Y )))
= D2 (X) + D2 (Y ) + 2M (X − M (X)) M (Y − M (Y ))
= D2 (X) + D2 (Y ) + 2 (M (X) − M (X)) (M (Y ) − M (Y ))
= D2 (X) + D2 (Y ) ,

penultima egalitate rezultând din teorema anterioară, pentru g (x) = x− M (X)


şi h (y) = y − M (Y ).
Independenţa a două variabile aleatoare se poate generaliza la cazul mai
multor variabile aleatoare, astfel:

63
Definiţia 1.10.11 i) Spunem că variabilele aleatoare X1 , X2 , . . . , Xn : Ω → R
sunt independente dacă

P (X1 ∈ B1 , . . . , Xn ∈ Bn ) = P (X1 ∈ B1 ) · . . . · P (Xn ∈ Bn ) ,

oricare ar fi mulţimile Boreliene B1 , . . . , Bn ∈ B.


ii) Spunem că şirul de variabile aleatoare X1 , X2 , . . . : Ω → R este un şir
de variabile aleatoare independente, dacă pentru orice n ≥ 2 şi orice indici
i1 < i2 < . . . < in , variabilele aleatoare Xi1 , Xi2 , . . . , Xin sunt independente.

Observaţia 1.10.12 Dacă X şi Y , Y şi Z, respectiv X şi Z sunt independente


nu rezultă în general că variabilele aleatoare X, Y şi Z sunt independente.

Pentru variabilele X1 , X2 , . . . , Xn definim:

• funcţia de distribuţie F = FX1 ,X2 ,...,Xn : Rd → R definită prin

F (a1 , . . . , an ) = P (X1 < a1 , . . . , Xn < an ) ;

• funcţia de densitate f = fX1 ,X2 ,...,Xn : Rd → [0, ∞) definită prin


Z Z
P ((X1 , . . . , Xn ) ∈ C) = . . . f (x1 , . . . , xn ) dx1 . . . dxn ,
C

oricare ar fi mulţimea Boreliană C ∈ B (Rn ).

Observaţia 1.10.13 Se poate arăta că relaţia anterioară este echivalentă cu


relaţia
Z Z
P (X1 ∈ B1 , . . . , Xn ∈ Bn ) = ... f (x1 , . . . , xn ) dxn . . . dx1 ,
B1 Bn

oricare ar fi mulţimile Boreliene B1 , . . . , Bn ∈ B (R).

Ca şi în cazul n = 1 sau n = 2, dacă există densitatea f a variabilelor


aleatoare X1 , . . . , Xn , definim
Z Z
M (g (X1 , . . . , Xn )) = ... g (x1 , . . . , xn ) f (x1 , . . . , xn ) dxn . . . dx1 ,
R Rn

pentru orice funcţie măsurabilă g pentru care interala există şi este finită.
Similar cazului n = 2 se demonstrează relaţiile:
Z a1 Z an
F (a1 , . . . , an ) = ... f (x1 , . . . , xn ) dxn . . . dx1
−∞ −∞

şi
∂nF
f (a1 , . . . , an ) = (a1 , . . . , an ) .
∂x1 . . . ∂xn

64
Propoziţia 1.10.14 Dacă F şi f sunt funcţia de distribuţie, respectiv funcţia
de densitate a variabilelor aleatoare X1 , . . . , Xn , , atunci următoarele sunt echiva-
lente:
i) X1 , . . . , Xn sunt echivalente;
ii) F (a1 , . . . , an ) = FX1 (a1 ) · . . . · FXn (an );
iii) f (a1 , . . . , an ) = fX1 (a1 ) · . . . · fXn (an ),
unde FXi şi fXi sunt funcţia de distribuţie, respectiv funcţia de densitate a
variabilei aleatoare Xi , 1 ≤ i ≤ n.
Are loc următoarea:
Teorema 1.10.15 i) Dacă variabilele aleatoare X1 , . . . , Xn sunt independente
şi au medii finite, atunci
M (X1 · . . . · Xn ) = M (X1 ) · . . . · M (Xn ) .
ii) Dacă variabilele aleatoare X1 , . . . , Xn sunt independente şi au dispersii
finite, atunci
D2 (X1 + . . . + Xn ) = D2 (X1 ) + . . . + D2 (Xn ) .

1.10.1 Funcţia generatoare de moment a unei variabile


aleatoare
Pentru o variabilă aleatoare X definim funcţia generatoare de moment a lui X
prin Z +∞
¡ ¢
ϕX (t) = M etX = etx fX (x) dx,
−∞
pentru toate valorile t ∈ R pentru care integrala există şi este finită.
Să observăm că oricare ar fi variabila aleatoare X avem
¡ ¢
ϕX (0) = M e0·X = M (1) = 1,
şi deci ϕX (0) există şi este finită.
Se poate arăta că dacă ϕX este definită pe un interval ce conţine t = 0,
atunci toate momentele varibilei aleatoare X există şi sunt finite, fiind date
explicit de:
dn ϕX (n)
Mn (X) = M (X n ) = (0) = ϕX (0) .
dtn
Observaţia 1.10.16 Pentru a observa aceasta, în condiţiile date, dezvoltând
în serie Taylor funcţia etx , obţinem
µ ¶
¡ tX ¢ 1 1 2 2
ϕX (t) = M e = M 1 + tX + t X + . . .
1! 2!
t t2 ¡ ¢
= 1 + M (X) + M X 2 + . . . ,
1! 2!
egalităţile de mai sus rezultând prin derivare (de n ori) şi înlocuire t = 0 :
(n)
ϕX (0) = M (X n ) , n ≥ 0.

65
Observaţia 1.10.17 Se poate arăta că dacă ϕX (t) este definită pe un interval
ce conţin t = 0, atunci funcţia generatoare de moment ϕX determină în mod
unic distribuţia variabilei aleatoare X. Spre exemplu, dacă X ∈ N (0, 1) este o
variabilă aleatoare normală standard, atunci avem (vezi seminar):
2
ϕX (t) = et /2
,

şi reciproc, dacă funcţia generatoare de moment a variabilei X este ϕX (t) =


2
et /2 , pentru t aparţinând unui interval ce conţine originea, atunci X ∈ N (0, 1)
este o variabilă aleatoare normală standard.

Propoziţia 1.10.18 Fie X şi Y două variabile aleatoare pentru care există
funcţiile generatoare de moment ϕX , ϕY , definite pe un interval (α, β). Atunci:
i) Funcţia generatoare de moment a variabilei aleatoare aX + b este

ϕaX+b (t) = ϕX (at) · ebt , oricare ar fi t ∈ (α, β) ;

ii) Dacă X şi Y sunt independente, atunci funcţia generatoare de moment


a variabilei aleatoare X + Y este

ϕX+Y (t) = ϕX (t) · ϕY (t) , oricare ar fi t ∈ (α, β) .

Demonstraţie. i) Avem
³ ´ ³ ´ ³ ´
ϕaX+b (t) = M et(aX+b) = M e(at)X · ebt = ebt M e(at)X = ebt ϕX (at) .

ii) Folosind independenţa variabilelor aleatoare, avem:


³ ´ ¡ ¢ ¡ ¢ ¡ ¢
ϕX+Y (t) = M et(X+Y ) = M etx etY = M etX M etY = ϕX (t) · ϕY (t) .

1.10.2 Exerciţii
1. Să se arate demonstreze egalitatea
¡ ¢
D2 (X) = M X 2 − (M (X))2 .

2. Să se determine ¡funcţia


¢ generatoare de moment, media M (X) şi momentul
de ordin doi M X 2 pentru următoarele variabile aleatoare:

(a) Variabila aleatoare binomială cu parametrii n şi p


(b) Variabila aleatoare Poisson cu parametrul λ > 0
(c) Variabila aleatoare exponenţială cu parametrul λ > 0
(d) Variabila aleatoare normală standard N (0, 1) cu medie 0 şi dispersie
1

66
3. Considerăm trei variabile aleatoare independente X1 , X2 şi X3 astfel încât
P (Xi = 0) = P (Xi = 1) = 12 . Considerăm variabilele aleatoare Y1 , Y2 şi
Y3 date de
½ ½
1, dacă X2 = X3 1, dacă X1 = X3
Y1 = , Y2 = ,
0, în rest 0, în rest
½
1, dacă X1 = X2
Y3 =
0, în rest

Sunt Y1 şi Y2 independente? Y1 şi Y3 ? Y2 şi Y3 ? Dar Y1 , Y2 , Y3 ?


Observaţie: exerciţiul arată că independenţa două câte două nu implică
independenţa în totalitate a variabilelor aleatoare.
4. Fie X1 , . . . , Xn variabile aleatoare independente şi identic distribuite, cu
medie µ şi dispersie σ2 finite, şi notăm X̄ = X1 +...+X
n
n
. Să se arate că:
¡ ¢
(a) M X̄ = µ
¡ ¢ 2
(b) D2 X̄ = σn
³P ¡ ¢2 ´
n
(c) M i=1 X i − X̄ = (n − 1) σ 2

5. Durata de viaţă a unui bec este o variabilă aleatoare X cu densitatea


½
cxe−cx , x≥0
fX (x) =
0, în rest

(a) Să se determine valoarea constantei c


(b) Să se calculeze media M (X) a variabilei aleatoare X.

6. Un zar de aruncă de două ori, şi se consideră variabilele aleatoare X şi


Y reprezentănd suma aruncărilor, respectiv diferenţa dintre prima şi a
doua aruncare. Să se caluleze M (XY ) − M (X) M (Y ). Sunt variabilele
aleatoare X şi Y independente?

67
1.11 Teoreme limită
Teoremele limită constituie rezultatele teoretice cele mai importante ale teoriei
probabilităţilor. Dintre acestea, cel mai importante sunt:

• legile numerelor mari (dau condiţii în care media aritmetică a unui şir de
variabile aleatoare converge într-un anumit sens la o anumită constantă -
valoarea medie a mediei aritmetice respective);
• teoreme limită centrale (dau condiţii în care suma unui număr de vari-
abile aleatoare, corespunzătpr normată, converge la o variabilă aleatoare
normală).

Vom demonstra mai întâi două inegalităţi:

Propoziţia 1.11.1 (Inegalitatea lui Markov) Dacă X este o variabilă aleatoare


ce ia numai valori ne-negative (adică X ≥ 0), atunci pentru orice a > 0 avem:

M (X)
P (X ≥ a) ≤ .
a
Demonstraţie. Vom face demonstraţia în cazul unei variabile aleatoare X
continue, având densitatea f (x).
Dacă M (X) = +∞, inegalitatea este evident adevărată, şi deci putem pre-
supune că media M (X) este finită. Avem
Z +∞ Z +∞
X≥0
M (X) = xf (x) dx = xf (x) dx
−∞ 0
Z +∞ Z +∞
a>0
≥ xf (x) dx ≥ af (x) dx
a a
= aP (X ≥ a) ,

de unde rezultă (deoarece a > 0)

M (X)
P (X ≥ a) ≤ .
a

Propoziţia 1.11.2 (Inegalitatea lui Cebâşev) Dacă X este o variabilă aleatoare


cu medie M (X) = µ şi dispersie D2 (X) = σ 2 finite, atunci pentru orice a > 0
avem:
σ2
P (|X − µ| ≥ a) ≤ 2 .
a

68
Demonstraţie. Considerăm variabila aleatoare ne-negativă Y = (X − µ)2 .
Din inegalitatea lui Markov, obţinem:
³ ´ ¡ ¢
2
P (|X − µ| ≥ a) = P (X − µ) ≥ a2 = P Y ≥ a2
³ ´
2
M (Y ) M (X − µ) D2 (X)
≤ = =
a2 a2 a2
σ2
= .
a2

Observaţia 1.11.3 Inegalităţile anterioare sunt importante deoarece ele dau


margini superioare pentru anumite probabilităţi, atunci când numai media/dispersia
sunt cunoscute, ca ]n exemplul următor:
Exemplul 1.11.4 Dacă X este o variabilă aleatoare cu medie M (X) = 2 şi
dispersie D2 (X) = 9, atunci din inegalitatea lui Cebâşev (pentru a = 5, spre
exemplu) avem:
D2 (X) 9
P (|X − 2| > 5) ≤ = = 0.36.
52 25
Dacă în plus X ≥ 0, atunci din inegalitatea lui Markov (pentru a = 7, spre
exemplu) avem:
M (X) 2
P (X > 7) ≤ = ≈ 0.285 . . .
7 7
Observaţia 1.11.5 Din ingalitatea lui Cebâşev rezultă că dacă dispersia unei
variabile aleatoare X este D2 (X) = 0, atunci
P (|X − µ| > a) = 0,
oricare ar fi a > 0, şi deci
⎛ ⎞
\ µ ¶
1⎠ 1
P (|X − µ| > 0) = P ⎝ |X − µ| > = lim P |X − µ| > = 0,
n n→∞ n
n≥1

adică
P (X = µ) = 1,
ceea ce arată că singurele variabile aleatoare având dispersie 0 sunt cele con-
stante.
Teorema 1.11.6 (Legea slabă a numerelor mari) Fie X1 , X2 , . . . un şir de
variabile aleatoare independente şi identic distribuite, având medie M (Xi ) = µ
— finită. Atunci oricare ar fi ε > 0 avem
µ¯ ¯ ¶
¯ X1 + . . . + Xn ¯
P ¯¯ − µ¯¯ > ε → 0
n n→∞

X1 +...+Xn
(adică şirul n converge în probabilitate către µ).

69
Demonstraţie. Vom face demonstraţia în ipoteza suplimentară că există
dispersia D2 (Xi ) = σ 2 < +∞.
Pentru un n ≥ 1 arbitrar fixat, considerând variabila aleatoare
X1 + . . . + Xn
Y = ,
n
avem
µ ¶
X1 + . . . + Xn 1 nµ
M (Y ) = M = (M (X1 ) + . . . + M (Xn )) = =µ
n n n

şi
µ ¶
X1 + . . . + Xn 1
D2 (Y ) = D2 = 2 D2 (X1 + . . . + Xn )
n n
X1 ,X2 ,... 1 ¡ 2 ¢
= D (X1 ) + . . . + D2 (Xn )
indep endente n2

nσ 2
=
n2
σ2
= .
n
Din inegalitatea Cebâşev avem
µ¯ ¯ ¶
¯ X1 + . . . + Xn ¯ D2 (Y ) σ 2 /n σ2
P ¯¯ − µ¯¯ > ε = P (|Y − µ| > ε) ≤ 2
= 2 = 2 → 0.
n ε ε nε n→∞

Teorema limită centrală este un rezultat fundamental, cu numeroase aplicaţii


practice, ce afirmă că suma unui număr mare de variabile aleatoare independente
este apoximativ o variabilă aleatoare normal distribuită, fapt ce explică de ce
frcvenţele relative ale multor populaţii statistice au o formă de clopot, adică
sunt aproximativ normal distribuite. ¡ ¢
Reamintim că o variabilă aleatoare normală N µ, σ 2 cu medie µ şi dispersie
σ 2 este o variabilă aleatoare continuă având densitatea
1 (x−µ)2
f (x) = √ e− 2σ2 .
2πσ
Teorema 1.11.7 (Teorema limită centrală) Fie X1 , X2 , . . . un şir de vari-
abile aleatoare idenpendente şi identic distribuite, cu medie M (Xi ) = µ şi dis-
√ n −nµ
persie D2 (Xi ) = σ 2 finite. Atunci distribuţia variabilei aleatoare X1 +...+X
σ n
tinde (pentru n → ∞) la distribuţia normală standard N (0, 1), adică:
µ ¶ Z a
X1 + . . . + Xn − nµ 1 x2
P √ <a → √ e− 2 dx = Φ (x) .
σ n n→∞ −∞ 2π
Pentru demonstraţie vom folosi următoarea:

70
Lema 1.11.8 Fie Z1 , Z2 , . . . un şir de variabile aleatoare având funcţiile de
distribuţie FZn şi funcţiile generatoare de moment ϕZn , şi fie Z o variabilă
aleatoare cu funcţia de distribuţie FZ şi funcţia generatoare de moment ϕZ .
Atunci
ϕZn → ϕZ =⇒ FZn → FZ ,
n→∞ n→∞

pentru orice valoare t ∈ R pentru care funcţia de distribuţie FZ este continuă


în acest punct.

Folosind faptul că funcţia generatoare de moment a unei variabile aleatoare


2
standard Z ∈ N (0, 1) este ϕZ (t) = et /2 , în particular avem următoarea:

Lema 1.11.9 Fie Z1 , Z2 , . . . un şir de variabile aleatoare având funcţiile de


2
distribuţie FZn şi funcţiile generatoare de moment ϕZn . Dacă ϕZn → et /2 ,
n→∞
atunci Z a
1 x2
FZn → ΦZ = √ e− 2 dx,
n→∞ −∞ 2π
oricare ar fi t ∈ R.

Demonstraţia teoremei limită centrale. Vom face demonstraţia în


not
ipoteza suplimentară că funcţiile generatoare de moment ϕXn (t) = ϕX (t) a
variabilelor aleatoare Xn există şi sunt finite oricare ar fi t ∈ R.
Considerăm mai întâi cazul în care µ = 0 şi σ 2 = 1.
Avem în acest caz
³ tXi ´ µ ¶
√ t
ϕ √Xi (t) = M e n = ϕX √ , 1 ≤ i ≤ n,
n n

şi cum variabilele aleatoare X1 , . . . , Xn sunt independente, avem


Ãn !
³ X1 +...+Xn ´ Y t √Xi
t √
ϕ X1 +...+X
√ n (t) = M e n =M e n
n
i=1
n
Y ³ Xi ´ Y n µ ¶
t √n t
= M e = ϕX √
i=1 i=1
n
µ µ ¶¶n
t
= ϕX √ .
n

Dezvoltând în serie Taylor funcţia ϕX (t) în jurul punctului t = 0, avem:

ϕ0X (0) ϕ00 (0)


ϕX (t) = ϕX (0) + t+ X t + R (t) ,
1! 2!
R(t)
unde limt→∞ t2 = 0.

71
Avem deci:
¡ ¢
M (X) M X2 2
ϕX (0) = 1 + t+ t + R (t) =
1! 2!
µ σ 2 + µ2 2
= 1+ t+ t + R (t)
1! 2!
0 1 + 02 2
= 1+ t+ t + R (t)
1! 2!
t2
= 1 + + R (t) ,
2
şi deci µ µ ¶¶n µ µ ¶¶n
t t2 t
ϕX √ = 1+ +R √ ,
n 2n n
de unde obţinem
µ µ ¶¶n
t
lim ϕ X1 +...+X
√ n (t) = lim ϕX √
n→∞ n n→∞ n
µ µ ¶¶n
t2 t
= lim 1 + +R √
n→∞ 2n n
 2  
t
limn→∞ n 2n +R √tn
= e  
R √t
t2 n
2 +limn→∞ t2  2
√t
= e n

t2
= e2.
Conform lemei anterioare rezultă că
Z a
1 x2
F X1 +...+X
√ n (t) → ΦZ = √ e− 2 dx,
n −∞ 2π
oricare ar fi t ∈ R, încheiând demonstraţia în cazul particular µ = 0 şi σ 2 = 1.
Pentru cazul general, considerăm variabilele aleatoare X̃i = Xiσ−µ , i ≥
1, şi cum variabilele aleatoare X1 , X2 , . . . sunt independente şi identic dis-
tribuite, cu medie M (Xi ) = µ şi dispersie D2 (Xi ) = σ2 , rezultă că variabilele
aleatoare ³X̃1 ,´X̃2 , . . . sunt de asemenea
³ ´ independente şi identic distribuite, cu
2
medie M X̃i = 0 şi dispersie D X̃i = 0.
Coform cazului anterior demonstrat rezultă că
Z a
1 x2
F X̃1 +...+

X̃n (t) → ΦZ = √ e− 2 dx, t ∈ R,
n −∞ 2π
sau echivalent
Z a
1 x2
F X1 +...+X
√ n
−nµ (t) → ΦZ = √ e− 2 dx, t ∈ R,
σ n −∞ 2π
încheiând demonstraţia.

72
Observaţia 1.11.10 Există o variantă mai generală a legii numerelor mari
(legea tare a numerelor mari). Ea afirmă următoarea:

Teorema 1.11.11 (Legea tare a numerelor mari) Dacă X1 , X2 , . . . sunt vari-


abile aleatoare independente şi identic distribuite, cu medie M (Xi ) = µ finită,
atunci µ ¶
X1 + . . . Xn
P lim = µ = 1.
n→∞ n

În particular, considerâm un eveniment E ce poate apare în urma efectuării


unui experiment cu probabilitate P (E) = p, şi considerăm n repetiţii ale acestui
experiment. Definind şirul de variabile aleatoare
½
1, dacă ev. E a apărut în experimentul i
Xi = , i ≥ 1,
0, în caz contrar

din legea tare a numerelor mari obţinem:


µ ¶
X1 + . . . + Xn
1 = P lim = M (X1 )
n→∞ n
µ ¶
# apariţii a lui E
= P lim =p
n→∞ # total de încercări
³ ´
= P lim frecvenţa relativă a lui E = p ,
n→∞

adică frecvenţa relativă de apariţie a evenimentului E tinde când n → ∞


aproape sigur către probabilitatea p de apariţie a evenimentului E.

1.11.1 Exerciţii
1. O fabrică produce în medie 50 produse pe săptămână.

(a) Ce se poate spune despre probabilitatea P (X > 75)?


(b) Dacă dispersia numărului de piese produse este σ 2 = 25, ce se poate
spune despre probabilitatea P (40 < X < 60)?

Indicaţie: se folosesc inegalităţile Markov şi Cebâşev.


2. Se consideră o variabilă aleatoare X uniform distribuită pe intervalul
(0, 10).

(a) Să se calculeze media µ a variabilei aleatoare X


(b) Să se calculeze direct probabilitatea P (|X − µ| > 4)
(c) Să se estimeze probabilitatea P (|X − µ| > 4) folosind inegalitatea lui
Cebâşev.

3. Considerăm X1 , . . . , X20 variabile aleatoare independente Poisson cu para-


metrul λ = 1.

73
(a) Să se utilizeze inegalitatea Markov pentru a estima probabilitatea
P20
P i=1 Xi > 15.
(b) Să³se utilizeze Teoreme
´ limită centrală pentru a estima probabilitatea
P20
P i=1 Xi > 15 .

4. Din experienţă, un profesor ştie că nota obţinută la examen de un student


este o variabilă aleatoare cu media 75 (din 100 puncte posibile).

(a) Ce se poate spune despre probabilitatea P (X > 85)?


(b) Dacă dispersia notelor obţinute este σ2 = 25, ce se poate spune despre
probabilitatea P (65 < X < 85)?

5. Considerăm o variabilă aleatoare X având media µ = 20 şi dispersia σ 2 =


20. Ce se poate spune despre probabilitatea P (0 ≤ X ≤ 40)?
6. Numărul de candidaţi X ce se înscriu la un concurs este o variabilă
aleatoare Poisson cu parametrul λ = 100. S-a hotărât ca daca se în-
scriu mai mult de 120 de candidaţi, să se organizeze două examene, altfel
să se organizeze un singur examen. Care este probabilitatea să fie nevoie
să se organizeze două examene?
Indicaţie: Pentru calculul probabilităţii P (X > 120) se va folosi aprox-
imarea variabilei aleatoare Poisson prin variabila aleatoare binomială cu
parametrii n şi p, astfel încât np = λ = 100 (spre exemplu n = 200 şi
p = 12 ), şi deci X = X1 + . . . + X200 , unde X1 , . . . , X200 sunt varibile
aleatoare Bernoulli cu parametrul p = 12 . Se foloseşte acum Teorema lim-
ită centrală pentru aproximarea probabilităţii cerute. Răspuns: 0.0228 . . .
7. Se aruncă 10 zaruri. Să se estimeze probabilitatea ca suma punctelor
obţinute să fie între 30 şi 40.
Indicaţie: se foloseşte Teorema limită centrală. Răspuns: 0.65 . . .
8. Fie X1 , . . . , X10 variabile aleatoare independente şi uniform
³P distribuite
´ pe
10
intervalul (0, 1). Să se aproximeze probabilitatea P i=1 Xi > 6 .

Indicaţie: se foloseşte Teorema limită centrală. Răspuns: 0.16 . . .


³Q ´
100 100
9. Se aruncă de 100 de ori un zar. Să se estimeze probabilitatea P i=1 Xi ≤ a ,
unde a > 0 este un număr arbitrar fixat (caz particular a = 2).
Indicaţie: probabilitatea dată se poate scrie
à 100 ! à 100 !
Y X
100
P Xi ≤ a =P ln Xi ≤ 100 ln a ,
i=1 i=1

şi se foloseşte Teorema limită centrală.

74

S-ar putea să vă placă și